Connect with us

Τι ψάχνεις;

Νεα

Η OpenAI θέλει το GPT-4 να λύσει το δίλημμα της εποπτείας περιεχομένου

openai-chatgpt

Η OpenAI είναι πεπεισμένη ότι η τεχνολογία της μπορεί να βοηθήσει στην επίλυση ενός από τα δυσκολότερα προβλήματα της τεχνολογίας: την εποπτεία περιεχομένου σε κλίμακα. Το GPT-4 θα μπορούσε να αντικαταστήσει δεκάδες χιλιάδες ανθρώπους – επόπτες, ενώ είναι σχεδόν το ίδιο ακριβές και πιο συνεπές, ισχυρίζεται η OpenAI. Αν αυτό είναι αλήθεια, οι πιο τοξικές και ψυχικά επιβαρυντικές εργασίες στην τεχνολογία θα μπορούσαν να ανατεθούν σε μηχανές.

Σε μια ανάρτηση στο blog, η OpenAI ισχυρίζεται ότι έχει ήδη χρησιμοποιήσει το GPT-4 για την ανάπτυξη και τη βελτίωση των δικών της πολιτικών περιεχομένου, την επισήμανση περιεχομένου και τη λήψη αποφάσεων. «Θέλω να δω περισσότερους ανθρώπους να λειτουργούν με την εμπιστοσύνη και την ασφάλειά τους και να εποπτεύουν (με) αυτόν τον τρόπο», δήλωσε η επικεφαλής των συστημάτων ασφαλείας του OpenAI, Lilian Weng στο Semafor. «Αυτό είναι ένα πραγματικά καλό βήμα προς τα εμπρός στον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη για να λύσουμε ζητήματα του πραγματικού κόσμου με τρόπο που είναι επωφελής για την κοινωνία.»

Η OpenAI βλέπει τρία σημαντικά οφέλη σε σύγκριση με τις παραδοσιακές προσεγγίσεις για τον έλεγχο περιεχομένου. Πρώτον, ισχυρίζεται ότι οι άνθρωποι ερμηνεύουν τις πολιτικές διαφορετικά, ενώ οι μηχανές είναι συνεπείς στις κρίσεις τους. Αυτές οι οδηγίες μπορεί να είναι μακριές όσο ένα βιβλίο και να αλλάζουν συνεχώς. Αν και χρειάζεται πολλή εκπαίδευση στους ανθρώπους για να μάθουν και να προσαρμοστούν, η OpenAI υποστηρίζει ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να εφαρμόσουν νέες πολιτικές αμέσως.

Advertisement. Scroll to continue reading.

Δεύτερον, το GPT-4 μπορεί να βοηθήσει στην ανάπτυξη μιας νέας πολιτικής μέσα σε λίγες ώρες. Η διαδικασία σύνταξης, επισήμανσης, συλλογής σχολίων και τελειοποίησης διαρκεί συνήθως εβδομάδες ή αρκετούς μήνες. Τρίτον, το OpenAI αναφέρει την ευημερία των εργαζομένων που εκτίθενται συνεχώς σε επιβλαβές περιεχόμενο, όπως βίντεο κακοποίησης παιδιών ή βασανιστηρίων.

Μετά από σχεδόν δύο δεκαετίες σύγχρονων μέσων κοινωνικής δικτύωσης και ακόμη περισσότερα χρόνια διαδικτυακών κοινοτήτων, η εποπτεία περιεχομένου εξακολουθεί να είναι μια από τις πιο δύσκολες προκλήσεις για τις διαδικτυακές πλατφόρμες. Η Meta, η Google και το TikTok βασίζονται σε στρατιές συντονιστών που πρέπει να κοιτάξουν μέσα από φρικτό και συχνά τραυματικό περιεχόμενο. Οι περισσότεροι από αυτούς βρίσκονται σε αναπτυσσόμενες χώρες με χαμηλότερους μισθούς, εργάζονται σε εταιρείες εξωτερικής ανάθεσης και αγωνίζονται με την ψυχική υγεία καθώς λαμβάνουν μόνο ένα ελάχιστο ποσό φροντίδας ψυχικής υγείας.

Διαβάστε επίσης:  Το YouTube Live σημειώνει πτώση για πρώτη φορά μετά από χρόνια καθώς αυξάνεται ο ανταγωνισμός

Ωστόσο, η ίδιο η OpenAI βασίζεται σε μεγάλο βαθμό στους clickworkers και στην ανθρώπινη εργασία. Χιλιάδες άνθρωποι, πολλοί από αυτούς σε αφρικανικές χώρες όπως η Κένυα, σχολιάζουν και επισημαίνουν περιεχόμενο. Τα κείμενα μπορεί να είναι ενοχλητικά, η δουλειά είναι αγχωτική, και η αμοιβή είναι μικρή.

Ενώ η OpenAI διαφημίζει την προσέγγισή της ως νέα και επαναστατική, η τεχνητή νοημοσύνη χρησιμοποιείται για την εποπτεία περιεχομένου εδώ και χρόνια. Το όραμα του Μαρκ Ζάκερμπεργκ για ένα τέλειο αυτοματοποιημένο σύστημα δεν έχει ακόμη φανεί αρκετά, αλλά η Meta χρησιμοποιεί αλγόριθμους για να μετριάσει τη συντριπτική πλειοψηφία του επιβλαβούς και παράνομου περιεχομένου. Πλατφόρμες όπως το YouTube και το TikTok βασίζονται σε παρόμοια συστήματα, επομένως η τεχνολογία της OpenAI μπορεί να απευθύνεται σε μικρότερες εταιρείες που δεν διαθέτουν τους πόρους για να αναπτύξουν τη δική τους τεχνολογία.

Advertisement. Scroll to continue reading.

Κάθε πλατφόρμα παραδέχεται ανοιχτά ότι η τέλεια εποπτεία περιεχομένου σε κλίμακα είναι αδύνατη. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη, και ενώ το ποσοστό μπορεί να είναι χαμηλό, εξακολουθούν να υπάρχουν εκατομμύρια επιβλαβείς αναρτήσεις που ξεφεύγουν και άλλα τόσα κομμάτια αβλαβούς περιεχομένου που κρύβονται ή διαγράφονται.

Συγκεκριμένα, η γκρίζα περιοχή του παραπλανητικού, εσφαλμένου και επιθετικού περιεχομένου που δεν είναι απαραίτητα παράνομο αποτελεί μεγάλη πρόκληση για τα αυτοματοποιημένα συστήματα. Ακόμη και οι ειδικοί στον άνθρωπο αγωνίζονται να επισημάνουν τέτοιες αναρτήσεις και οι μηχανές συχνά το κάνουν λάθος.

ΔΕΙΤΕ ΕΠΙΣΗΣ

Τεχνολογία

Κινέζος επιχειρηματίας γλίτωσε από θανατηφόρο τραυματισμό χάρη στο laptop του Ένα MacBook Pro αποδείχθηκε σωτήριο για έναν Κινέζο επιχειρηματία στη Βραζιλία, όταν απορρόφησε τη...

Τεχνολογία

Η ιδέα του warp drive, γνωστή από το Star Trek και άλλες σειρές επιστημονικής φαντασίας, φαίνεται να πλησιάζει πιο κοντά στην πραγματική φυσική. Επιστήμονες...

Τεχνολογία

Σύμφωνα με πρόσφατα στοιχεία, το YouTube Live καταγράφει σημαντική πτώση για πρώτη φορά μετά από αρκετά χρόνια, καθώς ο ανταγωνισμός στον χώρο του livestreaming...

Τεχνολογία

Το YouTube ανακοινώνει πως προσφέρει σε ορισμένους δημιουργούς που είχαν αποκλειστεί λόγω διάδοσης ψευδών πληροφοριών για τον κορονοϊό και τις εκλογές, την ευκαιρία να...

ΔΙΑΦΗΜΙΣΗ