Connect with us

Τι ψάχνεις;

Νέα

Η OpenAI θέλει το GPT-4 να λύσει το δίλημμα της εποπτείας περιεχομένου

openai-chatgpt

Η OpenAI είναι πεπεισμένη ότι η τεχνολογία της μπορεί να βοηθήσει στην επίλυση ενός από τα δυσκολότερα προβλήματα της τεχνολογίας: την εποπτεία περιεχομένου σε κλίμακα. Το GPT-4 θα μπορούσε να αντικαταστήσει δεκάδες χιλιάδες ανθρώπους – επόπτες, ενώ είναι σχεδόν το ίδιο ακριβές και πιο συνεπές, ισχυρίζεται η OpenAI. Αν αυτό είναι αλήθεια, οι πιο τοξικές και ψυχικά επιβαρυντικές εργασίες στην τεχνολογία θα μπορούσαν να ανατεθούν σε μηχανές.

Σε μια ανάρτηση στο blog, η OpenAI ισχυρίζεται ότι έχει ήδη χρησιμοποιήσει το GPT-4 για την ανάπτυξη και τη βελτίωση των δικών της πολιτικών περιεχομένου, την επισήμανση περιεχομένου και τη λήψη αποφάσεων. «Θέλω να δω περισσότερους ανθρώπους να λειτουργούν με την εμπιστοσύνη και την ασφάλειά τους και να εποπτεύουν (με) αυτόν τον τρόπο», δήλωσε η επικεφαλής των συστημάτων ασφαλείας του OpenAI, Lilian Weng στο Semafor. «Αυτό είναι ένα πραγματικά καλό βήμα προς τα εμπρός στον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη για να λύσουμε ζητήματα του πραγματικού κόσμου με τρόπο που είναι επωφελής για την κοινωνία.»

Η OpenAI βλέπει τρία σημαντικά οφέλη σε σύγκριση με τις παραδοσιακές προσεγγίσεις για τον έλεγχο περιεχομένου. Πρώτον, ισχυρίζεται ότι οι άνθρωποι ερμηνεύουν τις πολιτικές διαφορετικά, ενώ οι μηχανές είναι συνεπείς στις κρίσεις τους. Αυτές οι οδηγίες μπορεί να είναι μακριές όσο ένα βιβλίο και να αλλάζουν συνεχώς. Αν και χρειάζεται πολλή εκπαίδευση στους ανθρώπους για να μάθουν και να προσαρμοστούν, η OpenAI υποστηρίζει ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να εφαρμόσουν νέες πολιτικές αμέσως.

Δεύτερον, το GPT-4 μπορεί να βοηθήσει στην ανάπτυξη μιας νέας πολιτικής μέσα σε λίγες ώρες. Η διαδικασία σύνταξης, επισήμανσης, συλλογής σχολίων και τελειοποίησης διαρκεί συνήθως εβδομάδες ή αρκετούς μήνες. Τρίτον, το OpenAI αναφέρει την ευημερία των εργαζομένων που εκτίθενται συνεχώς σε επιβλαβές περιεχόμενο, όπως βίντεο κακοποίησης παιδιών ή βασανιστηρίων.

Μετά από σχεδόν δύο δεκαετίες σύγχρονων μέσων κοινωνικής δικτύωσης και ακόμη περισσότερα χρόνια διαδικτυακών κοινοτήτων, η εποπτεία περιεχομένου εξακολουθεί να είναι μια από τις πιο δύσκολες προκλήσεις για τις διαδικτυακές πλατφόρμες. Η Meta, η Google και το TikTok βασίζονται σε στρατιές συντονιστών που πρέπει να κοιτάξουν μέσα από φρικτό και συχνά τραυματικό περιεχόμενο. Οι περισσότεροι από αυτούς βρίσκονται σε αναπτυσσόμενες χώρες με χαμηλότερους μισθούς, εργάζονται σε εταιρείες εξωτερικής ανάθεσης και αγωνίζονται με την ψυχική υγεία καθώς λαμβάνουν μόνο ένα ελάχιστο ποσό φροντίδας ψυχικής υγείας.

Advertisement. Scroll to continue reading.
Διαβάστε επίσης:  Η Ιαπωνία οραματίζεται ένα δαχτυλίδι 11.000 χιλιομέτρων γύρω από τη Σελήνη για την ηλεκτροδότηση της Γης

Ωστόσο, η ίδιο η OpenAI βασίζεται σε μεγάλο βαθμό στους clickworkers και στην ανθρώπινη εργασία. Χιλιάδες άνθρωποι, πολλοί από αυτούς σε αφρικανικές χώρες όπως η Κένυα, σχολιάζουν και επισημαίνουν περιεχόμενο. Τα κείμενα μπορεί να είναι ενοχλητικά, η δουλειά είναι αγχωτική, και η αμοιβή είναι μικρή.

Ενώ η OpenAI διαφημίζει την προσέγγισή της ως νέα και επαναστατική, η τεχνητή νοημοσύνη χρησιμοποιείται για την εποπτεία περιεχομένου εδώ και χρόνια. Το όραμα του Μαρκ Ζάκερμπεργκ για ένα τέλειο αυτοματοποιημένο σύστημα δεν έχει ακόμη φανεί αρκετά, αλλά η Meta χρησιμοποιεί αλγόριθμους για να μετριάσει τη συντριπτική πλειοψηφία του επιβλαβούς και παράνομου περιεχομένου. Πλατφόρμες όπως το YouTube και το TikTok βασίζονται σε παρόμοια συστήματα, επομένως η τεχνολογία της OpenAI μπορεί να απευθύνεται σε μικρότερες εταιρείες που δεν διαθέτουν τους πόρους για να αναπτύξουν τη δική τους τεχνολογία.

Κάθε πλατφόρμα παραδέχεται ανοιχτά ότι η τέλεια εποπτεία περιεχομένου σε κλίμακα είναι αδύνατη. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη, και ενώ το ποσοστό μπορεί να είναι χαμηλό, εξακολουθούν να υπάρχουν εκατομμύρια επιβλαβείς αναρτήσεις που ξεφεύγουν και άλλα τόσα κομμάτια αβλαβούς περιεχομένου που κρύβονται ή διαγράφονται.

Συγκεκριμένα, η γκρίζα περιοχή του παραπλανητικού, εσφαλμένου και επιθετικού περιεχομένου που δεν είναι απαραίτητα παράνομο αποτελεί μεγάλη πρόκληση για τα αυτοματοποιημένα συστήματα. Ακόμη και οι ειδικοί στον άνθρωπο αγωνίζονται να επισημάνουν τέτοιες αναρτήσεις και οι μηχανές συχνά το κάνουν λάθος.

Loop

ΔΙΑΦΗΜΙΣΗ
ΑΚΟΛΟΎΘΗΣΈ ΜΑΣ
ΔΙΑΦΗΜΙΣΗ

ΔΗΜΟΦΙΛΗ ΤΩΡΑ

Gaming

Η μακρά αναμονή για το GTA 6 ίσως να συνδέεται με μια πολύ μεγαλύτερη τεχνική αλλαγή στα παρασκήνια, σύμφωνα με τον Rob Carr, πρώην...

Gaming

Νέες λεπτομέρειες έρχονται στο φως της δημοσιότητας σχετικά με την οικονομική απόδοση των τίτλων της PlayStation στην αγορά των PC, αποκαλύπτοντας τα κέρδη που...

Σειρές

Το Netflix αποκάλυψε την πρώτη επίσημη εικόνα από τη νέα σειρά του Peaky Blinders, παρουσιάζοντας τον Jamie Bell στον ρόλο του Duke Shelby. Η...

Gaming

Η PlayStation κυκλοφόρησε ένα νέο πακέτο δωρεάν avatars για να γιορτάσει τα 30 χρόνια του Resident Evil, όμως η διαδικασία για να τα αποκτήσουν...

Τεχνολογία

Η σειρά iPhone 18 ίσως να μην φέρει μεγάλες αλλαγές στην εμφάνιση σε σχέση με το iPhone 17, σύμφωνα με νέα φήμη από την...

Ταινίες

Ο Henry Cavill μπορεί να παραμένει ένα από τα πιο δημοφιλή ονόματα για τον επόμενο James Bond, όμως ο ίδιος φαίνεται πως έχει πλέον...

Σειρές

Η νέα σειρά τρόμου του Netflix, Kάτι Πολύ Κακό Θα Γίνει, έχει καθηλώσει το κοινό με την απόκοσμη ιστορία ενός ζευγαριού που οδηγείται σε...

Gaming

Η συνεχή άνοδος του κόστους παραγωγής του hardware, που τροφοδοτείται από την έλλειψη εξαρτημάτων RAM και την έκρηξη της AI, ενδέχεται να οδηγήσει στην...

ΔΙΑΦΗΜΙΣΗ