Connect with us

Τι ψάχνεις;

Νέα

Η OpenAI θέλει το GPT-4 να λύσει το δίλημμα της εποπτείας περιεχομένου

openai-chatgpt

Η OpenAI είναι πεπεισμένη ότι η τεχνολογία της μπορεί να βοηθήσει στην επίλυση ενός από τα δυσκολότερα προβλήματα της τεχνολογίας: την εποπτεία περιεχομένου σε κλίμακα. Το GPT-4 θα μπορούσε να αντικαταστήσει δεκάδες χιλιάδες ανθρώπους – επόπτες, ενώ είναι σχεδόν το ίδιο ακριβές και πιο συνεπές, ισχυρίζεται η OpenAI. Αν αυτό είναι αλήθεια, οι πιο τοξικές και ψυχικά επιβαρυντικές εργασίες στην τεχνολογία θα μπορούσαν να ανατεθούν σε μηχανές.

Σε μια ανάρτηση στο blog, η OpenAI ισχυρίζεται ότι έχει ήδη χρησιμοποιήσει το GPT-4 για την ανάπτυξη και τη βελτίωση των δικών της πολιτικών περιεχομένου, την επισήμανση περιεχομένου και τη λήψη αποφάσεων. «Θέλω να δω περισσότερους ανθρώπους να λειτουργούν με την εμπιστοσύνη και την ασφάλειά τους και να εποπτεύουν (με) αυτόν τον τρόπο», δήλωσε η επικεφαλής των συστημάτων ασφαλείας του OpenAI, Lilian Weng στο Semafor. «Αυτό είναι ένα πραγματικά καλό βήμα προς τα εμπρός στον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη για να λύσουμε ζητήματα του πραγματικού κόσμου με τρόπο που είναι επωφελής για την κοινωνία.»

Η OpenAI βλέπει τρία σημαντικά οφέλη σε σύγκριση με τις παραδοσιακές προσεγγίσεις για τον έλεγχο περιεχομένου. Πρώτον, ισχυρίζεται ότι οι άνθρωποι ερμηνεύουν τις πολιτικές διαφορετικά, ενώ οι μηχανές είναι συνεπείς στις κρίσεις τους. Αυτές οι οδηγίες μπορεί να είναι μακριές όσο ένα βιβλίο και να αλλάζουν συνεχώς. Αν και χρειάζεται πολλή εκπαίδευση στους ανθρώπους για να μάθουν και να προσαρμοστούν, η OpenAI υποστηρίζει ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να εφαρμόσουν νέες πολιτικές αμέσως.

Δεύτερον, το GPT-4 μπορεί να βοηθήσει στην ανάπτυξη μιας νέας πολιτικής μέσα σε λίγες ώρες. Η διαδικασία σύνταξης, επισήμανσης, συλλογής σχολίων και τελειοποίησης διαρκεί συνήθως εβδομάδες ή αρκετούς μήνες. Τρίτον, το OpenAI αναφέρει την ευημερία των εργαζομένων που εκτίθενται συνεχώς σε επιβλαβές περιεχόμενο, όπως βίντεο κακοποίησης παιδιών ή βασανιστηρίων.

Μετά από σχεδόν δύο δεκαετίες σύγχρονων μέσων κοινωνικής δικτύωσης και ακόμη περισσότερα χρόνια διαδικτυακών κοινοτήτων, η εποπτεία περιεχομένου εξακολουθεί να είναι μια από τις πιο δύσκολες προκλήσεις για τις διαδικτυακές πλατφόρμες. Η Meta, η Google και το TikTok βασίζονται σε στρατιές συντονιστών που πρέπει να κοιτάξουν μέσα από φρικτό και συχνά τραυματικό περιεχόμενο. Οι περισσότεροι από αυτούς βρίσκονται σε αναπτυσσόμενες χώρες με χαμηλότερους μισθούς, εργάζονται σε εταιρείες εξωτερικής ανάθεσης και αγωνίζονται με την ψυχική υγεία καθώς λαμβάνουν μόνο ένα ελάχιστο ποσό φροντίδας ψυχικής υγείας.

Advertisement. Scroll to continue reading.
Διαβάστε επίσης:  Ιδιοκτήτης στη Φλόριντα πούλησε το σπίτι του σε πέντε ημέρες χρησιμοποιώντας αποκλειστικά το ChatGPT

Ωστόσο, η ίδιο η OpenAI βασίζεται σε μεγάλο βαθμό στους clickworkers και στην ανθρώπινη εργασία. Χιλιάδες άνθρωποι, πολλοί από αυτούς σε αφρικανικές χώρες όπως η Κένυα, σχολιάζουν και επισημαίνουν περιεχόμενο. Τα κείμενα μπορεί να είναι ενοχλητικά, η δουλειά είναι αγχωτική, και η αμοιβή είναι μικρή.

Ενώ η OpenAI διαφημίζει την προσέγγισή της ως νέα και επαναστατική, η τεχνητή νοημοσύνη χρησιμοποιείται για την εποπτεία περιεχομένου εδώ και χρόνια. Το όραμα του Μαρκ Ζάκερμπεργκ για ένα τέλειο αυτοματοποιημένο σύστημα δεν έχει ακόμη φανεί αρκετά, αλλά η Meta χρησιμοποιεί αλγόριθμους για να μετριάσει τη συντριπτική πλειοψηφία του επιβλαβούς και παράνομου περιεχομένου. Πλατφόρμες όπως το YouTube και το TikTok βασίζονται σε παρόμοια συστήματα, επομένως η τεχνολογία της OpenAI μπορεί να απευθύνεται σε μικρότερες εταιρείες που δεν διαθέτουν τους πόρους για να αναπτύξουν τη δική τους τεχνολογία.

Κάθε πλατφόρμα παραδέχεται ανοιχτά ότι η τέλεια εποπτεία περιεχομένου σε κλίμακα είναι αδύνατη. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη, και ενώ το ποσοστό μπορεί να είναι χαμηλό, εξακολουθούν να υπάρχουν εκατομμύρια επιβλαβείς αναρτήσεις που ξεφεύγουν και άλλα τόσα κομμάτια αβλαβούς περιεχομένου που κρύβονται ή διαγράφονται.

Συγκεκριμένα, η γκρίζα περιοχή του παραπλανητικού, εσφαλμένου και επιθετικού περιεχομένου που δεν είναι απαραίτητα παράνομο αποτελεί μεγάλη πρόκληση για τα αυτοματοποιημένα συστήματα. Ακόμη και οι ειδικοί στον άνθρωπο αγωνίζονται να επισημάνουν τέτοιες αναρτήσεις και οι μηχανές συχνά το κάνουν λάθος.

Loop

ΔΙΑΦΗΜΙΣΗ
ΑΚΟΛΟΎΘΗΣΈ ΜΑΣ
ΔΙΑΦΗΜΙΣΗ

ΔΗΜΟΦΙΛΗ ΤΩΡΑ

Ταινίες

Η πρώτη επίσημη συνάντηση του David Ellison με κορυφαία στελέχη της Warner Bros. δεν φαίνεται να άφησε τις καλύτερες εντυπώσεις. Ο διευθύνων σύμβουλος της...

Ταινίες

Η Netflix επιβεβαίωσε ότι το επιτυχημένο animated fantasy φιλμ KPop Demon Hunters θα αποκτήσει συνέχεια, μετά την τεράστια απήχηση που σημείωσε από την κυκλοφορία...

Τεχνολογία

Η γεννήτρια βίντεο Sora της OpenAI φαίνεται πως ετοιμάζεται να γίνει ενσωματωμένο χαρακτηριστικό στο ChatGPT, σύμφωνα με πληροφορίες του The Information. Μέχρι σήμερα, το...

Gaming

Ο διευθυντής του προγράμματος ID@Xbox, Chris Charla, δήλωσε ότι η βιομηχανία των videogames διανύει μια «χρυσή εποχή» για τα indie παιχνίδια, η οποία, όπως...

Gaming

Η Microsoft αποκάλυψε νέες λεπτομέρειες για την επόμενη γενιά του Xbox κατά τη διάρκεια του Game Developers Conference 2026, επιβεβαιώνοντας ότι η νέα κονσόλα...

Σειρές

Η νέα σειρά επιστημονικής φαντασίας Pluribus του Apple TV+, δημιουργία του Vince Gilligan  – γνωστού από το Breaking Bad – σημείωσε εντυπωσιακή επιτυχία όταν...

Τεχνολογία

Η Microsoft επιταχύνει τη στρατηγική ενοποίησης του οικοσυστήματος Xbox και Windows, ανακοινώνοντας ότι το νέο Xbox Mode θα διατεθεί σε όλους τους υπολογιστές με...

Gaming

Το Garry’s Mod αποτελεί σήμερα ένα από τα πιο εμβληματικά sandbox παιχνίδια στην ιστορία του Steam, όμως ο δημιουργός του, Garry Newman, δεν περίμενε...

ΔΙΑΦΗΜΙΣΗ