Connect with us

Τι ψάχνεις;

Νεα

Η OpenAI θέλει το GPT-4 να λύσει το δίλημμα της εποπτείας περιεχομένου

openai-chatgpt

Η OpenAI είναι πεπεισμένη ότι η τεχνολογία της μπορεί να βοηθήσει στην επίλυση ενός από τα δυσκολότερα προβλήματα της τεχνολογίας: την εποπτεία περιεχομένου σε κλίμακα. Το GPT-4 θα μπορούσε να αντικαταστήσει δεκάδες χιλιάδες ανθρώπους – επόπτες, ενώ είναι σχεδόν το ίδιο ακριβές και πιο συνεπές, ισχυρίζεται η OpenAI. Αν αυτό είναι αλήθεια, οι πιο τοξικές και ψυχικά επιβαρυντικές εργασίες στην τεχνολογία θα μπορούσαν να ανατεθούν σε μηχανές.

Σε μια ανάρτηση στο blog, η OpenAI ισχυρίζεται ότι έχει ήδη χρησιμοποιήσει το GPT-4 για την ανάπτυξη και τη βελτίωση των δικών της πολιτικών περιεχομένου, την επισήμανση περιεχομένου και τη λήψη αποφάσεων. «Θέλω να δω περισσότερους ανθρώπους να λειτουργούν με την εμπιστοσύνη και την ασφάλειά τους και να εποπτεύουν (με) αυτόν τον τρόπο», δήλωσε η επικεφαλής των συστημάτων ασφαλείας του OpenAI, Lilian Weng στο Semafor. «Αυτό είναι ένα πραγματικά καλό βήμα προς τα εμπρός στον τρόπο με τον οποίο χρησιμοποιούμε την τεχνητή νοημοσύνη για να λύσουμε ζητήματα του πραγματικού κόσμου με τρόπο που είναι επωφελής για την κοινωνία.»

Η OpenAI βλέπει τρία σημαντικά οφέλη σε σύγκριση με τις παραδοσιακές προσεγγίσεις για τον έλεγχο περιεχομένου. Πρώτον, ισχυρίζεται ότι οι άνθρωποι ερμηνεύουν τις πολιτικές διαφορετικά, ενώ οι μηχανές είναι συνεπείς στις κρίσεις τους. Αυτές οι οδηγίες μπορεί να είναι μακριές όσο ένα βιβλίο και να αλλάζουν συνεχώς. Αν και χρειάζεται πολλή εκπαίδευση στους ανθρώπους για να μάθουν και να προσαρμοστούν, η OpenAI υποστηρίζει ότι τα μεγάλα γλωσσικά μοντέλα θα μπορούσαν να εφαρμόσουν νέες πολιτικές αμέσως.

Advertisement. Scroll to continue reading.

Δεύτερον, το GPT-4 μπορεί να βοηθήσει στην ανάπτυξη μιας νέας πολιτικής μέσα σε λίγες ώρες. Η διαδικασία σύνταξης, επισήμανσης, συλλογής σχολίων και τελειοποίησης διαρκεί συνήθως εβδομάδες ή αρκετούς μήνες. Τρίτον, το OpenAI αναφέρει την ευημερία των εργαζομένων που εκτίθενται συνεχώς σε επιβλαβές περιεχόμενο, όπως βίντεο κακοποίησης παιδιών ή βασανιστηρίων.

Μετά από σχεδόν δύο δεκαετίες σύγχρονων μέσων κοινωνικής δικτύωσης και ακόμη περισσότερα χρόνια διαδικτυακών κοινοτήτων, η εποπτεία περιεχομένου εξακολουθεί να είναι μια από τις πιο δύσκολες προκλήσεις για τις διαδικτυακές πλατφόρμες. Η Meta, η Google και το TikTok βασίζονται σε στρατιές συντονιστών που πρέπει να κοιτάξουν μέσα από φρικτό και συχνά τραυματικό περιεχόμενο. Οι περισσότεροι από αυτούς βρίσκονται σε αναπτυσσόμενες χώρες με χαμηλότερους μισθούς, εργάζονται σε εταιρείες εξωτερικής ανάθεσης και αγωνίζονται με την ψυχική υγεία καθώς λαμβάνουν μόνο ένα ελάχιστο ποσό φροντίδας ψυχικής υγείας.

Διαβάστε επίσης:  Νέες remixed εκδόσεις των bosses του Elden Ring Nightreign έρχονται με δωρεάν ενημέρωση

Ωστόσο, η ίδιο η OpenAI βασίζεται σε μεγάλο βαθμό στους clickworkers και στην ανθρώπινη εργασία. Χιλιάδες άνθρωποι, πολλοί από αυτούς σε αφρικανικές χώρες όπως η Κένυα, σχολιάζουν και επισημαίνουν περιεχόμενο. Τα κείμενα μπορεί να είναι ενοχλητικά, η δουλειά είναι αγχωτική, και η αμοιβή είναι μικρή.

Ενώ η OpenAI διαφημίζει την προσέγγισή της ως νέα και επαναστατική, η τεχνητή νοημοσύνη χρησιμοποιείται για την εποπτεία περιεχομένου εδώ και χρόνια. Το όραμα του Μαρκ Ζάκερμπεργκ για ένα τέλειο αυτοματοποιημένο σύστημα δεν έχει ακόμη φανεί αρκετά, αλλά η Meta χρησιμοποιεί αλγόριθμους για να μετριάσει τη συντριπτική πλειοψηφία του επιβλαβούς και παράνομου περιεχομένου. Πλατφόρμες όπως το YouTube και το TikTok βασίζονται σε παρόμοια συστήματα, επομένως η τεχνολογία της OpenAI μπορεί να απευθύνεται σε μικρότερες εταιρείες που δεν διαθέτουν τους πόρους για να αναπτύξουν τη δική τους τεχνολογία.

Advertisement. Scroll to continue reading.

Κάθε πλατφόρμα παραδέχεται ανοιχτά ότι η τέλεια εποπτεία περιεχομένου σε κλίμακα είναι αδύνατη. Τόσο οι άνθρωποι όσο και οι μηχανές κάνουν λάθη, και ενώ το ποσοστό μπορεί να είναι χαμηλό, εξακολουθούν να υπάρχουν εκατομμύρια επιβλαβείς αναρτήσεις που ξεφεύγουν και άλλα τόσα κομμάτια αβλαβούς περιεχομένου που κρύβονται ή διαγράφονται.

Συγκεκριμένα, η γκρίζα περιοχή του παραπλανητικού, εσφαλμένου και επιθετικού περιεχομένου που δεν είναι απαραίτητα παράνομο αποτελεί μεγάλη πρόκληση για τα αυτοματοποιημένα συστήματα. Ακόμη και οι ειδικοί στον άνθρωπο αγωνίζονται να επισημάνουν τέτοιες αναρτήσεις και οι μηχανές συχνά το κάνουν λάθος.

ΔΕΙΤΕ ΕΠΙΣΗΣ

Νεα

Project Indigo: Η νέα εποχή της φωτογραφίας στα smartphones Η Adobe παρουσίασε πρόσφατα την καινοτόμο εφαρμογή της για υπολογιστική φωτογραφία, γνωστή ως Project Indigo,...

Νεα

Η σχέση μεταξύ της Microsoft και της OpenAI φαίνεται να διέρχεται δύσκολες στιγμές, παρά τις φαινομενικά φιλικές σχέσεις που αποτυπώνονται σε δημόσιες εμφανίσεις των...

Νεα

Πρόσφατα, οι χρήστες των Windows 11 βρέθηκαν να ακούνε τον ήχο εκκίνησης των Windows Vista, αντί του κανονικού ήχου των Windows 11, σε δοκιμαστικές...

Νεα

Η νομική αντιπαράθεση της βιομηχανίας του κινηματογράφου με την γενετική τεχνητή νοημοσύνη Η Disney και η Universal κατέθεσαν μήνυση κατά της Midjourney, κατηγορώντας την...

ΔΙΑΦΗΜΙΣΗ