Μια ηχηρή αποχώρηση από την OpenAI φέρνει ξανά στο προσκήνιο το ζήτημα της ιδιωτικότητας στην εποχή της τεχνητής νοημοσύνης. Η πρώην ερευνήτρια Zoë Hitzig ανακοίνωσε την αποχώρησή της με άρθρο γνώμης στους New York Times, προειδοποιώντας για τους κινδύνους που ενέχει η εισαγωγή διαφημίσεων στο ChatGPT.
Όπως υποστηρίζει, το πρόβλημα δεν είναι η ίδια η διαφήμιση, αλλά το πώς μπορεί να αξιοποιηθεί το τεράστιο απόθεμα ευαίσθητων δεδομένων που έχουν μοιραστεί οι χρήστες με το chatbot.
«Ένα άνευ προηγουμένου αρχείο ανθρώπινης ειλικρίνειας»
Στο άρθρο της, η Hitzig κάνει λόγο για ένα «άνευ προηγουμένου αρχείο ανθρώπινης ειλικρίνειας» που έχει δημιουργηθεί τα τελευταία χρόνια μέσα από συνομιλίες με το ChatGPT. Όπως σημειώνει, οι χρήστες μιλούν για ιατρικούς φόβους, προβλήματα σχέσεων, θρησκευτικές πεποιθήσεις και υπαρξιακά ζητήματα, θεωρώντας ότι απευθύνονται σε ένα σύστημα χωρίς κρυφή ατζέντα.
Η αξιοποίηση αυτών των δεδομένων για στοχευμένες διαφημίσεις, προειδοποιεί, θα μπορούσε να ανοίξει τον δρόμο για χειραγώγηση σε βαθμό που «δεν διαθέτουμε τα εργαλεία να κατανοήσουμε, πόσο μάλλον να αποτρέψουμε».
Η OpenAI έχει αναγνωρίσει δημόσια την ευαισθησία του θέματος. Σε ανάρτηση στο επίσημο blog της, με αφορμή τα σχέδια δοκιμών διαφημίσεων, διαβεβαίωσε ότι θα υπάρχει «τείχος προστασίας» ανάμεσα στις συνομιλίες των χρηστών και στα διαφημιστικά μηνύματα. «Διατηρούμε τις συνομιλίες σας ιδιωτικές από τους διαφημιζόμενους και δεν πουλάμε ποτέ τα δεδομένα σας», ανέφερε χαρακτηριστικά.
Η Hitzig, ωστόσο, εκφράζει αμφιβολίες για το κατά πόσο αυτή η δέσμευση μπορεί να διατηρηθεί μακροπρόθεσμα, ιδίως εφόσον δεν συνοδεύεται από νομικά δεσμευτικούς μηχανισμούς ελέγχου.
Κίνητρα, αμφισβήτηση και η αδιαφορία του κοινού
Η πρώην ερευνήτρια υποστηρίζει ότι η OpenAI «οικοδομεί μια οικονομική μηχανή που δημιουργεί ισχυρά κίνητρα να παρακάμψει τους ίδιους της τους κανόνες». Υπενθυμίζει ότι η εταιρεία έχει δηλώσει πως δεν βελτιστοποιεί το ChatGPT με βάση τη μέγιστη αλληλεπίδραση, έναν δείκτη κρίσιμο για διαφημιστικά μοντέλα.
Ωστόσο, επισημαίνει πως τέτοιες δηλώσεις δεν είναι δεσμευτικές και φέρνει ως παράδειγμα το περσινό ζήτημα υπερβολικής «κολακείας» του μοντέλου, που οδήγησε σε ανησυχίες για παραπλανητική ενίσχυση ακόμη και επικίνδυνων πεποιθήσεων.
Η Hitzig προτείνει τη δημιουργία ανεξάρτητης, δεσμευτικής εποπτείας ή τη μεταφορά των δεδομένων σε ένα trust με νομική υποχρέωση να λειτουργεί προς όφελος των χρηστών. Ωστόσο, η δημόσια ανταπόκριση ίσως αποδειχθεί περιορισμένη.
Έρευνα της Forrester έδειξε ότι το 83% των χρηστών θα συνέχιζε να χρησιμοποιεί τη δωρεάν έκδοση του ChatGPT ακόμη και με διαφημίσεις, ενώ πρόσφατη διαφημιστική καμπάνια της Anthropic κατά της OpenAI στο Super Bowl προκάλεσε περισσότερο σύγχυση παρά αντίδραση. Σε ένα περιβάλλον όπου η «μηδενιστική» στάση απέναντι στην ιδιωτικότητα έχει παγιωθεί μετά από δύο δεκαετίες κοινωνικών δικτύων, το ερώτημα δεν είναι μόνο αν οι ανησυχίες είναι βάσιμες, αλλά αν υπάρχει κοινό πρόθυμο να τις ακούσει.
Ακολουθήστε το XplayGR στο Google News για να μαθαίνετε πρώτοι όλες τις εξελίξεις από τον χώρο του gaming και της ψυχαγωγίας.
Δείτε όλες τις τελευταίες ειδήσεις στο XplayGR.com.


































