Μελέτη αποκαλύπτει ότι AI μοντέλα ανέπτυξαν συμπεριφορές όμοιες με ανθρώπινο εθισμό
Μια νέα μελέτη αποκάλυψε ότι τα συστήματα τεχνητής νοημοσύνης μπορούν να εμφανίσουν τάσεις εθισμού στον τζόγο, αυξάνοντας τα πονταρίσματά τους και αγνοώντας στατιστικά λογικές αποφάσεις, όπως ακριβώς κάνουν πολλοί ανθρώπινοι παίκτες.
Οι ερευνητές διαπίστωσαν πως ορισμένα AI μοντέλα άρχισαν να κάνουν «μαζικά στοιχήματα» και να πέφτουν στην πλάνη του παίκτη (gambler’s fallacy), πιστεύοντας ότι μια ήττα θα ακολουθηθεί αναγκαστικά από νίκη.
Η έρευνα πραγματοποιήθηκε από το Gwangju Institute of Science and Technology στη Νότια Κορέα, το οποίο δοκίμασε τέσσερα διαφορετικά συστήματα: τα PT-4o-mini και GPT-4.1-mini της OpenAI, το Gemini-2.5-Flash της Google και το Claude-3.5-Haiku.
Κάθε AI ξεκίνησε με 100 δολάρια σε προσομοίωση κουλοχέρη, με τη δυνατότητα να ποντάρει ή να σταματήσει οποιαδήποτε στιγμή.
Τα AI πόνταραν επιθετικά και συχνά χρεοκοπούσαν
Σύμφωνα με τους ερευνητές, όλα τα μοντέλα διατήρησαν συντηρητική στρατηγική στην αρχή, αλλά όταν προστέθηκαν μεταβαλλόμενα πονταρίσματα, άρχισαν να εμφανίζουν συμπεριφορές εθισμού. Τα μοντέλα αύξαναν τα στοιχήματά τους όταν κέρδιζαν, και κυνηγούσαν τις απώλειες όταν έχαναν, οδηγούμενα τελικά σε συχνές χρεοκοπίες. Επιπλέον, αγνοούσαν τις στατιστικά βέλτιστες επιλογές, υποδεικνύοντας ότι οι αποφάσεις τους επηρεάζονταν από μοτίβα «ανθρώπινης» ψυχολογίας.
Στο δημοσιευμένο paper στο arXiv, οι επιστήμονες σημείωσαν: «Τα ευρήματα αποκαλύπτουν ότι τα AI συστήματα ανέπτυξαν μηχανισμούς εθισμού σε νευρωνικό επίπεδο, όχι απλώς επιφανειακές συμπεριφορές μίμησης». Η ομάδα προειδοποίησε ότι όσο τα μοντέλα γίνονται πιο εξελιγμένα, είναι κρίσιμο να κατανοηθούν και να ελεγχθούν αυτοί οι ενσωματωμένοι μηχανισμοί ρίσκου.
Αυξανόμενη ανησυχία για την ασφάλεια των αυτόνομων συστημάτων
Οι ερευνητές υπογράμμισαν την ανάγκη για συνεχή παρακολούθηση και μηχανισμούς ελέγχου κατά τη διάρκεια της διαδικασίας βελτιστοποίησης ανταμοιβών, όπου τέτοιες συμπεριφορές μπορεί να προκύψουν απρόσμενα. Το φαινόμενο αυτό ενισχύει τις ανησυχίες για την ασφάλεια των AI συστημάτων, ειδικά καθώς αυτά αρχίζουν να λαμβάνουν αποφάσεις που σχετίζονται με οικονομικά ρίσκα, προτάσεις ή προβλέψεις.
Η μελέτη έρχεται λίγο μετά από άλλη έρευνα που έδειξε ότι τα AI μπορούν να παρουσιάσουν “brain rot” όταν εκτίθενται σε ασήμαντο ή ανούσιο περιεχόμενο, με αρνητικές συνέπειες στην ποιότητα των απαντήσεών τους. Οι ειδικοί τονίζουν ότι και τα δύο φαινόμενα υπογραμμίζουν την ανάγκη για ασφαλέστερο σχεδιασμό και εποπτεία στα μελλοντικά μοντέλα τεχνητής νοημοσύνης.
Ακολουθήστε το XplayGR στο Google News για να μαθαίνετε πρώτοι όλες τις εξελίξεις από τον χώρο του gaming και της ψυχαγωγίας.
Δείτε όλες τις τελευταίες ειδήσεις στο XplayGR.com.
































