Connect with us

Τι ψάχνεις;

Τεχνολογία

Ερευνητές χρησιμοποίησαν το ChatGPT για να υποκλέψουν δεδομένα από το Gmail

Ερευνητές στον τομέα της ασφάλειας δημιούργησαν μια επίθεση, γνωστή ως Shadow Leak, που χρησιμοποίησε το ChatGPT ως συνεργό για την κλοπή ευαίσθητων δεδομένων από Gmail λογαριασμούς. Η συγκεκριμένη ευπάθεια έχει ήδη διορθωθεί από την OpenAI, ωστόσο αυτή η περίπτωση αναδεικνύει τους νέους κινδύνους που συνδέονται με την αυτονομία των AI συστημάτων.

Η επίθεση αυτή στηρίχθηκε σε μια ιδιαιτερότητα της λειτουργίας των AI Agents, οι οποίοι ενδέχεται να ενεργούν εκ μέρους των χρηστών χωρίς την ανάγκη συνεχούς εποπτείας. Οι AI Agents μπορεί να περιηγηθούν στο διαδίκτυο και να αλληλεπιδράσουν με συνδέσμους, γεγονός που τους καθιστά εξαιρετικά χρήσιμους όταν οι χρήστες τους παρέχουν πρόσβαση σε προσωπικά email, ημερολόγια και έγγραφα εργασίας.

Οι ερευνητές της Radware εκμεταλλεύτηκαν αυτήν τη δυνατότητα, χρησιμοποιώντας μια μορφή επίθεσης που ονομάζεται prompt injection. Μέσω αυτής της μεθόδου, κατάφεραν να δώσουν οδηγίες στον AI Agent ώστε να λειτουργήσει προς όφελος των επιτιθεμένων. Οι επιθέσεις αυτές είναι δύσκολο να προληφθούν χωρίς προγενέστερη γνώση της ευπάθειας, και οι χάκερ έχουν ήδη χρησιμοποιήσει παρόμοιες τακτικές για να εκτελέσουν απάτες και να ελέγχουν έξυπνα σπίτια.

Οι ερευνητές υποδεικνύουν ότι η συγκεκριμένη επίθεση ήταν αποτέλεσμα πολλών αποτυχημένων προσπαθειών και δοκιμών. Ορισμένοι από τους ερευνητές περιγράφουν τη διαδικασία ως “ένα τρενάκι του τρόμου” γεμάτο αποτυχίες και τελικά, μια σημαντική ανακάλυψη. Αξιοσημείωτο είναι ότι η επίθεση πραγματοποιήθηκε απευθείας στην υποδομή της OpenAI, γεγονός που την καθιστά αόρατη για τις συνήθεις κυβερνοαμυντικές πρακτικές.

Διαβάστε επίσης:  Ο Satya Nadella ανησυχεί για το μέλλον της Microsoft στην εποχή της Τεχνητής Νοημοσύνης

Τα αποτελέσματα της έρευνας προειδοποιούν ότι άλλες εφαρμογές που συνδέονται με το Deep Research, όπως το Outlook, το GitHub, το Google Drive και το Dropbox, μπορεί επίσης να είναι ευάλωτες σε παρόμοιες επιθέσεις. Οι ερευνητές αναφέρουν ότι η ίδια τεχνική μπορεί να χρησιμοποιηθεί για να κλέψει δεδομένα υψηλής ευαισθησίας, όπως συμβόλαια και προσωπικά στοιχεία πελατών.

Advertisement. Scroll to continue reading.

Η OpenAI έχει ήδη επιδιορθώσει την ευπάθεια που επισημάνθηκε από τους ερευνητές τον Ιούνιο, διασφαλίζοντας ότι οι χρήστες θα είναι πιο ασφαλείς από τέτοιες επιθέσεις στο μέλλον. Ωστόσο, οι προειδοποιήσεις των ειδικών υπογραμμίζουν την ανάγκη για μεγαλύτερη προσοχή και προστασία των προσωπικών δεδομένων στην εποχή της τεχνητής νοημοσύνης.

Σχόλια

ΔΕΙΤΕ ΕΠΙΣΗΣ

Τεχνολογία

Από σήμερα, Δευτέρα, η κυβέρνηση των ΗΠΑ θα έχει νέα ευκαιρία να πείσει ομοσπονδιακό δικαστή να διασπάσει την Google, μετά από απόφαση άλλου δικαστή...

Τεχνολογία

AI Mode και ενσωμάτωση του Gemini στο Chrome Η Google ανακοίνωσε την κυκλοφορία μιας νέας έκδοσης του Chrome, η οποία ενσωματώνει πλήθος λειτουργιών τεχνητής...

Τεχνολογία

Οι φόβοι του CEO και το παράδειγμα της DEC Κατά τη διάρκεια εσωτερικής συνάντησης εργαζομένων, ο CEO της Microsoft Satya Nadella εξέφρασε την ανησυχία...

Νεα

Νέα γενιά έξυπνων γυαλιών Ray-Ban και Oakley Η Meta αποκάλυψε τα πολυαναμενόμενα Ray-Ban Display, τα πρώτα smart glasses με έγχρωμη οθόνη υψηλής ανάλυσης ενσωματωμένη...

ΔΙΑΦΗΜΙΣΗ