Connect with us

Τι ψάχνεις;

Τεχνολογία

Δικαστής επιτίθεται σε δικηγόρο μετά από λάθη της τεχνητής νοημοσύνης που εκτροχίασαν υπόθεση δολοφονίας στην Αυστραλία

artificial intelligence

Ένα σοβαρό περιστατικό στο Ανώτατο Δικαστήριο της Βικτόρια προκάλεσε αμηχανία στον νομικό κόσμο της Αυστραλίας, όταν δικαστικά έγγραφα που περιείχαν ψεύτικες αποφάσεις, ανύπαρκτους νόμους και παραποιημένες ομιλίες κατατέθηκαν σε υπόθεση δολοφονίας, όλα δημιουργημένα από τεχνητή νοημοσύνη.

Ο συνήγορος υπεράσπισης Rishi Nathwani KC ανέλαβε «πλήρη ευθύνη» για το λάθος, ζητώντας συγγνώμη από το δικαστήριο. Η υπόθεση αφορούσε έναν 16χρονο κατηγορούμενο για τον φόνο μιας 41χρονης γυναίκας στην Abbotsford τον Απρίλιο του 2023. Ο νεαρός τελικά κρίθηκε αθώος λόγω ψυχικής κατάστασης, αφού διαπιστώθηκε ότι έπασχε από αθεράπευτη σχιζοφρένεια και μεγαλομανιακές παραληρητικές ιδέες.

Ο δικαστής αναβάλλει την απόφαση

Ο δικαστής James Elliott, ο οποίος επρόκειτο να εκδώσει την απόφασή του, αναγκάστηκε να την καθυστερήσει κατά 24 ώρες, καθώς ανακάλυψε ότι τα έγγραφα περιείχαν κατασκευασμένες πληροφορίες. Ακόμη και στις διορθωμένες καταθέσεις, εντοπίστηκαν ανύπαρκτες νομοθεσίες.

Advertisement. Scroll to continue reading.

«Με κίνδυνο να υποτιμήσω την κατάσταση, ο τρόπος με τον οποίο εξελίχθηκαν τα γεγονότα είναι απαράδεκτος», σχολίασε ο Elliott. «Η χρήση AI χωρίς προσεκτική εποπτεία από τους συνηγόρους θα μπορούσε να υπονομεύσει σοβαρά την ικανότητα του δικαστηρίου να αποδώσει δικαιοσύνη».

Τα λάθη που προκάλεσαν χάος

Σύμφωνα με τα έγγραφα της υπόθεσης, ο Nathwani και η νεότερη συνεργάτιδά του, Amelia Beech, δεν έκαναν επαρκή έλεγχο πριν καταθέσουν τις προτάσεις τους. Τα λάθη περιλάμβαναν:

  • Αναφορές σε δικαστικές αποφάσεις που δεν υπάρχουν
  • Παραποίηση αποσπάσματος από ομιλία στο κοινοβούλιο
  • Επίκληση νόμων που ουδέποτε ψηφίστηκαν
Διαβάστε επίσης:  Η νέα εφαρμογή Sora AI της OpenAI φτάνει το 1 εκατομμύριο downloads

Η εισαγγελία, βασισμένη στα έγγραφα της υπεράσπισης, υπέβαλε επίσης λανθασμένα επιχειρήματα, με αποτέλεσμα και οι δύο πλευρές να παρουσιάσουν ανακριβείς ισχυρισμούς.

Μια ακόμη αποτυχία της τεχνητής νοημοσύνης στη δικαιοσύνη

Η υπόθεση αυτή έρχεται να προστεθεί σε μια σειρά παγκόσμιων περιστατικών όπου η τεχνητή νοημοσύνη προκάλεσε προβλήματα στο νομικό σύστημα. Νωρίτερα το 2025, στη Νέα Υόρκη, μια προσπάθεια χρήσης AI avatar σε δίκη κατέληξε σε χάος όταν ο δικαστής διέταξε να «τραβήξουν την πρίζα» στη μέση της διαδικασίας.

Το περιστατικό στην Αυστραλία αναδεικνύει την ανάγκη για αυστηρότερη εποπτεία της χρήσης AI σε δικαστικές υποθέσεις, με τον δικαστή να προειδοποιεί πως η άκριτη εμπιστοσύνη στην τεχνολογία μπορεί να απειλήσει την ίδια τη λειτουργία της δικαιοσύνης.

Advertisement. Scroll to continue reading.

Advertisement. Scroll to continue reading.

ΔΕΙΤΕ ΕΠΙΣΗΣ

Τεχνολογία

Κινέζος επιχειρηματίας γλίτωσε από θανατηφόρο τραυματισμό χάρη στο laptop του Ένα MacBook Pro αποδείχθηκε σωτήριο για έναν Κινέζο επιχειρηματία στη Βραζιλία, όταν απορρόφησε τη...

Τεχνολογία

Η ιδέα του warp drive, γνωστή από το Star Trek και άλλες σειρές επιστημονικής φαντασίας, φαίνεται να πλησιάζει πιο κοντά στην πραγματική φυσική. Επιστήμονες...

Τεχνολογία

Σύμφωνα με πρόσφατα στοιχεία, το YouTube Live καταγράφει σημαντική πτώση για πρώτη φορά μετά από αρκετά χρόνια, καθώς ο ανταγωνισμός στον χώρο του livestreaming...

Τεχνολογία

Το YouTube ανακοινώνει πως προσφέρει σε ορισμένους δημιουργούς που είχαν αποκλειστεί λόγω διάδοσης ψευδών πληροφοριών για τον κορονοϊό και τις εκλογές, την ευκαιρία να...

ΔΙΑΦΗΜΙΣΗ