Connect with us

Τι ψάχνεις;

Τεχνολογία

Η Anthropic κάνει πιο αυστηρούς τους κανόνες ασφαλείας του chatbot Claude

Η Anthropic κάνει πιο αυστηρούς τους κανόνες ασφαλείας του chatbot Claude

Νέοι κανόνες για την ασφάλεια και τα όπλα

Η Anthropic, η γνωστή εταιρεία τεχνητής νοημοσύνης, ανακοίνωσε πρόσφατα την αναθεώρηση της πολιτικής χρήσης του chatbot της, Claude, ως απάντηση στις αυξανόμενες ανησυχίες σχετικά με την ασφάλεια.

Εκτός από την εισαγωγή αυστηρότερων κανόνων κυβερνοασφάλειας, η εταιρεία καθορίζει πλέον συγκεκριμένα κάποιες από τις πιο επικίνδυνες κατηγορίες όπλων που δεν θα πρέπει να αναπτύσσονται με τη βοήθεια του Claude.

Συγκρίνοντας την παλιά πολιτική χρήσης της Anthropic με την νέα, παρατηρείται μια σημαντική διαφορά. Ενώ προηγουμένως η εταιρεία απαγόρευε τη χρήση του Claude για την παραγωγή, τροποποίηση, σχεδίαση, εμπορία ή διανομή όπλων και επικίνδυνων υλικών, η ανανεωμένη έκδοση επεκτείνει αυτή την απαγόρευση, περιλαμβάνοντας ρητά την ανάπτυξη υψηλής απόδοσης εκρηκτικών, καθώς και βιολογικών, πυρηνικών, χημικών και ραδιολογικών όπλων.

Ασφαλείς χρήσεις και πολιτική περιεχομένου

Τον Μάιο, η Anthropic εισήγαγε την προστασία “AI Safety Level 3” κατά την κυκλοφορία του νέου μοντέλου Claude Opus 4. Αυτές οι προστασίες σχεδιάστηκαν ώστε να καθιστούν πιο δύσκολη την παραβίαση του μοντέλου, ενώ παράλληλα βοηθούν στην αποτροπή της βοήθειας για την ανάπτυξη CBRN όπλων. Στην ανακοίνωσή της, η Anthropic αναγνωρίζει επίσης τους κινδύνους που ενδέχεται να προκύψουν από εργαλεία τεχνητής νοημοσύνης που έχουν τη δυνατότητα να ελέγχουν υπολογιστές χρηστών, όπως το Computer Use και το Claude Code.

Διαβάστε επίσης:  Mια «μικρή ομάδα μη εξουσιοδοτημένων χρηστών» απέκτησε πρόσβαση στο πιο επικίνδυνο μοντέλο AI της Anthropic

Επιπλέον, η εταιρεία χαλαρώνει την πολιτική της σχετικά με το πολιτικό περιεχόμενο. Αντί να απαγορεύει τη δημιουργία κάθε είδους περιεχομένου που σχετίζεται με πολιτικές εκστρατείες, η Anthropic θα απαγορεύει πλέον μόνο τις χρήσεις που είναι παραπλανητικές ή διαταραστικές για τις δημοκρατικές διαδικασίες. Η εταιρεία διευκρίνισε επίσης ότι οι απαιτήσεις της για τις “υψηλού κινδύνου” χρήσεις ισχύουν μόνο για σενάρια που αφορούν καταναλωτές και όχι για επιχειρηματική χρήση.

Advertisement. Scroll to continue reading.

Loop

ΔΙΑΦΗΜΙΣΗ
ΑΚΟΛΟΎΘΗΣΈ ΜΑΣ
ΔΙΑΦΗΜΙΣΗ

ΔΗΜΟΦΙΛΗ ΤΩΡΑ

Ταινίες

Το νέο action thriller του Netflix, Apex, έκανε πρεμιέρα στην πλατφόρμα στις 24 Απριλίου 2026 και μπήκε αμέσως στη συζήτηση για τις επιτυχίες της...

Gaming

Ο Shuhei Yoshida δεν βλέπει τις day-one κυκλοφορίες στο PC ως σωστή κίνηση για τη Sony, ακόμα κι αν τα μεγάλα first-party games του...

Gaming

Η Sega λανσάρει το Sega Universe, ένα νέο project που έχει στόχο να επαναφέρει παλαιότερα IP της εταιρείας σε μορφές ψυχαγωγίας πέρα από τα...

Τεχνολογία

Η Sony παρουσίασε το Ace, ένα ρομπότ πινγκ πονγκ που μπορεί να σταθεί απέναντι σε παίκτες πολύ υψηλού επιπέδου και σε ορισμένες περιπτώσεις να...

Ταινίες

Ένας άνδρας συνελήφθη ως ύποπτος για τη διαρροή υλικού από το The Legend of Aang: The Last Airbender, λίγους μήνες πριν από την προγραμματισμένη...

Guides

Η πίεση με πολλούς παίκτες στο EA FC 26 βασίζεται στον σωστό συνδυασμό χειροκίνητης άμυνας, Second-Man Press και Partial Team Press, ώστε να περιορίζεις...

Ταινίες

Δικαστήριο της Ιαπωνίας επέβαλε ποινή φυλάκισης και χρηματικό πρόστιμο ενός εκατομμυρίου γεν σε ιδιοκτήτη ιστοσελίδας, κρίνοντας πως οι γραπτές περιλήψεις ταινιών που δημοσίευε αποτελούσαν...

Reviews

Το Cthulhu: The Cosmic Abyss παίρνει την φθαρμένη υπόσχεση «Λόβκραφτ, αλλά αλλιώς» και την κάνει επιτέλους να ακούγεται πραγματική. Το πετυχαίνει μεταφέροντας το κοσμικό...

ΔΙΑΦΗΜΙΣΗ