Λίγες μέρες πριν από τις προεδρικές εκλογές των ΗΠΑ, η εταιρεία τεχνητής νοημοσύνης Anthropic πιέζει για τη δική της ρύθμιση – πριν να είναι πολύ αργά.
Την Πέμπτη, η εταιρεία, η οποία διακρίνεται στον κλάδο για την εστίασή της στην ασφάλεια, δημοσίευσε συστάσεις προς τις κυβερνήσεις να εφαρμόσουν «στοχευμένες ρυθμίσεις» καθώς και δυνητικά ανησυχητικά δεδομένα σχετικά με την άνοδο των κινδύνων που αποκαλεί «καταστροφικά» AI.
Επίσης: Τεχνητή Νοημοσύνη, Πραγματική ανησυχία: Γιατί δεν μπορούμε να σταματήσουμε να ανησυχούμε και αγαπάμε την τεχνητή νοημοσύνη
Κίνδυνοι
Σε μια ανάρτηση ιστολογίου, η Anthropic σημείωσε την πρόοδο που έχουν σημειώσει τα μοντέλα τεχνητής νοημοσύνης στον τομέα της κωδικοποίησης και του εγκλήματος στον κυβερνοχώρο μέσα σε μόλις ένα χρόνο. «Στην πρόκληση ανάπτυξης λογισμικού SWE-bench, τα μοντέλα βελτιώθηκαν από 1,96% ενός συνόλου αναφοράς προβλημάτων κωδικοποίησης πραγματικού κόσμου (Στοιχείο 2, Οκτώβριος 2023) σε 13,5% (Devin, Μάρτιος 2024) σε 49% (Claude 3.5 Sonnet, Οκτώβριος 2024), έγραψε η εταιρεία. “Η ομάδα μας Frontier Red ανακάλυψε ότι τα υπάρχοντα μοντέλα μπορούν ήδη να βοηθήσουν στην επίλυση ενός ευρέος φάσματος προβλημάτων εγκλήματος στον κυβερνοχώρο και αναμένουμε ότι η επόμενη γενιά μοντέλων – που μπορεί να προγραμματίσει εργασίες για μεγάλες, πολλαπλές φάσεις – θα είναι ακόμη πιο αποτελεσματική.”
Επιπλέον, η ανάρτηση ιστολογίου σημειώνει ότι μόνο από τον Ιούνιο έως τον Σεπτέμβριο του τρέχοντος έτους, τα συστήματα τεχνητής νοημοσύνης βελτίωσαν την επιστημονική κατανόησή τους κατά σχεδόν 18%, σύμφωνα με το σημείο αναφοράς GPQA. Το OpenAI o1 σημείωσε 77,3% στο πιο δύσκολο κομμάτι του τεστ. Οι ειδικοί στον άνθρωπο σημείωσαν 81,2%.
Η εταιρεία ανέφερε επίσης την ανασκόπηση κινδύνου του Ινστιτούτου Ασφάλειας Τεχνητής Νοημοσύνης του Ηνωμένου Βασιλείου για πολλά μοντέλα κακής χρήσης χημικών, βιολογικών, ραδιολογικών και πυρηνικών (CBRN), η οποία διαπίστωσε ότι «τα μοντέλα μπορούν να χρησιμοποιηθούν για τη δημιουργία γνώσεων σε επίπεδο ειδικών στη βιολογία και τη χημεία». Διαπίστωσε επίσης ότι οι απαντήσεις πολλών μοντέλων σε επιστημονικές ερωτήσεις «ήταν στο ίδιο επίπεδο με αυτές των ειδικών διδακτορικών διατριβών».
Επιπλέον: Το πιο πρόσφατο μοντέλο τεχνητής νοημοσύνης της Anthropic μπορεί να χρησιμοποιεί έναν υπολογιστή όπως ακριβώς και εσείς — σφάλματα και όλα.
Αυτά τα δεδομένα υποσκάπτουν τις προβλέψεις της Anthropic για το 2023 ότι οι κίνδυνοι στον κυβερνοχώρο και τους ΧΒΡΠ θα γίνουν σχετικοί σε δύο έως τρία χρόνια. «Δεδομένης της προόδου που περιγράφεται παραπάνω, πιστεύουμε ότι είμαστε πλέον πολύ πιο κοντά σε τέτοιους κινδύνους», αναφέρει το ιστολόγιο.
Οδηγίες για τις κυβερνήσεις
«Η έξυπνη, στοχευμένη ρύθμιση μπορεί να μας επιτρέψει να πάρουμε το καλύτερο και από τους δύο κόσμους: συνειδητοποιώντας τα οφέλη της τεχνητής νοημοσύνης μετριάζοντας τους κινδύνους», εξηγεί το blog. «Η καθυστέρηση μπορεί να οδηγήσει στο χειρότερο και των δύο κόσμων: κακή σύλληψη, ad-hoc ρύθμιση που εμποδίζει την πρόοδο, ενώ δεν είναι αποτελεσματική».
Η Anthropic έχει προτείνει κατευθυντήριες γραμμές για κυβερνητική δράση για τη μείωση του κινδύνου χωρίς να παρεμποδίζει την καινοτομία στην επιστήμη και το εμπόριο, χρησιμοποιώντας τη δική της Πολιτική Υπεύθυνης Κλιμάκωσης (RSP) ως «πρωτότυπο», αλλά όχι αντικατάσταση. Αναγνωρίζοντας ότι μπορεί να είναι δύσκολο να προβλεφθεί πότε θα εφαρμοστούν τα προστατευτικά κιγκλιδώματα, η Anthropic περιέγραψε το RSP της ως ένα αναλογικό σύστημα διαχείρισης κινδύνου που προσαρμόζεται στις αυξανόμενες δυνατότητες AI μέσω τακτικών δοκιμών.
Επίσης: Υιοθέτηση AI; Ελέγξτε τη δωρεάν βάση δεδομένων του MIT για κινδύνους
«Η δομή αν-τότε απαιτεί μέτρα ασφαλείας, αλλά μόνο όταν τα μοντέλα γίνονται αρκετά λειτουργικά για να χρησιμοποιηθούν», εξήγησε η Anthropic.
Η εταιρεία έχει εντοπίσει τρία στοιχεία για την επιτυχή ρύθμιση της τεχνητής νοημοσύνης: διαφάνεια, κίνητρα για ασφάλεια και απλότητα και εστίαση.
Επί του παρόντος, δεν υπάρχει τρόπος για το κοινό να επαληθεύσει εάν μια εταιρεία τεχνητής νοημοσύνης ακολουθεί τους δικούς της κανονισμούς ασφαλείας. Για να παράγουν καλύτερες αναφορές, η Anthropic λέει ότι οι κυβερνήσεις θα πρέπει να απαιτούν από τις εταιρείες να «έχουν και να δημοσιεύουν πολιτικές παρόμοιες με το RSP», να ορίζουν ποιες προστασίες θα ξεκινήσουν και πότε και να δημοσιεύουν αξιολογήσεις κινδύνου για κάθε γενιά των συστημάτων τους. Φυσικά, οι κυβερνήσεις πρέπει επίσης να έχουν μια μέθοδο επαλήθευσης ότι όλοι αυτοί οι ισχυρισμοί της εταιρείας είναι πραγματικά αληθινοί.
Η Anthropic συνέστησε επίσης στις κυβερνήσεις να παρέχουν κίνητρα για καλύτερες πρακτικές ασφάλειας. «Οι ρυθμιστικές αρχές μπορούν να ορίσουν τα μοντέλα απειλών που πρέπει να πληρούν τα RSP σύμφωνα με ορισμένα πρότυπα λογικής, αφήνοντας τις λεπτομέρειες στις εταιρείες. Ή θα μπορούσαν απλώς να καθορίσουν τα πρότυπα που πρέπει να πληρούν τα RSP», πρότεινε η εταιρεία.
Επίσης: Οι επιχειρήσεις παραμένουν πρόθυμες να επενδύσουν στη γενιά της AI, με κορυφαία προτεραιότητα τη διαχείριση κινδύνου.
Ακόμα κι αν αυτά τα κίνητρα είναι έμμεσα, η Anthropic ενθαρρύνει τις κυβερνήσεις να τις διατηρήσουν ευέλικτες. «Είναι σημαντικό για τις ρυθμιστικές διαδικασίες να μαθαίνουν από τις βέλτιστες πρακτικές καθώς εξελίσσονται αντί να παραμένουν στατικές», αναφέρει το ιστολόγιο, αν και αυτό μπορεί να είναι δύσκολο να επιτευχθεί για τα γραφειοκρατικά συστήματα.
Αυτό είναι αυτονόητο, αλλά η Anthropic τόνισε επίσης ότι η νομοθεσία πρέπει να είναι εύκολη στην κατανόηση και την εφαρμογή. Ονομάζοντας την ιδανική ρύθμιση «χειρουργική», η εταιρεία υποστήριξε την «απλότητα και την εστίαση» στις συστάσεις της, προτρέποντας τις κυβερνήσεις να μην δημιουργούν περιττά «βάρη» στις εταιρείες τεχνητής νοημοσύνης που θα μπορούσαν να αποσπάσουν την προσοχή.
«Ένα από τα χειρότερα πράγματα που μπορεί να συμβεί στην πρόληψη καταστροφικών κινδύνων είναι να δημιουργηθεί ένας σύνδεσμος μεταξύ της ρύθμισης που απαιτείται για την πρόληψη των κινδύνων και των επαχθών ή αντιδιαισθητικών κανόνων», αναφέρει το ιστολόγιο.
Διαβουλεύσεις στον κλάδο
Η Anthropic κάλεσε επίσης τις συναδέλφους της εταιρείες τεχνητής νοημοσύνης να εφαρμόσουν RSP που υποστηρίζουν τη ρύθμιση. Σημείωσε τη σημασία της διασφάλισης της ασφάλειας και της ασφάλειας των υπολογιστών εκ των προτέρων και όχι μετά οι κίνδυνοι έχουν προκαλέσει βλάβη – και πόσο σημαντικό είναι αυτό κατά την πρόσληψη υπαλλήλων για την επίτευξη αυτού του στόχου.
«Όταν εφαρμόζονται σωστά, τα RSP καθορίζουν την οργανωτική δομή και τις προτεραιότητες. Αποτελούν βασικό μέρος των οδικών χαρτών προϊόντων και όχι απλώς των πολιτικών στα χαρτιά», σημειώνει το ιστολόγιο. Η Anthropic σημειώνει ότι τα RSP ενθαρρύνουν επίσης τους προγραμματιστές να εξετάσουν και να αναθεωρήσουν μοντέλα απειλών, ακόμη κι αν είναι αφηρημένα.
Επίσης: Το σημερινό οικοσύστημα AI δεν είναι βιώσιμο για τους περισσότερους εκτός από την Nvidia.
Τι ακολουθεί λοιπόν;
«Είναι κρίσιμο το επόμενο έτος, οι υπεύθυνοι χάραξης πολιτικής, ο κλάδος της τεχνητής νοημοσύνης, οι υποστηρικτές της ασφάλειας, η κοινωνία των πολιτών και οι νομοθέτες να συνεργαστούν για να αναπτύξουν ένα αποτελεσματικό ρυθμιστικό πλαίσιο που να πληροί τις παραπάνω προϋποθέσεις», κατέληξε η Anthropic. «Στις ΗΠΑ, αυτό θα συνέβαινε ιδανικά σε ομοσπονδιακό επίπεδο, αν και το επείγον μπορεί να απαιτεί από μεμονωμένες πολιτείες να το αναπτύξουν αντ’ αυτού».