Το Εθνικό Ινστιτούτο Προτύπων και Τεχνολογίας (NIST) επανακυκλοφορεί ένα εργαλείο που ελέγχει πόσο επιρρεπή είναι τα μοντέλα τεχνητής νοημοσύνης (AI) να «δηλητηριαστούν» από κακόβουλα δεδομένα.
Η κίνηση έρχεται εννέα μήνες μετά το Εκτελεστικό Διάταγμα του Προέδρου Μπάιντεν για την Ασφαλή, Ασφαλή και Αξιόπιστη Ανάπτυξη Τεχνητής Νοημοσύνης και αποτελεί άμεση απάντηση στην απαίτηση του Εκτελεστικού Διατάγματος να βοηθήσει το NIST με τις δοκιμές μοντέλων. Το NIST κυκλοφόρησε επίσης πρόσφατα ένα πρόγραμμα που βοηθά τους Αμερικανούς να χρησιμοποιούν την τεχνητή νοημοσύνη χωρίς να πέφτουν θύματα συνθετικού περιεχομένου ή περιεχομένου που δημιουργείται από την τεχνητή νοημοσύνη και που προωθεί την ανάπτυξη της τεχνητής νοημοσύνης προς όφελος της κοινωνίας.
Το εργαλείο, που ονομάζεται Διόπτρα, κυκλοφόρησε αρχικά πριν από δύο χρόνια και στοχεύει να βοηθήσει τις μικρές και μεσαίες επιχειρήσεις και τους κρατικούς φορείς. Χρησιμοποιώντας αυτό το εργαλείο, κάποιος μπορεί να προσδιορίσει ποιες επιθέσεις μπορεί να κάνουν το μοντέλο AI λιγότερο αποτελεσματικό και να ποσοτικοποιήσει την υποβάθμιση της απόδοσης για να δει τις συνθήκες που προκάλεσαν την αποτυχία του μοντέλου.
Επίσης: Προσοχή «κατάρρευση μοντέλου» της τεχνητής νοημοσύνης: Πώς η μάθηση σε συνθετικά δεδομένα μολύνει την επόμενη γενιά
Γιατί είναι σημαντικό;
Είναι σημαντικό οι οργανισμοί να λαμβάνουν μέτρα για να διασφαλίσουν την ασφάλεια των προγραμμάτων AI. Το NIST ενθαρρύνει ενεργά τις ομοσπονδιακές υπηρεσίες να χρησιμοποιούν την τεχνητή νοημοσύνη σε μια ποικιλία συστημάτων. Τα μοντέλα τεχνητής νοημοσύνης εκπαιδεύονται σε υπάρχοντα δεδομένα και εάν κάποιος εισάγει σκόπιμα κακόβουλα δεδομένα – ας πούμε, δεδομένα που αναγκάζουν την τεχνητή νοημοσύνη να αγνοεί τα σημάδια στάσης ή τα όρια ταχύτητας – το NIST σημειώνει ότι τα αποτελέσματα μπορεί να είναι καταστροφικά.
Παρά όλα τα μετασχηματιστικά οφέλη της τεχνητής νοημοσύνης, ο διευθυντής του NIST Laurie E. Locascio λέει ότι η τεχνολογία ενέχει κινδύνους που είναι πολύ μεγαλύτεροι από αυτούς που σχετίζονται με άλλους τύπους λογισμικού. «Αυτά τα έγγραφα καθοδήγησης και το πλαίσιο δοκιμών θα ενημερώσουν τους δημιουργούς λογισμικού για αυτούς τους μοναδικούς κινδύνους και θα τους βοηθήσουν να αναπτύξουν τρόπους για να τους μετριάσουν, υποστηρίζοντας παράλληλα την καινοτομία», είπε σε ένα δελτίο τύπου.
Επίσης: Οι κανόνες ασφαλείας παρέχουν ουσιαστικό πρώτο επίπεδο προστασίας δεδομένων στην τεχνητή νοημοσύνη Gold Rush
Σύμφωνα με το NIST, το Dioptra μπορεί να δοκιμάσει πολλαπλούς συνδυασμούς επιθέσεων, άμυνες και αρχιτεκτονικές μοντέλων για να κατανοήσει καλύτερα ποιες επιθέσεις ενδέχεται να αποτελούν τη μεγαλύτερη απειλή και ποιες λύσεις μπορεί να είναι οι καλύτερες.
Το εργαλείο δεν υπόσχεται να εξαλείψει όλους τους κινδύνους, αλλά ισχυρίζεται ότι συμβάλλει στη μείωση των κινδύνων ενώ υποστηρίζει την καινοτομία. Είναι διαθέσιμο για δωρεάν λήψη.