Αφού ο κυβερνήτης της Καλιφόρνια άσκησε βέτο σε ένα νομοσχέδιο για την ασφάλεια της τεχνητής νοημοσύνης, ο επικεφαλής του DeepMind της Google ζητά συναίνεση σχετικά με το τι συνιστά ασφαλή, υπεύθυνη και ανθρωποκεντρική τεχνητή νοημοσύνη.
«Ελπίζω ότι αυτός είναι ένας τομέας στον οποίο μπορούμε να επιτύχουμε συνέπεια και να δούμε τα πλήρη οφέλη αυτής της τεχνολογίας», δήλωσε η Terra Terwilliger, διευθύντρια στρατηγικών πρωτοβουλιών στο Google DeepMind, τον ερευνητικό βραχίονα τεχνητής νοημοσύνης της εταιρείας. Την Τετάρτη, μίλησε στο Fortune’s Most Powerful Women Summit μαζί με τον CEO και συνιδρυτή της AI, Noushin Hashemi, τον γενικό συνεργάτη της Eclipse Ventures, Aidan Madigan-Curtis και τον Deepti Gulati, γενικό διευθυντή ελέγχου και διασφάλισης ποιότητας στην Deloitte & Touche LLP στις ΗΠΑ. .
Οι γυναίκες στράφηκαν στο SB-1047, ένα πολυσυζητημένο νομοσχέδιο της Καλιφόρνια που θα απαιτούσε από τους προγραμματιστές των μεγαλύτερων μοντέλων τεχνητής νοημοσύνης να πληρούν ορισμένες απαιτήσεις δοκιμών ασφαλείας και μετριασμού του κινδύνου. Ο Madigan-Curtis πρότεινε ότι εάν εταιρείες όπως το OpenAI δημιουργούν μοντέλα που είναι πραγματικά τόσο ισχυρά όσο λέγεται ότι είναι, τότε θα πρέπει να υπάρχει κάποια νομική υποχρέωση να τα αναπτύξουν με ασφάλεια.
«Έτσι λειτουργεί το σύστημά μας, σωστά; Είναι ένα σπρώξιμο και το τράβηγμα», είπε ο Madigan-Curtis. «Το τρομακτικό πράγμα με το να είσαι γιατρός είναι ότι μπορεί να σου κάνουν μήνυση για ιατρικό λάθος».
Σημείωσε μια διάταξη στο νεκρό πλέον νομοσχέδιο της Καλιφόρνια για τους «διακόπτες», η οποία θα απαιτούσε από τις εταιρείες να βρουν έναν τρόπο να απενεργοποιήσουν το μοντέλο τους εάν χρησιμοποιούνταν με κάποιο τρόπο για κάτι καταστροφικό, όπως η δημιουργία όπλων μαζικής καταστροφής.
«Αν το μοντέλο σας χρησιμοποιείται για να τρομοκρατήσει έναν συγκεκριμένο πληθυσμό, δεν θα πρέπει να μπορούμε να το κλείσουμε ή, ξέρετε, να αποτρέψουμε τη χρήση του;» ρώτησε εκείνη.
Ο Terwilliger του DeepMind θέλει να δει ρύθμιση που λαμβάνει υπόψη διαφορετικά επίπεδα της στοίβας AI. Είπε ότι τα βασικά μοντέλα έχουν διαφορετικές αρμοδιότητες από τις εφαρμογές που χρησιμοποιούν το μοντέλο.
«Είναι σημαντικό να βοηθήσουμε όλοι τις ρυθμιστικές αρχές να κατανοήσουν αυτές τις διαφορές, ώστε να έχουμε μια ρύθμιση που να είναι βιώσιμη και λογική», είπε.
Αλλά η ώθηση για υπεύθυνη κατασκευή δεν πρέπει να προέρχεται από την κυβέρνηση, είπε ο Terwilliger. Ακόμη και καθώς οι ρυθμιστικές απαιτήσεις αλλάζουν συνεχώς, η υπεύθυνη δημιουργία τεχνητής νοημοσύνης θα είναι το κλειδί για τη μακροπρόθεσμη υιοθέτηση της τεχνολογίας, είπε. Αυτό ισχύει για κάθε επίπεδο τεχνολογίας, από τη διασφάλιση της καθαρότητας των δεδομένων μέχρι την τοποθέτηση προστατευτικών κιγκλιδωμάτων για ένα μοντέλο.
«Πιστεύω ότι πρέπει να πιστεύουμε ότι η λογοδοσία είναι ένα ανταγωνιστικό πλεονέκτημα, και έτσι η κατανόηση του πώς να είσαι υπόλογος σε όλα τα επίπεδα αυτής της στοίβας θα κάνει τη διαφορά», είπε.