Έχουμε κατακλυστεί από αυτές τώρα – “βαθιά ψεύτικες” φωτογραφίες που ουσιαστικά δεν διακρίνονται από τις πραγματικές (εκτός από τα επιπλέον δάχτυλα), άρθρα που δημιουργούνται από την τεχνητή νοημοσύνη και θητείες που ακούγονται ρεαλιστικά (αν και εξακολουθούν να φαίνονται αφύσικα), δημιουργημένα από AI κριτικές, και άλλα άλλα. Επιπλέον, τα συστήματα AI μπορούν να εξάγουν υλικό που προστατεύεται από πνευματικά δικαιώματα ή πνευματική ιδιοκτησία από ιστότοπους ως δεδομένα εκπαίδευσης, εκθέτοντας τους χρήστες σε πιθανές παραβιάσεις.
Επίσης: Οι περισσότεροι άνθρωποι ανησυχούν για τα deepfakes και υπερεκτιμούν την ικανότητά τους να τα αναγνωρίζουν.
Το πρόβλημα, φυσικά, είναι ότι το περιεχόμενο AI γίνεται όλο και καλύτερο. Θα υπάρξει ποτέ αξιόπιστος τρόπος αναγνώρισης υλικού που δημιουργείται από AI; Και τι πρέπει να καταλάβουν οι δημιουργοί τεχνητής νοημοσύνης και οι εταιρείες τους σχετικά με τις νέες τεχνολογίες;
«Το Generative AI χρησιμοποιήθηκε αρχικά για ψυχαγωγικούς και εκπαιδευτικούς σκοπούς, αλλά τώρα βλέπουμε πολλούς κακούς ηθοποιούς να χρησιμοποιούν την τεχνητή νοημοσύνη για κακόβουλους σκοπούς», δήλωσε στο ZDNET ο Andy Turai, αντιπρόεδρος και κύριος αναλυτής της Constellation Research.
Το περιεχόμενο πολυμέσων—εικόνες, βίντεο, αρχεία ήχου—είναι ιδιαίτερα ευαίσθητο σε «λανθασμένη πίστη, λογοκλοπή, κλοπή ή καθόλου πίστωση», πρόσθεσε ο Τουράι. Αυτό σημαίνει ότι «οι δημιουργοί δεν θα λάβουν επαρκή πίστωση ή εισόδημα». Ένας επιπλέον κίνδυνος, είπε, είναι «η διάδοση παραπληροφόρησης που θα μπορούσε να επηρεάσει τις αποφάσεις».
Από κειμενική άποψη, ένα βασικό πρόβλημα είναι ότι οι πολλαπλές υποδείξεις και επαναλήψεις γλωσσικών μοντέλων τείνουν να θολώνουν τα υδατογραφήματα ή να προσφέρουν ελάχιστες πληροφορίες, σύμφωνα με μια πρόσφατη εργασία που γράφτηκε από ερευνητές του Πανεπιστημίου του Σικάγο με επικεφαλής τον επίκουρο καθηγητή πανεπιστημίου Aloni Cohen. Ζητούν μια νέα προσέγγιση —υδατογράφηση πολλών χρηστών— που επιτρέπει την παρακολούθηση του κειμένου που δημιουργείται από μοντέλα σε μεμονωμένους χρήστες ή ομάδες χρηστών που συμπράττουν, ακόμη και όταν υπάρχουν προσαρμοστικές προτάσεις».
Επίσης: Photoshop vs Midjourney vs DALL-E 3: Μόνο μία γεννήτρια εικόνας AI πέρασε τις 5 δοκιμές μου
Η πρόκληση τόσο για το κείμενο όσο και για τα μέσα είναι να υδατογραφήσουν ψηφιακά μοντέλα γλώσσας και εξόδους τεχνητής νοημοσύνης. Είναι απαραίτητο να εφαρμοστούν ανιχνεύσιμα σήματα που δεν μπορούν να αλλάξουν ή να αφαιρεθούν.
Επί του παρόντος βρίσκονται σε εξέλιξη πρωτοβουλίες σε ολόκληρη τη βιομηχανία για την ανάπτυξη ισχυρών υδατογραφημάτων AI. Για παράδειγμα, ο Συνασπισμός για την Προέλευση και την Αυθεντικότητα Περιεχομένου (C2PA) —μια συλλογική προσπάθεια που σχηματίστηκε από μια συμμαχία των Adobe, Arm, Intel, Microsoft και Truepic— αναπτύσσει ένα ανοιχτό τεχνικό πρότυπο με στόχο να δώσει στους εκδότες, τους δημιουργούς και τους καταναλωτές «το ικανότητα εντοπισμού της προέλευσης διαφορετικών τύπων μέσων».
Επίσης: Επιστήμονας AI: “Πρέπει να σκεφτόμαστε έξω από το μεγάλο γλωσσικό μοντέλο”
Το C2PA ενώνει τις προσπάθειες του Adobe Content Authenticity Initiative (CAI), το οποίο εστιάζει σε συστήματα περιβάλλοντος και ιστορίας για ψηφιακά μέσα, και του Project Origin, μιας πρωτοβουλίας της Microsoft και του BBC που καταπολεμά την παραπληροφόρηση στο οικοσύστημα ψηφιακών ειδήσεων.
«Χωρίς τυποποιημένη πρόσβαση σε εργαλεία ανίχνευσης, η επαλήθευση του εάν το περιεχόμενο δημιουργείται από τεχνητή νοημοσύνη γίνεται μια δαπανηρή, αναποτελεσματική και ad hoc διαδικασία», υποστηρίζει η Alessandra Sala του Shutterstock σε μια έκθεση που δημοσιεύτηκε από τη Διεθνή Ένωση Τηλεπικοινωνιών (ITU), την ψηφιακή υπηρεσία του ΟΗΕ. «Ουσιαστικά, αυτό σημαίνει ότι όλα τα διαθέσιμα εργαλεία ανίχνευσης τεχνητής νοημοσύνης δοκιμάζονται ένα κάθε φορά και ακόμα δεν μπορούμε να είμαστε σίγουροι αν κάποιο περιεχόμενο δημιουργείται από AI».
Ο πολλαπλασιασμός των παραγωγικών πλατφορμών τεχνητής νοημοσύνης «απαιτεί ένα δημόσιο μητρώο μοντέλων με υδατοσήμανση καθώς και καθολικά εργαλεία ανακάλυψης», προέτρεψε ο Sala. «Μέχρι τότε, οι ηθικοί χρήστες τεχνητής νοημοσύνης θα πρέπει να ρωτούν την υπηρεσία υδατογράφησης κάθε εταιρείας, όπως απαιτείται, για να επαληθεύσουν εάν ένα κομμάτι περιεχομένου έχει υδατογραφηθεί».
Επίσης: Η σημερινή πρόκληση: Ξεπερνώντας τα ασαφή αποτελέσματα και αμφισβητήσιμη ακρίβεια AI
Η πρωτοβουλία C2PA προωθεί την «ευρεία υιοθέτηση διαπιστευτηρίων περιεχομένου, τα οποία είναι μεταδεδομένα ανθεκτικά σε παραβιάσεις που μπορούν να προσαρτηθούν σε ψηφιακό περιεχόμενο», εξήγησε ο Turai. Εξισώνει τα διαπιστευτήρια περιεχομένου με μια «διατροφική ετικέτα» την οποία οι δημιουργοί μπορούν να επισυνάψουν στο ψηφιακό τους περιεχόμενο που μπορεί να χρησιμοποιηθεί για την παρακολούθηση της προέλευσης του περιεχομένου». Με αυτό το ανοιχτό πρότυπο, οι εκδότες, οι δημιουργοί και οι καταναλωτές θα μπορούν «να εντοπίσουν την προέλευση και την εξέλιξη ενός αρχείου πολυμέσων, συμπεριλαμβανομένων εικόνων, βίντεο, ήχου και εγγράφων», πρόσθεσε.
Ο τρόπος που λειτουργεί, λέει ο Turai, είναι ότι οι δημιουργοί περιεχομένου μπορούν «να λάβουν τα εύσημα για τη δουλειά τους στο διαδίκτυο επισυνάπτοντας πληροφορίες, όπως το όνομά τους ή τους λογαριασμούς τους στα μέσα κοινωνικής δικτύωσης, απευθείας στο περιεχόμενο που δημιουργούν». Αυτό θα περιλαμβάνει απλώς είτε κάνοντας κλικ σε μια καρφίτσα που είναι συνδεδεμένη σε ένα τμήμα περιεχομένου είτε μεταβείτε σε έναν ιστότοπο για να ελέγξετε την προέλευση. Τέτοια εργαλεία «επαληθεύουν τις σχετικές πληροφορίες και παρέχουν επίσης ένα λεπτομερές ιστορικό αλλαγών με την πάροδο του χρόνου».