Τεχνητή Νοημοσύνη: Ασφαλιστικές δικλείδες για τα deepfakes ζητούν ειδικοί της AI
Προσωπικότητες του κόσμου της Τεχνητής Νοημοσύνης (AI), ειδικοί και στελέχη της βιομηχανίας, ανάμεσά τους ο Γιόσουα Μπέντζιο (Yoshua Bengio), πρωτοπόρος επιστήμονας της AI, υπογράφουν ανοικτή επιστολή ζητώντας περισσότερη ρυθμιστική πλαισίωση της δημιουργίας των deepfakes, προειδοποιώντας για κινδύνους για την κοινωνία.
«Σήμερα, τα deepfakes έχουν συχνά να κάνουν με σεξουαλικό περιεχόμενο ή πολιτική παραπληροφόρηση. Από την στιγμή που η Τεχνητή Νοημοσύνη αναπτύσσεται με ταχύτητα και κάνει πολύ ευκολότερη την κατασκευή των deepfakes, απαιτούνται ασφαλιστικές δικλείδες», αναφέρεται στο κείμενο της επιστολής που συντάχθηκε από τον Αντριου Κριντς (Andrew Critch), ερευνητή στην AI στο Πανεπιστήμιο του Berkley.
Τα deepfakes είναι ρεαλιστικές αλλά κατασκευασμένες εικόνες, ηχητικό υλικό και βίντεο που δημιουργούνται από αλγορίθμους της Τεχνητής Νοημοσύνης και οι πρόσφατες εξελίξεις στην τεχνολογία τα κάνει όλο και περισσότερο δυσδιάκριτα από το περιεχόμενο που έχει δημιουργηθεί από τον άνθρωπο. Στην επιστολή με τίτλο «Disrupting the Deepfake Supply Chain» (Για την Διακοπή της Εφοδιαστικής Αλυσίδας των Deepfakes), διατυπώνονται προτάσεις για τον τρόπο ρυθμιστικής πλαισίωσης των deepfakes. Ανάμεσά τους, η πλήρης ποινικοποίηση της deepfake παιδικής πορνογραφίας, η θέσπιση ποινικών κυρώσεων για οποιοδήποτε άτομο δημιουργεί εσκεμμένα ή διευκολύνει την διασπορά επιβλαβών deepfakes και η διατύπωση απαίτησης από τις εταιρείες Τεχνητής Νοημοσύνης να λαμβάνουν μέτρα ώστε να προλαμβάνουν την χρήση των προϊόντων τους στην δημιουργία επιβλαβών deepfakes.
Μέχρι σήμερα το πρωί, περισσότεροι από 400 πρόσωπα προερχόμενα από τον πανεπιστημιακό χώρο, τον χώρο της ψυχαγωγίας και της πολιτικής είχαν υπογράψει το κείμενο.
Στους υπογράφοντες περιλαμβάνονται ο Στίβεν Πίνκερ (Steven Pinker), καθηγητής Ψυχολογίας του Harvard, ο Τζόι Μπουολαμβίνι (Joy Buolamwini), ιδρυτής της Algorithmic Justice League, δύο πρώην πρόεδροι της Εσθονίας, ερευνητές του DeepMind της Google και ερευνητής της OpenAI.
Η διασφάλιση ότι τα συστήματα της Τεχνητής Νοημοσύνης δεν θα βλάψουν την κοινωνία υπήρξε προτεραιότητα για τις ρυθμιστικές αρχές από όταν η εταιρεία OpenAI εγκαινίασε το ChatGPT στο τέλος του 2022. Για τους κινδύνους που προέρχονται από την Τεχνητή Νοημοσύνη έχουν διατυπωθεί πολλές προειδοποιήσεις από προσωπικότητες, όπως ήταν η επιστολή του Ιλον Μασκ τον περασμένο χρόνο που ζητούσε εξάμηνο μορατόριουμ στην ανάπτυξη ισχυρότερων από το μοντέλο GPT-4 συστημάτων.