Ο “πατέρας” της τεχνητής νοημοσύνης προειδοποιεί: Υπάρχουν πιθανότητες να καταστρέψει την ανθρωπότητα
Ο Βρετανοκαναδός επιστήμονας υπολογιστών, Τζέφρι Χίντον, γνωστός και ως «πατέρας» της τεχνητής νοημοσύνης, προειδοποίησε ότι οι πιθανότητες η ΑΙ να οδηγήσει στην εξαφάνιση της ανθρωπότητας μέσα στις επόμενες τρεις δεκαετίες έχουν αυξηθεί. Ο Χίντον, ο οποίος φέτος τιμήθηκε με το Νόμπελ Φυσικής για τη σημαντική του συμβολή στην ανάπτυξη της τεχνητής νοημοσύνης, εκτίμησε ότι υπάρχει μια πιθανότητα 10% έως 20% η συγκεκριμένη τεχνολογία να επιφέρει καταστροφικές συνέπειες για το μέλλον της ανθρωπότητας. Η δήλωσή του αυτή έρχεται να ενισχύσει τις ανησυχίες που εκφράζουν πολλοί ειδικοί σχετικά με τους κινδύνους που ενδέχεται να προκύψουν από την ανεξέλεγκτη ανάπτυξη και χρήση της τεχνητής νοημοσύνης.
Σε συνέντευξή του στο πρόγραμμα Today του BBC Radio 4, ο Χίντον τόνισε ότι η ταχύτητα εξέλιξης της τεχνολογίας είναι «πολύ πιο γρήγορη» από ό,τι περίμενε. Όταν ρωτήθηκε αν έχει αναθεωρήσει τις εκτιμήσεις του, απάντησε: «Όχι ιδιαίτερα, 10% με 20%».
Ο πρώην υπουργός Οικονομικών, Σατζίντ Τζάβιντ, που φιλοξενούσε το πρόγραμμα, σχολίασε ότι οι πιθανότητες φαίνεται να αυξάνονται, με τον Χίντον να συμφωνεί: «Αν μη τι άλλο, ναι. Ποτέ δεν έχουμε χρειαστεί να διαχειριστούμε κάτι πιο έξυπνο από εμάς».
Ο Χίντον εξήγησε ότι η ανθρώπινη νοημοσύνη θα μοιάζει με αυτήν ενός μικρού παιδιού σε σχέση με την ευφυΐα ισχυρών συστημάτων ΑΙ. «Σκεφτείτε τον εαυτό σας σε σχέση με ένα τρίχρονο παιδί. Εμείς θα είμαστε τα τρίχρονα παιδιά», είπε χαρακτηριστικά.
Ο Χίντον προκάλεσε παγκόσμιο ενδιαφέρον πέρυσι όταν παραιτήθηκε από τη θέση του στην Google για να μιλήσει πιο ανοιχτά για τους κινδύνους της ανεξέλεγκτης ανάπτυξης της ΑΙ. Έκτοτε, εξέφρασε έντονες ανησυχίες για τη χρήση της τεχνολογίας από «κακόβουλους παράγοντες» και τη δυνατότητα συστημάτων γενικής τεχνητής νοημοσύνης να ξεφύγουν από τον ανθρώπινο έλεγχο, αποτελώντας υπαρξιακή απειλή.
Αναλογιζόμενος την εξέλιξη της τεχνητής νοημοσύνης, ο Χίντον δήλωσε ότι δεν περίμενε πως η τεχνολογία θα είχε φτάσει στο σημερινό επίπεδο τόσο γρήγορα. «Η κατάσταση τώρα είναι ότι οι περισσότεροι ειδικοί του τομέα πιστεύουν πως μέσα στις επόμενες δύο δεκαετίες, πιθανότατα θα αναπτύξουμε ΑΙ που θα είναι πιο έξυπνη από τους ανθρώπους. Και αυτή είναι μια πολύ τρομακτική σκέψη».
Ο Χίντον ζήτησε κρατική ρύθμιση για την τεχνολογία, υποστηρίζοντας ότι η εξάρτηση από την «αόρατη χείρα» της αγοράς και το κίνητρο του κέρδους δεν αρκεί για να διασφαλιστεί η ασφαλής ανάπτυξή της. «Η μόνη δύναμη που μπορεί να υποχρεώσει τις μεγάλες εταιρείες να επενδύσουν περισσότερο στην ασφάλεια είναι η κυβερνητική ρύθμιση», τόνισε.
Παρά τις ανησυχίες του Χίντον, άλλοι ειδικοί, όπως ο Γιαν ΛεΚουν, επικεφαλής επιστήμονας ΑΙ στη Meta, έχουν διαφορετική άποψη. Ο ΛεΚουν δήλωσε ότι η ΑΙ «μπορεί στην πραγματικότητα να σώσει την ανθρωπότητα από την εξαφάνιση», μειώνοντας την ανησυχία για τις υπαρξιακές απειλές.