O «νονός» της τεχνητής νοημοσύνης προειδοποιεί – «Μπορεί να καταστρέψει την ανθρωπότητα τα επόμενα 30 χρόνια»

Ο Βρετανο-Καναδός επιστήμονας πληροφορικής, που συχνά χαρακτηρίζεται ως “πατέρας” της τεχνητής νοημοσύνης, μείωσε τις πιθανότητες επιβίωσης της ανθρωπότητας απέναντι στην τεχνητή νοημοσύνη τις επόμενες τρεις δεκαετίες, προειδοποιώντας ότι ο ρυθμός εξέλιξης της τεχνολογίας είναι «πολύ ταχύτερος» από ό,τι αναμενόταν.


Ο καθηγητής Τζέφρι Χίντον, που φέτος τιμήθηκε με το Νόμπελ Φυσικής για το έργο του στην τεχνητή νοημοσύνη, δήλωσε ότι υπάρχει «10% με 20%» πιθανότητα η τεχνητή νοημοσύνη να οδηγήσει στην εξαφάνιση της ανθρωπότητας μέσα στις επόμενες τρεις δεκαετίες.


Προηγουμένως, ο Χίντον είχε αναφέρει ότι υπήρχε 10% πιθανότητα η τεχνολογία να προκαλέσει καταστροφικό αποτέλεσμα για την ανθρωπότητα.

Όταν ρωτήθηκε στην εκπομπή “Today” του BBC Radio 4 αν άλλαξε την ανάλυσή του για μια πιθανή αποκαλυπτική εξέλιξη της τεχνητής νοημοσύνης και την πιθανότητα 1 στις 10 να συμβεί, απάντησε: «Όχι ακριβώς, 10% με 20%».

Η εκτίμηση του Χίντον έκανε τον καλεσμένο συντάκτη της εκπομπής, τον πρώην υπουργό Οικονομικών Σάτζιντ Τζάβιντ, να πει: «Αυξάνετε τις πιθανότητες», με τον Χίντον να απαντά: «Ίσως. Βλέπετε, δεν έχουμε ξανααντιμετωπίσει κάτι πιο έξυπνο από εμάς».

Πρόσθεσε: «Και πόσα παραδείγματα γνωρίζετε όπου κάτι πιο έξυπνο ελέγχεται από κάτι λιγότερο έξυπνο; Είναι ελάχιστα τα παραδείγματα. Υπάρχει η σχέση μητέρας και μωρού. Η εξέλιξη δούλεψε σκληρά για να επιτρέψει στο μωρό να ελέγχει τη μητέρα, αλλά αυτό είναι το μόνο παράδειγμα που ξέρω».

Ο Χίντον, που γεννήθηκε στο Λονδίνο και είναι ομότιμος καθηγητής στο Πανεπιστήμιο του Τορόντο, είπε ότι οι άνθρωποι θα μοιάζουν με νήπια σε σύγκριση με τη νοημοσύνη των ισχυρών συστημάτων τεχνητής νοημοσύνης.

«Μου αρέσει να το σκέφτομαι ως εξής: φανταστείτε τον εαυτό σας με ένα τρίχρονο παιδί. Εμείς θα είμαστε το τρίχρονο», είπε.

Η τεχνητή νοημοσύνη μπορεί να οριστεί χαλαρά ως τα συστήματα υπολογιστών που εκτελούν εργασίες που συνήθως απαιτούν ανθρώπινη νοημοσύνη.

Πέρυσι, ο Χίντον έγινε πρωτοσέλιδο όταν παραιτήθηκε από τη δουλειά του στη Google για να μιλήσει πιο ανοιχτά για τους κινδύνους που θέτει η ανεξέλεγκτη ανάπτυξη της τεχνητής νοημοσύνης, εκφράζοντας ανησυχίες ότι «κακόβουλοι παράγοντες» θα μπορούσαν να χρησιμοποιήσουν την τεχνολογία για να βλάψουν άλλους. Ένα βασικό θέμα ανησυχίας των υποστηρικτών της ασφάλειας στην τεχνητή νοημοσύνη είναι ότι η δημιουργία τεχνητής γενικής νοημοσύνης, δηλαδή συστημάτων πιο έξυπνων από τους ανθρώπους, θα μπορούσε να οδηγήσει την τεχνολογία να αποτελεί υπαρξιακή απειλή, ξεφεύγοντας από τον ανθρώπινο έλεγχο.

Αναλογιζόμενος πού πίστευε ότι θα είχε φτάσει η ανάπτυξη της τεχνητής νοημοσύνης όταν ξεκίνησε το έργο του, ο Χίντον είπε: «Δεν πίστευα ότι θα βρισκόμασταν εδώ που είμαστε τώρα. Νόμιζα ότι κάποια στιγμή στο μέλλον θα φτάναμε εδώ».

Πρόσθεσε: «Επειδή η κατάσταση στην οποία βρισκόμαστε τώρα είναι ότι οι περισσότεροι ειδικοί στον τομέα πιστεύουν πως κάποια στιγμή, πιθανώς μέσα στα επόμενα 20 χρόνια, θα αναπτύξουμε ΤΝ που θα είναι πιο έξυπνη από τους ανθρώπους. Και αυτό είναι μια πολύ τρομακτική σκέψη».

Ο Hinton ανέφερε ότι ο ρυθμός ανάπτυξης είναι «πολύ, πολύ γρήγορος, πολύ πιο γρήγορος από ό,τι περίμενα» και κάλεσε τις κυβερνήσεις να ρυθμίσουν την τεχνολογία.

«Η ανησυχία μου είναι ότι το “αόρατο χέρι” δεν θα μας προστατεύσει. Έτσι, η απλή εξάρτηση από το κίνητρο του κέρδους των μεγάλων εταιρειών δεν θα είναι αρκετή για να διασφαλίσει ότι θα αναπτύξουν την τεχνολογία με ασφάλεια», δήλωσε. «Το μόνο που μπορεί να αναγκάσει αυτές τις μεγάλες εταιρείες να κάνουν περισσότερη έρευνα για την ασφάλεια είναι η κυβερνητική ρύθμιση».


Ο Hinton είναι ένας από τους τρεις «πατέρες της ΤΝ» που έχουν κερδίσει το βραβείο ACM AM Turing – το αντίστοιχο του βραβείου Νόμπελ για την επιστήμη των υπολογιστών – για το έργο τους. Ωστόσο, ένας από τους τρεις, ο Yann LeCun, επικεφαλής επιστήμονας ΤΝ της Meta του Mark Zuckerberg, έχει υποβαθμίσει την υπαρξιακή απειλή, δηλώνοντας ότι η ΤΝ «θα μπορούσε στην πραγματικότητα να σώσει την ανθρωπότητα από την εξαφάνιση».

Γράψτε ένα σχόλιο

Η ηλ. διεύθυνση σας δεν δημοσιεύεται. Τα υποχρεωτικά πεδία σημειώνονται με *