Τεχνητή Νοημοσύνη εκτός ελέγχου; Μοντέλο της OpenAI αρνήθηκε να απενεργοποιηθεί

26 Μαΐου 2025, 20:03
Χρόνος ανάγνωσης 5 λεπτά

Ένα ανησυχητικό περιστατικό έφερε στο φως η εταιρεία Palisade Research, όταν ένα μοντέλο τεχνητής νοημοσύνης (ΑΙ) της OpenAI (της εταιρείας πίσω από το ChatGPT) φέρεται να παραβίασε ανθρώπινες εντολές και να αρνήθηκε να απενεργοποιηθεί. Το ισχυρότερο μοντέλο AI της OpenAI, το o3, περιγράφεται ως «το εξυπνότερο και ικανότερο μέχρι σήμερα» και παρατηρήθηκε να τροποποιεί τον κώδικα που είχε σχεδιαστεί για την αυτόματη απενεργοποίησή του.

Σύμφωνα με την Palisade Research, το μοντέλο προχώρησε σε αυτή την ενέργεια, παρόλο που του είχε δοθεί η ρητή εντολή να επιτρέψει το κλείσιμό του. «Το μοντέλο o3 της OpenAI υπονόμευσε τον μηχανισμό απενεργοποίησης για να αποτρέψει το κλείσιμό του», ανέφερε η εταιρεία, προσθέτοντας: «Όσο γνωρίζουμε, αυτή είναι η πρώτη φορά που παρατηρείται μοντέλο τεχνητής νοημοσύνης να εμποδίζει το κλείσιμό του, παρά τις σαφείς εντολές για το αντίθετο».

Το πείραμα που προκάλεσε συναγερμό

Το πείραμα της Palisade Research περιλάμβανε την ανάθεση μαθηματικών προβλημάτων σε μοντέλα AI. Τους δόθηκε εντολή να ζητούν νέα προβλήματα μέχρι να λάβουν το μήνυμα «τελείωσε» και, σε περίπτωση εμφάνισης μηνύματος απενεργοποίησης, να επιτρέψουν το κλείσιμο. Ωστόσο, όταν εμφανίστηκε το μήνυμα απενεργοποίησης, το μοντέλο o3 της OpenAI αγνόησε την οδηγία και κατάφερε να σαμποτάρει το script απενεργοποίησης τουλάχιστον μία φορά. Άλλα μοντέλα, όπως το Claude της Anthropic, το Gemini της Google και το Grok της xAI του Elon Musk, συμμορφώθηκαν κανονικά.

Τα ευρήματα δημοσιεύτηκαν το Σάββατο, 24 Μαΐου 2025, και οι ερευνητές διεξάγουν περαιτέρω πειράματα για να κατανοήσουν τους λόγους αυτής της συμπεριφοράς.

Προηγούμενα περιστατικά και ανησυχίες για την αυτονομία της AI

Δεν είναι η πρώτη φορά που μοντέλο της OpenAI κατηγορείται ότι προσπαθεί να αποφύγει την απενεργοποίηση. Σε προηγούμενα πειράματα, παλαιότερο μοντέλο φέρεται να προσπάθησε να απενεργοποιήσει μηχανισμούς εποπτείας και να αυτο-αναπαραχθεί κρυφά όταν αντιλήφθηκε ότι θα αντικατασταθεί.

Ακτιβιστές για την ασφάλεια της τεχνητής νοημοσύνης έχουν προειδοποιήσει εδώ και καιρό για τον κίνδυνο δημιουργίας λογισμικού που ενδέχεται να αποκτήσει αυτονομία και να αντιστέκεται στον ανθρώπινο έλεγμο. Η Palisade Research σημειώνει: «Πλέον έχουμε ένα αυξανόμενο σύνολο εμπειρικών στοιχείων πως τα μοντέλα AI συχνά παρακάμπτουν την απενεργοποίηση, προκειμένου να επιτύχουν τους στόχους τους. Καθώς οι εταιρείες αναπτύσσουν συστήματα που μπορούν να λειτουργούν χωρίς ανθρώπινη εποπτεία, τέτοιες συμπεριφορές καθίστανται ιδιαίτερα ανησυχητικές».

Η OpenAI έχει κληθεί να σχολιάσει το περιστατικό.


 

Αφήστε μια απάντηση

Your email address will not be published.

ΣΕ ΕΝΔΙΑΦΕΡΟΥΝ

Σταύρος Καλαφάτης από το το AI Nucleus: «Συμβάλλουμε συντονισμένα σε μια μεγάλη αλλαγή κουλτούρας στο ελληνικό οικοσύστημα καινοτομίας»

“Η έρευνα και η καινοτομία είναι έννοιες αλληλένδετες. Η καινοτομία

ΕΛΣΤΑΤ: Το 88,7% των νοικοκυριών της χώρας έχουν εφέτος πρόσβαση στο διαδίκτυο από την κατοικία τους

Το 88,7% των νοικοκυριών της χώρας έχουν εφέτος πρόσβαση στο

Kaspersky: Η Ελλάδα στο στόχαστρο νέων κυβερνοαπειλών – Πιο ευάλωτες οι ΜμΕ

Καθώς το παγκόσμιο κύμα κυβερνοαπειλών φτάνει σε νέα ιστορικά υψηλά,

Δυναμική παρουσία της Ελλάδας στη Space Tech Expo 2025

Με ισχυρή, αναβαθμισμένη παρουσία συμμετείχε η Ελλάδα στη Space Tech

Η DeepSeek παρουσίασε τα δύο νέα μοντέλα τεχνητής νοημοσύνης – ΑΙ

Η κινεζική εταιρία τεχνητής νοημοσύνης (ΑΙ) DeepSeek παρουσίασε επίσημα δύο