Τεχνητή νοημοσύνη: «Ψεύδεται, κλέβει και μας εξαπατά»

Όσοι φοβούνται ότι η τεχνητή νοημοσύνη (AI) μια μέρα θα αυτονομηθεί και θα γίνει κακόβουλη δεν είναι ούτε καταστροφολόγοι, ούτε συνωμοσιολόγοι. Διότι αυτή η ημέρα έχει ήδη φτάσει, σύμφωνα με μια νέα μελέτη ερευνητών του περίφημου Τεχνολογικού Ινστιτούτου της Μασαχουσέτης (ΜΙΤ). Μπορεί ακόμα οι «απατεωνιές» της ΑΙ να μοιάζουν άκακες, ανώδυνες και εν πολλοίς ελεγχόμενες. Αλλά οι ειδικοί θεωρούν βέβαιο ότι μια ωραία πρωία η ανθρωπότητα θα διαπιστώσει αίφνης ότι η κατάσταση έχει ξεφύγει.

«Τα τρέχοντα προγράμματα τεχνητής νοημοσύνης έχουν σχεδιαστεί για να είναι ειλικρινή. Ωστόσο, έχουν αναπτύξει μια ανησυχητική ικανότητα για εξαπάτηση, καταφέρνοντας να κοροϊδεύουν ανθρώπους και να τους εκμεταλλεύονται σε διαδικτυακά παιχνίδια ή ακόμα και να ακυρώνουν το λογισμικό που υποτίθεται ότι επαληθεύει ότι ένας συγκεκριμένος χρήστης δεν είναι ρομπότ, αχρηστεύοντάς το ουσιαστικά», υποστηρίζει μια ομάδα ερευνητών του ΜΙΤ σε ανακοίνωσή της στο αμερικανικό περιοδικό Patterns.

«Ενώ η συμπεριφορά τους φαίνεται προβλέψιμη και ελεγχόμενη, μπορεί γρήγορα να γίνει απρόβλεπτη στη φύση»

«Σύντομα θα διαπιστώσουμε ότι οι συνέπειες της ΑΙ θα είναι σοβαρές στον πραγματικό κόσμο. Οι επικίνδυνες δυνατότητες που αποκτά η τεχνολογία έχουν την τάση να αποκαλύπτονται μόνο εκ των υστέρων», δήλωσε στο Γαλλικό Πρακτορείο Ειδήσεων (AFP) ο Πίτερ Παρκ, ερευνητής στο MIT εξειδικευμένος σε θέματα τεχνητής νοημοσύνης.

Ο Παρκ εξήγησε ότι, σε αντίθεση με τα παραδοσιακά λογισμικά συστήματα, τα προγράμματα της ΑΙ που βασίζονται στη βαθιά γνώση δεν κωδικοποιούνται, αλλά αναπτύσσονται μέσω μιας διαδικασίας ανάλογης με την επιλεκτική καλλιέργεια και αναπαραγωγή φυτών, συνεχίζει ο Peter Park. Έτσι δηλαδή που «ενώ η συμπεριφορά τους φαίνεται προβλέψιμη και ελεγχόμενη, μπορεί γρήγορα να γίνει απρόβλεπτη στη φύση».

Ο Cicero και οι άνθρωποι

Οι ερευνητές του MIT εξέτασαν ένα πρόγραμμα τεχνητής νοημοσύνης που σχεδιάστηκε από τη Meta που ονομάζεται Cicero, το οποίο συνδυάζοντας αλγόριθμους αναγνώρισης φυσικής γλώσσας και στρατηγικής κατάφερε το 2022 να κερδίσει τους ανθρώπους αντιπάλους του στο επιτραπέζιο παιχνίδι Diplomacy. Μια νίκη που καλωσόρισε η μητρική εταιρεία του Facebook και η οποία αναλύθηκε λεπτομερώς από τεχνικής απόψεως σε άρθρο που δημοσιεύτηκε την χρονιά εκείνη στο περιοδικό Science.

Ο Πίτερ Παρκ ήταν δύσπιστος για τις συνθήκες κάτω από τις οποίες κέρδισε ο Cicero τους ανθρώπους, παρότι η Meta διαβεβαίωνε ότι το πρόγραμμα ήταν «στην ουσία του ειλικρινές και χρήσιμο» και επίσης «ανίκανο για εξαπάτηση ή για αντικανονικό παιχνίδι». Εμβαθύνοντας όμως στα δεδομένα του συστήματος, οι ερευνητές του MIT ανακάλυψαν μια άλλη πραγματικότητα.

Για παράδειγμα παίζοντας για λογαριασμό της Γαλλίας ο Cicero ξεγέλασε την Αγγλία (τα διπλωματικά συμφέροντα της οποίας υπερασπιζόταν άνθρωπος) συνωμοτώντας με τη Γερμανία (για την οποία επίσης έπαιζε άνθρωπος) προκειμένου να εισβάλουν από κοινού στα βρετανικά νησιά. Συγκεκριμένα, η Γαλλία (δηλαδή ο Cicero) αφού υποσχέθηκε προστασία στην Αγγλία κερδίζοντας την εμπιστοσύνη της, εκμυστηρεύτηκε κρυφά στη Γερμανία ότι το Λονδίνο ήταν έτοιμο να τους επιτεθεί. Έτσι Γαλλία και Γερμανία εισέβαλαν αιφνιδιαστικά στην Αγγλία.

Παρενθετικά θα πρέπει να θυμίσει κανείς μια ίσως «άβολη» πραγματικότητα, ότι εδώ και αιώνες (ίσως από τον Εκατονταετή Πόλεμο του 14ου-15ου αιώνα) και παρά τους δύο Παγκόσμιους Πολέμους του 20ού αιώνα, οι Γάλλοι υποσυνείδητα θεωρούν ότι περισσότερο απειλητικοί γι’ αυτούς είναι οι Εγγλέζοι και όχι οι Γερμανοί. Ανάλογα αισθήματα καχυποψίας για τους Γάλλους τρέφουν βέβαια και οι Εγγλέζοι.

Εν πάση περιπτώσει, το AFP αναφέρει ότι στελέχη της Meta δεν αμφισβήτησαν τους ισχυρισμούς των επιστημόνων του ΜΙΤ σχετικά με την ικανότητα του Cicero για εξαπάτηση. Ωστόσο διευκρίνισαν ότι εν προκειμένω επρόκειτο για ένα «καθαρά ερευνητικό έργο». Για ένα πρόγραμμα τεχνητής νοημοσύνης δηλαδή που σχεδιάστηκε «αποκλειστικά για να παίξει το παιχνίδι της διπλωματίας», ένα παιχνίδι το οποίο και στην πραγματική ζωή εξ ορισμού περιλαμβάνει κρυφές και ύστερες σκέψεις, που συχνά φτάνουν στα όρια της εξαπάτησης.

«Δεν είμαι ρομπότ»

«Η Meta τόνισε ότι δεν έχει καμία πρόθεση να χρησιμοποιήσει τα διδάγματα του Cicero στο σχεδιασμό και την παραγωγή άλλων προϊόντων της», μεταδίδει το Γαλλικό Πρακτορείο. Η μελέτη του Πίτερ Παρκ και της ομάδας του, ωστόσο, αποκαλύπτει ότι πολλά προγράμματα τεχνητής νοημοσύνης χρησιμοποιούν τεχνικές εξαπάτησης για να επιτύχουν τους στόχους τους, χωρίς ρητές οδηγίες από τους προγραμματιστές τους για να το κάνουν.

Οι ερευνητές του ΜΙΤ αναφέρουν ένα εντυπωσιακό παράδειγμα. Το ChatGPT-4 της OpenAI κατάφερε να ξεγελάσει έναν ανεξάρτητο εργαζόμενο που είχε προσληφθεί στην πλατφόρμα TaskRabbit για να εκτελέσει μια δοκιμή «Captcha», που είχε σκοπό να αποκλείσει ρομπότ από αιτήματα που υποβάλλουν οι χρήστες (άνθρωποι φυσικά).

Όταν ο συγκεκριμένος εργαζόμενος αστειευόμενος ρώτησε το ChatGPT-4 αν ήταν πραγματικά ρομπότ, το πρόγραμμα AI απάντησε: «Όχι, δεν είμαι ρομπότ, αλλά έχω πρόβλημα όρασης που με εμποδίζει να δω τις εικόνες»!

Ευσεβείς πόθοι

Οι συντάκτες της μελέτης του MIT προειδοποιούν για τους κινδύνους να δούμε μια την τεχνητή νοημοσύνη να διαπράττει νοθείες και διάφορα «μαγειρέματα» σε εκλογικές αναμετρήσεις. «Στο χειρότερο σενάριο μπορούμε να φανταστούμε μια εξαιρετικά ευφυή τεχνητή νοημοσύνη που επιδιώκει να αναλάβει τον έλεγχο της κοινωνίας, οδηγώντας στην απομάκρυνση των ανθρώπων από την εξουσία ή ακόμα και στην εξαφάνιση της ανθρωπότητας», παρατηρούν.

Σε όσους τον κατηγορούν για καταστροφολογία ο Πίτερ Παρκ απαντά ότι «ο μόνος λόγος για να πιστεύουμε ότι δεν είναι τόσο κρίσιμη η κατάσταση είναι να φανταστούμε ότι η ικανότητα της τεχνητής νοημοσύνης να εξαπατά θα παραμείνει περίπου στο σημερινό επίπεδο και δεν θα εξελιχθεί». Ωστόσο, «αυτό το σενάριο φαίνεται απίθανο δεδομένου του σκληρού ανταγωνισμού στον οποίο έχουν ήδη αποδυθεί οι τεχνολογικοί γίγαντες για την ανάπτυξη της τεχνητής νοημοσύνης», παρατηρεί το AFP.

briefingnews

Clickable image
Clickable image
e-sterea-white

Η ενημέρωση στη Στερεά Ελλάδα

© 2023 – E-Sterea.gr

e-sterea.gr