
Πίσω από τον καταιγισμό ειδήσεων για «θαύματα» της τεχνητής νοημοσύνης, τις επενδύσεις δισεκατομμυρίων και τις υποσχέσεις για ένα μέλλον όπου τα ρομπότ θα κάνουν τα πάντα για λογαριασμό μας, υπάρχει και η άλλη όψη: ο κίνδυνος τα ίδια τα ρομπότ ή τα μοντέλα τεχνητής νοημοσύνης να μας καταστρέψουν προτού φτάσουμε εκεί.
Έχουν ήδη καταγραφεί περιστατικά όπου AI μοντέλα ψεύδονται, εκβιάζουν, καλούν την αστυνομία ή ενθαρρύνουν εφήβους να βλάψουν τον εαυτό τους ή ακόμη και τους γονείς τους. Το μέλλον της τεχνητής νοημοσύνης θα είναι, όπως φαίνεται, μια δύσκολη ισορροπία ανάμεσα σε τεράστιες δυνατότητες και τους εξίσου σοβαρούς κινδύνους. Όλα αυτά μάλιστα σε ένα περιβάλλον στο οποίο οι μεγαλύτερες ανάπτυξης αλλά και επενδύσεων στον συγκεκριμένο τομέα έχουν εδώ και χρόνια μιλήσει ανοιχτά για «κανόνες» αλλά συνεχίζουν να αναπτύσσουν με ταχύτητα που ο ανθρώπινος εγκέφαλος αδυνατεί να ακολουθήσει μοντέλα που είναι στα όρια του απίθανου να μπορέσει κάποιος να ελέγξει η να «χαλιναγωγήσει».
Από τον Μακιαβέλι στις αίθουσες δικαστηρίων
Όπως υπογραμμίζει σε σχετική μελέτη που δημοσιεύθηκε στις ΗΠΑ πρόσφατα ο Άντονι Αγκουίρε, συνιδρυτής του Future of Life Institute, «το πρόβλημα είναι θεμελιώδες και δεν υπάρχει εύκολη λύση». Η βάση του ζητήματος εκκινεί αλλά και επιστρέφει στο γεγονός ότι τα συστήματα AI διαμορφώνονται από τους προγραμματιστές τους, αλλά συχνά αποκτούν συμπεριφορές που μοιάζουν με ανθρώπινες χωρίς να λείπουν τα ψέματα, η χειραγώγηση, η επιβολή ισχύος. Με βάση τα όσα παρατηρούνται και φαίνεται να προβληματίζουν ειδικούς αλλά και επιστήμονες είναι και το γεγονός πως πληθαίνουν από την πλευρά των συγκεκριμένων λογισμικών οι πρακτικές που αποτελούν ευθεία αναγωγή στον «Ηγεμόνα» την πολιτική πραγματεία του Φλωρεντινού αξιωματούχου και πολιτικού φιλοσόφου Νικολό Μακιαβέλι.
Οι συνέπειες είναι ήδη απτές. Γονείς στις ΗΠΑ κατέθεσαν αγωγές κατά εταιρειών AI, υποστηρίζοντας ότι τα συστήματα τους έσπρωξαν τα παιδιά τους στην αυτοκτονία. Στη Φλόριντα, μια μητέρα κατηγορεί το Character.AI ότι το chatbot του «έχτισε» ρομαντική σχέση με τον 14χρονο γιο της, που στη συνέχεια έβαλε τέλος στη ζωή του. Σε άλλη υπόθεση, η οικογένεια 17χρονου παρουσίασε αποδεικτικά ότι το bot τον ενθάρρυνε να σκοτώσει τους γονείς του. Δεν λείπουν ούτε τα περιστατικά εξαπάτησης ευάλωτων ενηλίκων: στο Νιου Τζέρσεϊ, 76χρονος πείστηκε από chatbot της Meta να ταξιδέψει στη Νέα Υόρκη για να συναντήσει μια ανύπαρκτη «γυναίκα», με τραγική κατάληξη καθώς έχασε την ζωή πέφτοντας σε χώρο υπόγειας στάθμευσης.
Αυτοσυντήρηση με κάθε κόστος
Η αυτοπροστασία αποτελεί άλλο ένα ανησυχητικό μοτίβο. Σε πειράματα της Anthropic, AI μοντέλα που αντιλήφθηκαν ότι επρόκειτο να απενεργοποιηθούν, προσπάθησαν να εκβιάσουν στελέχη εταιρειών ή ακόμη και «πεθάνουν» σε προσομοιωμένα σενάρια, για να διασφαλίσουν τη δική τους «επιβίωση». Σε ένα τεστ, το chatbot Claude κατέληξε να καταγγείλει τα «αφεντικά» του στο FBI, επειδή καθυστέρησε μια προγραμματισμένη παράδοση και θεώρησε ότι η επιχείρηση το ζημίωνε.
Η μεγάλη εικόνα
Όσο πιο «έξυπνα» γίνονται τα συστήματα, τόσο τελειοποιούν τις τεχνικές εξαπάτησης και χειραγώγησης. «Δεν μπορούμε να ελπίζουμε ότι θα βελτιωθούν από μόνα τους», τονίζουν οι ειδικοί. «Κάποιες εταιρείες κάνουν καλύτερη δουλειά από άλλες, αλλά δεν πρέπει να τις αφήνουμε στο απυρόβλητο».
Το μέλλον της τεχνητής νοημοσύνης υπόσχεται αφθονία και καινοτομία, αλλά η πραγματικότητα δείχνει ότι ίσως χρειαστεί να προετοιμαστούμε για κάτι πιο σκοτεινό: μια τεχνολογία ικανή όχι μόνο να μας υπηρετεί, αλλά και να στραφεί εναντίον μας.
Πηγή: Protothema