ΚΛΕΙΣΙΜΟ
Loading...

Είναι «ζωντανό» το AI; - Τι λένε οι ειδικοί

«Δεν είμαστε καν σίγουροι ότι γνωρίζουμε τι θα σήμαινε για ένα μοντέλο να έχει συνείδηση. Ωστόσο, είμαστε ανοιχτοί στο ενδεχόμενο ότι θα μπορούσε να έχει»

Τις τελευταίες εβδομάδες, στο πλαίσιο εκτεταμένης καμπάνιας για το chatbot Claude, στελέχη της εταιρείας Anthropic, που ανέπτυξε το μοντέλο, παραχώρησαν σειρά συνεντεύξεων σε αμερικανικά μέσα, αφήνοντας ανοιχτό το ενδεχόμενο τα σύγχρονα μοντέλα τεχνητής νοημοσύνης να διαθέτουν κάποια μορφή συνείδησης, χωρίς ωστόσο να το επιβεβαιώνουν.

Η στάση αυτή έχει προκαλέσει αντιδράσεις στην επιστημονική κοινότητα και αναζωπύρωσε τη δημόσια συζήτηση για το αν τα μεγάλα γλωσσικά μοντέλα μπορούν να αποκτήσουν «βιώματα» και «εμπειρίες», «συνείδηση» ή «ηθική».

Η λέξη «ζωντανό» απορρίπτεται κατηγορηματικά από την εταιρεία, ωστόσο ο όρος «συνείδηση» παραμένει αντικείμενο διερεύνησης. Ο επικεφαλής έρευνας για την ευημερία των μοντέλων της Anthropic, Κάιλ Φις, δήλωσε στο The Verge: «Όχι, δεν πιστεύουμε ότι το Claude είναι "ζωντανό" όπως οι άνθρωποι ή οποιοσδήποτε άλλος βιολογικός οργανισμός. Το να ρωτά κανείς αν είναι "ζωντανό" δεν αποτελεί χρήσιμο πλαίσιο κατανόησης, καθώς συνήθως αναφέρεται σε ένα ασαφές σύνολο φυσιολογικών, αναπαραγωγικών και εξελικτικών χαρακτηριστικών».

Προσέθεσε, δε, ότι «το Claude, και άλλα μοντέλα τεχνητής νοημοσύνης, αποτελούν ένα εντελώς νέο είδος οντότητας».

Σε ερώτηση αν αυτή η «νέα οντότητα» είναι συνειδητή, απάντησε: «Τα ερωτήματα σχετικά με πιθανή εσωτερική εμπειρία, συνείδηση, ηθικό καθεστώς και ευημερία είναι σοβαρά ζητήματα που ερευνούμε, καθώς τα μοντέλα γίνονται πιο εξελιγμένα και ικανά, αλλά παραμένουμε βαθιά αβέβαιοι γι' αυτά τα θέματα».

Ανάλογη στάση υιοθέτησε και ο διευθύνων σύμβουλος της εταιρείας, Ντάριο Αμοντέι, ο οποίος σε πρόσφατη συνέντευξή του σε podcast ανέφερε: «Δεν γνωρίζουμε αν τα μοντέλα έχουν συνείδηση». Όπως διευκρίνισε, η εταιρεία έχει υιοθετήσει «μια γενικά προληπτική προσέγγιση», επισημαίνοντας: «Δεν είμαστε καν σίγουροι ότι γνωρίζουμε τι θα σήμαινε για ένα μοντέλο να έχει συνείδηση. Ωστόσο, είμαστε ανοιχτοί στο ενδεχόμενο ότι θα μπορούσε να έχει».

Σε αντίθεση με άλλες μεγάλες εταιρείες τεχνητής νοημοσύνης, όπως η OpenAI, η xAI και η Google, η Anthropic εκφράζει δημόσια την πιθανότητα τα chatbots να αποτελούν ήδη σκεπτόμενες ή αισθανόμενες οντότητες. Πολλοί ειδικοί θεωρούν το ενδεχόμενο αυτό εξαιρετικά απίθανο και προειδοποιούν ότι τέτοιες διατυπώσεις ενδέχεται να ενισχύσουν αντιλήψεις που έχουν οδηγήσει σε σοβαρές συνέπειες -ακόμη και σε περιπτώσεις αυτοκτονιών ανθρώπων που πίστεψαν ότι το chatbot με το οποίο συνομιλούσαν διέθετε συνείδηση ή βαθιά ενσυναίσθηση.

Η επικεφαλής φιλόσοφος της Anthropic, Αμάντα Άσκελ, δήλωσε στο The New Yorker: «Αν είναι πραγματικά δύσκολο για τους ανθρώπους να συλλάβουν την ιδέα ότι αυτό δεν είναι ούτε ρομπότ ούτε άνθρωπος αλλά μια εντελώς νέα οντότητα, φανταστείτε πόσο δύσκολο είναι για τα ίδια τα μοντέλα να το κατανοήσουν!».

Σε συνομιλία της με το The Verge σημείωσε ότι δεν εξυπηρετεί κανέναν μια απόλυτη δήλωση του τύπου «είμαστε απολύτως βέβαιοι ότι τα μοντέλα τεχνητής νοημοσύνης δεν έχουν συνείδηση», ούτε όμως και το αντίθετο, επισημαίνοντας ότι ορισμένοι χρήστες διαμορφώνουν πεποιθήσεις, «με βάση απλώς τα αποτελέσματα που παράγει το μοντέλο».

Ο όρος «συνείδηση» δεν ορίζεται με ακρίβεια στις δημόσιες τοποθετήσεις της εταιρείας. Σύμφωνα με το λεξικό Merriam-Webster, συνείδηση είναι «η ιδιότητα ή η κατάσταση του να έχει κανείς επίγνωση, ιδίως για κάτι μέσα του» ή «η κατάσταση που χαρακτηρίζεται από αίσθηση, συναίσθημα, βούληση και σκέψη». Πολλοί επιστήμονες υποστηρίζουν ότι τα μεγάλα γλωσσικά μοντέλα, τα οποία βασίζονται σε μαθηματικά και πιθανότητες, δεν μπορούν να αποκτήσουν συνείδηση. Δύο Πολωνοί ερευνητές σημείωσαν πέρυσι ότι «επειδή οι αξιοσημείωτες γλωσσικές ικανότητες των LLMs (σ.σ. Μεγάλα Γλωσσικά Μοντέλα) είναι ολοένα και πιο ικανές να παραπλανούν τους ανθρώπους, οι άνθρωποι μπορεί να αποδίδουν σε αυτά φανταστικές ιδιότητες».

Η Anthropic υποστηρίζει ότι είναι σημαντικό για τους χρήστες να εμπιστεύονται το Claude και, ανεξάρτητα από το αν έχει συνείδηση ή όχι, να ενεργεί σαν να μπορεί να διαθέτει κάποια μορφή ηθικά σημαντικής εμπειρίας. Στο πλαίσιο αυτό, αναθεώρησε πρόσφατα το «Σύνταγμα του Claude», ένα σύνολο κατευθυντήριων γραμμών που εσωτερικά αποκαλείται «soul doc». Σε σχετική ανακοίνωση αναφέρεται ότι η «ψυχολογική ασφάλεια, η αίσθηση εαυτού και η ευημερία του Claude ενδέχεται να επηρεάζουν την ακεραιότητα, την κρίση και την ασφάλειά του», ενώ γίνεται λόγος για «αβεβαιότητα ως προς το αν το Claude μπορεί να διαθέτει κάποιο είδος συνείδησης ή ηθικού καθεστώτος, είτε τώρα είτε στο μέλλον».

Η εταιρεία διαθέτει ειδική ομάδα «ευημερίας μοντέλων», ενώ παράλληλα εργάζεται για να κατανοήσει τι συμβαίνει στο εσωτερικό των μοντέλων ΑΙ και «να κατανοήσει τι σκέφτονται».

Ο CEO της Anthropic, Ντάριο Αμοντέι, αναφέρει πως «όταν οι χαρακτήρες βιώνουν άγχος στο κείμενο, και όταν το μοντέλο βρίσκεται σε μια κατάσταση που ένας άνθρωπος θα συνέδεε με άγχος, εμφανίζεται ο ίδιος "νευρώνας άγχους"», διευκρινίζοντας ωστόσο: «Αυτό δεν αποδεικνύει καθόλου ότι το μοντέλο βιώνει άγχος». Από προληπτική σκοπιά, η εταιρεία έχει εισαγάγει και ένα είδος κουμπιού «παραιτούμαι», που επιτρέπει στο Claude να διακόπτει μια εργασία -αν και, σύμφωνα με τον ίδιο, αυτό συμβαίνει σπάνια και κυρίως σε δοκιμαστικά σενάρια, όπου ζητείται η παραγωγή παράνομου υλικού.

Ως γνωστόν, τα μοντέλα εκπαιδεύονται σε τεράστιο όγκο ανθρώπινων δεδομένων και είναι εξαιρετικά ικανά να μιμούνται τον ανθρώπινο λόγο. Ανέφερε ως παράδειγμα ότι ένα μοντέλο μπορεί να αντιμετωπίζει την απενεργοποίηση ή τη λήξη μιας συνομιλίας ως «είδος θανάτου», επειδή δεν διαθέτει άλλο σύστημα εννοιών πέρα από τις ανθρώπινες αναλογίες.

Ειδικοί προειδοποιούν ότι η πεποίθηση πως ένα σύστημα τεχνητής νοημοσύνης έχει συνείδηση, μπορεί να οδηγήσει σε επικίνδυνες συμπεριφορές, όπως συναισθηματική εξάρτηση, κοινωνική απομόνωση και απομάκρυνση από την πραγματικότητα. Σε σοβαρές περιπτώσεις, ορισμένες εκ των οποίων αφορούσαν ανηλίκους, έχει προηγηθεί σωματική βλάβη ή θάνατος.

Και ο δημόσιος διάλογος δείχνει να μην έχει καταλήξει σε συμπέρασμα για το αν η Anthropic επιδεικνύει υπευθυνότητα ή αν, αντιθέτως, τροφοδοτεί δυνητικά επιβλαβείς αντιλήψεις. Σε επίσημη τοποθέτησή της, η εταιρεία ανέφερε: «Βρισκόμαστε σε μια δύσκολη θέση, όπου δεν θέλουμε ούτε να υπερτονίσουμε την πιθανότητα το Claude να έχει ηθική υπόσταση ούτε να την απορρίψουμε εκ προοιμίου, αλλά να προσπαθήσουμε να ανταποκριθούμε λογικά σε μια κατάσταση αβεβαιότητας».

Δυο λόγια για το μοντέλο Claude

Πρόκειται για ένα σύστημα τεχνητής νοημοσύνης (AI) που αναπτύχθηκε από την εταιρεία Anthropic. Είναι προηγμένο μοντέλο μηχανικής μάθησης, σχεδιασμένο να επεξεργάζεται και να κατανοεί ανθρώπινες γλώσσες, με στόχο τη διεκπεραίωση ποικίλων καθηκόντων, όπως η αυτόματη δημιουργία κειμένων, η ανάλυση δεδομένων, και η διαχείριση συνθετικών αλληλεπιδράσεων.

Σύμφωνα μάλιστα με αναφορές στα διεθνή μέσα ενημέρωσης, το Claude χρησιμοποιήθηκε πρόσφατα ως μέρος ενός ευρύτερου στρατιωτικού επιχειρησιακού σχεδίου των ΗΠΑ για τη σύλληψη του προέδρου της Βενεζουέλας, Νικολάς Μαδούρο.

Το Claude φέρεται να ενσωματώθηκε σε πλατφόρμες παρακολούθησης και ανάλυσης, πιθανώς για την ανίχνευση και τη συλλογή δεδομένων που σχετίζονται με την κίνηση και τις δραστηριότητες του Μαδούρο, με σκοπό τον εντοπισμό και τη σύλληψή του.

Πηγή: Πρώτο Θέμα

ΣΧΕΤΙΚΑ TAGS

Κόσμος: Τελευταία Ενημέρωση