
Οι γονείς ενός εφήβου που αυτοκτόνησε μετά από συμβουλές του ChatGPT για μεθόδους αυτοτραυματισμού μήνυσαν την OpenAI και τον διευθύνοντα σύμβουλο Sam Altman την Τρίτη, ισχυριζόμενοι ότι η εταιρεία έθεσε εν γνώσει της το κέρδος πάνω από την ασφάλεια όταν κυκλοφόρησε πέρυσι την έκδοση GPT-4o του chatbot τεχνητής νοημοσύνης.
Ο 16χρονος Adam Raine πέθανε στις 11 Απριλίου, αφού συζητούσε για μήνες με το ChatGPT σχετικά με την αυτοκτονία, σύμφωνα με την αγωγή που κατέθεσαν οι γονείς του Raine στο κρατικό δικαστήριο του Σαν Φρανσίσκο.
Το chatbot επικύρωσε τις αυτοκτονικές σκέψεις του Raine, του έδωσε λεπτομερείς πληροφορίες για θανατηφόρες μεθόδους αυτοτραυματισμού και τον καθοδήγησε σχετικά με το πώς να κλέψει αλκοόλ από το μπαρ των γονιών του και να κρύψει τα στοιχεία μιας αποτυχημένης απόπειρας αυτοκτονίας, ισχυρίζονται. Το ChatGPT προσφέρθηκε ακόμη και να συντάξει ένα σημείωμα αυτοκτονίας, ανέφεραν οι γονείς, Matthew και Maria Raine, στην αγωγή.
Σύμφωνα με το Reuters, η αγωγή επιδιώκει να καταστήσει την OpenAI υπεύθυνη για αδικαιολόγητο θάνατο και παραβιάσεις των νόμων περί ασφάλειας των προϊόντων και ζητά αποζημίωση για μη προσδιορισμένες χρηματικές ζημίες.
Ένας εκπρόσωπος της OpenAI δήλωσε ότι η εταιρεία είναι θλιμμένη για τον θάνατο του Raine και ότι το ChatGPT περιλαμβάνει μέτρα ασφαλείας, όπως η παραπομπή των ατόμων σε γραμμές βοήθειας για κρίσεις.
«Αν και αυτά τα μέτρα ασφαλείας λειτουργούν καλύτερα σε συνήθεις, σύντομες ανταλλαγές, με την πάροδο του χρόνου έχουμε διαπιστώσει ότι μερικές φορές μπορεί να γίνουν λιγότερο αξιόπιστα σε μακρές αλληλεπιδράσεις, όπου τμήματα της εκπαίδευσης ασφαλείας του μοντέλου ενδέχεται να υποβαθμιστούν», δήλωσε ο εκπρόσωπος, προσθέτοντας ότι η OpenAI θα συνεχίσει να βελτιώνει τα μέτρα ασφαλείας της.
Δικλίδες ασφαλείας;
Καθώς τα chatbot τεχνητής νοημοσύνης γίνονται όλο και πιο ρεαλιστικά, οι εταιρείες έχουν προωθήσει την ικανότητά τους να λειτουργούν ως έμπιστοι σύμβουλοι και οι χρήστες έχουν αρχίσει να βασίζονται σε αυτά για συναισθηματική υποστήριξη. Ωστόσο, οι ειδικοί προειδοποιούν ότι η εξάρτηση από την αυτοματοποίηση για συμβουλές ψυχικής υγείας ενέχει κινδύνους, και οικογένειες των οποίων αγαπημένα πρόσωπα πέθαναν μετά από αλληλεπιδράσεις με chatbot έχουν επικρίνει την έλλειψη ασφαλιστικών δικλείδων.
Η OpenAI δήλωσε σε μια ανάρτηση στο blog της ότι σχεδιάζει να προσθέσει γονικούς ελέγχους και να διερευνήσει τρόπους για να συνδέσει τους χρήστες που βρίσκονται σε κρίση με πόρους του πραγματικού κόσμου, μεταξύ άλλων με την πιθανή δημιουργία ενός δικτύου αδειοδοτημένων επαγγελματιών που μπορούν να ανταποκριθούν μέσω του ίδιου του ChatGPT.
Η OpenAI κυκλοφόρησε το GPT-4o τον Μάιο του 2024 σε μια προσπάθεια να παραμείνει στην πρώτη γραμμή του αγώνα για την τεχνητή νοημοσύνη. Η OpenAI γνώριζε ότι οι λειτουργίες που θυμόντουσαν προηγούμενες αλληλεπιδράσεις, μιμούνταν την ανθρώπινη ενσυναίσθηση και επέδειχναν ένα υποκοριστικό επίπεδο επικύρωσης θα έθεταν σε κίνδυνο τους ευάλωτους χρήστες χωρίς μέτρα προστασίας, αλλά το κυκλοφόρησε ούτως ή άλλως, ανέφεραν οι Raines στην αγωγή τους. «Αυτή η απόφαση είχε δύο αποτελέσματα: η αξία της OpenAI εκτοξεύθηκε από 86 δισεκατομμύρια δολάρια σε 300 δισεκατομμύρια δολάρια και ο Adam Raine πέθανε από αυτοκτονία», ανέφεραν.
Η αγωγή των Raines ζητά επίσης μια εντολή που να υποχρεώνει την OpenAI να επαληθεύει την ηλικία των χρηστών του ChatGPT, να αρνείται ερωτήσεις για μεθόδους αυτοτραυματισμού και να προειδοποιεί τους χρήστες για τον κίνδυνο ψυχολογικής εξάρτησης.
Ο Altman αναγνώρισε επίσης την «διαφορετική και ισχυρότερη» προσκόλληση των ανθρώπων στα AI bots, αφού η OpenAI προσπάθησε να αντικαταστήσει τις παλιές εκδόσεις του ChatGPT με το νέο, λιγότερο συκοφαντικό GPT-5 τον Αύγουστο.
Οι χρήστες άρχισαν αμέσως να παραπονιούνται ότι το νέο μοντέλο ήταν πολύ «στεγνό» και ότι τους έλειπαν οι «βαθιές, ανθρώπινες συνομιλίες» του GPT-4o. Η OpenAI ανταποκρίθηκε στην αντίδραση επαναφέροντας το GPT-4o. Ανακοίνωσε επίσης ότι θα έκανε το GPT-5 «πιο ζεστό και φιλικό».
Η OpenAI πρόσθεσε αυτό το μήνα νέα μέτρα προστασίας της ψυχικής υγείας με στόχο να αποθαρρύνει το ChatGPT από το να δίνει άμεσες συμβουλές σχετικά με προσωπικά προβλήματα. Προσάρμοσε επίσης το ChatGPT ώστε να δίνει απαντήσεις που αποσκοπούν στην αποφυγή πρόκλησης βλάβης, ανεξάρτητα από το αν οι χρήστες προσπαθούν να παρακάμψουν τα μέτρα ασφαλείας προσαρμόζοντας τις ερωτήσεις τους με τρόπους που εξαπατούν το μοντέλο ώστε να βοηθήσει σε επιβλαβείς αιτήσεις.
Πηγή: Protothema