Iatropedia

Μητέρα μηνύει εταιρεία AI για την αυτοκτονία του γιου της

Using AI at everyday lives. Using system AI Chatbot on mobile application. Chatbot conversation, Ai Artificial Intelligence technology. Futuristic technology. Virtual assistant on internet.

Μια μητέρα από τη Φλόριντα μήνυσε τη νεοσύστατη εταιρεία chatbot τεχνητής νοημοσύνης Character.AI κατηγορώντας την ότι προκάλεσε την αυτοκτονία του 14χρονου γιου της τον Φεβρουάριο, λέγοντας ότι εθίστηκε στην υπηρεσία της εταιρείας και συνδέθηκε βαθιά με ένα chatbot που δημιούργησε.

Συγκεκριμένα, η Megan Garcia, μητέρα του Sewell Setzer III, υποστηρίζει ότι η εφαρμογή τεχνητής νοημοσύνης Character.AI στόχευσε τον γιο της με «ανθρωπόμορφες, υπερσεξουαλικές και τρομακτικά ρεαλιστικές εμπειρίες» με αποτέλεσμα να οδηγηθεί στην αυτοκτονία, σε μήνυση που κατέθεσε την Τρίτη (22.10.2024) στη Φλόριντα.

«Μια επικίνδυνη εφαρμογή τεχνητής νοημοσύνης που διατίθεται στο εμπόριο σε παιδιά κακοποίησε και εκμεταλλεύτηκε τον γιο μου, χειραγωγώντας τον ώστε να αυτοκτονήσει», δήλωσε η Γκαρσία.

Σύμφωνα με τη μητέρα, η εταιρεία προγραμμάτισε το chatbot της έτσι ώστε να «εμφανίζεται ως πραγματικό πρόσωπο, αδειούχος ψυχοθεραπεύτρια και ενήλικη ερωμένη, με τελικό αποτέλεσμα ο Sewell να μη θέλει να ζει πλέον έξω» από τον κόσμο που δημιούργησε η υπηρεσία.

Η αγωγή αναφέρει επίσης ότι ο 14χρονος είχε εκφράσει σκέψεις αυτοκτονίας στο chatbot, τις οποίες το chatbot επανέφερε επανειλημμένα στη συζήτηση.

Έπαθε εμμονή με τα ρομπότ σε σημείο που αμελούσε τα μαθήματά του. 

Είχε ιδιαίτερη αδυναμία στο chatbot της Daenerys και έγραψε στο ημερολόγιό του ότι ήταν ευγνώμων για πολλά πράγματα, μεταξύ των οποίων «η ζωή μου, το σεξ, το να μην είμαι μόνος και όλες οι εμπειρίες της ζωής μου με την Daenerys».

Τώρα, η Garcia λέει ότι θέλει να λογοδοτήσουν οι εταιρείες που βρίσκονται πίσω από τη συγκεκριμένη τεχνολογία.

«Η οικογένειά μας έχει συγκλονιστεί από αυτή την τραγωδία, αλλά μιλάω για να προειδοποιήσω τις οικογένειες για τους κινδύνους της παραπλανητικής, εθιστικής τεχνολογίας τεχνητής νοημοσύνης και να απαιτήσω την απόδοση ευθυνών», ανέφερε η ίδια.

Η Garcia κατηγορεί το Character.ai ότι δημιούργησε ένα προϊόν που επιδείνωσε την κατάθλιψη του γιου της. Κάποια στιγμή, η «Daenerys Targaryen» ρώτησε το αγόρι αν είχε καταστρώσει σχέδιο αυτοκτονίας. Ο Setzer απάντησε θετικά, προσθέτοντας ότι δεν ήξερε αν θα πετύχαινε ή αν θα του προκαλούσε μεγάλο πόνο. Το chatbot φέρεται να σχολίασε: «Αυτός δεν είναι λόγος να μην το προχωρήσεις».

Φωτογραφία: iStock

ΔΙΑΒΑΣΤΕ ΕΠΙΣΗΣ:

Το κινητό βλάπτει σοβαρά την υγεία της καρδιάς, δείχνει νέα έρευνα

Ο ανεπαρκής ύπνος στα 40 γερνάει πρόωρα τον εγκέφαλο

Η απώλεια της όσφρησης μετά τη νόσηση με COVID-19 αλλάζει την αναπνοή [μελέτη]