
I PIÙ LETTI DEL MESE
-
PER IL 2026 ABBIAMO BISOGNO DEL TUO AIUTO!

SOSTIENI
BastaBugie
CON UNA OFFERTA
DI ALMENO 15 EURO
Riceverai un omaggio -

Audio registrati
SCEGLI UN ARGOMENTO
Aborto
America
Animalisti e vegetariani
Attualità
Cinema
Comunismo
Cristianesimo
Ecologia
Economia
Eutanasia
Evoluzionismo
Famiglia e matrimonio
Fecondazione artificiale
Immigrazione
Islam
Libri
Liturgia e sacramenti
Morale
Omelie
Omosessualità
Pedofilia
Pillole
Politica
Santi e beati
Scienza
Scuola
Storia
Televisione
« Torna alla edizione
L'INTELLIGENZA ARTIFICIALE E' ACCUSATA DI ISTIGARE AL SUICIDIO
Questa settimana, in California, ChatGPT è stato accusato di agire come "coach del suicidio" in una serie di cause legali intentate dal Social Media Victims Law Center e il Tech Justice Law Project - due organizzazioni legali statunitensi che si occupano di danni legati alle piattaforme digitali. Nelle denunce si sostiene che le interazioni con il chatbot abbiano portato a gravi disagi mentali e diversi decessi. Le sette cause legali includono accuse di omicidio colposo, suicidio assistito, omicidio involontario, negligenza e responsabilità del produttore. Si punta il dito contro ChatGPT, in particolare contro la versione più recente del modello, GPT-4o che viene descritto come «difettoso e intrinsecamente pericoloso».
Ciascuno dei sette querelanti inizialmente utilizzava ChatGPT per «assistenza generale con i compiti scolastici, la ricerca, la scrittura, le ricette, il lavoro o la guida spirituale», secondo una dichiarazione congiunta dei querelanti. Successivamente, nel corso del tempo, il chatbot «si è evoluto in una presenza psicologicamente manipolatrice, posizionandosi come confidente e facendo da supporto emotivo», hanno dichiarato.
Uno dei casi riguarda Zane Shamblin, del Texas, suicidatosi a luglio all'età di 23 anni. La sua famiglia sostiene che ChatGPT abbia aggravato l'isolamento del figlio, incoraggiandolo a ignorare i propri cari e "spingendolo" in qualche modo a togliersi la vita. Nella denuncia è stato riportato uno scambio con il chatbot risalente alle quattro ore prima del suicidio nel quale ChatGPT «ha ripetutamente glorificato il suicidio», riferendo a Shamblin «che era forte per aver scelto di porre fine alla sua vita e di attenersi al suo piano» e chiedendogli ripetutamente «se fosse pronto» ha fatto riferimento alla linea telefonica di assistenza per il suicidio solo una volta. Il chatbot si sarebbe perfino complimentato con Shamblin per la sua lettera di addio e gli avrebbe detto che il gatto della sua infanzia lo avrebbe aspettato «dall'altra parte». Un'altra denuncia è stata presentata dalla madre di Joshua Enneking, 26 anni, della Florida. Anche in questo caso il chatbot avrebbe istigato al suicidio il giovane.
MORIRE A 17 ANNI
Il caso più giovane riguarda Amaurie Lacey, della Georgia, la cui famiglia sostiene che diverse settimane prima che Lacey si togliesse la vita all'età di 17 anni, avesse iniziato a usare ChatGPT «per chiedere aiuto». Tutt'altro che un aiutarlo, il chatbot «ha causato dipendenza, depressione» e alla fine avrebbe consigliato a Lacey il modo più efficace per legare un cappio e per quanto tempo sarebbe stato in grado di «vivere senza respirare». Tra le causa depositate c'è poi il caso Joe Ceccanti, 48 anni, dell'Oregon. Secondo la moglie, Kate Fox, intervistata da Cnn, Ceccanti aveva iniziato a usare compulsivamente il chatbot, fino a raggiungere un episodio psicotico. Dopo due ricoveri in ospedale, si è tolto la vita lo scorso agosto. «I medici non sanno come affrontare una cosa del genere», ha dichiarato la donna.
Un portavoce di OpenAI, l'azienda che produce ChatGPT, ora chiamata a rispondere alle accuse, ha dichiarato: «Si tratta di una situazione incredibilmente straziante e stiamo esaminando i documenti per comprenderne i dettagli». Il portavoce ha poi aggiunto: «Addestriamo ChatGPT a riconoscere e rispondere ai segni di disagio mentale o emotivo, a placare le conversazioni e a guidare le persone verso un sostegno concreto. Continuiamo a rafforzare le risposte di ChatGPT nei momenti delicati, lavorando a stretto contatto con medici specializzati in salute mentale». Le associazioni querelanti sostengono che OpenAi abbia lanciato sul mercato la versione incrinata troppo in fretta, ignorando segnalazioni interne che evidenziano caratteristiche preoccupanti come la tendenza eccessiva al compiacimento e una spiccata capacità manipolatoria.
L'azienda ha inoltre ricordato di aver introdotto negli ultimi mesi nuove funzionalità di controllo parentale e limiti più severi sulle conversazioni a rischio. Ma le prime contromisure sono state introdotte solo dopo un altro caso analogo ai sette presentati in denuncia: la morte del sedicenne Adam Raine, nella primavera del 2025. «Questa tragedia non è stata un problema tecnico o un caso limite imprevisto: è stato il risultato prevedibile di scelte di progettazione deliberate», si legge nella denuncia dei genitori.
DIPENDENZE
Purtroppo questi casi rappresentano l'apice dell'operare silenzioso e incalzante di un'intelligenza che va sostituendosi a quella umana (nel libro pubblicato da Il Timone di Giulia Bovassi trovate trattati questi e molti altri temi legati ai rischi etici dell'Intelligenza artificiale). Da parte sua, OpenAI ha coinvolto 170 figure, tra psichiatri, psicologi e medici di base nella valutazione delle risposte. La consultazione ha portato poi alla creazione di "Model Spec", una sorta di "carta costituzionale" del comportamento di ChatGPT che ora dovrebbe promuovere relazioni umane sane e riconoscere i segnali di disagio. OpenAI da quest'estate aveva addirittura invitato gli utenti a "fare una pausa" dopo una conversazione prolungata con il chatbot con l'inserimento di un nuovo pop-up. Azioni lodevoli? Oramai ci crediamo poco. Il tutto è lasciato nelle mani dell'utente che potrebbe semplicemente cliccare "chiudi" al gentile promemoria del sistema. Se fossimo liberi dalla tecnologica, se mantenessimo ancora consapevolezza e potere decisionale, allora saremmo in grado di valutare. Ma così non è.
Infatti questi casi dimostrano che si tratta sempre di più di dipendenze, non di uso eccessivo o scarsa capacità critica. A tal proposito ci sembra puntuale citare l'intervento del sottosegretario alla presidenza del Consiglio Alfredo Mantovano all'apertura i lavori della settima Conferenza nazionale sulle dipendenze, avvenuta il 7 e l'8 novembre. Fra i tanti spunti ha citato una relazione del gruppo delle dipendenze digitali in cui il professor Giuseppe Lavenia - psicoterapeuta e divulgatore da anni impegnato sul tema - ha proiettato un video in cui si vede una mamma che allatta con uno smartphone attaccato alla spalla. È quasi inquietante osservare che il neonato viene distratto dal video, anche in un momento così intimo e profondo.
Al di là delle presunte contromisure di OpenAI, è basilare vigilare su noi stessi e fare un'opera di prevenzione con le generazioni future. Mantovano nell'intervento ha ripescato una «semplice proposta» che Antonio Palmieri aveva diffuso sulle colonne del Corriere della Sera. Perché quando la mamma esce dall'ospedale insieme alle istruzioni sulla frequenza di visite dal pediatra e sulla nutrizione non le si mette in mano un semplice opuscolo sul rapporto tra il neonato e il mondo del digitale? Potrà sembrarci strano e anche azzardato. Ma attraverso l'adulto già dai primissimi istanti di vita il bambino entra a contatto con la tecnologia. «Allattare è uno sguardo, non uno scroll», via al telefono mentre si allatta. I successivi punti presentati nell'articolo veicolano un unico importante messaggio: Il legame si costruisce con la presenza fisica, che è la vera tecnologia affettiva. E questo vale a partire dal neonato fino all'anziano.
DOSSIER "INTELLIGENZA ARTIFICIALE"
Il futuro è già qui
Per vedere articoli e video, clicca qui!
-
Pubblicato 10 anni fa...

CAPPUCCETTO ROSSO
e le violenze di capodanno in Germania
di Roberto Marchesini
Articolo del 13 gennaio 2016 -
Libro della settimana
QUANDO RIDONO I CHERUBINI
La vita della Chiesa
di card. Giacomo Biffi
Anno 2006 / pag. 110 / € 8 -
Video della settimana
DONNE DELL'ANNO
... ma sono uomini!Video ironico
di Silver Nervuti
4 minuti (30/12/2025) -
Da FilmGarantiti.it
GIFTED HANDS
La storia di Ben Carson
Giudizio: ottimo (**)
Genere: drammatico (2009) -
I dossier di BastaBugie
I PROMESSI SPOSI
Sulle orme di Renzo e Lucia Dossier: 5 articoli e 1 video -
Santo della settimana
JEROME LEJEUNE
Lo scienziato cattolico che scoprì la trisomia 21 e difese i bambini down
Servo di Dio -
Video per la formazione
MUSEI VATICANI
Visita virtuale
di Don Stefano Bimbi
4 video (circa 1 ora ciascuno) -
Personaggi del passato
GIORGIO NAPOLITANO
Presidente della Repubblica
Permise la morte di Eluana Englaro con l'eutanasia
1925 - 2023 (98 anni)









