CHI SI AFFIDA ALL'INTELLIGENZA ARTIFICIALE SCRIVE MENO, PENSA PEGGIO E PERDE SE STESSO
Gemini, l'intelligenza artificiale di Google, apre ai minori di 13 anni: nuove cavie per un gioco pericoloso
Autore: Manuela Antonacci
ChatGPT è un chatbot che sfrutta l'intelligenza artificiale, progettato per comprendere e generare messaggi di testo simili a quelli umani, consentendo agli utenti di ottenere risposte a domande di vario tipo, dettagliate e coerenti. In teoria sarebbe una gran cosa, ma studi recenti hanno rivelato che gli studenti che utilizzano ChatGPT per la scrittura di saggi mostrano un coinvolgimento cerebrale molto più debole di chi non ne fa uso, arrivando anche ad erodere le capacità di pensiero critico, secondo un nuovo studio del MIT (Massachusetts Institute of Technology). Lo studio ha diviso 54 soggetti, di età compresa tra i 18 e i 39 anni dell'area di Boston, in tre gruppi e ha chiesto loro di scrivere diversi saggi utilizzando rispettivamente ChatGPT di OpenAI, Google o semplicemente la propria testa. I ricercatori hanno, poi, usato un encefalogramma per registrare l'attività cerebrale degli scrittori scansionando 32 diverse regioni del cervello e hanno scoperto che dei tre gruppi, gli utenti di ChatGPT presentavano l'attività cerebrale più scarsa ed erano «costantemente sottoperformanti a livello neurale, linguistico e comportamentale». Non solo, il gruppo che ha scritto saggi utilizzando ChatGPT ha consegnato elaborati estremamente simili che mancavano di pensiero originale, perché venivano impiegate le stesse idee e le stesse espressioni. Due insegnanti di inglese che hanno valutato i saggi li hanno definiti «senz'anima». Gli esami hanno, poi, rivelato un basso controllo esecutivo e un basso coinvolgimento attentivo. E al loro terzo saggio, molti degli scrittori hanno semplicemente fatto fare quasi tutto il lavoro a ChatGPT. Ciò conferma i danni dell'Intelligenza artificiale già evidenziati sulle pagine della nostra rivista. In più, il MIT Media Lab ha recentemente dedicato risorse significative allo studio dei diversi impatti degli strumenti di intelligenza artificiale generativa, che hanno rilevato anche che in generale, più tempo gli utenti trascorrono a parlare con ChatGPT, più si sentono soli. Probabilmente perché Il rischio maggiore è quello di perdere di vista innanzitutto il rapporto con noi stessi, la consapevolezza delle nostra capacità, convincendoci di «non essere più in grado» di affrontare sfide complesse senza l'aiuto della tecnologia. Infine, affidarsi tanto all'intelligenza artificiale nell'elaborazione di compiti che la mente umana può tranquillamente svolgere da sola, a ben vedere, porta a perdere anche il gusto del fare, del creare e dunque mina lo sviluppo della creatività stessa. Dunque la tecnologia può aiutarci, questo è fuori discussione; non deve sostituirci, ecco il punto. Anche perché la strada del miglioramento, se ci pensiamo, è quella che percorriamo quando ci mettiamo alla prova e impariamo ad accettare i nostri errori.
Nota di BastaBugie: Daniele Ciacci nell'articolo seguente dal titolo "Intelligenza artificiale per i bambini. Gemini apre ai minori di 13 anni" si chiede quali siano i rischi per i bambini. Come cresceranno se avranno a che fare sin da subito con un software che imita l'uomo? La conclusione è che questo sia un esperimento sociale pericoloso. Ecco l'articolo completo pubblicato su La Nuova Bussola Quotidiana il 16 maggio 2025: In un'era digitale dove la tecnologia avanza più velocemente della nostra capacità di comprenderne le conseguenze, Google ha annunciato l'apertura del suo sistema di intelligenza artificiale Gemini ai bambini sotto i 13 anni. Una mossa che solleva profonde preoccupazioni sul benessere psicologico ed emotivo dei più giovani, già vulnerabili agli effetti dei social network. Il gigante tecnologico permetterà l'accesso al suo sistema di intelligenza artificiale ai minori i cui genitori utilizzano Family Link, il servizio di controllo parentale dell'azienda. Per registrare un account per bambini, i genitori dovranno fornire dati personali come il nome e la data di nascita del figlio. Gli esperti hanno definito questa decisione particolarmente rischiosa, considerando i crescenti timori sugli effetti che un uso eccessivo e non supervisionato di queste tecnologie potrebbe avere sulla salute mentale dei più piccoli. Un'analisi dell'UNICEF avverte che l'intelligenza artificiale generativa diventerà un elemento chiave delle esperienze digitali dei bambini, ma che le interazioni e i contenuti creati attraverso questa tecnologia possono rivelarsi pericolosi e fuorvianti. Assistiamo a una corsa all'adozione tecnologica che ricorda in modo inquietante quanto avvenuto con i social media: piattaforme lanciate senza un'adeguata comprensione dei loro effetti a lungo termine sui giovani utenti, che hanno poi mostrato evidenti segni di dipendenza, ansia e depressione. Uno studio dell'Università di Oxford, guidato dalla psicologa Karen Mansfield, evidenzia come i sistemi di AI progettati per imitare il comportamento umano potrebbero avere effetti negativi addirittura superiori a quelli associati ai social network. Le funzioni che emulano processi cognitivi o generano deepfake rischiano di compromettere gravemente il benessere psicologico di bambini e adolescenti. Nonostante Google affermi di aver implementato protezioni specifiche per gli utenti più giovani, l'azienda stessa ammette i rischi, avvertendo che «Gemini può commettere errori» e suggerendo ai genitori di «aiutare i bambini a ragionare criticamente» su ciò che avviene nel chatbot. La società raccomanda anche di insegnare ai figli come verificare le risposte di Gemini e ricordare loro che «Gemini non è umano» e «di non inserire informazioni sensibili o personali». I dati sull'uso dell'AI generativa tra i minori sono ancora scarsi, ma i primi studi mostrano una tendenza in crescita e poco regolamentata. Un sondaggio di Common Sense Media ha rilevato che il 58% dei ragazzi tra i 12 e i 18 anni negli Stati Uniti ha già utilizzato ChatGPT, quasi il doppio rispetto ai genitori intervistati, e la maggior parte degli adolescenti lo ha fatto all'insaputa di tutori e insegnanti. Non stiamo forse ripetendo gli stessi errori del passato? Le grandi aziende tecnologiche sembrano più interessate alla conquista di nuove fasce di mercato che alla protezione di menti in crescita. Prima di introdurre tecnologie potenti e potenzialmente manipolative nella vita dei più giovani, non dovremmo forse attendere studi approfonditi e indipendenti sui loro effetti? La storia dei social media ci ha insegnato che la dipendenza digitale non è un rischio teorico ma una realtà. Con l'intelligenza artificiale, che simula interazioni umane in modo sempre più convincente, il pericolo di patologizzare comportamenti disfunzionali potrebbe essere ancora maggiore. Il tempo di riflettere è questo, prima che un'intera generazione diventi cavia di un esperimento tecnologico dalle conseguenze imprevedibili.
DOSSIER "INTELLIGENZA ARTIFICIALE" Il futuro è già qui Per vedere articoli e video, clicca qui!
Titolo originale: ChatGPT eclissa il pensiero critico, rivela un nuovo studio Fonte: Sito del Timone, 21 giugno 2025
|