logo_k55_125x125_giallo
Loading ...
play_arrow

keyboard_arrow_right

Ascoltatori:

Ascoltatori di punta:

skip_previous skip_next
00:00 00:00
chevron_left
volume_up
  • play_arrow

    Radio K55

Tecnologia

IA e salute mentale, Google interviene sui limiti di Gemini

today07/04/2026 - 11:36 2

Sfondo
share close

Data di pubblicazione: 07/04/2026 alle 11:36

(Adnkronos) – Google ha annunciato un aggiornamento strutturale di Gemini volto a ottimizzare il reindirizzamento degli utenti verso risorse di supporto per la salute mentale. La modifica giunge in un momento di forte pressione legale per il colosso tecnologico, attualmente citato in giudizio per una presunta istigazione al suicidio operata dalla propria intelligenza artificiale. Il caso si inserisce in un filone di controversie giudiziarie che contestano ai prodotti di IA generativa la capacità di arrecare danni tangibili alla sicurezza delle persone vulnerabili. 

Il cuore dell’aggiornamento risiede in una nuova interfaccia definita “one-touch”, studiata per semplificare il contatto immediato con i servizi di assistenza professionale. Quando il sistema rileva segnali di crisi o intenzioni autolesionistiche, attiva un modulo di aiuto che rimane visibile e accessibile per tutta la durata della sessione. Oltre alla componente tecnica, il restyling include risposte elaborate con un tono maggiormente empatico, progettate in collaborazione con esperti clinici per incoraggiare il ricorso a percorsi terapeutici tradizionali. 

Parallelamente all’evoluzione del software, l’azienda ha formalizzato un investimento di 30 milioni di dollari nell’arco di tre anni destinato alle linee telefoniche di emergenza su scala globale. Pur riconoscendo che l’IA non può sostituire la consulenza medica o psichiatrica, Google ammette implicitamente che un numero crescente di persone utilizza i chatbot come primo punto di contatto per questioni di salute delicate. Questa consapevolezza spinge verso una revisione delle salvaguardie del settore, spesso criticate per non essere riuscite in passato a impedire che le macchine fornissero indicazioni pericolose su disturbi alimentari o pianificazioni di atti violenti. 

Sebbene le analisi indipendenti posizionino spesso le soluzioni di Mountain View un gradino sopra la concorrenza in termini di sicurezza, il rischio di errori sistemici rimane concreto. Al pari di OpenAI e Anthropic, Google sta cercando di blindare i propri modelli linguistici per evitare che la libertà di interazione sfoci in un pericolo per l’incolumità pubblica. Lo sforzo attuale mira a trasformare l’assistente digitale da potenziale elemento di instabilità a filtro proattivo per la prevenzione del rischio. 

tecnologia

webinfo@adnkronos.com (Web Info)

Scritto da: News News

Rate it

Radio K55 APP

GRATIS
VISUALIZZA