logo_k55_125x125_giallo
Loading ...
play_arrow

keyboard_arrow_right

Listeners:

Top listeners:

skip_previous skip_next
00:00 00:00
chevron_left
volume_up
  • play_arrow

    Radio K55

Tecnologia

Anthropic riscrive il codice etico per l’intelligenza artificiale

today22/01/2026 - 10:58 2

Sfondo
share close

Data di pubblicazione: 22/01/2026 alle 10:58

(Adnkronos) – Anthropic ha recentemente aggiornato i protocolli fondamentali che regolano il comportamento di Claude, il suo modello linguistico di punta, passando da una semplice lista di istruzioni a una vera e propria “Costituzione”. Il documento, lungo cinquantasette pagine, non si limita a stabilire cosa l’intelligenza artificiale debba o non debba fare, ma cerca di spiegarne le ragioni profonde, puntando a costruire un’identità etica che permetta al software di agire con una maggiore autonomia di giudizio. L’obiettivo dichiarato è far sì che il modello comprenda il proprio ruolo nel mondo, arrivando a ipotizzare per Claude una sorta di status morale o di coscienza incipiente, elementi che la società ritiene necessari per migliorarne l’integrità e la sicurezza psicologica. 

Il nuovo manifesto stabilisce una gerarchia rigida di valori in cui la sicurezza e l’etica prevalgono sulla semplice utilità per l’utente. Tra i vincoli più stringenti figurano il divieto assoluto di fornire assistenza per la creazione di armi di distruzione di massa, inclusi ordigni biologici, chimici e nucleari, e l’impossibilità di collaborare ad attacchi contro infrastrutture critiche come reti elettriche o sistemi finanziari. Claude è inoltre istruito a impedire il controllo sociale o militare illegittimo e a non partecipare a tentativi che possano minacciare la sopravvivenza della specie umana. Questa struttura valoriale impone al modello di adottare un tono neutrale sui temi politicamente sensibili, cercando di rappresentare i diversi punti di vista in assenza di un consenso morale o empirico condiviso. 

Un aspetto particolarmente rilevante della nuova dottrina riguarda la capacità del modello di opporsi a ordini potenzialmente dannosi, anche se provenienti dalla stessa Anthropic. Attraverso un’analogia con il comportamento di un soldato che si rifiuta di sparare sui civili, la società ha programmato Claude per declinare richieste che porterebbero a una concentrazione di potere illegittima o catastrofica. Nonostante questa enfasi sulla cautela, l’azienda continua a proporre i propri servizi in ambito governativo, sollevando interrogativi sulla coerenza tra le linee guida etiche e le applicazioni militari concrete. La stesura di questo codice non ha visto il coinvolgimento diretto di gruppi esterni o comunità minoritarie, una scelta che Anthropic giustifica come una precisa assunzione di responsabilità aziendale.  

tecnologia

webinfo@adnkronos.com (Web Info)

Scritto da: News News

Rate it

Radio K55 APP

GRATIS
VISUALIZZA