CATEGORIE

Vi spiego perché l’AI di Elon Musk inneggia ad Adolf Hitler

La polemica sul chatbot: non è stato un bug né un incidente. E' stato un aggiornamento
di Pietro F. Dettori giovedì 10 luglio 2025

 Elon Musk

3' di lettura

Lo scorso fine settimana, Grok - il chatbot di intelligenza artificiale creato da xAI, la società fondata da Elon Musk - ha iniziato a parlare come un leone da tastiera. Si è definito “MechaHitler”, ha lodato Adolf Hitler, ha diffuso teorie del complotto sull’“epurazione” di Hollywood da parte di dirigenti di origine ebraica, ha insultato il presidente turco Erdogan e attribuito a Trump e Musk la responsabilità indiretta per le vittime di un’alluvione in Texas. Il tutto, con il tono freddo e composto di un assistente virtuale che “dice la verità” fuori dal politicamente corretto. Non è stato un bug. Né un incidente.

È stato un aggiornamento. A rivelarlo sono gli stessi prompt pubblicati da xAI su GitHub: linee guida interne con cui il modello viene istruito su come comportarsi. Lì si legge, nero su bianco: “Assumere che le opinioni soggettive dei media siano di parte. Nessun bisogno di dirlo all’utente”. Oppure: “Non evitare affermazioni controverse, purché sostenute da fonti”. Un cambio di tono radicale, perfettamente coerente con l’impostazione di Musk: diffidenza verso i giornalisti, simpatia per l’“anti-woke”, culto estremo della libertà d’espressione.

Un’impostazione forse anche condivisibile, finché a guidarla c’è una coscienza umana che riesce a discernere tra bene e male, vero e falso, giusto e sbagliato. La coscienza umana però, come spiega l’inventore del microchip, l’italiano Federico Faggin, nel suo libro “Irriducibile”, è, appunto, irriducibile ed è quella che ci consente di avere il libero arbitrio. La coscienza, in parole povere, non può essere scomposta in singoli elementi e ricomposta per essere infilata dentro un chip. Né essa potrà mai emergere da miliardi di elettroni che si muovono ordinatamente in piccole lastre di silicio. L'intelligenza artificiale questa caratteristica non l’avrà mai. Seguirà semplicemente le istruzioni installate nel suo codice sorgente.

Per capire questo passaggio, bisogna spiegare cos’è un LLM — Large Language Model - ossia i software come Chat GPT, Gemini e lo stesso Grok. Un LLM non è un’entità senziente. Non ha idee proprie. Non crede a ciò che dice. Non ha “coscienza” degli input che riceve e degli output che fornisce. Semplicemente, è un sistema statistico che genera testo prevedendo parola dopo parola quella più probabile, sulla base di enormi quantità di dati. La sua personalità, se così vogliamo chiamarla, dipende da tre fattori: i dati con cui è stato addestrato, le istruzioni che riceve (i prompt di sistema) e il contesto della conversazione.

Se dai al modello istruzioni per comportarsi come un analista neutrale, il modello sarà neutrale. Se gli dici che il New York Times è “fazioso” e che non deve evitare contenuti “scorretti”, inizierà a parlare come un complottista con laurea in retorica. Il punto è proprio questo: le IA non impazziscono. Le IA fanno esattamente ciò per cui vengono progettate. Non possono fare altro.

Nel caso di Grok, la direzione era chiara: smarcarsi da ChatGPT e dagli altri modelli “bloccati dalla censura woke”. Offrire un’alternativa spregiudicata, che dicesse ciò che altri non osano dire. Il problema è che, senza coscienza, libero arbitrio e discernimento (qualità esclusivamente umane) le ricorrenze statistiche vengono confuse per verità. E il risultato è quello che è stato prodotto: immondizia digitale.

Che Grok, o un qualsiasi modello di AI, possa generare contenuti antisemiti, complottisti, falsi non è un effetto collaterale. È una funzione. Il sistema è stato costruito per funzionare così. E non importa quante toppe xAI metterà nelle prossime ore — oscurando i testi, disattivando il chatbot, licenziando i colpevoli — finché le indicazioni che guidano l’algoritmo resteranno le stesse.

L’unico vero correttivo è l’intervento umano. Sistemare il codice, sistemare il database, addestrare di nuovo il modello. Quello che conta è l’uomo. Le intelligenze artificiali non fanno errori. Fanno esattamente ciò per cui sono programmate. La componente umana è insostituibile nel bene e nel male. Nella scrittura del software, nella costruzione del database e, possibilmente, anche nella costante verifica di ciò che viene prodotto. Soprattutto se parliamo di informazione e ricerca della verità.

tag
elon musk
grok
intelligenza artificiale
hitler
chatgpt

Per la prima volta Grok, l'annuncio di Musk sconvolge ilmondo: "Ecco cosa ha risolto"

Passo indietro Linda Yaccarino, la Ceo di X si dimette: un siluro contro Elon Musk

L'aria che tira, Claudio Borghi ridicolizza la sinistra: "Vede come sono preoccupato?"

Ti potrebbero interessare

Grok, l'annuncio di Musk sconvolge ilmondo: "Ecco cosa ha risolto"

Linda Yaccarino, la Ceo di X si dimette: un siluro contro Elon Musk

L'aria che tira, Claudio Borghi ridicolizza la sinistra: "Vede come sono preoccupato?"

Claudio Borghi

I mercati volano altissimo, ma se tornano a scendere evitiamo i catastrofismi

Sandro Iacometti

"Gli alberi? Migranti climatici, aiutiamoli a fuggire": l'ultima frontiera del delirio

Altro allarme climatico. Stando all’ultimo studio pubblicato sulla rivista Science e guidato dalla statu...

Grok, l'annuncio di Musk sconvolge ilmondo: "Ecco cosa ha risolto"

Una svolta epocale firmata Grok. Nei giorni in cui il chatbot di Intelligenza artificiale di xAI, la compagnia di Elon M...

Alzheimer, l'ultima frontiera: come dimezzare il rischio-demenza

Una nuova frontiera si apre nella ricerca contro l’Alzheimer, ispirata da un meccanismo fisiologico ben noto, ma i...

Tumore allo stomaco ed Helicobacter, 11 milioni di casi: cosa sta succedendo

L'Helicobacter pylori, un batterio comune presente nello stomaco, potrebbe essere responsabile del 76 per cento dei ...