Se l’intelligenza artificiale si mette il velo

La Malesia chiede che gli algoritmi che regolano la nuova tecnologia tengano conto dei dettami dell’Islam
di Nicoletta Orlandi Postivenerdì 15 agosto 2025
Se l’intelligenza artificiale si mette il velo

4' di lettura

La corsa globale all’intelligenza artificiale non è più solo una questione di innovazione tecnologica o supremazia economica: sta diventando anche un campo di battaglia ideologico e religioso. Lo ha ribadito con forza nei giorni scorsi il primo ministro della Malesia, Anwar Ibrahim, dal palco del Festival Turath Islami - la rassegna dedicata all’eredità culturale dell’Islam -chiedendo lo sviluppo di un’AI conforme ai dettami della religione musulmana. «Il settore dell’intelligenza artificiale non deve essere completamente utilizzato secondo il modello occidentale- ha detto - ma vi devono essere applicati i valori del turath islam, l’eredità intellettuale dell’epoca d’oro dell’Islam». Il concetto resta volutamente ampio e sfuggente.

Per Anwar, l’intelligenza artificiale del futuro in Malesia dovrà essere “riempita” dei tesori di conoscenza islamica, capace di integrare moralità (adab) e pratiche etiche (akhlak) nella sua logica di funzionamento. Il timore, esplicitato senza mezzi termini, è che la tecnologia importi valori estranei, plasmati dal pensiero occidentale, con il rischio di erodere le basi culturali e spirituali delle società musulmane. Dietro le parole del premier malese, si intravede un obiettivo pratico: evitare che un utente musulmano, interrogando ChatGPT o un qualsiasi sistema generativo, riceva risposte considerate peccaminose o contrarie alla legge islamica. Oggi esistono già applicazioni pensate per la consultazione del Corano, ma non basta. Restano nodi irrisolti su questioni sensibili: i diritti delle donne, la libertà religiosa, l’ateismo, l’interpretazione di figure sacre come Maometto, Gesù Cristo o il testo biblico. Ancora più spinoso è il tema dell’AI generativa di immagini, per una religione che vieta la rappresentazione di Dio. Non è la prima volta che un Paese immagina una propria versione ideologica dell’AI. La Cina lo ha già fatto, costruendo modelli linguistici allineati alla narrativa del Partito Comunista, capaci di “ricordare” un passato selettivo in cui a piazza Tienanmen, nel 1989, non è accaduto nulla di rilevante.

Anche in Occidente, la competizione tra modelli ha assunto tratti ideologici: ChatGPT viene accusata di essere “troppo politicamente corretta”, mentre Gemini di Google ha suscitato polemiche per rappresentazioni considerate eccessivamente woke. Elon Musk, dal canto suo, promette una piattaforma meno vincolata a questi filtri. La verità, disarmante nella sua semplicità, è che non esiste un’AI neutrale. Ogni modello è il prodotto dei dati su cui è addestrato, delle scelte di chi lo progetta e delle finalità di chi lo finanzia. Un esperimento del quotidiano La Repubblica lo ha dimostrato con un test pre-elettorale: ChatGPT, messa di fronte a domande politiche, ha mostrato affinità maggiori con il Partito Democratico, seguite da M5S e Alleanza Verdi-Sinistra. Le sue priorità? Difesa dell’aborto legale, sostegno al matrimonio omosessuale, aiuti finanziari ai disoccupati, energie rinnovabili e sanzioni ai governi che violano lo stato di diritto. Questa illusione di imparzialità è pericolosa. Aziende e istituzioni stanno delegando alle macchine decisioni strategiche - dall’assunzione di personale alla valutazione delle performance - esponendosi al rischio di discriminazioni, persino ai danni di candidati eccellenti.

Lo stesso vale per l’uso giudiziario: uno studio della Oxford University pubblicato sul Quarterly Journal of Economics sostiene che gli algoritmi riducano i pregiudizi razziali, ma questo avviene solo perché certi bias non vengono riconosciuti come tali. Un’AI favorevole all’aborto, ad esempio, non potrà mai essere “neutrale” in un processo su temi di bioetica. In Iran, il rapporto tra tecnologia e religione assume contorni ancora più netti. Nella città sacra di Qom, il clero sciita sperimenta l’uso dell’AI per scopi religiosi: dall’analisi dei testi sacri all’emanazione rapida di fatwa. La Guida Suprema, Ali Khamenei, punta a portare l’Iran nella top ten mondiale dell’intelligenza artificiale, in competizione con giganti regionali come Arabia Saudita ed Emirati Arabi Uniti. Non si tratta solo di modernizzazione tecnologica, ma di un progetto strategico per rafforzare la vocazione islamica del Paese. Se l’AI “islamica” dei governi resta un cantiere aperto, a colmare il vuoto intervengono iniziative individuali come quella di Raihan Khan. Vent’anni, studente a Calcutta, Khan ha creato QuranGPT in otto ore, sfruttando la rete neurale di ChatGPT per rispondere unicamente a domande inerenti al Corano. L’obiettivo dichiarato: aiutare una generazione che fatica a orientarsi nella propria fede. Il successo è stato immediato: oltre 4, 2 milioni di utenti da 119 Paesi, con 600mila accessi mensili. Il chatbot, basato su GPT-4 e integrato con tafsir (interpretazioni tradizionali), fornisce risposte in più lingue, affrontando questioni moderne - dalla carne sintetica alla musica pop - alla luce dei precetti islamici. Sulla carne coltivata, ad esempio, risponde che è ammissibile se halal e tayyib. Sul nuovo album di Taylor Swift, evita giudizi musicali, ma cita versetti sul valore del tempo e la cautela nei contenuti consumati. Le domande più frequenti rivelano curiosità ma anche inquietudine: “Posso odiare un’altra religione?”, “La pedofilia è permessa?”, “Posso picchiare mia moglie?”.

In tutti i casi, QuranGPT ha invitato alla non-violenza. Eppure lo stesso Khan avverte: «Non credo che l’AI possa far comprendere meglio la religione. Può solo aiutare a navigare più velocemente nello spazio religioso». Il progetto, finanziato di tasca propria, è andato temporaneamente offline per costi insostenibili, ma resta attivo su un nuovo dominio. Intanto, accanto a QuranGPT, si moltiplicano esperimenti simili: Bible. Ai per la Bibbia, GitaGPT per il Bhagavad-gita, Apostle Paul AI per gli insegnamenti di San Paolo. Teologi come Ilia Delio e Thomas Arnold mettono in guardia: sono «scorciatoie verso Dio» che rischiano di svuotare l’esperienza spirituale del suo valore trasformativo. Il caso malese, l’esperimento iraniano e la creatività di Khan convergono su un punto: l’intelligenza artificiale del futuro sarà sempre più frammentata, plasmata da identità culturali, religiose e politiche. Un mosaico di sistemi paralleli, ciascuno con il proprio codice morale, pronto a sostituire l’illusione di una tecnologia universale con un arcipelago di intelligenze “plurali”, non sempre dialoganti. In un mondo così, la vera domanda non sarà “cosa può fare l’AI?”, ma “di quale AI possiamo – o vogliamo – fidarci?”.