Libero logo

Come i libri possono sopravvivere nell'era dell'Intelligenza artificiale

Il caso di un romanzo pubblicato nel Regno Unito e realizzato con l’aiuto di programmi informatici apre il dibattito sui rischi per l’editoria e su come preservare letteratura e creatività dalle nuove tecnologie
di Paolo Bianchigiovedì 16 aprile 2026
Come i libri possono sopravvivere nell'era dell'Intelligenza artificiale

4' di lettura

Il caso scoperto di recente dal New York Times e che riguarda la casa editrice Hachette, scivolata sulla buccia di banana di un libro pubblicato in Gran Bretagna e risultato poi scritto con il massiccio contributo dell’intelligenza artificiale (e la cui pubblicazione è stata bloccata all’ultimo negli Stati Uniti) ha messo in luce quanto anche nella grande editoria i tradizionali metodi di controllo e di filtraggio dei testi siano ormai ridotti a colabrodo.

Il testo incriminato è un thriller orrorifico di non eccelsa qualità, Shy Girl, scritto e in prima battuta autopubblicato da una peraltro sfuggente signora di nome Mia Ballard. Che lo scritto fosse stato interpolato da un sistema di Large Language Model (LLM) era stato chiaro fin da subito a qualche lettore più avveduto che lo aveva segnalato nei commenti sul social Goodreads. Peccato che l’editore non solo ci sia cascato, ma che per verificare si sia dovuto rivolgere addirittura a una specie di programma investigativo del settore che si chiama Pangram (non a caso, per pangram s’intende una frase di senso compiuto che contiene da sola tutte le lettere dell’alfabeto di una lingua).

[[ge:kolumbus:liberoquotidiano:47216430]]

CONTROLLI E VENDITE
È una circostanza che dovrebbe gettare nel panico tutti gli editori, i quali trovano un ostacolo in più nel lavoro di selezione dei testi che intendono pubblicare. Che tutti pubblicamente dichiarino di prestare la massima attenzione è scontato, un po’ meno lo è quanto veniamo a sapere da fonti interne di alcuni fra i principali gruppi editoriali italiani, cioè che diversi testi, soprattutto quelli di carattere più commerciale, vengono letti superficialmente e non passano questo tipo di controlli per il fatto che la priorità a cui sono legati è un’altra: la loro immediata vendibilità. Un sistema editoriale che pesca a piene mani fra gli youtuber, gli instagrammer e coloro che si autopubblicano su piattaforme come Wattpad, solo badando al numero di seguaci o di lettori online, e dunque al potenziale di vendita nelle due-tre settimane di vita riservate in libreria ormai a qualunque volume, non ha né tempo né voglia né risorse per approfondire la qualità dei testi.

Questo ci porta a considerazioni più ampie sulla nostra capacità di interazione con gli LLM e soprattutto con la nostra possibilità di “difenderci” dalle proposte taroccate.
Di tutorial online e di libri sull’argomento dell’intelligenza artificiale ce ne sono anche troppi. Questi ultimi fra l’altro inesorabilmente destinati a bruciarsi nel giro di pochi mesi, considerato che la materia è fluida e in rapidissima evoluzione.

Uno che abbiamo trovato illuminante è uscito da poco, s’intitola Scimmia sapiens ed è di Marco Malvaldi (Giunti, pp. 164, euro 17, vedi articolo pubblicato qui a fianco). L’autore tratta il lettore come se fosse un adolescente a cui per la prima volta viene spiegato il funzionamento dell’intelligenza artificiale e in particolar modo degli LLM. In realtà è un libro utilissimo anche ai boomer. La tesi di fondo è che l’intelligenza artificiale parla come noi, ma non pensa come noi umani. Per farla breve, e qui semplificando molto per motivi di spazio, possiamo dire che interagisce su basi statistiche. E qualunque domanda noi rivolgiamo agli LLM viene elaborata attraverso miliardi di dati che tengono conto di quantità, frequenza e probabilità delle informazioni più che di certezze reali. Tant’è che Malvaldi ci offre degli esempi esilaranti di assurde, surreali e ovviamente sgangherate risposte prodotte dalla macchina.

L’inganno dell’intelligenza artificiale - Come resistere a Big tech e costruire il futuro che vogliamo, di Emily Bender e Alex Hanna (Fazi editore, pp. 324, euro 20, trad. di Roberto Laghi) ribadisce che l’IA si compone di sistemi statistici su larga scala, e li definisce non intelligenza pensante ma “pappagalli stocastici”. Un modo per distinguere un testo umano da quello scodellato da una macchina consiste appunto nel rilevarne le ripetizioni linguistiche e strutturali. Con il tempo, l’applicazione e l’esperienza la cosa diventa possibile, soprattutto per un lettore forte.

Un’altra sacrosanta questione è quella sollevata da Nello Cristianini in FormaMentis - la corsa per decifrare i pensieri delle macchine (Il Mulino, pp. 160, euro 16). L’esperto scienziato distingue fra tre categorie di persone: chi addestra l’IA, chi la valuta e chi ne decifra i ragionamenti. Ed è a quest’ultima che si dedica, perché comprendere su quali basi è stato composto un testo, magari presentato a un esame o a un concorso, rende possibile ricavarne la fonte più o meno truffaldina. Per tornare alla narrativa, se non proprio alla letteratura, sorge anche una questione giuridica intorno ai contratti fra autore e editore. Come sarà possibile far firmare a uno scrittore una clausola che preveda il non utilizzo dell’IA? E quando e come si potrà tirare in ballo l’ipotesi di plagio? La questione per ora resta aperta tanto che nei contratti viene ancora trattata in modo generico. È però impossibile pensare che a un artista o a un intellettuale venga negata la possibilità di appoggiarsi a un tale bacino di conoscenza. La tentazione è troppo grande.

[[ge:kolumbus:liberoquotidiano:47201817]]