Libero logo

L'intelligenza artificiale è un bene Ma non trasforma tutti in geni (anzi)

L’IA sta rivoluzionando scienza e socialità, e può essere di aiuto anche per ricerche superficiali I guai iniziano quando ci convinciamo di poter diventare esperti di qualunque cosa: non è così
di Alessandro Dell'Ortogiovedì 26 marzo 2026
L'intelligenza artificiale è un bene Ma non trasforma tutti in geni (anzi)

4' di lettura

Le prime volte che ti avvicini all’intelligenza artificiale – un po’ prevenuto, tentennando e con una sorta di timore reverenziale – sei portato inevitabilmente a “sminchiare” tutto. «Vabbè, questa risposta è banale. Grazie, lo sapevo anche io», ripeti a te stesso per non sentirti inferiore rifiutando l’aiuto di qualcosa di troppo tecnologico, troppo moderno e misterioso. Poi, però, appena smanetti, quella che era una minaccia diventa a poco a poco un’amica, una confidente. «Chat, guarda questa foto della mia caviglia gonfia: cosa può essere?» e lei ti snocciola una serie di ipotesi, diagnosi, cure, esami da fare coccolandoti come se fosse sia un luminare della traumatologia che il migliore degli strizzacervelli. Che figata. E allora ci prendi gusto: «Chat, mi riassumi la vicenda di Garlasco?». Oppure: «Chat, come faccio a collegare il telefono al televisore?».

E, in pochi secondi, ti trovi tutto pronto nei dettagli, tutto riassunto schematicamente senza far fatica. Una magia, soprattutto per i pigri, per i “filoni” e per chi – diciamolo con un eufemismo – a scuola traballava e il programma più culturale che segue, di solito sui social, è il “Grande Fratello Vip”. Sì, insomma, l’intelligenza artificiale, è utile, anche quando utilizzata artificialmente (e dunque non facciamo fatica a credere ai cervelloni che ci spiegano come, ad altissimo livello, rappresenti un’invenzione che già sta rivoluzionando il mondo, e in meglio, viste le inimmaginabili potenzialità). E però, mantenendo la nostra visione - per così dire - “dal basso”, se esageriamo nel suo utilizzo scordandoci che resta comunque uno strumento da indirizzare, il rischio è che ci illuda di poterci trasformare tutti in novelli Einstein. E proprio quel momento è l’inizio della fine. Che poi, l’IA (o AI con la sigla in inglese), in realtà è tutto meno che arrogante e, anzi, si mette in discussione con umiltà e basta fare piccoli esperimenti per capirlo. Se gli chiedete, per esempio, «Chat, come faresti l’attacco di un articolo in cui voglio dire che l’intelligenza artificiale è una figata, ma non ci fa diventare dei geni?», lei vi darà una serie di proposte classificate per “Diretto e giornalistico”, “Più ironico”, “Narrativo” («La prima volta che ho usato un’IA per scrivere qualcosa, ho pensato: “Ok, adesso sono diventato bravissimo.” Poi ho riletto il risultato. E ho capito che no, non funziona così.»), “Taglio critico”, “Più evocativo” o “Più tagliente” («L’intelligenza artificiale può scrivere meglio di molti di noi. Ma non può pensare al posto nostro. E quando ci proviamo, il risultato si vede»), ma senza mai cercare di fregarvi o ingannarvi.

Il vero problema, però, è – come in tutte le cose – quando si abusa del servizio. Perché finché interpelliamo l’IA per una veloce ricerca internet o per aiutarci a recuperare del materiale che poi noi rielaboreremo, è un conto, ma se ci affidiamo totalmente a lei, senza verifiche, iniziano i guai. E, invece che diventare dei finti genietti che possono vantarsi con gli amici o farsi belli con i colleghi, corriamo il rischio di sprofondare travolti da clamorosi flop perché l’intelligenza artificiale è un bellissimo boom, ma può straformarsi in boomerang. E questo accade quando il livello si alza e, anziché persone normali, a utilizzarla sono medici, avvocati, ingegneri, cioè professionisti che vogliono tagliare i tempi o evitare noiose scocciature. Non è solo teoria. Uno studio della BBC dello scorso anno ha dimostrato come i chatbot commettono errori gravi (gli esperti le chiamano “allucinazioni” e la patologia si manifesta quando l’IA fornisce risposte che incorporano dati, informazioni o notizie false) nel momento in cui riassumono le notizie, distorcendo i fatti, alterando citazioni e, in alcuni casi, inventandosi addirittura informazioni di sana pianta.

Ai principali modelli di Intelligenza Artificiale, per quell’esperimento, erano stati sottoposti cento articoli selezionati dall’archivio della Bbc e, dopo averli analizzati, i giornalisti della testata avevano posto ai chatbot domande specifiche per verificare la capacità di riassumere correttamente i contenuti. Il risultato era stato disastroso e preoccupante: oltre il 50% delle risposte conteneva errori significativi, il 19% includeva dati, date o dichiarazioni imprecise o completamente inventate e il 13% conteneva citazioni modificate o attribuite in modo scorretto alla Bbc. Ecco perché affidarsi totalmente all’IA è pericoloso, oltre che folle, se lo si fa professionalmente. E lo sa bene un avvocato di Siracusa che è stato capace di citare quattro sentenze sbagliate in un’unica memoria difensiva. Il giudice, insospettito dagli stani precedenti ascritti alla Cassazione, ha effettuato una meticolosa verifica e si è trovato di fronte a un risultato sconcertante: nessuna delle quattro sentenze risultava calzante, nel senso che esistevano, certo, ma parlavano di tutt’altro. Un abbaglio troppo clamoroso per essere “umano” e, invece, spiegabile con le “allucinazioni” artificiali: quando si affida un compito all’Ai molto spesso lei cerca tesi a sostegno e, quando non le trova, le “inventa” non essendo sottoposta a vincoli di deontologia professionale. Oltre alla figuraccia, per l’avvocato in questione, è arrivata anche una condanna d’ufficio