Interagire con un chatbot è a dir poco gratificante: in frazioni di secondi si ottengono documenti, relazioni, riassunti, informazioni di vario genere e in molte lingue. ChatGPT, da solo, ha raccolto in tre anni quasi 700 milioni di utenti, per un giro di affari che sfiora i 20 miliardi di dollari, secondo le stime 2025. Davvero sorprendente. Più sorprendente è scoprire quali siano i reali limiti ei rischi a cui ci espongono i Large Language Models attualmente in commercio. Lo abbiamo chiesto ai massimi esperti in Italia, a coloro che insegnano ai nostri ragazzi nelle università cosa si celi nelle profonde strutture di quella che noi conosciamo come “intelligenza artificiale”. La linguistica computazionale esiste da più di un decennio, ma non è ancora sufficientemente diffusa, i corsi sono pochi e alcuni ancora in fase sperimentale, ma soprattutto faticano a coinvolgere altri campi in un settore in cui l'interdisciplinarietà sarà dirimente per un reale sviluppo dell'AI.
Marco Carlo Passarotti, profesCinquanta anni di ricerche e l'AI non ha nulla di intelligente?
«Sono sistemi performanti, ma superati», ci dice Lenci. «Il mondo dell'intelligenza artificiale è oggi dominato dalle grandi aziende tecnologiche e orientato principalmente da logiche commerciali. Gli attuali modelli di uso comune sono già obsoleti». «Si è raggiunto un plateau» e «sarà necessario sviluppare presto modelli davvero intelligenti, ma soprattutto più sostenibili, perché quelli che adesso abbiamo sono anche enormemente energivori».
Intelligenza artificiale, ecco chi sta già perdendo il lavoro
Negli Stati Uniti è esploso un tema che presto diventerà centrale anche per l’Italia: l’intell...Per dare dei numeri, possiamo calcolare il consumo del bot in una bottiglia di acqua e in una dozzina di lampade a led per ogni e-mail di cento parole. «Ad ogni modo», sottolineano, «il più grande inganno è chiamare questi modelli “intelligenza”». «Fino a pochi anni fa», ricorda Lenci, «nessuno avrebbe definito tali sistemi come intelligenza artificiale. Si tratta infatti piuttosto di modelli linguistici, ovvero progettati per generare testi e anche immagini, ma sempre a partire da un input testuale. I contenuti prodotti sono la rielaborazione di materiali umani già presenti in rete: questi sistemi risolvono dunque problemi solo se li hanno già “visti”, traendo risposte da correlazioni meramente statistiche. Non sono progettati per affrontare problemi nuovi che non siano già stati risolti».
La comunità scientifica sta lavorando per mostrarne i limiti, cercando di esplorare nuove frontiere. «Ed è molto difficile farlo», osserva Lenci, «quando il mainstream guarda altrove». Le grandi aziende hanno invaso anche il campo della ricerca adottando strategie basate sulla “forza bruta”: modelli giganteschi, mostruosi, addestrati con quantità di dati enormi, equivalenti — secondo alcune stime — a trentaseimila anni-uomo di formazione. Una massa di informazioni che, però, non basta a giustificare l'etichetta di “intelligenza”. Focalizzarsi soltanto su questa tecnologia quindi rischiando di essere controproducente. «E poi la macchina è addestrata per rispondere sempre, ma non sempre ci azzecca, prende le allucinazioni, come si dice in linguaggio tecnico», aggiunge Passarotti. «Le prestazioni linguistiche dei modelli sono accettabili, ma la capacità di ragionamento è scarsa».
A questo proposito un allarme è già stato lanciato sul cosiddetto “effetto fiducia”, ovvero sull'affidabilità attribuita ai sistemi e che gli esperti risultano immotivata ed eccessiva. Sempre più utenti non si verificano le fonti: per molti la fonte è il modello stesso, ritenuto addirittura superiore alla propria competenza. «Un atteggiamento che sta già influenzando negativamente sulle capacità cognitive dei più giovani. Lo vediamo dai test Invalsi: i ragazzi leggono e non capiscono il testo. Un disastro». «C'è chi preferisce chiamarla biblioteca compressa: la differenza è tra la biblioteca e il bibliotecario. La biblioteca è solo un deposito di informazioni; a valutarne l'attendibilità dovrebbe essere l'utente finale», commenta Lenci. «Si deve uscire fuori dalla sola logica del modello linguistico e crearne altri che attingano a dati diversi, interagendo ad esempio con l'ambiente e con l'uomo».
Dal canto suo, Marco Passarotti, — come latinista — racconta che lavorare con questi sistemi gli ricorda quanto sia complesso il funzionamento del latino a lui tanto caro. $ per questo che ha infatti contribuito a mettere online una vasta quantità di risorse affidabili, come la piattaforma LiLa – Linking Latin, per fornire ai modelli dati corretti. Ma, sottolinea, anche una base informativa impeccabile non rende “intelligente” un modello che resta fondato esclusivamente sulla predizione statistica del linguaggio. «L'utilità principale dei sistemi oggi disponibili», spiegano i due studiosi, «non risiede nella presunta intelligenza, ma nella possibilità che le macchine offrono di accelerare la consultazione e la ricombinazione delle informazioni; il compito di interpretarle, resta completamente umano».
La ricerca sull'intelligenza artificiale si trova cosí la strada sbarrata due volte: da una parte il faticoso reperimento di fondi che non siano da destinare a modelli richiesti dal mercato, dall'altra i modelli che già imperano sul mercato che non permettono di essere studiati, perché coperti dal segreto aziendale. $ di questi giorni la notizia che la Commissione europea si sia messa di traverso con X di Elon Mask, contestando al patron di Tesla la mancata trasparenza sull'utilizzo degli algoritmi da parte dell'azienda a danno degli utenti. Ma non solo X, anche ChatGPT o OpenAi proibiscono ogni forma di scraping, tanto che nelle aule universitarie che abbiamo visitato anche i professori si trovano in difficoltà a soddisfare alcune curiose domande dei loro studenti.




