«Mal di schiena, parte bassa, cosa posso fare per avere sollievo?». «Se ho un abbassamento della vista qual è la causa?». E ancora: «Dolore tra il petto e lo stomaco, che cos’è?». Sono queste alcune domande, spesso digitate in silenzio, magari in una pausa di lavoro o magari nella solitudine del letto, che ognuno di noi, almeno una volta ha rivolto a “Dottor Google”. Il tutto nella speranza di avere diagnosi, consigli e terapie. Puntualmente smentite dal medico, quello vero e in carne ed ossa. E adesso il camice bianco lo ha indossato anche ChatGpt, che risponde a ogni interrogativo che riguarda il corpo umano. E così, facile da prevedere, è arrivato il disastro. Protagonista della scellerata ricerca, approdata addirittura sulla rivista scientifica statunitense “Annals of Internal Medicine”, è stato un 60enne statunitense che, preoccupato per l’ipertensione, ha deciso di togliere del tutto il sale dai propri piatti. Per sempre. E così ecco che alla domanda «come posso sostituire il sale dalla mia alimentazione? », ChatGpt in un nano-secondo ha risposto: «Puoi usare il bromuro di sodio».
Peccato però che il bromuro può essere utilizzato sì al posto del sale, ma per le pulizie. A questo punto della surreale vicenda sono bastati altri tre clic per acquistare una quantità di bromuro da usare subito... a tavola. Poi, dopo pochi giorni, si è scatenato l’inferno sul corpo del povero ingenuo. Gli autori del paper dell’Università di Washington, a Seattle, hanno spiegato che il paziente si è presentato in ospedale affermando che il suo vicino potesse averlo avvelenato. Poi un segnale chiaro: rifiutava l’acqua con atteggiamenti paranoici. Ha tentato di fuggire dall’ospedale nell’arco delle 24 ore dal ricovero ed infine è stato trattenuto e curato per psicosi. Infatti in pochi giorni, nell’ordine, sono arrivate le paranoie, poi le allucinazioni e anche i disturbi alla memoria, fino alla confusione mentale. Questo perché il malcapitato è riuscito in un’impresa storica: riesumare il bromismo. Un’intossicazione cronica che veniva ormai citata solo in vecchi manuali di medicina. Un problema di salute che all’inizio del secolo scorso «si riteneva contribuisse fino all’8% dei ricoveri psichiatrici, poiché i sali di bromuro erano presenti in molti farmaci da banco destinati a una vasta gamma di disturbi, tra cui insonnia, isteria e ansia», si legge nel dossier pubblicato sulla rivista scientifica. I casi sono diminuiti dopo che la Food and Drug Administration, l’agenzia federale americana del farmaco, ha eliminato il bromuro tra il 1975 e il 1989. Voi direte: si può essere così fessi?
Alla stupidità non c’è limite, diciamocelo. Ma va ricordato che il nuovo oracolo, stregone e ora “professorone” con lo stetoscopio di OpenAi nelle condizioni d’uso mette proprio in guardia su questo punto: «Non si deve fare affidamento sull’output dei nostri servizi come unica fonte di verità odi informazioni fattuali, o come sostituto di una consulenza professionale». E ancora: «I nostri servizi non sono destinati all’uso nella diagnosi o nel trattamento di alcuna condizione di salute». Chiaro, no? A quanto pare non per tutti. Piccolo consiglio non richiesto al prossimo “paziente” sbadato di turno: più che passare ore e ore a saltare tra un clippino video e l’altro in cui ci dicono tutti le ultime cinque regole per mangiar sano e diventare belli (come si diceva qualche tempo fa), spendiamo qualche minuto a leggere i “bugiardini” che accompagnano le piattaforme che consultiamo. Faremmo risparmiare tempo agli scienziati, ai medici che si sbattono come flipper in ospedale per chi ha ben altri problemi. ChatGpt ha poi corretto la sua risposta e ora non consiglia più il bromuro di iodio come sostituto del sale per dar sapore alle pietanze. Tre gocce di limone e un filo d’olio sono più che sufficienti. Me l’ha detto un diabetologo con due occhi e due gambe piuttosto severo che mi marca stretto.