Cerca
Cerca
+

Intelligenza artificiale, i divieti imposti dalla Ue: cosa sarà vietato

Luca Puccini
  • a
  • a
  • a

Per fare svelto si chiama “Ai-Act”, dove per “Ai” si intende intelligenza artificiale (all’inglese, ossia all’incontrario, artificial intelligence) e “Act” sta per atto in senso legislativo. L’Unione europea ci mette un freno. Il primo, anche a livello mondiale: ieri il parlamento di Strasburgo dà il via libera a un documento che limitale applicazioni dell’intelligenza artificiale. Stop al riconoscimento facciale, stop ai sistemi che hanno un livello di rischio elevato per la sicurezza personale, stop all’identificazione biometrica da remoto, stop a tutte quelle tecniche subliminali (e non) che manipolano, influenzano e condizionano: 84 voti a favore, sette contrari e dodici astenuti, le commissioni Mercato interno e Libertà civili approvano un regolamento che, adesso, dovrà passare per l’Aula plenaria, seduta già fissata per metà giugno ché il tempo corre e vai a sapere, in un mese esatto, cos’altro riuscirà a tirar fuori dal cilindro questa benedetta Ai che se ne ne inventa una al giorno. Epperò ora un testo base c’è, con la prospettiva che entro la primavera del prossimo anno (a giugno sono in programma anche i negoziati inter-istituzionali col Consiglio dell’Unione: mica è cosa fatta a stretto giro) si arrivi a un “codice” sul digitale.

 

 


PRIMO TENTATIVO
«Si tratta del primo tentativo di regolare l’intelligenza artificiale in modo orizzontale», spiega Brando Benifei, che è un italiano ed è pure il co-relatore del provvedimento e ha la tessera del Pd in tasca, «abbiamo dovuto esplorare nuovi concetti, ma nologie, d’accordo i computer, le macchine e i robot, ma tocca anche fare il punto sulle libertà fondamentali. Che poi sono quelle personali, dell’individuo, inviolabili. Pure dai micro-chip. L’Ue, in sostanza, dice che l’intelligenza artificiale non è il male assoluto, al contrario: è uno strumento e come tale ha delle potenzialità enormi.

 

 


Ma, aggiunge, il suo sviluppo deve essere umanocentrico, altrimenti campacavaollo. E se sia più facile a dirsi che a farsi è ancora da vedere (lo vedremo), tuttavia eccoli, i paletti “imposti” da Strasburgo. Uno: i sistemi di Intelligenza artificiale devono essere supervisionati dalle persone. Cioè dagli umani. Ché la fantascienza è, appunto, fantascienza e “la rivolta dei robot” meglio lasciarla ai romanzi di Philip Dick. Due: le piattaforme “intelligenti” devono anche essere sicure. Ossia trasparenti, tacciabili, non devono discriminare e devono essere «rispettose dell’ambiente» (questo, oramai, è un chiodo fisso: un “control-v”, per usare una terminologia da smanettoni consumati, che parte in automatico e qualsiasi cosa voglia dire).
Tre: occorre sedersi a tavolino e scrivere una definizione di Ai il più neutrale possibile, perché ci serve oggi ma ci servirà soprattutto domani. Nel concreto tutti questi punti significano che: a) le tecnologie per il riconoscimento facciale non hanno diritto d’esistere (perché esiste il diritto) e chi le utilizza in alcun modo può “scippare” dati biometrici dai social o dai filmati o dalle tivù o dalle telecamere di sorveglianza per creare database che sarebbero contro ogni norma sulla riservatezza.


VIDEOSORVEGLIANZA
Questo significa anche «lo stop alla video-sorveglianza invasiva» (spiega Benifei) perché la stessa regola vale per le infrastrutture di difesa dei confini e contro la migrazione clandestina e per qualsiasi luogo pubblico; b) ogni sistema che sfrutti le vulnerabilità degli utenti o che utilizzi il cosiddetto “punteggio sociale” (che è un modo di classificare le persone in base al loro modo di agire o alle proprie caratteristiche) è bandito in saecula saeculorum; c) il riconoscimento biometrico può avere una sola eccezione, quella delle forze dell’ordine che stanno perseguendo reati gravi e che, a ogni modo, devono avere l’autorizzazione giudiziaria; d) le aree di rischio, d’ora in poi, non sono solo quelle legate alla privacy ma riguardano anche la salute, la sicurezza e i diritti. 

Dai blog