Cerca
Cerca
+

Le relazioni pericolose dell'Intelligenza Artificiale: una strana storia

Caterina Maniaci
  • a
  • a
  • a

Se si mettono insieme una giovane e agguerrita influencer, l’intelligenza artificiale, l’incapacità conclamata di milioni di persone di costruire solidi rapporti interpersonali, che cosa potrebbe venire fuori? Qualcosa di irreale, distopico, e potenzialmente esplosivo, pericoloso. Al centro di tutto c’è Caryn Marjorie, una 24enne influencer americana che ha deciso di replicare se stessa per diventare la fidanzata virtuale di migliaia di utenti grazie a un chatbot, un software progettato per simulare una conversazione con un essere umano, che può interagire al modesto costo di un dollaro al minuto. Modesto se si guarda al costo unitario, ma se si guarda alle cifre complessive... Si consideri che fino a qualche giorno fa, la lista d’attesa per chattare con l’alter ego digitale era di 26 ore. La stessa influencer stima che il suo avatar potrebbe farle guadagnare 5 milioni di dollari al mese. La chat è attiva h24 e parla con tutti i fan contemporaneamente. A rispondere è un’intelligenza artificiale addestrata a replicare la voce, la personalità e il carattere dell’influencer.

Nel 2014 il regista Spike Jonze immagina una relazione sentimentale tra un uomo e un sistema operativo basato su un’intelligenza artificiale, mettendolo in scena nel film premio Oscar Her. Una finzione cinematografica che sta diventando realtà grazie appunto alla Marjorie. Che continua a dichiarare che CarynAI è stata creata per “fare compagnia”, per aiutare chi durante la pandemia ha sviluppato un’ansia che sfocia nella paura di relazionarsi con gli altri.

 


La notizia ha fatto discutere soprattutto in Italia, come svelato da un’analisi di Volocom, ma i timori che emergono globalmente dai media che si sono occupati del caso sono chiari: la chat, da subito divenuta sessualmente esplicita, potrebbe prendere la deriva pericolosa che hanno preso piattaforme simili. Sembra conclamato, infatti, che CarynAI scateni le peggiori perversioni degli utenti, i quali sfogano i loro impulsi violenti su una persona che, seppur sostituita da un alter ego artificiale, esiste davvero. Tanto che l’influencer ha dovuto lavorare con un team di tecnici per modificare le risposte elaborate dal chatbot, che assecondavano violenze di ogni tipo.

 

 

Dai blog