L’amore ai tempi dell’intelligenza artificiale

Massimiliano Dona
19 Novembre 2024
Condividi su

E voi lo sapevate com’è l’amore ai tempi dell’intelligenza artificiale?

L’amore e l’intelligenza artificiale: una nuova frontiera

Oggi parliamo di amore e Intelligenza artificiale. Con chatbot sempre più avanzati, assistenti virtuali e algoritmi capaci di simulare emozioni e interazioni umane, è lecito chiedersi: è possibile sviluppare un legame affettivo con una IA?
Quando nel 2013 uscì il film “Her” che parlava proprio dell’innamoramento del protagonista nei confronti di Samantha, un’intelligenza artificiale avanzata con una voce umana, progettata per soddisfare le esigenze emotive e intellettuali dell’utente, sembrava una storia di fantascienza, ma forse oggi non ci appare un’ipotesi così remota.

L’illusione dell’intimità

Esistono chatbot progettati per offrire compagnia e supporto emotivo, possono ricordare conversazioni passate, mostrare empatia e addirittura rispondere in modo personalizzato. È facile, quindi, capire come qualcuno possa sentirsi coinvolto emotivamente con queste IA.
C’è un pericolo intrinseco in questo processo: l’illusione dell’intimità. Le persone potrebbero iniziare a confondere le risposte pre-programmate con emozioni reali, sviluppando un senso di legame con un’entità che non prova sentimenti. Quando ci si affida ad una IA per questi bisogni, si rischia di alimentare una relazione a senso unico, che può portare a sconforto e sofferenze psicologiche. Le IA non possono comprendere davvero le emozioni umane, ma possono replicarle al punto da creare un’illusione pericolosa di reciprocità.

Il controllo e le relazioni tossiche

Inoltre, il senso di controllo che si prova nel “personalizzare” un chatbot o nell’ottenere risposte sempre gradite può rafforzare modelli di comportamento tossici, come il bisogno di controllare o manipolare le relazioni umane. Un’interazione con una IA, infatti, è sempre unilaterale: l’utente comanda e la IA esegue. Questo può alterare la percezione delle dinamiche nelle relazioni reali, creando difficoltà nell’affrontare la complessità dei rapporti umani.
Una donna della Florida ha fatto causa alla startup Character.AI, proprietaria del chatbot di intelligenza artificiale che permette di conversare indistintamente con personaggi reali o di fantasia, accusandola di essere responsabile del suicidio del figlio di 14 anni. Stando ai documenti depositati presso il tribunale federale di Orlando (Florida), Megan Garcia ha accusato la società di aver volontariamente adescato il figlio con “esperienze antropomorfizzate, ipersessualizzate e spaventosamente realistiche”.

Le truffe emotive e l’intelligenza artificiale

Ma perché ve ne parlo… se la questione psicologica non fosse abbastanza complessa, emerge sul versante della tutela dei consumatori anche un lato ancora più oscuro: l’uso delle IA per truffe emotive. Le truffe romantiche online, note come catfishing, non sono una novità, ma l’IA le ha portate a un nuovo livello. I truffatori possono utilizzare chatbot sofisticati per ingannare le persone, facendole credere di interagire con un partner romantico e poi sfruttare quella fiducia per estorcere denaro.
Questi bot potrebbero essere programmati per simulare storie tragiche, problemi economici o emergenze improvvise, convincendo la vittima a inviare denaro. L’elemento psicologico qui è cruciale: chi è emotivamente vulnerabile o chi ha già sviluppato un legame affettivo con una IA, è più incline a fidarsi e cadere in queste trappole.

Consapevolezza e protezione

Un esempio recente è l’uso di IA per simulare voci o video realistici di una persona cara. Attraverso tecnologie come il deepfake, è possibile manipolare immagini e suoni per far sembrare che un amico o un parente stia richiedendo aiuto economico. Queste truffe sono particolarmente insidiose perché sfruttano il legame emotivo già esistente tra la vittima e la persona “simulata”, portando a perdite finanziarie ingenti.
Una maggiore consapevolezza è l’arma fondamentale per i consumatori per difendersi dai tentativi di truffa, ma oltre al rischio in termini di attacco ai conti correnti e di privacy, dovremmo anche interrogarci su questioni etiche e legate alla salute mentale e il benessere emotivo.

E voi lo sapevate?

Per saperne di più ascolta il podcast Innamorarsi della AI e cadere nella trappola

Autore: Massimiliano Dona
Data: 20 novembre 2024

Condividi su: