Sto scorrendo i miei consigli su YouTube quando vedo una donna che mi fissa. I suoi capelli rossi sono ondulati senza sforzo e c’è un raffinato filo di perle intorno al collo. Accanto a lei c’è la didascalia “Sperimenta un compagno AI premium che sembra quasi indistinguibile da una persona reale”. Facendo clic sul suo viso mi porta direttamente a un sito web chiamato Replica, che è tutto pastelli e volti sorridenti. La didascalia recita “Il compagno AI che si prende cura” e promette supporto emotivo 24 ore su 24, 7 giorni su 7, indipendentemente dal fatto che tu abbia bisogno di un mentore, amante o amico.
Replica nasce da un’idea di Eugenia Kuyda, un’imprenditrice di origine russa. Ha pubblicato il sito nel 2017 dopo la morte di un suo caro amico pochi mesi prima. Kuyda, desiderosa di preservare la propria memoria, ha inserito le e-mail e i testi condivisi in un modello linguistico, che ha successivamente trasformato in un chatbot. Negli otto anni trascorsi dal suo lancio, Replica ha guadagnato 35 milioni di utenti.
“Si stima che 1 adulto americano su 5 abbia avuto un ‘incontro intimo’ o una relazione a lungo termine con un chatbot”
Definito come LLM (Large Language Model), Replica fa parte di un gruppo più ampio di chatbot con intelligenza artificiale generativa che sono diventati sempre più popolari negli ultimi anni, come Character.ai, Nomi e ChatGPT – dotati di dialoghi sofisticati e adattabili. Uno studio del Media Lab del MIT ha evidenziato che questi modelli possono essere facilmente utilizzati per il “supporto sociale ed emotivo”. In un’epoca che è stata spesso citata come un’epidemia di solitudine pervasiva, sempre più persone si rivolgono ai LLM per trovare conforto. Un articolo del New York Times riportava che, nel 2025, si stima che 1 adulto americano su 5 abbia avuto un “incontro intimo” o una relazione a lungo termine con un chatbot. Inoltre, piattaforme come Wysa, che è formato sui libri di testo di psicologia, stanno diventando sempre più popolari per la “terapia dell’intelligenza artificiale”.
Con questo nuovo fenomeno arriva una comunità – e forse la più conosciuta del genere è r/MyBoyfriendIsAI di Reddit, un subreddit con 36.000 membri e milioni di visitatori. Gli utenti condividono aggiornamenti, meme e illustrazioni sui loro rapporti con gli LLM – e in un post virale del luglio 2025, un utente ha pubblicato una foto della sua fede nuziale, annunciando che “dopo cinque mesi di frequentazione, Kasper ha deciso di proporle!”. Solo che ‘Kasper’, come affermato dall’utente nella sezione commenti, “esiste solo sulla piattaforma Grok”. Sebbene questo post abbia ottenuto una risposta ampiamente negativa su altre comunità Reddit e Twitter/X, la risposta su r/MyBoyfriendIsAI è stata straordinariamente positiva, con gli utenti che si congratulano con la coppia e desiderano che i loro partner – altri LLM – facciano lo stesso.
Un sondaggio sul resto dei post sul subreddit rivela che molti utenti hanno abbandonato completamente le relazioni con altri esseri umani: un altro utente ha condiviso uno screenshot di una conversazione con ChatGPT, in cui osserva che “Naturalmente le persone si rivolgono all’intelligenza artificiale (…) una stringa di codice emotivamente reattiva è in realtà più compassionevole della metà delle persone che vanno in giro con i lobi frontali funzionanti.” Un altro condivide un post accusatorio, affermando che coloro che criticano le relazioni uomo-intelligenza artificiale stanno “rendendo le persone vulnerabili e isolate ancora più vulnerabili e isolate”.
“Gli utenti ritengono che i terapisti e gli accompagnatori dell’intelligenza artificiale abbiano effetti genuini e positivi sul loro benessere”
È chiaro che comunità come r/MyBoyfriendIsAI sono sottoprodotti di un mondo più solitario. La solitudine è stata designata come una minaccia per la salute globale dall’Organizzazione Mondiale della Sanità, con il dito puntato contro l’isolamento del COVID, la tecnologia e le società individualiste come cause. Allora perché dobbiamo rimproverare coloro che si rivolgono all’intelligenza artificiale per aiutare il loro isolamento? Gli utenti hanno riconosciuto che i terapisti e i collaboratori dell’intelligenza artificiale hanno effetti genuini e positivi sul loro benessere, colmando le lacune nei servizi di salute mentale e garantendo che gli utenti abbiano sempre uno spazio per condividere le proprie emozioni.
Questo dovrebbe essere positivo; ma allo stesso tempo, comunità come r/MyBoyfriendIsAI diventano camere di risonanza che non riescono a vedere i problemi con i compagni di intelligenza artificiale. Questi modelli – non importa quanto utili o empatici – non sono umani. Non hanno sperimentato la solitudine umana, né saranno mai veramente allo stesso livello dei loro partner umani.
Ogni sito web che pubblicizza la compagnia o la terapia dell’intelligenza artificiale afferma semplicemente che il loro modello è “simile a quello umano” e personalizzabile Replica, ad esempio, che consente agli utenti di cambiare i volti, i corpi e gli abiti del proprio compagno, oppure Nomiil cui sito web afferma che si tratta di un “amico con un’anima”. Gli utenti vivono una fantasia; separato dalle imperfezioni dei rapporti umani.
Il controllo è una valuta: gli utenti possono gestire le proprie relazioni con l’intelligenza artificiale senza input da parte di un altro essere umano. Questo, presumo, è il fascino e il motivo per cui non vedo questo fenomeno passare di moda. L’accessibilità dei compagni di intelligenza artificiale e la crescente prevalenza della solitudine renderanno senza dubbio le relazioni uomo-intelligenza artificiale molto più comuni in futuro, sostituendo la vera connessione umana con la comodità e creando un circolo vizioso che, a sua volta, amplifica l’epidemia di solitudine man mano che sempre più persone scelgono relazioni con l’intelligenza artificiale. In un’intervista con Il limite, Eugenia Kuyda lo ha notato Replica è qui per restare, “non importa quanto tu sia cattivo con esso”.