Il rapido sviluppo dell’intelligenza artificiale suscita in me una miscela di fascino e preoccupazione. Seppur la tecnologia possa portare a risultati positivi, ci sono applicazioni che destano timori. La sostituzione di scrittori umani con robot imprecisi, la mancanza di protezione per i talenti creativi a Hollywood e i giochi generati da AI, come Sumner, sollevano interrogativi su plagio e originalità. Tuttavia, ciò che mi preoccupa di più è l’emergere della terapia automatizzata.
Attualmente, esistono diversi servizi che offrono una forma di terapia automatizzata. Woebot è un “agente conversazionale automatizzato” che si propone come strumento di supporto per la salute mentale. Gli utenti possono interagire quotidianamente con un chatbot, ricevendo suggerimenti per il benessere e video informativi. Un altro esempio è Wysa, che abbina gli utenti a un coach AI, ma per i clienti premium è possibile integrare supporto umano 1:1. Dato che la terapia tradizionale si basa molto sulla connessione umana, l’idea di automatizzarla sembra un rischio elevato.
C’è un motivo particolare per cui tutto questo mi affascina. Si tratta di una visual novel chiamata Eliza. Pubblicata nel 2019, questa gemma indie ha anticipato il preoccupante ingresso dell’AI nel campo della salute mentale, presentando una storia che mette in guardia sulle complessità dell’automazione dei legami umani.
Benvenuti in Eliza
Ambientato a Seattle, Eliza racconta la storia di Evelyn Ishino-Aubrey, che inizia a lavorare per una nuova azienda tecnologica, Skandha, simile a una megacorporazione alla Apple. L’azienda ha sviluppato un’app di consulenza virtuale, chiamata Eliza, che offre sessioni di terapia guidate da AI a un prezzo relativamente accessibile.
A differenza di un semplice chatbot, Eliza mantiene un elemento umano nella terapia faccia a faccia. L’app utilizza dei proxy umani che si siedono con i clienti e leggono in tempo reale le risposte generate dal bot. Skandha afferma di aver messo a punto la sua metodologia in modo scientifico, quindi i proxy non possono deviare dal copione prestabilito. La loro funzione è solamente quella di dare un volto reale ai consigli forniti dalla macchina.
Un’analisi realistica
Il gioco evita di presentare l’idea in modo eccessivamente distopico, optando per un tono più realistico, simile a quello del film Her di Spike Jonze. Ciò consente di affrontare domande serie e sfumate sull’automazione delle interazioni umane, ponendo interrogativi che erano già attuali. La storia, della durata di cinque ore, si interroga se un’applicazione AI come questa sia un beneficio netto, rendendo la terapia più accessibile, oppure una decisione sfruttatrice da parte delle grandi aziende tecnologiche, che sacrificano l’interazione umana per facili profitti.
I giocatori esplorano queste questioni attraverso il sistema di visual novel di Eliza. Le interazioni sono minime; i giocatori scelgono semplicemente le opzioni di dialogo per Evelyn, ma questa scelta ha un impatto significativo sulle sue sessioni. Durante la storia, Evelyn incontra alcuni clienti ricorrenti abbonati al servizio. Alcuni si limitano a raccontare le loro piccole vicende quotidiane, mentre altri affrontano problemi più seri. Indipendentemente dalla gravità della situazione, Eliza offre sempre lo stesso copione piatto, ripetendo alcune domande e suggerendo esercizi di respirazione e farmaci.
Man mano che Evelyn si coinvolge nella vita dei suoi clienti, inizia a percepire i limiti della tecnologia. Alcuni dei consigli di Eliza non sono soluzioni universali e i clienti più problematici iniziano a chiedere aiuto reale da un professionista umano. I giocatori possono decidere di uscire dal copione, permettendo a Evelyn di prendere iniziative, una mossa che ha implicazioni significative per il suo lavoro e il benessere dei clienti.
Non sempre questa è la soluzione giusta. Mentre alcuni ricevono il supporto di cui hanno bisogno, altri si sentono ancora più persi. Le parole di Evelyn possono essere fraintese in modi inaspettati, un rischio che l’algoritmo di Eliza cerca di evitare. È più sicuro attenersi a un copione sterile o tentare di stabilire una connessione reale? E la tecnologia come questa fa più male che bene, o viceversa?
Eliza non fornisce risposte definitive, lasciando ai giocatori il compito di riflettere. È un’interrogazione ponderata sulle tecnologie moderne, la cui rilevanza è aumentata con l’emergere di servizi come Wysa, che si avvicinano pericolosamente alla tecnologia fittizia del gioco. Che tu sia a favore o contro strumenti AI come ChatGPT, Eliza offre una lezione cautelativa sui limiti sia delle macchine che delle interazioni umane.
Eliza è disponibile su PC e Nintendo Switch.