Ogni volta che una nuova tecnologia entra nella nostra vita quotidiana, il primo istinto è quello di cercare un colpevole. Così accade oggi con l’intelligenza artificiale, accusata di sostituire le relazioni, di illuderci con un ascolto che in realtà non esiste. Ma sarebbe troppo comodo dire che la responsabilità è della macchina. Se tante persone trovano conforto in un algoritmo, significa che intorno a loro quel conforto non lo trovano.
Non è l’IA a generare solitudine, ma la società in cui viviamo. In un contesto dove chiedere aiuto psicologico è ancora percepito come una debolezza, dove la terapia resta un lusso per pochi e dove la vita di ciascuno è schiacciata da tempi rapidi e da una pressione costante alla performance, non sorprende che qualcuno cerchi altrove uno spazio di ascolto, anche se artificiale. Le macchine non hanno inventato la nostra fragilità, semmai la mettono in evidenza.
Quando accusiamo l’intelligenza artificiale di renderci dipendenti, dimentichiamo che il vero problema è il bisogno insoddisfatto di relazioni autentiche e di servizi accessibili. Non si tratta di “lavarsene le mani” scaricando la colpa sulla tecnologia, ma di ammettere che abbiamo una responsabilità collettiva. Una comunità che funziona non lascia che siano gli algoritmi a sostituirsi all’empatia.
Non dovremmo avere paura del fatto che qualcuno trovi in un sistema artificiale una risposta immediata. Dovremmo piuttosto interrogarci sul perché non sia più semplice trovare la stessa disponibilità, la stessa attenzione, nella vita reale. L’IA non è la causa: è lo specchio delle nostre mancanze.