Quante volte hai iniziato una conversazione con ChatGPT o con un’AI generativa solo per fare ordine tra i pensieri? Magari per sfogarti, o chiedere: “Sto facendo la cosa giusta?”. 

Negli ultimi mesi, l’uso personale dell’AI Generativa ha vissuto un’evoluzione profonda. Se fino all’anno scorso l’intelligenza artificiale veniva impiegata principalmente in ambito lavorativo — per scrivere testi, generare idee o automatizzare attività — oggi la utilizziamo sempre più come supporto emotivo e strumento di crescita personale.

Una recente ricerca pubblicata su Harvard Business Review lo conferma: l’AI generativa viene oggi consultata come confidente, supporto terapeutico, coach per l’organizzazione quotidiana e perfino guida nella ricerca del proprio scopo.

Nel 2024 dominavano gli usi produttivi. Nel 2025, invece, stiamo assistendo a un cambiamento di paradigma: l’intelligenza artificiale non è più solo uno strumento di efficienza, ma un interlocutore per l’autorealizzazione.

Una trasformazione che apre la strada a nuove opportunità, ma anche a domande profonde: che ruolo può avere l’AI nella nostra vita interiore? Quali rischi comporta affidarle aspetti così sensibili? In questo articolo esploriamo insieme i trend emergenti, le applicazioni più diffuse e gli strumenti per un utilizzo consapevole dell’AI generativa nella sfera personale.

Come si usa l’Intelligenza Artificiale Generativa nel 2025

Nell’ultimo anno, l’utilizzo che facciamo dell’AI Generativa ha subito un cambiamento radicale, passando da un’applicazione più tecnica e lavorativa, a una più emozionale e personale. I dati che emergono da una ricerca pubblicata su Harvard Business Review parlano chiaro: usiamo sempre di più la GenAI come confidente.

In particolare, se nel 2024 utilizzavamo la GenAI soprattutto per generare idee, creare contenuti e risolvere problemi, ora la usiamo per terapia/compagnia, per organizzarci la vita, e trovare uno scopo. Tre usi che riflettono un bisogno crescente di autorealizzazione, e che portano con sé diversi spunti di riflessione.

Uso AI Harvard Business Review

E l’evoluzione non riguarda solo gli usi della GenAI, ma anche gli strumenti. Oltre a OpenAI con ChatGPT, oggi l’ecosistema dell’AI Generativa include molte possibilità. Per citarne alcune:

  • GPT personalizzati (Custom GPTs), creati su misura per specifiche esigenze individuali o aziendali — ora con nuove implementazioni come la scelta del LLM più adeguato;
  • DeepSeek e Grok, piattaforme che offrono alternative alle BigTech;
  • NotebookLM, il tool di Google per l’organizzazione e l’analisi di fonti e documenti;
  • Microsoft Copilot, sempre più integrato nei flussi di lavoro delle aziende;
  • Claude con i nuovi modelli Sonnet 4 e Opus 4, con capacità di reasoning avanzato; 
  • Perplexity, “motore di risposte” basato sull’AI Generativa;
  • Manus, agente di intelligenza artificiale autonomo cinese.

Anche il modo in cui interagiamo con queste AI è cambiato: comandi vocali, catene di ragionamento (chain-of-thought), interfacce unificate e memorie stanno ridefinendo l’esperienza utente. 

Non solo, il 2025 non è ancora finito, e potrebbe portare con sé ulteriori novità come modelli linguistici più avanzati, con una capacità di ragionamento migliorata, e con una maggiore presenza in settori come sanità, istruzione e trasporti. 

I 10 modi in cui per persone usano l’AI generativa secondo Harvard Business Review

La ricerca pubblicata da Harvard Business Review ha raccolto 100 casi d’uso concreti, basandosi su contributi presenti su forum come Reddit e Quora, selezionati in base a due criteri fondamentali: utilità percepita e impatto reale sulla vita delle persone.

Rispetto all’anno precedente, 38 casi d’uso sono completamente nuovi. Un dato che dimostra quanto stia evolvendo rapidamente il rapporto tra esseri umani e intelligenza artificiale, con lo spostamento netto da usi tecnici (come generare codice o fare debug) verso utilizzi più improntati all’emotività e alle relazioni.

Ecco le 10 applicazioni più diffuse della GenAI nel 2025:

  1. Terapia/compagnia
  2. Organizzare la propria vita
  3. Trovare uno scopo
  4. Apprendimento personalizzato
  5. Generazione di codice (per professionisti)
  6. Brainstorming e generazione di idee
  7. Intrattenimento e contenuti nonsense
  8. Miglioramento del codice (debug e refactor)
  9. Sviluppo della creatività
  10. Supporto per una vita più sana

I primi tre casi — terapia, organizzazione e ricerca di senso — segnalano un cambio di paradigma, con i modelli linguistici che vengono interrogati sempre di più per comprendere meglio sé stessi, gestire l’ansia sul lavoro o chiarire obiettivi personali.

Qualche esempio pratico? Le citazioni dirette raccolte nel report sono ancora più esplicative di questo cambiamento radicale:

  • Terapia /compagnia:
    “In Sudafrica non c’è quasi accesso a terapie psicologiche. L’AI è sempre disponibile”;
  • Organizzazione personale:
    “Le ho chiesto di aiutarmi a pianificare le pulizie di casa prima dell’arrivo degli ospiti. È stato più facile iniziare”;
  • Apprendimento avanzato:
    “Uso ChatGPT come tutor di analisi dei dati: mi spiega quello che il corso salta, e lo aggiungo ai miei appunti”;
  • Vita sana:
    “Sto seguendo una dieta. L’AI mi suggerisce ricette e mi prepara la lista della spesa. Zero stress”;
  • Disputa legale:
    “Ho ricevuto una multa. L’AI mi ha scritto un ricorso perfetto. La multa è stata annullata. Senza l’AI avrei pagato la multa”.

Questi esempi raccontano un’AI che non è più solo “generativa”, ma profondamente integrativa: si inserisce nei momenti di difficoltà, di solitudine, andando a colmare lacune. 

Se da un lato tutto questo apre scenari affascinanti, dall’altro richiama anche nuove responsabilità sociali: la necessità di educazione, alfabetizzazione, e una riflessione profonda su come ci stiamo evolvendo insieme all’intelligenza artificiale.

Terapia e compagnia con l’AI: la nuova frontiera del supporto emotivo

A confermare il legame tra GenAI e supporto emotivo, non sono solo i dati emersi dai forum online, ma studi accademici recenti, come quello condotto da Lee, Chen, Ong e Ho.

L’AI viene ormai interrogata quotidianamente da milioni di persone non solo per ottenere informazioni o generare contenuti, ma per trovare conforto, chiarezza emotiva o simulare uno spazio di ascolto.

Il confine tra AI e salute mentale si sta così assottigliando, aprendo un nuovo scenario: utenti che raccontano le proprie difficoltà a un modello linguistico, ricevendo risposte che, per quanto non umane, appaiono empatiche, gentili e centrate.

Tra i vantaggi più spesso riportati da chi usa l’AI per scopi personali o emotivi troviamo:

  • Accessibilità: l’AI è disponibile 24/7, non giudica e non si stanca;
  • Ascolto incondizionato: molte persone percepiscono l’AI come “meno minacciosa” di un interlocutore umano;
  • Stimolo alla riflessione: grazie alla sua struttura dialogica, l’AI può aiutare a verbalizzare pensieri e sentimenti, contribuendo ad una maggiore autoconsapevolezza.

Tuttavia, i rischi sono reali. Lo studio parla chiaramente di “overtrust” e “illusione di empatia”: l’utente può credere che l’AI lo comprenda davvero, sviluppando un attaccamento disfunzionale. C’è poi il rischio di usare l’AI come surrogato relazionale, evitando la complessità dell’interazione umana e contribuendo a fenomeni di isolamento, derealizzazione o ritiro sociale. Alcuni psicologi parlano ormai di “phantom empathy”, un’empatia apparente che, pur generando sollievo immediato, può prolungare la solitudine e ostacolare la crescita emotiva. 

Affidarsi esclusivamente all’AI come spazio sicuro può generare una serie di effetti collaterali che raramente vengono discussi apertamente:

  • Assenza di contraddittorio: l’AI non ci mette in discussione, non ci chiede di cambiare. Eppure è proprio il confronto con l’altro a farci crescere;
  • Standardizzazione del pensiero: interagendo con un sistema addestrato su grandi masse di contenuti, potremmo gradualmente omologare il nostro modo di pensare, perdendo complessità, nuance e pensiero divergente;
  • Erosione dell’intelligenza emotiva: se deleghiamo alla macchina l’elaborazione dei nostri vissuti, rischiamo di perdere contatto con le nostre emozioni, con il corpo e con la fatica di comprenderle davvero.

In altre parole: l’AI può dare forma al senso, ma non può darle significato. Quello è, e resta, nostro compito.

Come mostra la ricerca l’uso della GenAI in ambito psichiatrico viene raccomandato solo all’interno di contesti strutturati, supervisionati, educativi o clinici, mai in sostituzione di una relazione d’aiuto autentica.

Questo aspetto procede di pari passo con l’urgenza di creare strumenti educativi che insegnino a utilizzare l’AI in modo consapevole, relazionale e orientato all’esercizio del pensiero critico.

Usare l’AI per organizzare la propria vita quotidiana

L’adozione dell’intelligenza artificiale generativa per organizzare la propria vita quotidiana è in crescita. Sempre più utenti sperimentano l’uso di chatbot e assistenti digitali per gestire attività che vanno dalla pianificazione settimanale alla definizione di obiettivi, passando per la creazione di routine personalizzate.

Secondo una recente analisi condotta dalla UPCEA (University Professional and Continuing Education Association), molti professionisti e studenti iniziano a considerare l’AI come una vera e propria “protesi cognitiva” per gestire meglio tempo, energia e attenzione.

Ad esempio, l’Università di Melbourne ha avviato una riflessione sull’integrazione dell’AI nei processi di studio e pianificazione da parte degli studenti, evidenziando vantaggi percepiti in termini di riduzione dell’ansia da carico mentale, maggiore chiarezza sugli obiettivi e senso di agency aumentato. 

Tuttavia, l’utilizzo dell’AI nell’organizzazione quotidiana è stato dimostrato essere più efficace quando la persona mantiene un ruolo attivo e critico nel processo

L’AI può suggerire routine e schemi organizzativi, distribuire le attività in base a criteri logici, offrire riepiloghi o identificare le priorità secondo regole impostate. Tuttavia, non è in grado di cogliere la complessità reale delle nostre giornate, i fattori emozionali, gli imprevisti, e non può e non deve sostituire la consapevolezza del contesto, l’ascolto e l’intuizione personale, né l’adattabilità al cambiamento.

Un punto importante riguarda la tendenza alla delega totale. Alcuni utenti, soprattutto nei primi momenti di utilizzo, riportano un’eccessiva fiducia nei suggerimenti dell’AI, seguendo pedissequamente e passivamente le indicazioni fornite. Questo può portare a una forma di standardizzazione delle scelte, in cui le routine suggerite si allineano a modelli ottimali teorici ma poco sostenibili o realistici nel lungo termine. È inoltre necessario considerare il rischio che l’AI favorisca uno stile cognitivo iper-produttivo, incentrato sulla performance e sulla massimizzazione del tempo, più che sulla qualità dell’esperienza quotidiana.

Intelligenza artificiale e crescita personale: trovare il proprio scopo

L’AI come specchio per fare chiarezza su valori e scelte

In un periodo storico in cui il senso del lavoro e della vita viene spesso messo in discussione, molte persone si avvicinano alla GenAI non solo per ottenere risposte, ma per fare chiarezza. Non sorprende quindi che stiano nascendo strumenti come YourPurpose.ai, che promettono di aiutare gli utenti a individuare il proprio purpose.

Ma può un modello linguistico davvero restituirci uno specchio così profondo in una manciata di prompt? 

La ricerca che citavamo sopra su AI e supporto psicologico ha messo in luce che chatbot e affini possono aiutare gli utenti a esplorare emozioni, obiettivi e narrazioni personali, ma solo se integrati in un contesto strutturato, con consapevolezza dei limiti di questi modelli. Vengono descritti come strumenti non direttivi, utili per stimolare la riflessione piuttosto che per dare risposte definitive. È importante ricordare che gli LLM (Large Language Models) come GPT o Claude non trovano risposte dentro di noi, piuttosto, restituiscono ciò che già sappiamo, formulato con parole nuove. 

Nell’atto stesso di porre a un’AI domande come ad esempio: “Quali sono i miei valori?”, “Cosa conta davvero per me?”, “Come potrei vivere una vita più coerente con ciò in cui credo?”, si attiva un processo metacognitivo. L’AI diventa un compagno dialogico, non deve farsi mentore. Non ci dà la verità, ma ci aiuta ad attivare la nostra capacità di riflessione.

Allo stesso modo, il documento del Parlamento Europeo sui General-purpose artificial intelligence sottolinea che questi strumenti possono essere integrati in processi di educazione, terapia o sviluppo personale, ribadendo però che non vanno sopravvalutati, soprattutto perché generano risposte statisticamente plausibili, non necessariamente vere o rilevanti.

Quando chiedere consiglio all’AI Generativa

Quando L’AI può essere davvero utile?

Ne abbiamo parlato qualche settimana fa durante un webinar per la nostra Community dedicato a AI e sostenibilità, momento in cui ci siamo fermate a riflettere su domande come: quando apriamo una chat con l’AI stiamo delegando la fatica del pensiero o allenando una nuova forma di pensiero critico?

L’AI può aiutare a:

  • Strutturare un journaling guidato (es. “Fammi 5 domande per riflettere sul mio lavoro attuale”);
  • Esplorare scenari alternativi (“Come sarebbe la mia vita se cambiassi città?”);
  • Allenarsi a prendere decisioni complesse con una griglia di pro/contro;
  • Raccogliere ispirazioni (“Mostrami 3 biografie di persone che hanno cambiato vita dopo i 40”).

Non sostituisce la psicoterapia né il coaching, ma può affiancarli. Funziona bene quando sappiamo già cosa cercare, ma abbiamo bisogno di una lente diversa per vederlo.

Attenzione però ad alcuni effetti collaterali:

  • Effetto oracolo: attribuire all’AI un’autorità superiore alla nostra intuizione o esperienza;
  • Bias confermativi: ottenere risposte coerenti con i nostri pregiudizi iniziali, senza metterli in discussione;
  • Illusione di profondità: confondere la coerenza linguistica con la profondità emotiva o esistenziale.

È qui che entra in gioco la responsabilità dell’uso consapevole da parte di noi esseri umani. La crescita personale guidata dall’AI è un territorio promettente, ma ancora fragile. Richiede un livello di alfabetizzazione digitale e psicologica che non possiamo dare per scontato.

Un serious game per imparare a usare l’AI in modo consapevole: Prompt’n’Play for Life Skills

Perché serve un approccio guidato all’uso personale dell’AI

Nel percorso di esplorazione dell’intelligenza artificiale nella vita quotidiana, la curiosità iniziale può trasformarsi facilmente in un’eccessiva fiducia nei confronti di risposte “magiche” da parte dei modelli linguistici. In ambito personale, usare ChatGPT per prendere decisioni o gestire un litigio di coppia richiede solide capacità di discernimento.

Tuttavia, non tutte le persone possiedono competenze di pensiero critico, regolazione emotiva o comunicazione assertiva necessarie per gestire un dialogo riflessivo con un modello linguistico. È qui che emerge il bisogno di contesti facilitati: ambienti sicuri, strutturati e relazionali dove l’AI non diventa oracolo ma alleata nell’apprendimento.

Cos’è Prompt’n’Play for Life Skills 

Prompt’n’Play for Life Skills, il serious game che abbiamo sviluppato di recente, nasce proprio da questo bisogno: offrire un ambiente sicuro e ludico per esplorare scenari complessi e competenze essenziali come l’intelligenza emotiva, la gestione dei conflitti, la resilienza e il decision-making. Una vera e propria palestra progettata per facilitatori, coach, educatori e formatori che vogliono aiutare gruppi o team ad allenare le soft skills attraverso un’interazione consapevole con l’AI

La sua struttura si basa su sessioni in cui i partecipanti impersonano ruoli in scenari realistici: un conflitto di team, una negoziazione con un cliente difficile, una decisione importante da prendere. Ogni round si svolge sfruttando il role playing e aggiungendo colpi di scena (twist narrativi), domande strategiche e schede di riflessione finale.

AI + gioco + facilitazione = uno spazio sicuro per la crescita

Secondo uno studio pubblicato su Electronics (2023), i serious game potenziati dall’AI hanno la capacità di migliorare l’apprendimento grazie a meccanismi di feedback adattivo, personalizzazione e coinvolgimento immersivo. In particolare, l’introduzione dell’AI nella dinamica del gioco può facilitare la riflessione critica e l’empowerment, a patto che venga integrata in un contesto relazionale e guidato.

Numeri alla mano, i dati parlano chiaro: secondo il report How AI-Powered Serious Games Are Rewriting the Rules of Training (Training Industry, 2024), l’uso di serious game basati su AI nei percorsi formativi ha portato a un incremento del 30% nella retention dei contenuti, rispetto alla formazione tradizionale. Aumentano anche il senso di coinvolgimento (+40%) e la capacità di problem-solving percepita dai partecipanti (+27%).

Affinché tutti questi benefici si manifestino, tuttavia, il training dell’AI assistant alla base del gioco va progettato in modo coerente con i risultati di apprendimento. E soprattutto, l’esperienza deve essere mediata da una presenza umana che sappia leggere tra le righe, cogliere segnali e facilitare processi trasformativi, come accade per Prompt’n’Play for Life Skills.

L’intelligenza artificiale può aiutarci a pensare meglio, più velocemente, in modo più ampio? O rischia di diventare una scorciatoia che atrofizza le nostre capacità? È una domanda legittima, sempre più discussa tra utenti, formatori e ricercatori.

Nel 2025, mentre milioni di persone conversano quotidianamente con chatbot avanzati, si moltiplicano le riflessioni su come l’AI stia cambiando il modo in cui ragioniamo, impariamo e prendiamo decisioni. Siamo ancora noi a pensare, o deleghiamo il pensiero a un algoritmo?

Pensare meglio grazie all’AI: stimolo cognitivo o scorciatoia?

I dubbi degli utenti sull’effetto dell’AI sulla mente

Una delle paure più ricorrenti tra gli utenti riguarda l’affidamento passivo all’AI: abituandoci a ricevere risposte istantanee, stiamo perdendo la capacità di elaborare? Siamo ancora capaci di tollerare la complessità, l’ambiguità, l’assenza di una soluzione netta?

L’Harvard Business Review ha evidenziato che una parte significativa degli utenti che utilizzano quotidianamente modelli come ChatGPT dichiara di non sapere più se sta pensando davvero o solo “ricalcando” le risposte suggerite. Il confine tra stimolo e dipendenza, tra uso attivo e delega passiva, è sempre più sottile, fino al verificarsi di fenomeno silenzioso ma diffuso: l’AI fatigue. Secondo la ricerca, persone che utilizzano ChatGPT e affini per diverse ore al giorno tutti i giorni cominciano a sperimentare un senso di sovraccarico, confusione o persino irritazione. Il motivo? L’eccessiva esposizione a contenuti generati artificialmente può portare a:

  • Perdita di fiducia nella propria capacità di discernere;
  • Saturazione informativa;
  • Senso di alienazione (come se ogni pensiero fosse “già stato pensato” da qualcun altro – o da qualcos’altro).

A livello neuropsicologico, questa condizione è simile alla “decision fatigue” e comporta una riduzione della soglia di attenzione, della motivazione e della creatività.

Lo studio di Electronics (2023) che citavamo sopra ha analizzato le risposte emotive di studenti sottoposti a task continui con l’AI e ha riscontrato un calo di engagement del 38% dopo 20 minuti di interazione non facilitata. 

Il ruolo della psychological safety nel dialogo con l’AI

Quando usiamo l’AI in contesti educativi, terapeutici o personali, è fondamentale creare le condizioni per un uso psicologicamente sicuro, dove:

  • L’utente sente di poter fare domande “stupide” senza vergogna;
  • È incoraggiato a sviluppare pensiero autonomo, non dipendenza;
  • Ha il tempo e lo spazio per metabolizzare, non solo produrre.

Si tratta del concetto di psychological safety, sviluppato da Amy Edmondson, professoressa alla Harvard Business School, centrale anche nelle prestazioni di team di lavoro.

In un contesto educativo o formativo, se l’AI viene integrata senza un framework che promuova sicurezza emotiva e libertà cognitiva, l’interazione può ridursi a un copia-incolla mentale. Viceversa, se viene proposta come spazio protetto di esplorazione – mediato dalla competenza di facilitatori e formatori – diventa un acceleratore di consapevolezza.

Come usare l’AI per crescere, non per delegare se stessi

Nel momento in cui iniziamo a dialogare con modelli linguistici sempre più sofisticati, ciò che mettiamo alla prova non è solo la nostra capacità di utilizzarli, ma anche — e soprattutto — la nostra capacità di non confonderli con ciò che non sono: soggetti senzienti, terapeuti, mentori.

L’AI Generativa può amplificare le nostre capacità cognitive, stimolare la riflessione e sostenere processi di apprendimento trasformativo. Ma per fare questo deve essere integrata in contesti educati e facilitati, dove il pensiero critico sia non un corollario opzionale, bensì il fondamento stesso dell’esperienza.

Serve quindi una nuova alfabetizzazione, non solo tecnica ma culturale, emotiva ed etica. Un’educazione all’uso dell’AI che consideri non soltanto le sue funzionalità, ma anche i suoi effetti collaterali invisibili: la dipendenza da risposte pronte, la perdita di ambiguità, la deresponsabilizzazione.

Infine, ogni interazione con un modello generativo è anche una negoziazione con le architetture che lo sostengono: i dati, i bias, gli interessi economici. Ignorare il contesto tecnologico in cui l’AI si sviluppa — e l’oligopolio che lo governa — significa perdere l’occasione di costruire una cittadinanza digitale consapevole.

In un’epoca in cui è sempre più facile automatizzare il pensiero, la vera responsabilità è scegliere di restare pienamente umani: capaci di interrogarci, di apprendere con lentezza, di dare senso alla complessità. Non basta usare l’AI per fare di più. Occorre scegliere di usarla per diventare di più.