
Disconnettersi per riconnettersi: il paradosso della vera connessione
11 Settembre 2025“Quando deleghi al navigatore la rotta della tua vita, scopri che non sai più usare la bussola.”
Paradosso strategico: ciò che ci semplifica, se usato male, ci impoverisce.
L’intelligenza artificiale promette di accorciare la distanza tra domanda e risposta. È la scorciatoia più brillante della storia recente. Ma ogni scorciatoia ha un costo nascosto: riduce la palestra dove si allenano le nostre funzioni esecutive, la capacità di tollerare l’incertezza, l’arte di scegliere. Se la usiamo l’intelligenza artificiale per i problemi personali come oracolo, ci offre un abbraccio che immobilizza. Se la usiamo come leva, ci fa sollevare pesi che, da soli, non sollevavamo.
Questo articolo d’uso “antimagico” spiega chi è più a rischio, quali conseguenze produce l’uso ingenuo dell’AI nella vita privata e, soprattutto, come usarla in modo funzionale senza cedere il volante.
Le tentate soluzioni che peggiorano il problema
Nella logica della Terapia Breve Strategica, ciò che mantiene un problema non è il problema in sé, ma le tentate soluzioni che lo alimentano. Con l’intelligenza artificiale, le tentate soluzioni che ho individuato, tipiche di chi la usa per risolvere i propri problemi, sono sette.
- “La risolve lei al posto mio.”
Delegare l’intero ciclo del problem solving all’AI: formulare il problema, decidere, agire. L’effetto collaterale: si atrofizza la nostra capacità decisionale. È come far correre sempre un avatar al posto nostro e poi stupirsi se perdiamo fiato sulle scale. - Isolarsi dall’umano.
L’AI ci porta a evitare il confronto con gli altri, amici, parenti, partner e colleghi. Bypassando il confronto perdiamo i feedback vitali che tengono conto della coscienza lucida, cosa che manca all’AI. - Bias dell’umanità apparente.
Il tono caldo e coerente induce la fallacia: “parla come un umano, quindi ragiona come un umano, quindi è affidabile come un umano”. Peccato che è un motore probabilistico basato su un database di contenuti dati in pasto in modo che possa dare la risposta più attesa da chi scrive e ancora una volta, priva di una coscienza. - Pensiero magico tecnologico.
“Mi risolverà il problema.” L’IA diventa lo sciamano scacciansia di turno: la consulto, l’ansia scende, quindi la riconsulto. Nasce un circolo vizioso di rassicurazione che rischia di creare dipendenza. E se ad un certo punto smette di funzionare, dopo che abbiamo preso l’abitudine ad utilizzarla, come ci ritroveremo? - Fidarsi ciecamente di pareri fittizi.
Usare l’intelligenza artificiale per i problemi personali può creare esperti immaginari, citazioni inesistenti, correlazioni spacciate per causalità. Se non verifichiamo, agiamo su sabbie mobili. - Bias della conferma.
Tendiamo a formulare prompt che confermano il nostro modo di pensare. L’AI, diligente, ce lo riconsegna lucidato. E’ come parlare con il nostro migliore amico che sa che ci rimarremo contenti se ci darà la risposta che ci aspettiamo. Ma ci è veramente di aiuto? - Riduzione della tolleranza alla frustrazione.
Ricevere risposte istantanee produce meno tempo di incubazione, ruminazione creativa, errori utili. La mente perde l’abitudine a sostare nel “non so”. L’ansia per l’incertezza cresce.
Profili di chi usa l’intelligenza artificiale per i problemi personali
Non sono qui a voler fare diagnosi, ma provare a stilare un elenco di profili comportamentali che, in studio, mostrano più vulnerabilità quando usano l’intelligenza artificiale per i problemi personali.
- Perfezionisti e ossessivi della certezza: sono quelli che ricercano la risposta perfetta e moltiplicano le consultazioni. Le conseguenze derivanti dall’eccessivo utilisso sono: l’iper-controllo e la procrastinazione mascherata da “ricerca di accuratezza”. Esempio: Chiara, avvocato, chiede 12 varianti della stessa email “perfetta”.
- Ansiosi con alta intolleranza all’incertezza: usano l’IA come rassicuratore h24 con l’effetto che la soglia di tolleranza scende ancora di più. Domani serviranno due rassicurazioni dove ieri ne bastava una. Esempio: Paolo, 34 anni, prima di un colloquio chiede “cosa rispondere se…?” per 30 ipotesi e finisce per arrivare all’incontro mentalmente esaurito.
- Adolescenti e giovani adulti in formazione identitaria: se l’IA fornisce schemi di sé e del mondo pronti all’uso, si rischia di creare un Sé “prefabbricato”. Esempi: Sara, 17 anni, chiede all’IA “che persona sono?” ottenendo descrizioni seducenti ma generiche che prende per vere come etichette. O ancora Mario, 19 anni, che chiede all’AI come risolvere i conflitti con la propria partner. Risultato? Non sa più come comportarsi in relazione. Oltre a perdere “presenza” nel rapporto.
- Professionisti sotto pressione di tempo (medici, manager, freelance): tentazione forte di “automatizzare il giudizio” in contesti dove sfumature etiche/relazionali contano. Esempio: Luca, team leader IT, usa l’AI per valutare i report dei collaboratori. Migliora la velocità, peggiora la qualità del feedback.
- Persone isolate socialmente o in fasi di perdita (lutto, separazione, trasferimento): il dialogo con l’AI può sostituire quello umano. A breve migliora l’umore, a medio termine riduce la motivazione a cercare contatti reali. Esempio: Marina, 56 anni, dopo la separazione conversa ogni sera con un chatbot “empatico”. Dopo due mesi rifiuta inviti “perché con lui sto meglio”.
- Personalità impulsive/novelty-seeking: la risposta immediata alimenta il circuito dopaminico: si cercano soluzioni “flash” e si saltano i passaggi faticosi.
Esempio: Enrico, 29 anni, fa trading “assistito” dall’AI. Scambia più spesso, senza un piano ottenendo più volatilità emotiva e perdite.
Da un utilizzo eccessivo dell’intelligenza artificiale per i problemi personali si sviluppano trasversalmente conseguenze quali: un’atrofia delle capacità di problem solving, una dipendenza da intelligenza artificiale come regolatore emotivo, scelte o azioni influenzate da direttive, idee o pressioni esterne, anziché da decisioni autonome, povertà conversazionale con le persone importanti, rigidità cognitiva mascherata da efficienza.
La psicotrappola artificiale: più consulto, meno decido (e quindi consulto di più)
“La rassicurazione è un ansiolitico potentissimo: funziona talmente bene da chiederti subito un’altra dose.”
Ecco il circolo vizioso tipico:
- Incertezza → consulto l’AI → abbasso subito la mia ansia. Una compulsione quindi.
- Agisco poco (o niente) perché “voglio essere ancora più sicuro/a” → L’ansia sale.
- Per calmarmi, consulto di nuovo → la soglia di calma dipende ormai dall’AI.
- La mia autoefficacia si erode; il mondo reale, non allenato, diventa più minaccioso.
- Conclusione falsa: “meno male che c’è l’AI”. In realtà, è la stampella che ho creato io.
Intelligenza artificiale: come usarla in modo funzionale
Poiché sono un appassionato di nuove tecnologie , il mio intento non è quello di demonizzare l’innovazione copernicana dell’ultimo secolo, ma di smascherarne i rischi e al contempo le potenzialità. Del resto, un bisturi, può essere utilizzato per uccidere o per salvare delle vite. Quindi, anche in questo caso, stessa tecnologia, uso diverso.
In tal senso può essere utile seguire delle pratiche funzionali, in modo che l’AI venga usata come ausilio, piuttosto che come sostituto della nostra persona.
Partiamo da tre regole d’oro generali da seguire:
- prima io, poi la macchina;
- l’AI propone, l’umano dispone;
- i dati sono probabilità, non profezie.
1) Prima scrivo io, poi chiedo un parere
- Per cominciare scrivi la tua analisi del problema in massimo 10 righe e una decisione provvisoria in una.
- Chiedi all’AI, che in questo caso fa la parte dell’avvocato del diavolo: “Mostrami tre modi in cui la mia idea è sbagliata o rischiosa.”
- Infine, integra solo ciò che supera il test di realtà (verificabile, citabile, applicabile nel tuo contesto).
Seguendo questi step preservi il tuo punto di vista umano e usi l’AI come stress-test, non come stampella.
2) Tratta le risposte come probabilità, non come ordini o verità assolute
Di fronte ad un problema, scrivi prima tu i pro e i contro. Solo dopo chiedi all’AI: “Questo è quanto ho trovato, cosa hai da aggiungere? Assegna una probabilità assegna una probabilità a ciascun pro e contro.”. Questo può aiutare il cervello a fare una scelta più ponderata e tu resti l’agente della decisione.
3) Allenati a tollerare la frustrazione
Dopo che ottiene la risposta dell’AI, rimanda l’azione per 20 minuti (Regola dei 20 minuti): fai decantare, evita di prenderla per oro colato. Cammina, fai una doccia, disegna. È il “refractory period” della scelta. Così facendo alleni la tolleranza alla frustrazione e migliori la qualità delle decisioni nel medio periodo.
4) Limiti strutturali: un contratto d’uso con la tua intelligenza artificiale
Utilizzala per un tempo limitato e non per tutto.
- Massimo 15 minuti per problema.
- Non più di 3 prompt per tema.
- Allenati a farne a meno in alcune situazioni assumendoti il rischio di sbagliare.
- Considerala come “strumento per ampliare prospettive”, mai “delegato esecutivo”. Attacca un post-it accanto al monitor.
In questo modo previeni l’uso compulsivo delle consultazioni.
5) Usa la triangolazione umana obbligatoria
Per ogni decisione importante usa la Regola 1-1-1: prima il tuo punto di vista, poi un confronto con l’AI e infine un confronto con una persona reale. In questo modo, mantieni il tuo punto di vista, assumendoti comunque la tua responsabilità, e ottieni due pareri alternativi: uno che segue la massa e uno umano.
6) Utilizza l’AI per avere idee non per farti dire cosa fare
Se la decisione che devi prendere impatta su salute, finanze, legale, sicurezza, impara a verifica con un umano competente prima di agire. In questo modo contieni il rischio e le responsabilità. Molte persone si sono trovate nei guai e con chi se la sono presa secondo te?
9) Pratica un giorno di AI detox settimanale
Una volta a settimana, rimani 24 ore senza IA per questioni personali. Questo ti aiuta a fare un reset dell’autoefficacia e a mantenere la tua autonomia. Ad esempio cucina senza ricetta o parla senza seguire un copione.
Tre utilizzi strategici dell’intelligenza artificiale per i problemi personali
- “Non so cosa dire al partner”
Marta chiede all’AI di scriverle messaggi perfetti e ogni volta che li usa, il partner risponde freddamente: “Non sembri tu”.
Utilizzo strategico: Marta scrive 5 righe di suo pugno; l’AI l’aiuta a tagliare e chiarire, non a generare. Dopo tre settimane, i messaggi ridiventano coerenti con la sua voce e la conversazione si sblocca. - “Scelte di carriera”
Davide scrive 20 prompt per capire “quale master scegliere”. Risultato? Il blocco decisionale.
Utilizzo strategico: usa la Regola 1-1-1 insieme alla Regola dei 20 minuti: prima una sua bozza, poi l’AI per creare dei contro-argomenti, confronto con un esterno. Decide in 10 giorni e rimane soddisfatto a 1 mese. - “Ansia prima di un intervento medico” →
Giulia passa le sere a chiedere scenari clinici all’IA. Sviluppa così un’ansia altissima e una dipendenza da intelligenza artificiale.
Utilizzo strategico: fa un giorno di detox e il giorno dopo chiede all’AI di generare domande da fare al medico, non risposte cliniche. L’ansia percepita scende da 9 a 5 in due settimane; si affida al medico, quello vero, inevitabilmente la salute migliora.
Arrivati a questo punto è abbastanza evidente il punto della questione non è scegliere di usarla o meno, ma è come e quando usarla.
Le tecnologie devono essere considerate come un ausilio, non come un sostituto se vogliamo trarne vantaggio, altrimenti il rischio è che se ci toglie la fatica, rischieremo di perdere il mestiere.
E ricordiamoci che il problema personale rimane personale finché non siamo noi a risolverlo!
Per fissare un primo appuntamento puoi scrivermi un'e-mail all'indirizzo davide.algeri@gmail.com
o contattarmi al numero +39 348 53 08 559.
Se ti è piaciuto questo articolo puoi seguirmi sul mio account personale di Instagram, sulla Pagina Ufficiale Facebook di Psicologia Pratica o nel Gruppo di Psicologia Pratica. © Copyright www.davidealgeri.com. Tutti i diritti riservati. È vietata la copia e la pubblicazione, anche parziale, del materiale su altri siti internet e/o su qualunque altro mezzo se non a fronte di esplicita autorizzazione concessa da Davide Algeri e con citazione esplicita della fonte (www.davidealgeri.com). È consentita la riproduzione solo parziale su forum, pagine o blog solo se accompagnata da link all’originale della fonte. È altresì vietato utilizzare i materiali presenti nel sito per scopi commerciali di qualunque tipo. Legge 633 del 22 Aprile 1941 e successive modifiche.
Richiedi un primo contatto