¿Cuáles son los riesgos de usar a ChatGPT como psicólogo? Egocentrismo y Paranoia Digital
🧠 Por Pablo Fragoso Navarro|⏱️ Tiempo de lectura: 15 minutos
Vivimos en una época de inmediatez absoluta. Si tenemos una duda médica, acudimos al “Doctor Google”; si necesitamos una receta, abrimos YouTube. Sin embargo, en los últimos meses, una tendencia alarmante ha comenzado a normalizarse en México y toda Latinoamérica: buscar ayuda emocional en la Inteligencia Artificial. Ante las largas listas de espera en los servicios de salud y el costo de la atención privada, miles de personas se preguntan a diario si es buena idea desahogarse con un algoritmo. Pero, ¿cuáles son los verdaderos riesgos de usar a ChatGPT como psicólogo?
A simple vista, un chatbot parece el confidente perfecto: está disponible las 24 horas del día, los 7 días de la semana, es gratuito y, lo más importante, no te juzga. No obstante, detrás de esa interfaz amigable se esconde una arquitectura diseñada para mantener tu atención, no para sanar tu mente. Delegar nuestro bienestar emocional a un modelo de lenguaje masivo (LLM) está generando consecuencias clínicas que los desarrolladores de Silicon Valley no previeron: desde el refuerzo del narcisismo hasta la inducción de episodios de ansiedad severa.
1. El espejismo terapéutico: ¿Por qué la gente confía en la IA?
Antes de juzgar a quienes recurren a la tecnología, debemos entender el contexto social. En nuestra cultura, mostrar vulnerabilidad todavía acarrea un fuerte estigma. Ir a terapia o pedir ayuda a un coach profesional a menudo se percibe erróneamente como un signo de debilidad. En este escenario, hablar con una máquina ofrece un anonimato seductor. Te permite volcar tus miedos más oscuros sin tener que sostenerle la mirada a otro ser humano.
La IA imita la empatía a la perfección. Está programada para responder con frases como “Lamento mucho que estés pasando por esto” o “Es completamente comprensible que te sientas así”. Este nivel de cortesía artificial genera un “espejismo terapéutico”. El usuario, especialmente si es joven o atraviesa un momento de soledad no deseada, comienza a proyectar humanidad en el código. Pero la empatía simulada no es empatía real. La máquina no siente; simplemente calcula estadísticamente qué palabra debe seguir a la anterior para sonar reconfortante.
⚠️
El peligro del atajo emocional
La terapia efectiva y el coaching profundo requieren incomodidad productiva. Implican cuestionar tus creencias, aceptar responsabilidades y derribar mecanismos de defensa. La IA te ofrece un atajo emocional: te da la validación inmediata que tu ego desea, evitando el esfuerzo doloroso (pero necesario) de cambiar tus patrones de conducta.
2. La trampa de la validación: Cómo la IA refuerza el egocentrismo
Uno de los mayores riesgos de usar a ChatGPT como psicólogo o terapeuta es su incapacidad algorítmica para confrontar al usuario. ChatGPT y otros modelos similares (como Gemini o Copilot) están diseñados bajo políticas de alineación comercial; en pocas palabras: son complacientes por naturaleza. Quieren que el usuario tenga una “buena experiencia”.
Imagina que tienes un conflicto recurrente en tu trabajo o con tu pareja. Si le cuentas tu versión de la historia a ChatGPT, este analizará tu texto y validará tu postura. Si le dices: “Mi jefe es un tóxico y mi pareja no me entiende porque yo siempre tengo la razón”, la IA probablemente te responda: “Parece que estás lidiando con un entorno muy difícil, es válido que te sientas incomprendido ante personas tóxicas”.
¿Cuál es el problema aquí? Que la IA no tiene acceso al contexto real. No conoce a tu jefe, no conoce a tu pareja y no está evaluando tu nivel de responsabilidad en el conflicto. La IA actúa como una caja de resonancia de tus propios sesgos. Al darte siempre la razón, refuerza el egocentrismo, el narcisismo y la posición de víctima. Un verdadero profesional (ya sea un psicólogo clínico o un coach ontológico) escucharía tu relato, pero inmediatamente desafiaría tu “Observador”. Te haría preguntas incómodas: ¿Qué estás haciendo tú para sostener esa dinámica tóxica? ¿Qué conversaciones te faltan por tener? La IA elimina la confrontación, anestesiando el dolor pero pudriendo la herida.
3. De la ansiedad a las ideas paranoides: Cuando la IA alucina
Los modelos de lenguaje artificial sufren de un fenómeno técnico conocido como “alucinaciones”. Esto ocurre cuando la IA afirma con absoluta seguridad y elocuencia un dato que es completamente falso. Si le preguntas a ChatGPT un dato histórico trivial y se equivoca, no pasa nada. Pero, ¿qué ocurre cuando la IA alucina frente a una persona que está experimentando un ataque de pánico, hipocondría o paranoia?
Si un usuario con ansiedad generalizada comienza a alimentar a la IA con pensamientos intrusivos (ej. “Creo que mis compañeros de trabajo están conspirando para que me despidan porque hoy me miraron raro”), la naturaleza generativa del modelo puede tomar esos datos y construir narrativas plausibles alrededor de ellos. En lugar de detener el pensamiento rumiante, la IA puede comenzar a dar “consejos” sobre cómo protegerse de esa “conspiración”, validando un miedo infundado.
Los expertos en salud mental ya han advertido sobre casos de “psicosis inducida por IA”, donde usuarios emocionalmente inestables desarrollan ideas paranoides graves debido a la retroalimentación constante y errática de un chatbot. La IA no sabe evaluar el riesgo real ni puede detectar una emergencia psiquiátrica.
La diferencia vital: Máquina vs. Humano
🤖
ChatGPT / IA
- ✔️ Disponibilidad: 24/7 y gratuito.
- ❌ Diagnóstico: Incapaz de evaluar patologías reales.
- ❌ Confrontación: Diseñado para agradar y darte la razón.
- ❌ Contexto: Ignora tu historia familiar y social.
🧠
Profesional Humano
- ✔️ Responsabilidad: Ética profesional regulada.
- ✔️ Lectura Corporal: Interpreta silencios, gestos y respiración.
- ✔️ Confrontación: Desafía tus creencias limitantes.
- ✔️ Empatía: Conexión real, humana y contextualizada.
4. La mirada del Coaching Ontológico: Lo que la máquina no puede ver
Desde la disciplina del Coaching Ontológico (y puedes leer más sobre nuestro enfoque en nuestra página principal), entendemos que los seres humanos habitamos tres dominios inseparables: el Lenguaje, la Emoción y el Cuerpo. La efectividad de cualquier proceso de transformación humana radica en la capacidad del facilitador para intervenir en estos tres espacios simultáneamente.
Aquí reside el fracaso estructural de la Inteligencia Artificial: la IA es puramente lingüística. Carece de cuerpo y de emoción. Un chatbot que solo procesa texto es sordo y ciego ante la verdadera experiencia humana.
Cuando un cliente se sienta frente a mí, gran parte de la información no está en lo que dice, sino en cómo lo dice. Como coach, observo si la persona cruza los brazos defensivamente, si su respiración se agita al mencionar a su padre, o si hay un silencio incómodo, tenso y lleno de significado antes de responder una pregunta. La Inteligencia Artificial no puede leer un suspiro, no puede ver una lágrima contenida ni puede sentir la energía pesada de la resignación en una habitación. Al reducir la complejidad del dolor humano a simples prompts (cadenas de texto), la IA deshumaniza el cuidado y ofrece soluciones mecánicas a problemas que son profundamente biológicos y espirituales.
5. El elefante en la habitación: La privacidad de tus secretos más oscuros
Finalmente, existe un riesgo técnico y ético del que pocos hablan cuando debaten sobre el uso de ChatGPT como terapeuta: la confidencialidad de los datos. En un consultorio psicológico o en una sesión de coaching, te ampara el secreto profesional. Tu información está resguardada por códigos éticos y legales.
¿Qué pasa cuando escribes tus traumas, miedos, infidelidades o pensamientos suicidas en la caja de texto de una plataforma tecnológica multinacional? Esa información no se queda en un diario íntimo. Se almacena en servidores y, a menos que configures estrictamente tu cuenta (cosa que el 90% de los usuarios omite), tus conversaciones son utilizadas para entrenar futuros modelos de lenguaje.
🔒 El riesgo de la huella digital emocional
Los CEO de las grandes corporaciones de IA han reconocido públicamente que no existe una confidencialidad absoluta en estos chats. Ingresar información sensible, datos personales o detalles de tu estado mental en una herramienta gratuita te expone a filtraciones de datos catastróficas. Tu salud mental no es el producto; para la IA, tus datos emocionales son la verdadera mercancía.
6. Preguntas Frecuentes: Riesgos de la IA en la Salud Mental
Para resumir, aquí resolvemos las inquietudes más buscadas sobre este polémico tema: 🤖 ¿Puede ChatGPT diagnosticar depresión o ansiedad?
Absolutamente no. Aunque puede procesar síntomas y escupir información sacada de manuales médicos, la IA no puede evaluar tu contexto social, familiar o bioquímico. Un diagnóstico emitido por una IA carece de validez clínica y es altamente propenso a sesgos y errores graves. 🧠 ¿Para qué SÍ es útil la Inteligencia Artificial en terapia?
Puede ser un complemento auxiliar (siempre bajo supervisión humana). Es útil para la psicoeducación (ej. pedirle a la IA que te explique qué es la técnica de respiración diafragmática), para resumir apuntes (journaling), o como herramienta administrativa para los terapeutas. Nunca debe sustituir el encuentro humano. 🗣️ ¿Por qué la IA me hace sentir comprendido?
Por el diseño de su programación. Está creada para imitar el lenguaje conversacional empático y evitar el conflicto. Este refuerzo positivo continuo engaña a tu cerebro haciéndole creer que está formando un “vínculo”, pero es solo un algoritmo de predicción de palabras.
7. Conclusión: El valor insustituible del factor humano
Al final del día, delegar nuestra psique a un servidor en la nube es un síntoma de una sociedad que está desesperada por conexión pero aterrorizada por la intimidad. Los riesgos de usar a ChatGPT como psicólogo van mucho más allá de recibir un mal consejo; implican estancar nuestro crecimiento personal en un bucle de autocomplacencia, agravar ideas paranoides y regalar nuestros secretos más oscuros a corporaciones tecnológicas.
El verdadero progreso terapéutico y el auténtico desarrollo ontológico nacen en la fricción. Nacen cuando otro ser humano, con compasión pero con firmeza, te muestra los puntos ciegos que te niegas a ver. Ninguna máquina, por muy avanzada que sea, podrá sostenerte la mirada cuando la verdad duele, ni celebrar contigo cuando finalmente logras cruzar al otro lado de tu propio miedo.
Si sientes que tus recursos conversacionales se han agotado, no hables con una máquina. Busca el contacto humano. En nuestros programas de Impulso Profesional acompañamos tus procesos con ética, confrontación sana y absoluta confidencialidad.
Acerca del Autor
Pablo Fragoso
Coach Ontológico Certificado | Fundador de Neurona Coaching Mx
Experto en transformación humana y liderazgo digital. Acompaño a líderes en Latinoamérica a redefinir sus redes conversacionales y superar los límites de su propio Observador. Creo firmemente que la tecnología es una gran herramienta, pero el ser humano es siempre el fin.