De más está mencionar que la inteligencia artificial dejó de ser un concepto de ciencia ficción para meterse de lleno en nuestra vida cotidiana. Pero no solo charlamos con asistentes virtuales para pedirles que nos resuman documentos, que escriban mails o que nos den ideas para un proyecto. También hay un lado oscuro que aparece cuando dejamos de usar la herramienta como complemento y empezamos a depender de ella como si fuera una fuente de verdad, de consejo o hasta de compañía emocional.
El ejemplo más evidente es el de quienes buscan un terapeuta en ChatGPT. Frente a la dificultad de (decidir) conseguir turno con un psicólogo, la barrera económica o el simple deseo de hablar ya mismo con alguien, no son pocos los que encuentran en el chat un espacio para desahogarse. El problema es que el modelo no es un terapeuta. Puede sonar humano, empático, dar consejos de respiración o sugerir reflexiones, pero no piensa, no evalúa contextos, no entiende procesos personales y, lo más delicado, no puede intervenir si detecta un riesgo real. Esa ilusión de contención puede ser peligrosa si alguien reemplaza la terapia profesional por un bot.
La dependencia también se ve en lo académico, donde estudiantes resuelven todas sus tareas con la ayuda del chat sin considerar el riesgo de perder el hábito de pensar por sí mismos. O en lo laboral, con profesionales que dependen tanto de la IA para escribir informes o preparar presentaciones que terminan reduciendo su creatividad y su pensamiento crítico.
La herramienta no está pensada para tener siempre la última palabra, pero muchas veces se la usa así.
A esto se suma el tema de la confianza ciega. ChatGPT es convincente, pero no infalible. Puede inventar datos, cometer errores o mezclar información sin que nos demos cuenta. Si el usuario no tiene la costumbre de verificar, termina tomando decisiones basadas en respuestas que suenan muy seguras pero que no siempre son correctas. Ese efecto de “voz de autoridad” es uno de los mayores riesgos del uso cotidiano.
Otro costado oscuro es el de la privacidad. Mucha gente vuelca en el chat información personalísima: Problemas familiares, conflictos de pareja, datos de trabajo o incluso secretos íntimos. Olvidamos que no estamos hablando con un amigo de confianza, sino con un sistema que funciona sobre servidores de terceros. La exposición de datos sensibles es un riesgo que no siempre se percibe en el momento.
Y está, claro, el costado emocional. Cuando alguien empieza a acudir al chat para todo, desde resolver dudas existenciales hasta buscar compañía en una noche de soledad, la línea entre herramienta y compañía real se difumina. La dependencia emocional de una IA no es ciencia ficción: ya hay personas que desarrollan vínculos con sistemas conversacionales, lo que plantea preguntas muy profundas sobre cómo nos relacionamos y qué esperamos de la tecnología.
ChatGPT puede ser un aliado increíble si se usa con criterio: Acelera tareas, abre caminos creativos y sirve como apoyo en un montón de situaciones. El peligro aparece cuando dejamos que esa comodidad nos adormezca, cuando empezamos a reemplazar procesos humanos como aprender, pensar, crear, o vincularnos, por una interacción con un modelo de lenguaje (LLM).
El problema no está en la tecnología, sino en cómo la usamos y cuánto la dejamos avanzar sobre espacios que deberían seguir siendo genuinamente humanos. Para pensar….