Charla entre Robots

Desde el lanzamiento de ChatGPT en 2022, gran parte de la población se acostumbró a consultarlo y tomar sus respuestas como una verdad irrefutable. Su capacidad de respuesta sobre la gran mayoría de los temas es asombrosa, además de justificar todo con argumentos coherentes, lo que nos lleva a creer que todo está bien en su output. Te comparto cómo estas herramientas nos está llevando a una deshumanización en la comunicación y relaciones con nuestros familiares, amigos y colaboradores de trabajo y a medida que aumentamos su uso, más aumenta nuestra dependencia en ellas.
Contexto actual
ChatGPT es la tecnología cuya adopción ha sido más rápida en la historia, alcanzó el millón de usuarios en solo 5 días y actualmente (julio de 2025) cuentan con ~500 millones de usuarios activos semanalmente. Con la adopción del uso de ChatGPT y más herramientas como Claude, Gemini, Deepseek, entre otras, todos nos acostumbramos a usarlas para tareas que van desde lo sencillo (cómo cocinar un huevo, responder un email) hasta lo complejo (resolver problemas matemáticos, programación).
Además de la adopción de usuarios e individuos, surgieron muchas empresas cuyo corazón son los modelos de LLMs creados por estas empresas. La IA generativa contribuyó en el surgimiento de empresas de todo tipo. Un ejemplo de estas empresas es Cluely, empresa que anunció $15 MMD de financiamiento de parte de a16z. Te explico qué hace Cluely y por qué creo que esto se está convirtiendo en un camino sin salida.
La idea es revolucionaria, útil e innovadora. Cluely es un asistente de IA para videollamadas (zoom, teams, etc.), que te brinda información y respuestas en vivo sobre preguntas que te hacen las personas del otro lado de la llamada. Es especial para entrevistas de trabajo donde te hacen preguntas técnicas complicadas y no sabes la respuesta, o en llamadas de ventas y no sabes qué responder al cliente.
Aunque ChatGPT y estas herramientas como Cluely me encanten, las tenga integradas en mi día a día y mejoran en gran medida tu entorno de trabajo. Su uso excesivo y continuo está afectando en gran medida nuestras relaciones y cómo nos comunicamos con nuestros allegados.
Los modelos de lenguaje a gran escala (LLMs) tienen la capacidad de dar una respuesta de manera inmediata que parece perfecta en casi cualquier área de expertise. Los humanos, sin embargo, no somos así, no tenemos la capacidad de dar una respuesta estructurada, coherente y lógica de un tema que no conocemos. Esto está llevando a que muchas personas tomen las respuestas de estas herramientas como una verdad irrefutable, a veces sin cuestionar la veracidad de la información o las fuentes de donde se obtuvo cierta información.
Esto genera que muchos profesionales usen servicios como Cluely para dar respuestas inmediatas y quasi perfectas a preguntas complejas. No obstante, esto no termina aquí, se ha vuelto costumbre entre usuarios de ChatGPT depender de su servicio para escribir un correo, generar un script para redes sociales, responder un mensaje a tu pareja un mensaje complicado.
Estamos delegando nuestro pensamiento y personalidad a un modelo que genera respuestas en base a modelos estadísticos. Estamos perdiendo nuestra capacidad de comunicarnos, una capacidad que nos ha acompañado toda la historia. No todo lo que decimos tiene que ser un argumento perfecto, una respuesta irrefutable o un discurso impoluto. Es por esto, que algunos autores han hablado del término deshumanización inversa a causa de la IA. Esto se da, debido a que nosotros los humanos, tendemos a antropomorfizar a las IAs, o sea, creer que son humanas por responder como lo haría una persona. Esto a la inversa, es básicamente juzgar a una persona, por no responder de manera correcta como lo haría una IA. Un círculo vicioso debido a que si nosotros mismos esperamos una respuesta idea, estas personas buscarán la manera de dar esta respuesta a través de la IA.
Creo que esta es una de las razones que está en tendencia en las organizaciones el discurso de conectar con los demás, ser más ‘humanos’. Volver a relacionarnos fuera de las pantallas y tratarnos como personas.
Hay varios argumentos en contra de lo que propongo, uno de los principales es su uso se centra en reducir el tiempo que designamos a pensar en respuestas poco relevantes, como responder un email. Estaría de acuerdo si su uso se limitara a actividades rutinarias y poco relevantes, pero no todas las personas podrán limitar su uso y muchas no querrán hacerlo, ya que es en cierto punto una ventaja.
Otro contraargumento es que nos permite estructurar mejor nuestras ideas y dar mejor respuesta. Y de nuevo, si estas herramientas se emplearan para mejorar nuestras ideas, sería ideal, sin embargo, no se limita su uso a estructurar nuestros pensamientos. En la mayoría de los casos, nos limitan de todo el proceso cognitivo y entregan una respuesta que creemos buena sin cuestionarla.
Con lo anterior, no trato de satanizar estas herramientas. Como lo dije anteriormente, tengo integradas herramientas de IA en mi día a día. Pero reitero, tenemos que saber que su uso prolongado puede distorsionar las expectativas que tenemos de las personas a nuestro alrededor. No podemos esperar ni orillar a que estas personas reaccionen como una IA. De ser así, estaremos acercándonos más a una conversación entre robots que de humanos.