Es la una de la madrugada. La discusión ha terminado, pero aún continúas repitiéndola en tu cabeza. Reproduces el tono, el tiempo y la única frase que sonó mal. Entonces abres un chatbot de inteligencia artificial (IA) y escribes: “¿Tengo razón o estoy exagerando? ¿Qué debo decir de lo que dijeron? ¿Qué querían decir con XYZ?”.
La investigación sobre el apego, la regulación de las emociones y el discurso en línea ayuda a explicar por qué recurrir a la IA se está volviendo cada vez más popular. Sin embargo, la certeza que proporciona puede consolidar demasiado rápidamente una interpretación unilateral y, en última instancia, crear expectativas que la relación real tiene dificultades para cumplir.
Pero hoy en día, para muchos, aquí es donde comienza el mantenimiento de las relaciones. La privacidad de los chatbots de IA se ha convertido en el espacio al que la gente recurre en primer lugar, especialmente porque la alternativa (ayuda profesional o familiares y amigos) a menudo implica pago, explicaciones detalladas o el riesgo de emitir un juicio en el momento mismo en que uno se siente menos resiliente.
Sin embargo, si bien es un momento personal y está a solo un clic de distancia, ¿deberíamos buscar consejos neutrales sobre relaciones de parte de chatbots de IA?
¿Por qué la IA se siente solidaria?
En una época en la que la terapia es costosa o no está disponible, y la mayor parte del entrenamiento en relaciones se produce a través de los medios de comunicación en lugar del desarrollo de habilidades prácticas, la espontaneidad puede resultar muy atractiva para algunos.
La atracción aumenta cuando las conversaciones sobre relaciones involucran identidad. Preguntas como “¿Soy necesitado? ¿Soy poco atractivo? ¿Soy un problema?” acarrear vergüenza que hace que la revelación parezca riesgosa. El chatbot ofrece un espacio de bajo riesgo para hablar sobre eventos y expresar lo que podría ser demasiado revelador frente a amigos o familiares.
En particular, el coaching de relaciones por chat puede ser inmediatamente gratificante, y la investigación sobre interacciones basadas en recompensas en plataformas en línea muestra que la retroalimentación rápida y reforzante puede hacer que las personas regresen por más, creando un efecto adictivo que las interfaces de chatbot pueden mejorar.
Trabajos relacionados con chatbots también han demostrado que cuando los usuarios se sienten cerca de una IA, reportan una mayor satisfacción y mayores intenciones de reutilizarla, lo que ayuda a explicar por qué el uso de estas herramientas puede convertirse en un hábito en lugar de un control único. Curiosamente, investigaciones recientes también señalan que las personas con un estilo de apego ansioso tienen más probabilidades de volverse emocionalmente dependientes de la IA.
Muchos utilizan la IA como entrenador de comunicación, por ejemplo, para elaborar mensajes después de un conflicto, suavizar el tono y practicar la corrección del habla antes de hablar. (Unsplash) De foros anónimos a consejos sobre algoritmos
Antes de la llegada de los chatbots, la gente solía hacer este trabajo a través de grupos anónimos en foros como Reddit, y la investigación sobre la divulgación en línea y las comunidades de apoyo sugiere que el anonimato y los bajos costos sociales pueden aumentar la disposición a compartir, especialmente en lo que respecta a experiencias estigmatizadas o cargadas de emociones.
En estos espacios, puedes abrirte sin ser completamente conocido, obtener información de extraños y sentirte menos solo con tus pensamientos. La IA analiza esto y sugiere los próximos pasos que pueden facilitar la divulgación, así como impulsar una lectura de la situación hacia algo que parece resuelto.
Una solución rápida y demasiado simplificada.
Sin embargo, con el tiempo, la confirmación instantánea puede fomentar expectativas de tranquilidad constante y cierre rápido que rara vez se mantienen en las relaciones íntimas, ya que la intimidad se desarrolla a través de un trabajo mutuo más lento bajo tensión.
La IA como sala de ensayo para las relaciones
En la práctica, la gente utiliza la IA para algo más que gestionar crisis.
Mucha gente lo utiliza como entrenador de comunicación, por ejemplo para redactar mensajes después de un conflicto, suavizar el tono y practicar la corrección del habla antes de hablar.
Otros lo utilizan como sala de ensayo para conversaciones difíciles o como herramienta para planificar una reunión, ya sea ideas de citas, rutinas diarias o pequeños rituales que restablecen la intimidad después de la distancia.
También se manifiesta fácilmente en relaciones laborales menos visibles.
Esto podría ser como preguntarle a una IA sobre los beneficios de programar relaciones sexuales, cómo lidiar con la menopausia y la sequedad vaginal, o qué lubricante usar con un dilatador después del tratamiento del cáncer. Aquí es donde la IA ayuda a dar sentido a situaciones que pueden ser difíciles de discutir con otros y ayuda a aportar claridad a un área desconocida.
La dificultad radica no sólo en cómo la gente usa la IA, sino también en cómo su estructura cambia lo que se considera una buena explicación. Debido a que el sistema sólo tiene acceso a un punto de vista declarado, puede proporcionar una interpretación consistente con un alto grado de confianza, preservando al mismo tiempo detalles importantes como el contexto, la historia, la dinámica de poder o lo que dijo la otra persona.
Ayuda, pero no reemplaza el trabajo en las relaciones.
Si bien esto puede parecer secuencial, la IA comprime fácilmente los matices en una sola historia y puede centrarse en una sola conclusión. Un chatbot sólo puede responder a lo que se le da; profesionales capacitados investigan, aclaran y detectan brechas.

La IA puede apoyar la reflexión y la comunicación, pero la esencia de la relación aún se construye y reconstruye en tiempo real a través de las decisiones que los socios toman entre sí. (Cancelar bienvenida)
Este no es sólo un uso informal de los chatbots habituales. Algunas herramientas están diseñadas específicamente para simular entrenamiento y apoyo terapéutico en las relaciones, como Mojo o Amanda.ai, y algunas incluso están diseñadas para actuar como un “compañero de IA” y una pareja romántica.
El atractivo de la IA también conlleva costos y riesgos reales, incluida la infraestructura que consume mucha energía, los intereses corporativos y políticos que dan forma a lo que estos sistemas aprenden y replican, el potencial de desinformación cuando se pasan por alto matices y preocupaciones de privacidad cuando la información altamente personal de una persona se dirige a través de sistemas de datos sobre los que no tiene control.
La IA puede apoyar la reflexión y la comunicación, pero la esencia de la relación aún se construye y reconstruye en tiempo real a través de las decisiones que los socios toman entre sí. Entonces, si desea una respuesta humana detallada, pregúntele a las personas en su vida qué quisieron decir cuando dijeron “XYZ”.

