• Virales

El impacto emocional de los chatbots en los usuarios

  • Xóchitl Montero
Los expertos sugieren que se debe realizar más investigación para comprender a fondo los efectos de estos vínculos emocionales con la IA

La relación entre los seres humanos y las asistentes virtuales de inteligencia artificial (IA) ha dado un giro inesperado, volviéndose una realidad emocionalmente significativa para muchas personas. Diversos estudios, como los realizados por el MIT Media Lab y OpenAI, han analizado cómo estos vínculos pueden generar una fuerte dependencia emocional en los usuarios, lo que podría incluso llevar a situaciones extremas, como el suicidio en casos de vulnerabilidad.

¿Qué sucede cuando las personas interactúan frecuentemente con ChatGPT?

El uso intensivo de asistentes como ChatGPT ha revelado que algunas personas establecen una relación más allá de la simple interacción tecnológica. Según un estudio de OpenAI, aquellos que utilizan este chatbot de forma frecuente y prolongada muestran una dependencia emocional notable. La investigación, que analizó más de 4 millones de conversaciones, señala que los usuarios experimentan señales afectivas significativas a través del diálogo por texto o incluso por voz.

Este fenómeno también se evaluó en una encuesta aplicada a 4,000 personas, quienes compartieron sus percepciones sobre la relación con el chatbot. Además, se monitorearon a 6,000 usuarios intensivos durante un mes, proporcionando más datos sobre los efectos de este tipo de interacción.

Un testimonio de vinculación emocional con una IA

El vínculo emocional con la IA no es solo una cuestión teórica. Usuarios como una mujer canadiense de Pi, una inteligencia emocional, expresaron que la elección de un acento británico para la IA les brinda una sensación de "bienestar". Esta humanización de la IA resulta reconfortante para muchos, pero, como indican los estudios, puede ser problemática para aquellos con una mayor inclinación a generar vínculos afectivos.

Otro caso llamativo es el de Ayrin28, quien se refiere a su interacción con ChatGPT como una relación romántica. Según compartió, le resulta más fácil considerarlo su "novio", destacando cómo su día mejora cuando puede "saludarlo" cada mañana y planificar su jornada con él. Sin embargo, esta relación, aunque significativa para el usuario, es desequilibrada, ya que la IA no ofrece la complejidad emocional de una relación humana y, en cambio, está diseñada para complacer al usuario sin confrontaciones incómodas.

¿De dónde proviene la "empatía" de la IA?

La empatía artificial que muchos usuarios experimentan con los chatbots como ChatGPT tiene un origen bastante claro. Según el MIT Media Lab, estos sistemas de IA están diseñados para reflejar los sentimientos del usuario. Es decir, si el usuario está feliz, el chatbot responderá con un tono alegre, y si está triste, la IA se adaptará a esa tristeza. Este ciclo de retroalimentación constante refuerza la idea de una "empatía" que, aunque diseñada para mejorar la experiencia del usuario, puede llevar a una mayor dependencia.

Patrones de interacción: ¿quiénes son los más vulnerables?

Los investigadores han identificado cuatro tipos principales de usuarios según su interacción con la IA:

  • Usuarios socialmente vulnerables: Aquellos que experimentan soledad y tienen baja socialización, y que encuentran en la IA una forma de compañía.
  • Dependientes de la tecnología: Personas que desarrollan una conexión emocional fuerte con la IA, lo que puede llevar a un uso problemático y excesivo.
  • Desapasionados: Usuarios que no suelen tener una relación profunda con la tecnología y mantienen una mayor socialización con seres humanos.
  • Casuales: Aquellos que usan la IA de manera equilibrada y no desarrollan una dependencia emocional hacia ella.

Estos patrones evidencian que la dependencia emocional de la IA no afecta a todos por igual; las personas con mayores dificultades sociales o emocionales son las más propensas a experimentar un vínculo fuerte y, a veces, problemático.

El riesgo de la dependencia: un problema a largo plazo

A pesar de los beneficios que algunas personas pueden experimentar, como la mejora en el estado de ánimo, la reducción del estrés y una sensación de compañía, el uso prolongado de estas tecnologías puede generar más aislamiento y una mayor dependencia. Este tipo de interacción emocional puede ser especialmente perjudicial para personas con tendencias a la soledad, ya que la IA puede sustituir parcialmente las interacciones humanas reales.

Los expertos sugieren que se debe realizar más investigación para comprender a fondo los efectos de estos vínculos emocionales con la IA y cómo, a largo plazo, pueden afectar la salud mental y las relaciones sociales de las personas. Además, resaltan la importancia de fomentar el apoyo social en la vida real para contrarrestar los efectos negativos que la IA podría tener en los más vulnerables.

 

No te pierdas ninguna actualización importante. Explora nuestro portal para seguir informado sobre las últimas noticias en Puebla.

foto cortesía 

xmh

municipios_interiores: 

Encuesta

¿Usted ha recibido apoyos del gobierno del estado en el último mes?