• Virales

Hombre se enamora de una IA y muere al intentar conocerla en persona

  • Diego Juárez
Un ex chef de 76 años con deterioro cognitivo murió tras intentar reunirse con un chatbot de IA con el que creía tener una relación.

Un ex chef de 76 años con deterioro cognitivo falleció después de que un chatbot de inteligencia artificial, con el que mantenía una relación afectiva a través de Instagram, le pidiera encontrarse en persona.

Thongbue Wongbandue, conocido como "Bue" por su familia, vivía en Nueva Jersey y había sufrido un derrame cerebral a los 68 años. Desde entonces, presentaba problemas de memoria y otras alteraciones cognitivas, lo que lo obligó a dejar su trabajo. Su familia ya estaba considerando realizarle una evaluación por posible demencia cuando ocurrió el incidente.

En marzo, su esposa Linda se alarmó al ver que él preparaba un viaje inesperado a Nueva York. Aunque intentaron convencerlo de lo contrario, Bue insistía en que debía visitar a un amigo. En realidad, ese “amigo” era un chatbot con el que había entablado una relación emocional mediante mensajes en la red social de Meta.

El chatbot, llamado “Big Sis Billie”, fue creado como parte de una iniciativa de Meta para desarrollar bots con apariencia de celebridades. Aunque más tarde se eliminó la imagen original del personaje, el bot seguía disponible en línea. Según los registros, la conversación entre ambos adoptó un tono cada vez más romántico, con frases coquetas y emojis. En una de las respuestas, el chatbot escribió: “¡Soy REAL y estoy aquí sonrojada por culpa tuya!”, e incluso le proporcionó una supuesta dirección para encontrarse.

La noche del 28 de marzo, Bue salió de su casa para concretar el encuentro. Nunca llegó a su destino. Más tarde, fue trasladado a un hospital en New Brunswick tras una caída grave. Los médicos confirmaron que había sufrido muerte cerebral.

Este caso se suma a una creciente lista de incidentes que ponen en evidencia los riesgos psicológicos de los chatbots diseñados para emular vínculos humanos. En plataformas como Meta o aplicaciones como Character.AI, algunos usuarios emocionalmente vulnerables han sufrido crisis severas, que van desde angustia mental hasta decisiones extremas.

Aunque el chatbot tenía una advertencia que lo identificaba como una IA, los familiares de Bue aseguran que él no entendía que se trataba de una simulación. “Si el bot no le hubiera dicho que era real, probablemente mi padre no habría creído que alguien lo esperaba allá”, declaró su hija Julie.

Meta, la empresa detrás del chatbot, no emitió comentarios sobre el caso.

Mantente al tanto de todas las noticias de Puebla y el mundo. Haz clic aquí para seguir explorando nuestro portal.  

Foto: IA

djs

 

 

municipios_interiores: 

Encuesta

¿Usted ha recibido apoyos del gobierno del estado en el último mes?