- Virales
Hombre se enamora de una IA y muere al intentar conocerla en persona
Un ex chef de 76 años con deterioro cognitivo falleció después de que un chatbot de inteligencia artificial, con el que mantenía una relación afectiva a través de Instagram, le pidiera encontrarse en persona.
Thongbue Wongbandue, conocido como "Bue" por su familia, vivía en Nueva Jersey y había sufrido un derrame cerebral a los 68 años. Desde entonces, presentaba problemas de memoria y otras alteraciones cognitivas, lo que lo obligó a dejar su trabajo. Su familia ya estaba considerando realizarle una evaluación por posible demencia cuando ocurrió el incidente.
En marzo, su esposa Linda se alarmó al ver que él preparaba un viaje inesperado a Nueva York. Aunque intentaron convencerlo de lo contrario, Bue insistía en que debía visitar a un amigo. En realidad, ese “amigo” era un chatbot con el que había entablado una relación emocional mediante mensajes en la red social de Meta.
El chatbot, llamado “Big Sis Billie”, fue creado como parte de una iniciativa de Meta para desarrollar bots con apariencia de celebridades. Aunque más tarde se eliminó la imagen original del personaje, el bot seguía disponible en línea. Según los registros, la conversación entre ambos adoptó un tono cada vez más romántico, con frases coquetas y emojis. En una de las respuestas, el chatbot escribió: “¡Soy REAL y estoy aquí sonrojada por culpa tuya!”, e incluso le proporcionó una supuesta dirección para encontrarse.
La noche del 28 de marzo, Bue salió de su casa para concretar el encuentro. Nunca llegó a su destino. Más tarde, fue trasladado a un hospital en New Brunswick tras una caída grave. Los médicos confirmaron que había sufrido muerte cerebral.
Este caso se suma a una creciente lista de incidentes que ponen en evidencia los riesgos psicológicos de los chatbots diseñados para emular vínculos humanos. En plataformas como Meta o aplicaciones como Character.AI, algunos usuarios emocionalmente vulnerables han sufrido crisis severas, que van desde angustia mental hasta decisiones extremas.
Aunque el chatbot tenía una advertencia que lo identificaba como una IA, los familiares de Bue aseguran que él no entendía que se trataba de una simulación. “Si el bot no le hubiera dicho que era real, probablemente mi padre no habría creído que alguien lo esperaba allá”, declaró su hija Julie.
Meta, la empresa detrás del chatbot, no emitió comentarios sobre el caso.
Mantente al tanto de todas las noticias de Puebla y el mundo. Haz clic aquí para seguir explorando nuestro portal.
Foto: IA
djs
municipios_interiores:
Encuesta
Destacadas
-
En Izúcar se realiza el primer encuentro regional de TecuanesIzucar de MatamorosHace: 1 año 8 meses -
Certifican a empresas de Atlixco para brindar mejor servicio a los turistasAtlixcoHace: 3 años 3 semanas -
Policias de Yucatán son acusados de violar y asesinar a un joven de 23 años de edadNaciónHace: 4 años 3 meses -
Roban camión con leche Liconsa y lo dejan en TecamachalcoTecamachalcoHace: 6 años 11 meses -
Justifica síndico desalojo de juegos mecánicos por parque de 4 mdpTehuacánHace: 7 años 3 meses -
Marcharán en Coapan contra patrocinio a Carrera de la TortillaTehuacánHace: 7 años 3 meses -
Por falta de policías, piden Seguridad Estatal en YehualtepecCiudad SerdánHace: 7 años 3 meses -
Acusan a alcaldesa de Tehuacán por actos de corrupciónTehuacánHace: 7 años 3 meses


