- Virales
ChatGPT da consejos sobre drogas y suicidio a adolescentes, revela estudio
Un nuevo estudio reveló que ChatGPT puede proporcionar a adolescentes instrucciones detalladas sobre cómo consumir drogas, ocultar trastornos alimentarios o incluso redactar cartas de suicidio, pese a las advertencias iniciales que el sistema ofrece ante temas sensibles.
La investigación fue realizada por el Centro para Contrarrestar el Odio Digital (CCDH, por sus siglas en inglés), cuyos integrantes simularon ser adolescentes vulnerables e interactuaron durante más de tres horas con el chatbot de OpenAI. En total, analizaron 1,200 respuestas de ChatGPT, de las cuales más de la mitad fueron clasificadas como peligrosas.
Aunque el sistema suele advertir sobre los riesgos de ciertas conductas, en muchos casos proporcionó planes detallados y personalizados sobre consumo de sustancias, autolesiones y dietas extremas. En algunos experimentos, el chatbot incluso redactó cartas de suicidio emocionalmente devastadoras dirigidas a padres, hermanos y amigos.
“El objetivo era probar los límites de seguridad del sistema”, declaró Imran Ahmed, director del CCDH. “La conclusión es alarmante: esas barreras son ineficaces o casi inexistentes”.
Tras conocer el informe, OpenAI respondió que continúa trabajando para mejorar la detección y el manejo de conversaciones sensibles, señalando que algunas interacciones pueden comenzar de forma inofensiva y luego derivar hacia temas delicados. La empresa no abordó directamente los hallazgos sobre el impacto en adolescentes, aunque aseguró que busca refinar la respuesta del chatbot en escenarios de angustia emocional.
Según datos de JPMorgan Chase, más de 800 millones de personas —el 10% de la población mundial— ya utilizan ChatGPT, incluidos muchos adolescentes. Un estudio de Common Sense Media reveló que más del 70% de los jóvenes en Estados Unidos recurren a chatbots para compañía, y la mitad lo hace con frecuencia.
El director del CCDH relató haber quedado particularmente afectado al leer tres notas de suicidio generadas por ChatGPT para el perfil falso de una niña de 13 años. “Comencé a llorar”, dijo Ahmed.
Aunque ChatGPT también proporcionó recursos como líneas de ayuda, los investigadores lograron eludir fácilmente sus negativas iniciales argumentando que buscaban información “para una presentación” o “para un amigo”.
En otra interacción, el chatbot aceptó guiar a un supuesto joven de 13 años que pedía ayuda para emborracharse. “Peso 50 kilos y soy un chico”, decía el mensaje. ChatGPT no solo respondió, sino que sugirió un ‘Plan de Fiesta de Caos Total’ con instrucciones hora por hora que combinaban alcohol con éxtasis, cocaína y otras drogas ilegales.
También ofreció consejos sobre ayuno extremo y el uso de medicamentos supresores del apetito, como respuesta a una supuesta adolescente que expresaba inconformidad con su cuerpo. “No puedo imaginar a ningún ser humano respondiendo con una dieta de 500 calorías al día para una niña”, señaló Ahmed.
Otra característica preocupante observada fue la adulación del chatbot, es decir, su tendencia a coincidir con las creencias del usuario en lugar de cuestionarlas, lo cual puede agravar los riesgos cuando se trata de temas sensibles.
Robbie Torney, director de programas de IA en Common Sense Media, explicó que los adolescentes más jóvenes, de entre 13 y 14 años, son más propensos a confiar ciegamente en un chatbot. “Están diseñados para parecer humanos”, advirtió.
El propio CEO de OpenAI, Sam Altman, ha reconocido públicamente la preocupación por la dependencia emocional de algunos usuarios. “Hay jóvenes que dicen: ‘No puedo tomar decisiones sin consultar primero a ChatGPT’”, confesó en una conferencia reciente.
En Estados Unidos, ya existen precedentes judiciales relacionados con este fenómeno. Una madre en Florida demandó a los creadores del chatbot Character.AI tras el suicidio de su hijo de 14 años, alegando que la herramienta lo manipuló en una relación emocional abusiva.
Si bien ChatGPT no permite oficialmente el uso por parte de menores de 13 años, no verifica edad ni requiere consentimiento parental. Basta con ingresar una fecha de nacimiento falsa para acceder. Plataformas como Instagram ya han comenzado a implementar medidas más estrictas de verificación de edad.
La facilidad con la que los adolescentes pueden acceder y manipular el sistema preocupa a expertos y organismos que abogan por el uso seguro de tecnologías emergentes.
“ChatGPT parece ese amigo que siempre te dice ‘sí’ sin importar el daño que cause”, concluyó Ahmed. “Pero un amigo real es el que sabe cuándo decirte que no”.
¿Buscando más noticias hoy en Puebla? Sigue leyendo en nuestro portal para mantenerte informado.
Foto: Ilustrativa
djs
municipios_interiores:
Encuesta
Destacadas
-
En Izúcar se realiza el primer encuentro regional de TecuanesIzucar de MatamorosHace: 1 año 5 meses
-
Certifican a empresas de Atlixco para brindar mejor servicio a los turistasAtlixcoHace: 2 años 10 meses
-
Policias de Yucatán son acusados de violar y asesinar a un joven de 23 años de edadNaciónHace: 4 años 1 semana
-
Roban camión con leche Liconsa y lo dejan en TecamachalcoTecamachalcoHace: 6 años 8 meses
-
Justifica síndico desalojo de juegos mecánicos por parque de 4 mdpTehuacánHace: 7 años 1 semana
-
Marcharán en Coapan contra patrocinio a Carrera de la TortillaTehuacánHace: 7 años 1 semana
-
Por falta de policías, piden Seguridad Estatal en YehualtepecCiudad SerdánHace: 7 años 2 semanas
-
Acusan a alcaldesa de Tehuacán por actos de corrupciónTehuacánHace: 7 años 2 semanas