• Nación

¿Usas ChatGPT como terapeuta? Tus mensajes pueden no ser tan privados como crees

  • Diego Juárez
El CEO Sam Altman explicó que la falta de regulación exponen a los usuarios, cuyos mensajes pueden ser conservados y entregados si así lo ordena una autoridad judicial.

Aunque millones de personas recurren a ChatGPT para buscar consejos sobre relaciones, desahogarse emocionalmente o recibir apoyo durante momentos difíciles, estas interacciones no gozan de la misma protección legal que una charla con un terapeuta, médico o abogado. Así lo dejó en claro Sam Altman, director ejecutivo de OpenAI, al señalar que las conversaciones con la IA no son confidenciales desde el punto de vista jurídico.

Durante su participación en el pódcast This Past Weekend, conducido por el comediante Theo Von, Altman explicó que muchos usuarios —especialmente los más jóvenes— usan la herramienta como si fuera un consejero profesional. Sin embargo, aclaró que esas charlas no están cubiertas por los privilegios legales que protegen la privacidad en otros entornos, como la relación médico-paciente o abogado-cliente. En caso de una demanda, OpenAI podría estar obligada a entregar los registros, incluyendo los más personales. "Eso es un desastre", reconoció Altman, subrayando la necesidad urgente de atender este vacío legal.

El director ejecutivo subrayó que deberían establecerse nuevos criterios de privacidad para la IA, similares a los que ya se aplican a los profesionales humanos. La masiva adopción de estas tecnologías ha dejado al descubierto múltiples vacíos legales y éticos que, según dijo, ni siquiera se contemplaban hace apenas un año. Ante los comentarios de Von, quien manifestó su preocupación sobre el uso de ChatGPT por temas de privacidad, Altman coincidió en que esa incertidumbre puede desalentar su uso. “Tiene sentido querer claridad sobre estos temas antes de involucrarse demasiado”, expresó.

Por el momento, las políticas de OpenAI indican que los chats de los usuarios de la versión gratuita pueden almacenarse durante un máximo de 30 días por motivos de seguridad y mejora del sistema. En ciertos casos, este tiempo puede extenderse debido a requerimientos legales. A diferencia de otras plataformas como WhatsApp o Signal, las conversaciones no están cifradas de extremo a extremo, y el personal de la empresa puede acceder a ellas para monitorear el funcionamiento del modelo y detectar usos indebidos.

El tema no es solo teórico: OpenAI enfrenta una demanda interpuesta por The New York Times, la cual ha puesto en el centro del debate sus prácticas de manejo de datos. En este contexto, una orden judicial exige conservar y posiblemente entregar conversaciones de usuarios, excepto las de los clientes de ChatGPT Enterprise. La empresa ya apeló esta decisión, calificándola como una extralimitación legal.

Altman también señaló que este tipo de situaciones reflejan un fenómeno más amplio, en el que las empresas tecnológicas enfrentan cada vez más solicitudes legales para entregar datos de usuarios. Comparó el caso con la creciente adopción de apps de salud cifradas tras la anulación del caso Roe vs. Wade, que generó temores sobre el uso de información sensible.

Mientras tanto, aunque los chatbots se consolidan como herramientas de apoyo emocional, el entorno legal aún no está a la altura. El mensaje de Altman fue directo: hasta que existan regulaciones claras, los usuarios deben pensar bien lo que comparten con la IA.

¿Quieres mantenerte al tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!

Foto: Redes sociales

djs

municipios_interiores: 

Encuesta

¿Usted ha recibido apoyos del gobierno del estado en el último mes?