• Tecnología

Me lo dijo ChatGPT, riesgos y usos de los chatbots en la ciencia

  • Municipios Puebla
Fueron discutidas las oportunidades, riesgos y usos éticos de los modelos grandes de lenguaje en la práctica académica

México.- La frase “Me lo dijo ChatGPT” se ha vuelto habitual en los pasillos universitarios. Estudiantes de licenciatura, posgrado e incluso educación básica la repiten con familiaridad. Pero esta escena cotidiana encierra un desafío mucho mayor: ¿qué significa integrar herramientas de inteligencia artificial generativa en procesos de aprendizaje e investigación científica?

Esta pregunta fue el punto de partida del seminario “Me lo dijo ChatGPT. Oportunidades y limitaciones de los chatbots en el marco de la investigación científica”, organizado por la Unidad de Bioinformática y Manejo de la Información del Instituto de Fisiología Celular (IFC) de la UNAM. La sesión fue impartida por el Dr. Carlos Peralta Álvarez, investigador del IFC, con una introducción del Dr. Augusto Poot Hernández, responsable de la Unidad organizadora.

ChatGPT en el aula: normalización y falta de criterios

“Este semestre aumentó bastante la cantidad de estudiantes que nos fueron a visitar con conversaciones que comenzaban con ‘me lo dijo Chat’ o ‘hice lo que me dijo Chat’, y normalmente estas frases iban seguidas de ‘no funcionó’”, relató el Dr. Poot al inicio de la sesión.

La presencia de modelos como ChatGPT no se limita al entorno universitario. En palabras del propio académico: “Mi hijo llegó un poco enojado porque una de sus compañeras entregó un trabajo copiado literalmente de lo que le regresó ChatGPT… y la maestra le dijo que estaba muy bien hecho su trabajo”. El caso, explicó, ilustra la necesidad urgente de educar a las nuevas generaciones en el uso crítico de estas herramientas.

Según datos mencionados durante la conferencia, OpenAI reportó recientemente que ChatGPT cuenta con hasta 200 millones de usuarios por semana, una cifra comparable con plataformas como Facebook o Instagram. “Nos guste o no, esta tecnología ya llegó para quedarse”, sostuvo.

¿Qué son y cómo funcionan los modelos grandes de lenguaje?

Para comprender el potencial y los riesgos de los chatbots, el Dr. Peralta propuso comenzar desde su funcionamiento básico. Explicó que modelos como ChatGPT no “comprenden” el lenguaje, sino que operan mediante predicciones estadísticas de palabras a partir del contexto.

“Esto nos permite predecir y generar texto de manera que da la ilusión de ser coherente, real y consciente. Sin embargo, nada de eso es cierto”, afirmó. “No son inteligencias artificiales. Las inteligencias artificiales aún no existen, a pesar de que el marketing así nos lo quiere hacer creer”.

Este mecanismo estadístico les permite completar frases con alta precisión e incluso simular conocimientos complejos, aunque sin comprenderlos realmente. El entrenamiento de estos modelos se realiza con corpus masivos de información, que incluyen desde libros y artículos académicos hasta conversaciones en redes sociales, foros y código compartido por desarrolladores en línea.

¿Reemplazarán los chatbots a los médicos?

Una de las inquietudes más recurrentes sobre la inteligencia artificial es su posible capacidad para sustituir profesiones humanas. Al respecto, Carlos Peralta fue claro: “No me atrevería a decir que van a sustituir a los médicos. Definitivamente, parte del quehacer del médico es la parte humana y social. Eso no se puede cambiar”.

Reconoció, sin embargo, que en ciertos aspectos los modelos de lenguaje pueden resultar útiles. “Cada vez estamos yendo más hacia una medicina basada en evidencia, donde los diagnósticos cumplen una serie de criterios… revisar checklist, contrastar contra la historia clínica, contra los hallazgos clínicos o de imagen sí tienen cierta cabida”.

Por tanto, su papel podría ubicarse en la asistencia al diagnóstico, especialmente en casos complejos, pero nunca en la toma de decisiones finales. “Quizás puedan ayudar a reducir la lista de posibilidades en pacientes muy complicados”, añadió.

Riesgos: respuestas falsas, censura y sesgos

Uno de los conceptos centrales del seminario fue el de las “alucinaciones”, es decir, respuestas falsas o erróneas que aparentan ser verosímiles. El Dr. Peralta fue enfático: “Todos los modelos son susceptibles a alucinaciones, inclusive los más avanzados”.

Estas respuestas engañosas representan un riesgo mayor cuando se utilizan sin supervisión en contextos clínicos, jurídicos o científicos. De hecho, compartió que modelos como Gemini 2.5 Pro han devuelto información incorrecta incluso ante preguntas básicas sobre compatibilidad de tipos sanguíneos.

Otro aspecto preocupante es la censura preprogramada. Los modelos comerciales, advirtió, pueden negarse a responder temas sensibles relacionados con salud mental, hematología, violencia o explosivos, lo que limita su utilidad en áreas legítimas de investigación.

Además, los modelos reflejan prejuicios presentes en los datos con los que fueron entrenados. “Ya se ha documentado que ChatGPT propaga algunos prejuicios y tiene ciertas opiniones respecto a ciertos grupos étnicos… porque nosotros como humanidad fuimos tan racistas que propusimos eso por escrito”, señaló.

¿Cómo mitigar estos riesgos?

El seminario ofreció recomendaciones prácticas para mejorar la precisión y utilidad de las respuestas generadas por los chatbots:

- Formular prompts detallados: “Entre más contexto y mejor contexto le dé, entre más precisa sea mi interacción, voy a obtener mejores resultados”.

- Evitar pedir explicaciones de temas desconocidos: “No vamos a tratar de que ChatGPT sea nuestro profesor”.

- Hacer preguntas en inglés: “Si es información académica, preferiblemente hacer la pregunta en ese idioma”.

- Verificar siempre la información: “Hay que verificar, verificar y verificar. No podemos confiar ciegamente en ChatGPT”.

También se mostró cómo ciertas plataformas —como Perplexity, Gemini o ChatGPT Plus— ofrecen funciones de búsqueda en línea o investigación profunda que pueden mejorar la calidad de las respuestas, aunque muchas requieren suscripción de pago.

Modelos locales y RAG: hacia una ciencia personalizada y segura

Una de las secciones más innovadoras de la charla fue la presentación de modelos locales con bases de datos personalizadas. Esta técnica, conocida como RAG (Generación Aumentada por Recuperación), permite alimentar un modelo de lenguaje con papers, libros o bases de datos específicas sin conexión a servidores externos.

“Esto me permite tener respuestas que, en mi opinión, son casi tan buenas como los modelos comerciales, pero con mi información segura y en mi máquina local”, explicó el Dr. Peralta.

La posibilidad de crear asistentes académicos que respondan solo con información contenida en papers seleccionados representa, para los organizadores del seminario, una revolución inmediata en la práctica científica.

El problema de la autoría y los criterios éticos

El seminario también abordó los dilemas éticos en el uso de IA para escribir textos científicos. “Podemos usarla para mejorar la claridad, la traducción y la gramática… pero no para escribir el artículo”, señaló Peralta, citando lineamientos de revistas especializadas en biología computacional.

También recordó casos recientes en los que abogados o empresas utilizaron modelos de lenguaje para redactar textos oficiales sin supervisión, generando errores graves y consecuencias legales.

Frente a la creciente sofisticación de estas herramientas, los mecanismos de detección de plagio se enfrentan a nuevas dificultades. “Cada vez es más difícil identificar en texto el contenido generado con inteligencia artificial”, advirtió.

La pregunta central: ¿pueden generar hipótesis?

Al cierre del seminario, se abordó una interrogante crucial: ¿pueden los modelos de lenguaje generar nuevas hipótesis científicas?

La respuesta fue categórica: “No. Los modelos de lenguaje son máquinas muy sofisticadas de repetir información que ya conocieron”, sentenció Peralta. “No entienden las relaciones ni tienen la intuición que se necesita para hacer una inferencia lógica compleja. Eso sigue siendo una actividad exclusivamente humana”.

¿Quieres mantenerte a tanto de todas las noticias hoy en Puebla? ¡Explora más en nuestro portal ahora mismo!

Foto Especial

mala

Tags: 

municipios_interiores: 

Encuesta

¿Usted ha recibido apoyos del gobierno del estado en el último mes?