Mientras el uso de la inteligencia artificial (IA) se vuelve cada vez más cotidiano en aulas y laboratorios, académicos del Instituto de Fisiología Celular (IFC) de la Universidad Nacional Autónoma de México (UNAM) realizaron un análisis profundo sobre los alcances y peligros del uso de herramientas como ChatGPT en contextos académicos y científicos.
Durante un foro especializado, el doctor Carlos Peralta Álvarez destacó que estos modelos de lenguaje generativo no comprenden el lenguaje humano, sino que funcionan con base en predicciones estadísticas, lo cual puede producir texto coherente, pero no necesariamente verídico.
“Estas plataformas no son inteligentes ni conscientes. Operan con base en enormes volúmenes de datos y su salida depende de patrones, no de comprensión”, afirmó Peralta.
Uno de los puntos más debatidos fue el fenómeno de las llamadas “alucinaciones”: respuestas falsas que aparentan ser correctas. Aun los modelos más avanzados, señalaron, no están exentos de este problema.
“ChatGPT me lo dijo”… y no funcionó
El doctor Augusto Poot Hernández, coordinador del evento, relató que ha observado un incremento de estudiantes que justifican errores académicos con frases como “me lo dijo ChatGPT”, lo cual ha generado preocupación sobre la dependencia acrítica hacia estas tecnologías.
“Desde nivel básico hasta posgrado, muchos alumnos ya no investigan, solo consultan. Eso nos plantea un gran reto educativo”, subrayó Poot.
Los expertos coincidieron en que, si bien estas herramientas no reemplazarán a profesiones complejas como la medicina —por su dimensión humana y social—, sí podrían tener un papel complementario en tareas como recopilación de evidencia o diagnóstico asistido.
Riesgos, prejuicios y recomendaciones
Otro tema abordado fue la reproducción de sesgos sociales y culturales en los modelos de IA, lo que —según Peralta— refleja un problema humano más que tecnológico.
“ChatGPT propaga algunos prejuicios porque nosotros, como humanidad, los hemos dejado por escrito”, explicó, aludiendo a la responsabilidad colectiva sobre los contenidos generados.
Como parte del foro, se propusieron recomendaciones prácticas para evitar errores:
- Formular preguntas complejas y precisas (preferentemente en inglés en entornos académicos).
- Verificar toda información generada por IA antes de usarla.
- Usar herramientas con capacidades de búsqueda actualizadas, como Perplexity o ChatGPT Plus, aunque impliquen costos.
- Implementar sistemas RAG (Retrieval-Augmented Generation), que combinan IA con bases de datos locales y personalizadas, garantizando privacidad y precisión.
Inteligencia artificial, pero con supervisión
La conclusión del foro fue clara: la IA no sustituye el pensamiento crítico. Para los académicos del IFC, el papel de las universidades debe enfocarse en enseñar a los estudiantes a usar estas herramientas con juicio, ética y criterio científico.
“La inteligencia artificial puede ser útil, pero no debemos permitir que piense por nosotros”, concluyó Peralta.