La clave muchas veces está en las bases. Lo mismo ocurre con el entrenamiento de la inteligencia artificial: cuando los cimientos de datos de los cuales se alimenta contienen errores —por más minúsculos que parezcan—, estos se filtran y multiplican en cada capa del sistema hasta cristalizar en la producción científica y académica. Así lo demuestra el insólito caso de la expresión “vegetative electron microscopy” (en español, “microscopía electrónica vegetativa”).
Este término, que pretende referirse a un concepto científico complejo, está lejos de hacerlo. De hecho, representa todo lo contrario: es el fruto de un error de procesamiento de información cometido por una inteligencia artificial, error que se reforzó con el paso del tiempo y que hoy forma parte de la estructura de conocimiento interna de los sistemas, difícil de corregir. Según The Conversation, a este tipo de equivocaciones persistentes se las denomina “fósiles digitales”.
En particular, la raíz de “vegetative electron microscopy” se remonta a dos trabajos académicos publicados en 1950 en Bacteriological Reviews, que luego fueron digitalizados por un sistema de reconocimiento de texto. Al escanear las páginas en formato de doble columna, el software leyó “vegetative” en la columna izquierda y, justo a la misma altura, “electron microscopy” en la derecha, y creyó que estaban unidos: al hacerlo creó la expresión errónea. Ese PDF defectuoso pasó a integrar bases de datos y, posteriormente, alimentó a los buscadores y modelos de inteligencia artificial.
Hoy, el concepto “vegetative electron microscopy” aparece en 22 publicaciones académicas, según Google Scholar, y también figura en artículos periodísticos, pese a ser un concepto que no tiene asidero con la realidad. Pero ese no es el verdadero problema: la complicación radica en la dificultad de eliminar su presencia de las bases de datos, principalmente por la magnitud de estas reservas de información. Son tan vastas que pocos investigadores cuentan con los recursos necesarios para intervenir en ellas. Además, la falta de transparencia de las empresas que utilizan estos datos complica aún más la tarea.
Todo esto impacta directamente en la producción de investigaciones científicas, donde la inteligencia artificial ya es una herramienta habitual. Samuel Yossef, investigador en este campo, le explicó a LA NACION que esta tecnología está transformando profundamente la publicación científica. “Estamos ante un cambio estructural que afecta a todas las partes del proceso”, reflexionó.
Por ejemplo, la IA ya asiste en la generación de manuscritos científicos: ayuda en el desarrollo de borradores, en la edición y en la organización del contenido, ahorrándoles tiempo y recursos a los investigadores. También participa en el proceso de revisión por pares, tradicionalmente a cargo de colegas del campo. La inteligencia artificial agiliza esta etapa y ofrece sugerencias, además de detectar inconsistencias técnicas.
Sin embargo, de acuerdo con Yossef, el cambio más profundo está en el acceso y la síntesis del conocimiento científico. “Las herramientas de IA pueden realizar lecturas profundas de miles de documentos, descubriendo patrones y conexiones que a un ser humano le llevaría meses identificar. Esto allana el camino para nuevos tipos de descubrimientos, más interdisciplinarios, más integrados y potencialmente más rápidos”, explicó.
Así, la inteligencia artificial aporta grandes beneficios a la investigación: acelera tareas repetitivas, potencia la profundidad del análisis y amplía el acceso al conocimiento, permitiendo que más profesionales desarrollen publicaciones de calidad. No obstante, los riesgos asociados a su uso compiten con estas ventajas. Y el caso de “vegetative electron microscopy” es un ejemplo claro de esos peligros.
Sobre este punto, Ignacio Spiousas, investigador de Conicet y la Universidad de San Andrés, explicó que el primer riesgo es la infiltración de alucinaciones dentro de las publicaciones científicas. “Al ser modelos que generan lenguaje aprendiendo de su forma y no de su contenido, el problema es que expresan estas alucinaciones con la misma seguridad que hechos verdaderos”, señaló. Como consecuencia principal, puede producirse una expansión de información falsa o la reproducción de conceptos erróneos que la inteligencia artificial incorpora a su estructura interna y replica sin distinguir su validez, como sucedió con “vegetative electron microscopy”.
Además, los sesgos presentes en la estructura de los datos refuerzan la necesidad de una revisión humana constante. Es evidente que las herramientas de IA seguirán integrándose en los procesos científicos; sin embargo, la supervisión profesional debe mantenerse lúcida para identificar errores o alucinaciones ya estructuradas en los sistemas. “Las decisiones científicas deben seguir siendo humanas. La IA es una herramienta poderosa, pero carece de criterio y responsabilidad”, advirtió Yossef. “Ignorar ese límite es arriesgado, para la ciencia y para la sociedad”, concluyó.
Escrito por: Victoria Mendizábal
Fuente: La Nación
Portada extraida de Freepik