El exceso de ciertas palabras sugiere el uso de ChatGPT en miles de estudios científicos

El exceso de ciertas palabras sugiere el uso de ChatGPT en miles de estudios científicos

Referencial

 

El bibliotecario Andrew Gray ha hecho un descubrimiento “muy sorprendente”. Ha analizado cinco millones de estudios científicos publicados el año pasado y ha detectado un subidón repentino en el uso de determinadas palabras, como meticulosamente (un 137% más), intrincado (117%), encomiable (83%) y meticuloso (59%), en sus versiones en inglés. Gray, del University College de Londres, solo encuentra una explicación: decenas de miles de investigadores están utilizando ChatGPT —u otros programas similares de generación de lenguaje con inteligencia artificial— para escribir sus estudios o al menos “pulirlos”.

Por: La Nación

Hay ejemplos descarados. Un equipo de científicos chinos publicó el 17 de febrero un estudio sobre baterías de litio. El trabajo, publicado en una revista especializada de la editorial Elsevier, comenzaba así: “Por supuesto, aquí tienes una posible introducción para tu tema: Las baterías de litio son candidatas prometedoras para…”. Los autores, aparentemente, pidieron a ChatGPT una introducción y la copiaron tal cual. Otro artículo en otra revista de Elsevier, firmado por investigadores israelíes el 8 de marzo, incluye el texto: “En resumen, el manejo de lesiones iatrogénicas bilaterales Lo siento, pero no tengo acceso a información en tiempo real ni a datos específicos de pacientes, ya que soy un modelo de lenguaje de inteligencia artificial”. Y, hace un par de meses, tres científicos chinos publicaron un delirante dibujo de una rata con una especie de pene gigante, una imagen generada con inteligencia artificial para un estudio sobre células precursoras de los espermatozoides.

Andrew Gray calcula que al menos 60.000 estudios científicos (más del 1% de los analizados en 2023) se escribieron con ayuda de ChatGPT —una herramienta lanzada a finales de 2022— o similares. “Creo que son infrecuentes los casos extremos de alguien escribiendo un estudio entero con ChatGPT”, opina Gray, un bibliotecario escocés de 41 años. A su juicio, en la mayoría de los casos la inteligencia artificial se emplea adecuadamente para “pulir” el texto —identificar erratas o facilitar la traducción al inglés—, pero existe una gran escala de grises, en la que algunos científicos aprovechan la asistencia de ChatGPT más allá, sin verificar los resultados. “Ahora mismo es imposible saber cómo de grande es esa zona gris, porque las revistas científicas no exigen a los autores que declaren el uso de ChatGPT, hay muy poca transparencia”, lamenta.

La pista: la frecuencia de ciertas palabras

Los modelos de lenguaje por inteligencia artificial usan determinadas palabras de manera desproporcionada, según ha demostrado el equipo de James Zou, de la Universidad de Stanford (EE.UU.). Suelen ser términos con connotaciones positivas, como encomiable, meticuloso, intrincado, innovador y versátil. Zou y sus colegas alertaron en marzo de que los propios revisores de los estudios científicos están empleando estos programas para escribir sus valoraciones, previas a la publicación de los trabajos. El grupo de Stanford analizó las revisiones de los estudios presentados en dos conferencias internacionales de inteligencia artificial y descubrió que la probabilidad de que apareciese la palabra meticuloso se había multiplicado por 35.

Puedes leer la nota completa en La Nación

Exit mobile version