La prestigiosa revista científica Nature adopta ChatGPT, pero tiene una condición única


El uso de ChatGPT en un entorno académico ha suscitado diferentes opiniones. Si bien la Conferencia Internacional sobre Aprendizaje Automático (ICML, por sus siglas en inglés) ha prohibido los artículos con texto generado a partir de modelos de inteligencia artificial (IA), Springer Nature acaba de tomar el camino opuesto.

La prestigiosa editorial, que entre sus publicaciones se encuentra la revista científica Nature, actualizó esta semana su guía de principios. Un documento señala que los autores podrán utilizar IA para generar ideas o ayudar a escribir sus textos, siempre y cuando acreedieten adecuadamente este tipo de colaboración en el trabajo publicado.

Herramienta de asistencia, no autora de una publicación

Springer Nature, its embargo, no abraza completamente los modelos de lenguaje en trabajos académicos y establece pautas que intentan marcar ciertos límites. El editorial remarca que no será permitido por los usuarios acrediten como autora de un trabajo de investigación a una herramienta de IA.

«Esto se debe a que cualquier atribución de autoría conlleva responsabilidad por el trabajo, y las herramientas de IA no pueden asumir tal responsabilidad», explica Springer Nature. Y, además, advierta que los enormes avances en la materia están haciendo que sea váz más difícil distinguir entre un trabajo producido por una inteligencia artificial o por una persona.

En este sentido, la empresa señala que reconocer los patrones que detectan permanentemente si un texto ha sido creado por una IA o una persona es muy compleja. “El trabajo sin procesar de ChatGPT es detectable en una inspección cuidadosaparticularmente cuando se trata de más de unos pocos parasra y el tema se relaciona con el trabajo científico”, explica.

De hecho ya hay algunos detectores de ChatGPT. En Xataka hemos probado algunos y hemos llegado a la conclusión de que estas herramientas están lejos de ser perfectas. Obtienen mayor tasa de aciertos en textos largos en inglés, pero en español sigue teniendo cierto margen de mejora. Springer está trabajando en un detector propio.

A la editorial también le preocupa que perciba una «gran preocupación» en la comunidad por la posibilidad de que estudiantes o científicos hacer pasar textos escritos por IA como propios. El riesgo alcanza, aseguran, incluso la elaboración de los artículos simples, porque se pueden producir resultados que no son confiables.

En otros amigos, ChatGPT y herramientas similares están dando de qué hablar. CNET comenzó a usar asistentes editoriales basados ​​en IA, pero el resultado fue desastroso y terminó por pausar su experimento. BuzzFeed y Medium creen que pueden darles una oportunidad, así que acaban de empezar a utilizarlos.

La conocida plataforma de preguntas y respuestas Stack Overflow, por su parte, ha prohibido el bot conversacional de OpenAI, postura que comparte con escuelas de Nueva York. En cualquier caso, parece que los avances en este campo no están llevando a las puertas de grandes cambios que llegarán de la mano de la IA.

Imágenes: Josué Sortino + Naturaleza (asamblea)

Una Xataka: Perplexity AI es todo lo que debe temer el buscador de Google: un «ChatGPT» conectado a internet



Fuente