DOBLE LLAVE – Un equipo científico de Google DeepMind ha desarrollado una herramienta capaz de añadir marcas de agua a textos generados por grandes modelos lingüísticos, mejorando así su capacidad para identificar y rastrear contenidos creados artificialmente.
Los grandes modelos lingüísticos (LLM, en sus siglas en inglés) son un tipo de inteligencia artificial (IA) muy utilizados que pueden generar texto para chatbots, ayuda a la escritura y otros fines. Sin embargo, puede resultar difícil identificar y atribuir el contenido producido por esta IA a una fuente concreta, lo que pone en entredicho la fiabilidad de la información.
En imágenes, vídeos o audios es relativamente sencillo insertar marcas de agua, pero en los textos esto supone un reto: cualquier alteración en las palabras puede afectar el significado y la calidad del contenido.
La herramienta utiliza un algoritmo «para sesgar sutilmente la elección de palabras del LLM, insertando una firma que pueda ser reconocida por el software de detección asociado», explican los investigadores.
La detectabilidad de estas marcas de agua se evaluó con varios modelos disponibles públicamente y SynthID-Text mostró una eficacia mejorada en comparación con los enfoques existentes, asegura un resumen de la revista.
La marca de agua puede ayudar a identificar texto sintético y limitar el uso indebido accidental o deliberado, añade el equipo de Google DeepMind. «Aquí describimos SynthID-Text, una estrategia de marca de agua que preserva la calidad del texto y permite una alta precisión de detección», dicen.
Solución de Google
Para Pablo Haya, del Laboratorio de Lingüística Informática de la Universidad Autónoma de Madrid, el artículo presenta «una solución técnicamente robusta» para la identificación de texto generado por IA a través de marcas de agua.
Aquí la marca de agua consiste en alterar el algoritmo de generación de palabras de manera que sigan un patrón estadístico rastreable sin modificar el significado, detalla Haya en un comentario a Science Media Centre España, una plataforma de recursos científicos para periodistas.
Actualmente, los sistemas para detectar si un documento ha sido generado por IA tienen bajos índices de acierto, por lo que tecnologías que faciliten la identificación de la autoría son muy necesarias, opina Haya, que no participa en el estudio.
«Además, estas técnicas están alineadas con las obligaciones de transparencia del reglamento IA que exige a los proveedores, en determinados niveles de riesgo, garantizar que el contenido generado por la IA sea identificable».
Sin embargo, añade, su adopción generalizada sigue siendo un desafío, principalmente porque este tipo de marcas de agua es vulnerable a manipulaciones posteriores, como modificaciones en el texto o el uso de técnicas de parafraseo, lo que reduce la efectividad de la marca para ser detectada.
De interés: Google y Open AI firman el pacto de inteligencia artificial de la UE
DOBLE LLAVE
Con información de EFE Servicios
Fuente de imagen referencial: EFE/Walter Bieri
Visita nuestro canal de noticias en Google News y síguenos para obtener información precisa, interesante y estar al día con todo. También en Twitter e Instagram puedes conocer diariamente nuestros contenidos