Un estudio realizado por cinco informáticos de la Universidad de Maryland (EEUU), determinó que, un simple «ataque de parafraseo» o una «ligera reordenación de palabras» es suficiente para engañar a todos los métodos más avanzados de detección de textos creados por grandes modelos lingüísticos (LLM).
Soheil Feizi, uno de los autores del estudio, aseguró que la sociedad debe aprender a vivir con el hecho de que «puede que nunca seamos capaces de decir con fiabilidad si un texto está escrito por un humano o por una IA».
Incluso con esquemas de marcas de agua o escáneres basados en redes neuronales es «empíricamente» imposible detectar de forma fiable un texto basado en LLM.
En su publicación, alertaron que, estos resultados demuestran la necesidad de realizar un mayor esfuerzo por verificar la fuente de la información textual.
“Especialmente ahora que las plataformas sociales ampliaron sus sistemas de verificación de cuentas, lo que podría facilitar la difusión de desinformación basada en IA”.