OpenAI ha «discutido y debatido ampliamente» cuándo lanzar una herramienta que pueda determinar si una imagen se ha hecho con DALL-E 3, su modelo de arte generativo de Inteligencia Artificial.
La investigadora de la empresa especializada en seguridad y política, Sandhini Agarwal, afirmó que la herramienta de clasificación está lista y es «realmente buena», sin embargo, no ha alcanzado el umbral de calidad de OpenAI.
«Se plantea la cuestión de crear una herramienta poco fiable, dado que las decisiones que puede tomar pueden afectar significativamente a las fotos, como que una obra se considere pintada por un artista o no auténtica y engañosa», explicó Agarwal.
Actualmente, la herramienta mantiene una precisión de 95% cuando la imagen fue sometida a tipos comunes de modificaciones -como recorte, cambio de tamaño o compresión JPEG- en pequeñas porciones de la imagen generada-.
El objetivo de OpenAI es superar el 99% de precisión.