Los avances en las capacidades de las herramientas de generación de imágenes basadas en inteligencia artificial han alcanzado un punto en el que las personas podrían confundirlas con imágenes auténticas o no generadas por IA. Esto plantea preocupaciones sobre su posible uso indebido.
OpenAI ya ha introducido marcas de agua para las imágenes generadas por DALL-E 3 para mantener la transparencia sobre la fuente y respetar la autenticidad. La empresa está desarrollando una nueva herramienta que podrá distinguir imágenes reales de las generadas por el modelo de generación de imágenes basado en texto de la empresa, DALL-E.
El blog oficial de OpenAI hizo el anuncio indicando que están trabajando en nuevos métodos para detectar contenido generado por IA. Según la empresa, el objetivo es ayudar a los investigadores a estudiar la autenticidad del contenido y unirse al Comité Directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), un estándar ampliamente utilizado para la certificación de contenido digital. Esto permitirá a los creadores etiquetar y certificar su contenido para verificar su verdadero origen.
OpenAI dice que también integrarán los metadatos C2PA para Sora, el modelo de generación de videos de la empresa, cuando se lance ampliamente. Para aquellos que no lo sepan, Sora también probablemente será una herramienta premium de generación de videos a partir de texto, al igual que DALL-E 3, donde solo los suscriptores con pagos podrán acceder a ella. Según un informe anterior, se espera que Sora esté disponible para el público en general este mismo año.
Como se mencionó anteriormente, OpenAI también está trabajando en una nueva herramienta que utiliza IA para detectar imágenes generadas por DALL-E 3. Más específicamente, predice la probabilidad de que una imagen haya sido generada por la herramienta. Según la empresa, la imagen aún puede ser detectada después de que se comprime, se ajusta la saturación o incluso se recorta la imagen. Estas herramientas tienen como objetivo ser más eficientes a los intentos de eliminar señales sobre el origen del contenido.
La herramienta de detección logra una precisión del 98% para imágenes creadas con DALL-E y, lo que es más importante, no etiqueta imágenes no generadas por IA como generadas por IA.
La empresa ya ha abierto solicitudes para acceder a la nueva herramienta de detección de imágenes para su primer grupo de probadores. Esto incluye laboratorios de investigación y organizaciones de periodismo orientadas a la investigación, y tiene como objetivo recopilar comentarios a través del Programa de Acceso para Investigadores.