La Inteligencia Artificial ya puede descubrir imagenes falsas

Las IA están cambiando el mundo moderno, pero para los desarrolladores es fundamental la creación de herramientas que detecten este contenido generado.

¿Es ético, legal y sano hablar con los muertos a través de la inteligencia artificial?
¿Es ético, legal y sano hablar con los muertos a través de la inteligencia artificial?

En un contexto marcado por la creciente amenaza de los deepfakes y la desinformación en línea, OpenAI ha presentado una herramienta innovadora para combatir la proliferación de imágenes generadas artificialmente que pueden ser engañosas y manipuladoras.

El desarrollo de esta herramienta surge en un momento crucial, caracterizado por el incremento de la capacidad de las inteligencias artificiales generativas para crear contenido cada vez más realista y persuasivo. La nueva herramienta de OpenAI se basa en un sofisticado clasificador capaz de identificar imágenes creadas por su popular generador de imágenes, DALL-E.

Imagen idealizada de una infrutescencia de diente de león. (Fuente- Taraxacum Officinale). Construido en Dall-E en Bing
Imagen idealizada de una infrutescencia de diente de león. (Fuente- Taraxacum Officinale). Construido en Dall-E en Bing

Según Santiago Torres, director de desarrollo de OpenAI, “Con la llegada de los deepfakes, es fundamental contar con herramientas efectivas que puedan discernir entre imágenes reales y aquellas generadas por inteligencia artificial. Nuestra herramienta representa un avance significativo en esta lucha contra la desinformación en línea”.

El clasificador ha sido sometido a rigurosas pruebas que han demostrado una impresionante precisión del 98,8% en la identificación de imágenes generadas por DALL-E. Este alto nivel de precisión es esencial para contrarrestar los intentos de manipulación y desinformación a través de imágenes sintéticas.

El funcionamiento de la herramienta se basa en algoritmos de inteligencia artificial que analizan las características únicas de las imágenes, determinando si han sido generadas por DALL-E o no.

Imágenes generadas por DALL-E (OPENAI)
Imágenes generadas por DALL-E (OPENAI)

Además, la herramienta es capaz de detectar modificaciones menores en las imágenes, como compresión, recortes o cambios en la saturación, lo que la hace aún más robusta frente a intentos de engaño.

La efectividad de OpenAI

A pesar de sus capacidades avanzadas, es importante destacar que la herramienta no es infalible. Su eficacia en la detección de contenido generado por otras inteligencias artificiales generativas es limitada, alcanzando entre un 5% y un 10% en su conjunto de datos interno.

OpenAI también está adoptando un enfoque integral para abordar el problema de la autenticidad del contenido digital. La compañía se ha unido al Comité Directivo de la Coalición para la Procedencia y Autenticidad del Contenido (C2PA), estableciendo estándares abiertos para certificar la autenticidad del contenido digital.

La integración de metadatos del estándar C2PA en todas las imágenes creadas y editadas por DALL-E 3 es un paso crucial hacia la garantía de la autenticidad del contenido digital. Estos metadatos proporcionan información sobre la procedencia y autenticidad de las imágenes, construyendo confianza en su veracidad.

Tenemos algo para ofrecerte

Con tu suscripción navegás sin límites, accedés a contenidos exclusivos y mucho más. ¡También podés sumar Los Andes Pass para ahorrar en cientos de comercios!

VER PROMOS DE SUSCRIPCIÓN

COMPARTIR NOTA