• Vie. Nov 22nd, 2024

OpenAI presenta herramienta para detectar contenido hecho por su IA

Ante los fuertes casos de deepfakes que se han visto durante los últimos meses, la compañía OpenAI desarrolló una herramienta capaz de detectar imágenes creadas con su propia IA generativa, DALL-E 3.

Las deepfakes son un contenido sintético manipulado con fines engañosos, que debido a su capacidad de verse tan real pueden engañar a un gran número de personas, con el fin de obtener información o datos sensibles. Por lo general, en estos casos suelen utilizar la imagen o voz de personas influyentes como artistas o deportistas, para así captar la atención o confianza de los usuarios.

Este tipo de ataques cibernéticos han incrementado considerablemente y en vista de lo peligroso que pueden ser, OpenAI ha decidido dar un paso al frente y evitar estos ataques con esta nueva herramienta.

¿Cómo funciona el nuevo detector de OpenAI?

Este novedoso detector utiliza un clasificador que analiza las imágenes y predice la probabilidad de que hayan sido generadas por DALL-E 3. En las primeras pruebas, la precisión ha alcanzado un 98%, una cifra muy prometedora.

Sin embargo, la herramienta no es perfecta. Si bien soporta pequeñas modificaciones como compresión o cambios de saturación, ediciones mayores podrían afectar su rendimiento. Además, su eficacia frente a contenido generado por otras IAs es menor, con un porcentaje de detección entre el 5% y el 10%.

La empresa ha abierto el acceso a esta herramienta a un grupo selecto de científicos, investigadores y organizaciones sin fines de lucro para recopilar feedback y mejorarla; de esta manera, se busca evaluar su efectividad en el mundo real y explorar sus posibles aplicaciones.

Otros intentos de detector de IA

Esta no es la primera vez que OpenAI intenta crear este tipo de herramientas. En febrero de 2023, lanzaron un clasificador de texto que podía identificar si un texto había sido escrito por IA. Sin embargo, su rendimiento fue bajo, lo que llevó a su retirada meses después.

Pese a este fallo, la compañía, dirigida por Sam Altman, sigue comprometida con la lucha contra la desinformación y este detector de imágenes es un ejemplo de ello.

Además del clasificador de imágenes, la empresa se ha unido a la Coalición para la Procedencia y Autenticidad del Contenido y está trabajando en la implementación de metadatos para identificar imágenes creadas por DALL-E 3.

La batalla contra las deepfakes es compleja y requiere un enfoque multifacético. La herramienta de OpenAI es un paso importante en la dirección correcta, pero aún queda mucho por hacer. La colaboración entre empresas, investigadores y la sociedad civil será clave para garantizar la integridad del contenido digital en el futuro.

Para más información sobre tecnología e inteligencia artificial, haz clic en el enlace.