En medio del año electoral en muchas partes del mundo, OpenAI anunció una herramienta para detectar las deepfakes y así disminuir los riesgos que representan para los procesos de votación. Asimismo, junto a Microsoft, anunció un fondo de 2 millones de dólares para combatir este problema. De acuerdo con datos de Anchor Change Election Cycle Tracker, se espera que este año alrededor de 2,000 millones de personas (cerca de una cuarta parte de la población mundial), acudan a las urnas para elegir gobernantes; sin embargo, la IA representa un importante riesgo para la democracia. La herramienta está diseñada para detectar contenido creado a partir de su IA generativa DALL-E. “Esto es realmente necesario”, comentó Sandhini Agarwal, investigadora de seguridad y políticas de OpenAI, quien explicó que se compartirá a un grupo de investigadores en torno a la desinformación.
Según la experta, este recurso tendrá la capacidad de identificar correctamente el 98.8% de las imágenes creadas por DALL-E 3, que es la versión más actualizada del generador de imágenes. No obstante, se resaltó que no es capaz de detectar productos generados por otras plataformas, como Midjourney o Stability. Agarwal resaltó que en la lucha contra los deepfakes “no existe una solución milagrosa”, pues estas herramientas se basan en probabilidades por lo cual nunca tendrán una eficiencia del 100%. A pesar de ello, OpenAI anunció que se unirá a la Coalición para la Procedencia y Autenticidad del Contenido, un esfuerzo en donde también participan empresas como Meta o Google, y el cual tiene el propósito de desarrollar “etiquetas digitales” para los productos generados o alterados con IA. Por otra parte, Microsoft y OpenAI anunciaron el “fondo de resiliencia social” de 2 millones de dólares para invertir en “promover la educación y la alfabetización digital en IA entre los votantes” de todo el mundo.
Las empresas destacaron una especial preocupación por aquellas “comunidades vulnerables” que pueden ser más susceptibles a verse influenciadas por contenido engañoso generado a partir de IA, ya sea a través de imágenes, videos o audios falsos de figuras políticas. Específicamente se habló de apoyar a organizaciones de adultos mayores con la finalidad de que no se vean tan impactadas por el contenido de IA y mejoren su comprensión de este tipo de recursos. “El lanzamiento del fondo es sólo un paso para abordar los desafíos y necesidades en el espacio educativo y de alfabetización”, comentó la vicepresidenta corporativa de tecnología y responsabilidad de Microsoft, Teresa Hutson. Las medidas se lanzan en medio de una creciente presión por parte de los organismos reguladores por dar cuenta del contenido que generan los productos de Inteligencia Artificial ante la posibilidad de producir material engañoso o malicioso.