OpenAI evitó la creación de 250,000 deepfakes previo a las elecciones de EU

Una de las principales preocupaciones alrededor de la tecnología de Inteligencia Artificial generativa es la desinformación y durante las elecciones de Estados Unidos, OpenAI rechazó más de 250,000 solicitudes para crear imágenes falsas, de alguno de los candidatos, en los días previos a las elecciones de la semana pasada. A través de una publicación en el blog oficial, la compañía dijo que los principales involucrados en la generación de deepfakes fueron Kamala Harris, Joe Biden, Donald Trump, el gobernador de Minnesota, Tom Walz, y el ahora vicepresidente electo, J.D. Vance. La empresa afirmó que no había encontrado ninguna evidencia de que algún producto generado por medio de sus herramientas alcanzara a convertirse en un contenido viral o que llegara a influir en el resultado de las elecciones de Estados Unidos.

Un problema persistente

La empresa también dijo que durante el año electoral colaboraron con la Asociación Nacional de Secretarios de Estado, para dirigir a las personas a sitios oficiales sobre cómo y dónde votar, además de recibir información que incentivaba a los usuarios a consultar más fuentes de noticias de algunos de sus socios, como Associated Press o Reuters. Sin embargo, este tipo de colaboraciones sólo existen en Estados Unidos, lo cual resulta preocupante, ya que ChatGPT se trata de una plataforma que opera a nivel mundial. En México, por ejemplo, no tiene una colaboración directa con el Instituto Nacional Electoral o alguna otra entidad, por lo que la herramienta recurre al sitio web del INE, comunicados oficiales e información de medios de comunicación “de alta credibilidad” para que los usuarios puedan obtener datos precisos y actualizados. Pero sin ahondar en más detalles. De acuerdo con datos de la empresa de aprendizaje automático, Clarity, la cantidad de deepfakes ha aumentado en un 900% año tras año y su objetivo era desestabilizar los procesos electorales de Estados Unidos. Según un informe publicado en octubre por OpenAI, la empresa había desbaratado “más de 20 operaciones y redes engañosas en todo el mundo que intentaron utilizar nuestros modelos” para artículos generados por IA, hasta publicaciones en redes sociales de cuentas falsas. Para los funcionarios de todo el mundo, la presencia de la IA generativa representa un potencial desinformativo preocupante, debido a que si bien han pasado por procesos de refinamiento, en muchas ocasiones los grandes modelos de lenguaje siguen mostrando información inexacta y poco fiable. A pesar de no estar de acuerdo con regulaciones como la de California, OpenAI ha respaldado la Ley para proteger las elecciones de la IA, un proyecto bipartidista en EU, que prohibiría la distribución de audio, imágenes o videos engañosos generados por IA relacionados con candidatos federales en la propaganda política. “No queremos que nuestra tecnología, ni ninguna tecnología de IA, se utilice para engañar a los votantes y creemos que esta legislación representa un paso importante para abordar este desafío en el contexto de la publicidad política”, afirma la empresa.

]]>

Entradas relacionadas

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *