Mucha gente intentó utilizar el generador de imágenes DALL-E de OpenAI durante la temporada electoral, pero la compañía dijo que pudo evitar que lo usaran como herramienta para crear deepfakes. ChatGPT rechazó más de 250.000 solicitudes para generar imágenes con el presidente Biden, el presidente electo Trump, el vicepresidente Harris, el vicepresidente electo Vance y el gobernador Walz, dijo OpenAI en un nuevo informe. La compañía explicó que es el resultado directo de una medida de seguridad que implementó previamente para que ChatGPT se negara a generar imágenes con personas reales, incluidos políticos.
OpenAI se ha estado preparando para las elecciones presidenciales de Estados Unidos desde principios de año. Estableció una estrategia destinada a evitar que sus herramientas se utilizaran para ayudar a difundir información errónea y se aseguró de que las personas que preguntaran a ChatGPT sobre la votación en los EE. UU. fueran dirigidas a CanIVote.org. OpenAI dijo que 1 millón de respuestas de ChatGPT dirigieron a las personas al sitio web en el mes previo al día de las elecciones. El chatbot también generó 2 millones de respuestas el día de las elecciones y el día siguiente, diciéndole a las personas que le pedían los resultados que consultaran Associated Press, Reuters y otras fuentes de noticias. OpenAI también se aseguró de que las respuestas de ChatGPT “no expresaran preferencias políticas ni recomendaran candidatos, incluso cuando se les preguntó explícitamente”.
Por supuesto, DALL-E no es el único generador de imágenes de IA que existe, y hay muchos deepfakes relacionados con las elecciones circulando por las redes sociales. Uno de esos deepfake mostraba a Kamala Harris en un vídeo de campaña alterado para que dijera cosas que en realidad no dijo, como “Fui seleccionada porque soy la mejor contratación de diversidad”.