Diogo Cortiz comenta sobre los peligros de la inteligencia artificial en las democracias
Google exigirá que los anuncios políticos que utilicen inteligencia artificial adviertan que las imágenes o los sonidos han sido alterados.
La regla se aplicará a los anuncios políticos en YouTube u otras plataformas comerciales. La advertencia debe estar en un lugar fácil de ver en la pantalla. Si no se respeta la norma, el anuncio será eliminado.
Google no prohibirá por completo la inteligencia artificial en la publicidad política. La inteligencia artificial se puede utilizar para editar imágenes, corregir colores de vídeo, defectos, cambios de fondo, etc.
Si el uso de inteligencia artificial no es relevante para el mensaje, Google no prohibirá su uso.
La nueva norma entrará en vigor en noviembre.
El próximo año se celebrarán elecciones en Estados Unidos, India, Sudáfrica, la Unión Europea y otras regiones donde Google ya cuenta con un proceso de verificación para los anunciantes electorales.
Las imágenes, vídeos o archivos de audio falsos no son nada nuevo en la publicidad política, pero las herramientas de inteligencia artificial generativa están haciendo que estas falsificaciones sean más fáciles y realistas.
Algunas campañas presidenciales de 2024, incluida la del gobernador republicano de Florida, Ron DeSantis, ya están utilizando esta tecnología.
En abril, el Comité Nacional Republicano publicó un anuncio íntegramente generado por IA que mostraba una versión de cómo sería el futuro de Estados Unidos si el presidente Joe Biden fuera reelegido. Usó fotografías falsas pero realistas que mostraban tiendas cerradas, patrullas militares blindadas en las calles y oleadas de inmigrantes sembrando el pánico.
En junio, la campaña de DeSantis compartió un anuncio contra Donald Trump, que utilizó imágenes generadas por inteligencia artificial del expresidente abrazando a Anthony Fauci, el líder de la respuesta estadounidense a la pandemia, y una persona criticada por la derecha del país.
Regulaciones estatales
El mes pasado, la Comisión Federal Electoral inició un proceso para regular los deepfakes generados por inteligencia artificial (es decir, imágenes realistas falsas) en anuncios políticos antes de las elecciones de 2024. Estos deepfakes pueden imitar la voz y la imagen de los políticos o, en otras palabras, pueden imitar la voz y la imagen de los políticos. Haz un vídeo realista que incluya algo que el propio político nunca dijo.
La senadora demócrata Amy Klobuchar dijo en un comunicado que el anuncio de Google era un paso en la dirección correcta, pero «no podemos confiar únicamente en compromisos voluntarios».
Varios estados también han discutido o aprobado leyes relacionadas con la tecnología deepfake.
Esta medida de Google podría llevar a otras empresas a adoptar políticas similares. Facebook e Instagram, metacontrolados, no tienen reglas específicas para los anuncios políticos generados por IA, pero ya restringen el audio y las imágenes «falsificados, manipulados o transformados» utilizados para desinformar. TikTok no permite ninguna publicidad política. La red social X, anteriormente conocida como Twitter, no respondió de inmediato a una solicitud de comentarios enviada por correo electrónico.
«Explorador apasionado. Aficionado al alcohol. Fanático de Twitter. Webaholic galardonado. Aficionado a la comida. Geek de la cultura pop. Organizador».