LANSING, Michigan (AP) – Michigan se une a un esfuerzo para frenar los usos engañosos de la inteligencia artificial y los medios manipulados a través de políticas a nivel estatal mientras el Congreso y la Comisión Federal de Elecciones continúan debatiendo regulaciones más amplias antes de las elecciones de 2024.
Se requerirá que las campañas a nivel estatal y federal digan claramente qué anuncios políticos que se transmiten en Michigan fueron creados utilizando inteligencia artificial según la legislación que se espera sea firmada en los próximos días por la gobernadora demócrata Gretchen Whitmer. También prohibiría el uso de deepfakes generados por IA dentro de los 90 días posteriores a una elección sin una divulgación separada que identifique a los medios como manipulados.
Los deepfakes son medios falsos que tergiversan a alguien diciendo que hace o dice algo que no hizo. Se crean utilizando inteligencia artificial generativa, un tipo de IA que puede crear imágenes, vídeos o clips de audio convincentes en segundos.
Existe una creciente preocupación de que la IA generativa se utilice en la carrera presidencial de 2024 para engañar a los votantes , hacerse pasar por candidatos y socavar las elecciones a una escala y a una velocidad aún no vistas.
Los candidatos y comités en la carrera ya están experimentando con la tecnología que avanza rápidamente, que puede crear imágenes , videos y clips de audio falsos convincentes en segundos y que en los últimos años se ha vuelto más barata, más rápida y más fácil de usar para el público.
En abril, el Comité Nacional Republicano publicó un anuncio íntegramente generado por IA destinado a mostrar el futuro de Estados Unidos si el presidente Joe Biden es reelegido. Revelando en letra pequeña que fue hecho con IA, presentaba fotografías falsas pero realistas que mostraban escaparates tapiados, patrullas militares blindadas en las calles y enormes aumentos de la inmigración que generaban pánico.
En julio, Never Back Down, un súper PAC que apoya al gobernador republicano de Florida, Ron DeSantis, utilizó una herramienta de clonación de voz de inteligencia artificial para imitar la voz del expresidente Donald Trump, haciendo que pareciera que narró una publicación en las redes sociales que hizo a pesar de nunca decir la declaración en voz alta. .
Los expertos dicen que estos son solo atisbos de lo que podría suceder si las campañas o los actores externos deciden utilizar deepfakes de IA de maneras más maliciosas.
Hasta ahora, estados como California, Minnesota , Texas y Washington han aprobado leyes que regulan los deepfakes en la publicidad política. Se han introducido leyes similares en Illinois, Kentucky, Nueva Jersey y Nueva York, según el grupo de defensa sin fines de lucro Public Citizen .
Según la legislación de Michigan, cualquier persona, comité u otra entidad que distribuya un anuncio de un candidato debería indicar claramente si utiliza IA generativa. La divulgación tendría que tener el mismo tamaño de fuente que la mayoría del texto en los anuncios impresos, y tendría que aparecer “durante al menos cuatro segundos en letras que sean tan grandes como la mayoría de cualquier texto” en los anuncios de televisión, según a un análisis legislativo de la Agencia Fiscal de la Cámara estatal.
Los deepfakes utilizados dentro de los 90 días posteriores a las elecciones requerirían un descargo de responsabilidad por separado que informe al espectador que el contenido está manipulado para representar un discurso o una conducta que no ocurrió. Si el medio es un video, la exención de responsabilidad deberá ser claramente visible y aparecer en todo el video.
Las campañas podrían enfrentar un delito menor punible con hasta 93 días de prisión, una multa de hasta $1,000 o ambas por la primera violación de las leyes propuestas. El fiscal general o el candidato perjudicado por los medios engañosos podrían solicitar reparación al tribunal de circuito correspondiente.
Los legisladores federales de ambos lados han enfatizado la importancia de legislar los deepfakes en la publicidad política y han celebrado reuniones para discutirlo, pero el Congreso aún no ha aprobado nada.
Un reciente proyecto de ley bipartidista del Senado, copatrocinado por la senadora demócrata Amy Klobuchar de Minnesota, el senador republicano Josh Hawley de Missouri y otros, prohibiría los deepfakes “materialmente engañosos” relacionados con candidatos federales, con excepciones para parodias y sátiras.
La Secretaria de Estado de Michigan, Jocelyn Benson, voló a Washington, DC a principios de noviembre para participar en un debate bipartidista sobre la IA y las elecciones y pidió a los senadores que aprobaran la Ley federal de IA engañosa de Klobuchar y Hawley. Benson dijo que también alentó a los senadores a regresar a casa y presionar a sus legisladores estatales para que aprueben una legislación similar que tenga sentido para sus estados.
La ley federal tiene una capacidad limitada para regular la IA a nivel estatal y local, dijo Benson en una entrevista, y agregó que los estados también necesitan fondos federales para abordar los desafíos que plantea la IA.
“Todo esto se haría realidad si el gobierno federal nos diera dinero para contratar a alguien que se encargara de la IA en nuestros estados y, de manera similar, educara a los votantes sobre cómo detectar deepfakes y qué hacer cuando los encuentres”, dijo Benson. “Eso resuelve muchos de los problemas. No podemos hacerlo solos”.
En agosto, la Comisión Federal Electoral dio un paso de procedimiento para regular potencialmente los deepfakes generados por IA en anuncios políticos bajo sus reglas existentes contra la “tergiversación fraudulenta”. Aunque la comisión celebró un período de comentarios públicos sobre la petición, presentada por Public Citizen, aún no ha tomado ninguna decisión.
Las empresas de redes sociales también han anunciado algunas pautas destinadas a mitigar la propagación de deepfakes dañinos. Meta, propietaria de Facebook e Instagram, anunció a principios de este mes que exigirá que los anuncios políticos que se publiquen en las plataformas revelen si fueron creados con inteligencia artificial. Google dio a conocer una política similar de etiquetado de IA en septiembre para los anuncios políticos que se reproducen en YouTube u otras plataformas de Google.
Swenson informó desde Nueva York. La escritora de Associated Press Christina A. Cassidy contribuyó desde Washington.
Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. Vea más sobre la iniciativa democrática de AP aquí . La AP es la única responsable de todo el contenido.
ALI SHENSON
Swenson informa sobre desinformación, desinformación y extremismo relacionados con las elecciones para The Associated Press.
(Foto AP/Alex Brandon, archivo)
POR JOEY CAPPELLETTI Y ALI SWENSON