NUEVA YORK (AP) — Un video manipulado que imita la voz de la vicepresidenta Kamala Harris diciendo cosas que no dijo está generando inquietudes sobre el poder de la inteligencia artificial para engañar a unos tres meses de las elecciones.
El video ganó atención después de que el multimillonario tecnológico Elon Musk lo compartiera en su plataforma de redes sociales X el viernes por la noche sin señalar explícitamente que originalmente se lanzó como parodia.
El video utiliza muchas de las mismas imágenes que un anuncio real que Harris, la probable candidata presidencial demócrata, lanzó la semana pasada para lanzar su campaña, pero el video reemplaza el audio de la voz en off por otra voz que imita convincentemente a Harris.
“Yo, Kamala Harris, soy su candidata demócrata a la presidencia porque Joe Biden finalmente expuso su senilidad en el debate”, dice la voz en el video. Afirma que Harris es una “contratación por diversidad” porque es mujer y una persona de color, y dice que no sabe “ni lo más mínimo sobre cómo dirigir el país”. El video conserva la marca “Harris para presidente”. También agrega algunos clips pasados auténticos de Harris.
Mia Ehrenberg, portavoz de la campaña de Harris, dijo en un correo electrónico a The Associated Press: “Creemos que el pueblo estadounidense quiere la verdadera libertad, oportunidad y seguridad que ofrece la vicepresidenta Harris; no las mentiras falsas y manipuladas de Elon Musk y Donald Trump”.
El video, ampliamente compartido, es un ejemplo de cómo las imágenes, videos o clips de audio generados por IA que parecen reales se han utilizado tanto para burlarse como para engañar sobre política a medida que Estados Unidos se acerca a las elecciones presidenciales. Expone cómo, si bien las herramientas de IA de alta calidad se han vuelto mucho más accesibles , hasta el momento sigue habiendo una falta de acción federal significativa para regular su uso, dejando las reglas que guían la IA en la política en gran medida en manos de los estados y las plataformas de redes sociales.
El vídeo también plantea preguntas sobre cuál es la mejor manera de manejar el contenido que difumina los límites de lo que se considera un uso apropiado de la IA, en particular si entra en la categoría de sátira.
El usuario original que publicó el vídeo, un youtuber conocido como Mr Reagan, ha revelado tanto en YouTube como en X que el vídeo manipulado es una parodia. Pero la publicación de Musk, que ha sido vista más de 123 millones de veces, según la plataforma, solo incluye el texto “Esto es increíble” con un emoji riendo.
Los usuarios de X que estén familiarizados con la plataforma pueden saber que deben hacer clic en la publicación de Musk para acceder a la publicación del usuario original, donde se puede ver la divulgación. El pie de foto de Musk no les indica que lo hagan.
Si bien algunos participantes de la función de “nota comunitaria” de X para agregar contexto a las publicaciones sugirieron etiquetar la publicación de Musk, hasta el domingo por la tarde no se había agregado tal etiqueta. Algunos usuarios en línea cuestionaron si su publicación podría violar las políticas de X , que establecen que los usuarios “no pueden compartir contenido multimedia sintético, manipulado o fuera de contexto que pueda engañar o confundir a las personas y provocar daños”.
La política tiene una excepción para los memes y la sátira siempre que no causen “confusión significativa sobre la autenticidad de los medios”.
Musk respaldó al expresidente Donald Trump, el candidato republicano, a principios de este mes. Ni Reagan ni Musk respondieron de inmediato a las solicitudes de comentarios enviadas por correo electrónico el domingo.
Dos expertos que se especializan en medios generados por IA revisaron el audio del anuncio falso y confirmaron que gran parte del mismo se generó utilizando tecnología de IA.
Uno de ellos, Hany Farid, experto en análisis forense digital de la Universidad de California en Berkeley, dijo que el vídeo muestra el poder de la IA generativa y los deepfakes.
“La voz generada por IA es muy buena”, dijo en un correo electrónico. “Aunque la mayoría de la gente no creerá que es la voz de la vicepresidenta Harris, el video es mucho más poderoso cuando las palabras están en su voz”.
Dijo que las empresas de IA generativa que ponen a disposición del público herramientas de clonación de voz y otras herramientas de IA deberían hacer más para garantizar que sus servicios no se utilicen de formas que puedan dañar a las personas o a la democracia.
Rob Weissman, copresidente del grupo de defensa Public Citizen, no estuvo de acuerdo con Farid y dijo que pensaba que muchas personas serían engañadas por el video.
“No creo que sea una broma”, dijo Weissman en una entrevista. “Estoy segura de que la mayoría de la gente que lo ve no asume que es una broma. La calidad no es muy buena, pero es lo suficientemente buena. Y precisamente porque alimenta temas preexistentes que han circulado en torno a ella, la mayoría de la gente creerá que es real”.
Weissman, cuya organización ha abogado por que el Congreso, las agencias federales y los estados regulen la IA generativa, dijo que el video es "el tipo de cosas sobre las que hemos estado advirtiendo".
Otros deepfakes generados por inteligencia artificial, tanto en Estados Unidos como en otros lugares, habrían intentado influir en los votantes con desinformación, humor o ambos. En Eslovaquia, en 2023, unos clips de audio falsos imitaban a un candidato que hablaba de sus planes de manipular una elección y aumentar el precio de la cerveza días antes de la votación. En Luisiana, en 2022, un anuncio satírico de un comité de acción política superpuso el rostro de un candidato a la alcaldía de Luisiana a un actor que lo retrataba como un estudiante de secundaria de bajo rendimiento.
El Congreso aún no ha aprobado leyes sobre la IA en la política y las agencias federales solo han tomado medidas limitadas, dejando la mayor parte de la regulación estadounidense existente en manos de los estados. Más de un tercio de los estados han creado sus propias leyes que regulan el uso de la IA en campañas y elecciones, según la Conferencia Nacional de Legislaturas Estatales.
Además de X, otras empresas de redes sociales también han creado políticas sobre los contenidos sintéticos y manipulados que se comparten en sus plataformas. Los usuarios de la plataforma de vídeos YouTube, por ejemplo, deben revelar si han utilizado inteligencia artificial generativa para crear vídeos o se enfrentarán a una suspensión.
La Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura informativa sobre las elecciones y la democracia. Vea más sobre la iniciativa de AP en favor de la democracia aquí . La AP es la única responsable de todo el contenido.
Ali Swenson
Swenson informa sobre desinformación, información errónea y extremismo relacionados con las elecciones para The Associated Press.