inoticia

Noticias De Actualidad
AI presenta un peligro político para 2024 con la amenaza de engañar a los votantes: “No estamos preparados para esto”

WASHINGTON (AP) — Los ingenieros informáticos y los politólogos inclinados por la tecnología han advertido durante años que las herramientas de inteligencia artificial baratas y potentes pronto permitirían que cualquiera creara imágenes, videos y audios falsos que fueran lo suficientemente realistas como para engañar a los votantes y tal vez influir en una elección.

Las imágenes sintéticas que surgieron a menudo eran toscas.poco convincente y costoso de producir, especialmente cuando otros tipos de información errónea eran tan económicos y fáciles de difundir en las redes sociales. La amenaza que representan la IA y los llamados deepfakes siempre parecía estar a uno o dos años de distancia.

No más.

Las sofisticadas herramientas generativas de IA ahora pueden crear voces humanas clonadas e imágenes hiperrealistas, videos y audio en segundos, a un costo mínimo. Cuando se conecta a poderosos algoritmos de redes sociales, este contenido falso y creado digitalmente puede propagarse lejos y rápido y dirigirse a audiencias muy específicas, lo que podría llevar los trucos sucios de la campaña a un nuevo nivel.

Las implicaciones para las campañas y elecciones de 2024 son tan grandes como preocupantes: la IA generativa no solo puede producir rápidamente correos electrónicos, textos o videos de campaña específicos, sino que también podría usarse para engañar a los votantes.hacerse pasar por candidatos y socavar las elecciones en una escala y a una velocidad nunca vistas.

“No estamos preparados para esto”, advirtió AJ Nash, vicepresidente de inteligencia de la firma de ciberseguridad ZeroFox. ”Para mí, el gran salto adelante son las capacidades de audio y video que han surgido. Cuando puedas hacer eso a gran escala y distribuirlo en plataformas sociales, bueno, tendrá un gran impacto”.

expertos en IA puede enumerar rápidamente una serie de escenarios alarmantes en los que se utiliza la IA generativa para crear medios sintéticos con el fin de confundir a los votantes, calumniar a un candidato o incluso incitar a la violencia.

Aquí hay algunos: Mensajes automáticos de llamadas automáticas, en la voz de un candidato, que instruyen a los votantes a emitir su voto en la fecha equivocada; grabaciones de audio de un candidato que supuestamente confiesa un delito o expresa opiniones racistas; imágenes de video que muestran a alguien dando un discurso o una entrevista nunca dieron. Imágenes falsas diseñadas para parecerse a informes de noticias locales, afirmando falsamente que un candidato abandonó la carrera.

“¿Qué sucede si Elon Musk lo llama personalmente y le dice que vote por cierto candidato?” dijo Oren Etzioni, el CEO fundador del Instituto Allen para la IA, quien renunció el año pasado para iniciar la organización sin fines de lucro AI2. “Mucha gente escucharía. Pero no es él.

El expresidente Donald Trump, que se postula para 2024, ha compartido contenido generado por IA con sus seguidores en las redes sociales. Un video manipulado del presentador de CNN Anderson Cooper que Trump compartió en su plataforma Truth Social el viernes, que distorsionó la reacción de Cooper al ayuntamiento de CNN. la semana pasada con Trumpse creó con una herramienta de clonación de voz de IA.

Un anuncio de campaña distópico publicado el mes pasado por el Comité Nacional Republicano ofrece otro vistazo de este futuro manipulado digitalmente. El anuncio en línea, que apareció después de que el presidente Joe Biden anunciara su campaña de reelección.y comienza con una imagen extraña y ligeramente distorsionada de Biden y el texto “¿Qué pasaría si el presidente más débil que hemos tenido fuera reelegido?”

A continuación se muestra una serie de imágenes generadas por IA: Taiwán bajo ataque; tapiaron escaparates en los Estados Unidos mientras la economía se desmorona; soldados y vehículos militares blindados patrullan las calles locales mientras criminales tatuados y oleadas de inmigrantes crean pánico.

“Una mirada generada por IA sobre el posible futuro del país si Joe Biden es reelegido en 2024”, dice la descripción del anuncio del RNC.

El RNC reconoció su uso de IA, pero otros, incluidas campañas políticas nefastas y adversarios extranjeros, no lo harán, dijo Petko Stoyanov, director global de tecnología de Forcepoint, una empresa de seguridad cibernética con sede en Austin, Texas. Stoyanov predijo que los grupos que buscan entrometerse en la democracia estadounidense emplearán la inteligencia artificial y los medios sintéticos como una forma de erosionar la confianza.

“¿Qué sucede si una entidad internacional, un ciberdelincuente o un estado nación, se hace pasar por alguien. ¿Cuál es el impacto? ¿Tenemos algun recurso?” dijo Stoyanov. “Vamos a ver mucha más información errónea de fuentes internacionales”.

La desinformación política generada por IA ya se ha vuelto viral en línea antes de las elecciones de 2024, a partir de un video manipulado de Biden parecer dar un discurso atacando a las personas transgénero a imágenes de niños generadas por IA supuestamente aprendiendo satanismo en las bibliotecas.

Imágenes de IA que parecen mostrar la foto policial de Trump también engañó a algunos usuarios de las redes sociales a pesar de que el expresidente no tomó una cuando fue fichado y procesado en un tribunal penal de Manhattan por falsificar registros comerciales. Otras imágenes generadas por IA mostraron a Trump resistiéndose al arrestoaunque su creador se apresuró a reconocer su origen.

La representante Yvette Clarke, DN.Y., presentó en la Cámara una legislación que requeriría que los candidatos etiquetaran los anuncios de campaña creados con IA, quien también patrocinó una legislación que requeriría que cualquier persona que cree imágenes sintéticas agregue una marca de agua que indique el hecho.

Algunos estados han ofrecido sus propias propuestas por abordar las inquietudes sobre las falsificaciones profundas.

Clarke dijo que su mayor temor es que la IA generativa pueda usarse antes de las elecciones de 2024 para crear un video o audio que incite a la violencia y ponga a los estadounidenses en contra de los demás.

“Es importante que nos mantengamos al día con la tecnología”, dijo Clarke a The Associated Press. “Tenemos que instalar algunas barandillas. La gente puede ser engañada, y solo toma una fracción de segundo. Las personas están ocupadas con sus vidas y no tienen tiempo para verificar cada pieza de información. La IA como arma, en una temporada política, podría ser extremadamente disruptiva”.

A principios de este mes, una asociación comercial de consultores políticos en Washington condenó el uso de deepfakes. en publicidad política, llamándolos “un engaño” que “no tiene cabida en campañas legítimas y éticas”.

Otras formas de inteligencia artificial han sido durante años una característica de las campañas políticas, utilizando datos y algoritmos para automatizar tareas como dirigirse a los votantes en las redes sociales o rastrear a los donantes. Los estrategas de campaña y los empresarios tecnológicos esperan que las innovaciones más recientes también ofrezcan algunos aspectos positivos en 2024.

Mike Nellis, CEO de la agencia digital progresista Authentic, dijo que usa ChatGPT “todos los días” y alienta a su personal a usarla también, siempre que cualquier contenido redactado con la herramienta sea revisado por ojos humanos después.

El proyecto más reciente de Nellis, en asociación con Higher Ground Labs, es una herramienta de inteligencia artificial llamada Quiller. Escribirá, enviará y evaluará la efectividad de los correos electrónicos de recaudación de fondos, todas tareas típicamente tediosas en las campañas.

“La idea es que cada estratega demócrata, cada candidato demócrata tendrá un copiloto en el bolsillo”, dijo.

___

Swenson informó desde Nueva York.

___

The Associated Press recibe apoyo de varias fundaciones privadas para mejorar su cobertura explicativa de las elecciones y la democracia. Vea más sobre la iniciativa de democracia de AP aquí. El AP es el único responsable de todo el contenido.

___