inoticia

Noticias De Actualidad
Necesitamos dejar de enloquecernos por las falsificaciones profundas de IA

El las fotos son evocadoras. El expresidente Donald Trump grita, se retuerce y pelea mientras la policía lo detiene. Un enjambre de oficiales lo rodea. Su esposa más joven y Hijo mayor gritar en protesta. Él es en una niebla—¿Es eso spray de pimienta?—mientras corre por el pavimento.

Las fotos también están… apagadas. El spray de pimienta emerge, ex nihilo, desde detrás de la cabeza de Trump y frente a su pecho. Detrás de él, un letrero de la tienda dice “WORTRKE”. En una imagenel brazo de un policía está fuera de su manga vacía. En otro, Trump tiene solo medio torso. Las insignias de los oficiales son todo galimatías. “PIULIECE” lee un sombrero de policía detrás de una grotesca criatura parecida a Melania Trump de Uncanny Valley.

Todo esto, ya ves, es falso. Las fotos no son fotos en absoluto, sino deepfakes, el trabajo de la IA generativa. Son una irrealidad digital creada por Midjourney, un programa similar al más conocido generador de imágenes DALL-E 2 y al chatbot GPT-4. Y, para la política estadounidense, son un presagio de lo que vendrá.

Eso no es necesariamente tan aterrador como puede parecer. Habrá un período de ajuste, y los próximos años serán excepcionalmente vulnerables a la confusión y manipulación vinculadas a la IA en el discurso político en línea. Pero a largo plazo, mientras que la IA generativa casi con seguridad no mejorará nuestra política, probablemente no empeore las cosas de manera significativa, porque los humanos ya las han hecho completamente malas.

El riesgo a corto plazo es doble. Parte de esto se trata de un solo hombre: Trump. Su comportamiento es singularmente extravagante; tiene un largo historial de engaño probado en asuntos grandes y pequeños; genera una respuesta emotiva inmediata en decenas de millones de estadounidenses; y es muy difícil de ignorar.

Esa combinación hace que Trump sea un objetivo inigualable para plausibles falsificaciones profundas. Tome estas imágenes de arresto: no resisten un escrutinio serio de un segundo. Las palabras confusas son un regalo, incluso si de alguna manera no notas las poses de Gumby y los rostros no del todo humanos.

Pero el concepto en sí no es descartable de inmediato, ¿verdad? Según los informes, Trump está obsesionado con la posibilidad de hacer un paseo criminal con esposas, y si quiere hacer una escena, algunas expresiones angustiadas de Your Favourite Martyr serían un buen comienzo. El mismo concepto no y no poder funcionan también para cualquier otra figura de prominencia remotamente similar, incluidos los propios imitadores de Trump y los posibles sucesores en el Partido Republicano.

El otro riesgo a corto plazo es generacional. La astucia de los “nativos digitales” suele exagerarse (muchos jóvenes creen muchas tonterías en Internet), pero las investigaciones sugieren que la edad es un factor real en la difusión de información errónea en línea. De hecho, según un estudio de 2019 publicado en Avances de la cienciaes uno de los factores más importantes.

Durante las elecciones de 2016, “[m]Más de uno de cada 10, o el 11,3 por ciento, de las personas mayores de 65 años compartieron enlaces [on Facebook] de un sitio de noticias falsas, mientras que solo el 3 por ciento de los que tenían entre 18 y 29 años lo hicieron”, escribieron los investigadores en el poste de washington.

“Estas brechas entre viejos y jóvenes se mantienen incluso después de controlar el partidismo y la ideología”, encontraron. “Ninguna otra característica demográfica que examinamos (género, ingresos, educación) tenía una relación consistente con la probabilidad de compartir noticias falsas”. (Dicho sea de paso, aunque la desconfianza institucional y el quebrantamiento también son factores relevantes, los republicanos son un poco mayores que los demócratas, y los estudios han encontrado una tasa más alta de intercambio de información errónea en la derecha).

Esta diferencia no es algo inherente a las generaciones mayores o jóvenes. Es solo una cuestión de familiaridad con la cultura de Internet: un accidente de nacimiento. Cuanto más tiempo esté con nosotros la IA generativa, incluso a medida que la tecnología mejore, más desarrollaremos esa familiaridad con su producción. Nos acostumbraremos más a notar signos de engaño, a darnos cuenta inconscientemente de que una parte del contenido es de alguna manera artificial y poco confiable.

O, al menos, desarrollaremos esos instintos de escepticismo si desear a ellos. Muchos no lo harán.

Irónicamente, esa desafortunada realidad es la razón por la cual no comparto los temores expresados ​​en un New York Times informe esta semana sobre la perspectiva de una IA políticamente sesgada. El riesgo de los “chatbots” partidistas [making] ‘burbujas de información con esteroides’ porque la gente podría llegar a confiar en ellos como las ‘últimas fuentes de la verdad’” me parece exagerado.

“La gente ya es crédula y tribalista. La información errónea puede incluso propagarse por accidente. No necesita inteligencia, y mucho menos inteligencia artificial, para ponerse en marcha.”

Nuestro entorno de información política ya es de muy alta cantidad y variante en calidad. La generación de contenido de IA reducirá marginalmente la barrera del esfuerzo que se necesita para agregar mentiras a esa mezcla, pero no mucho. La gente ya es crédula y tribalista. La información errónea puede incluso propagarse por accidente. No necesita inteligencia, y mucho menos inteligencia artificial, para ponerse en marcha.

Además, la aceptación de contenido inventado no suele depender de lo bien escrito o bien diseñado que esté. Los memes pixelados de los Minions que propagan “hechos” basura en Facebook no son exactamente un producto de gran esfuerzo. En todo caso, podría ser más fácil darse cuenta de que te engañó una imagen falsa del arresto de Trump que cualquier mentira o verdad a medias que digan esos memes. Después de todo, Trump pronto aparecerá en público ileso del arresto violento que nunca sucedió. Se compartirán, se creerán y nunca se desacreditarán incontables millones de memes anticuados.

Así que no es que los chatbots no sean sesgados y los generadores de imágenes no se utilicen para engañar. Lo harán, en ambos aspectos. Pero no necesitamos IA para mentirnos unos a otros. No necesitamos que los chatbots politizados tengan burbujas de información con esteroides. Y cualquiera que piense que un chatbot es la última fuente de verdad no habría sido un pensador político perspicaz ni siquiera en la era predigital.