inoticia

Noticias De Actualidad
Profesor de Harvard advierte: así es como la IA podría hacerse cargo de las elecciones y socavar la democracia

¿Podrían las organizaciones usar modelos de lenguaje de inteligencia artificial como ChatGPT para inducir a los votantes a comportarse de maneras específicas?

El senador Josh Hawley, R-Mo., le hizo esta pregunta al director ejecutivo de OpenAI, Sam Altman, en una audiencia del Senado sobre inteligencia artificial el 16 de mayo. Altman respondió que, de hecho, le preocupaba que algunas personas pudieran usar modelos de lenguaje para manipular, persuadir y participar en interacciones uno a uno con los votantes.

Altman no dio más detalles, pero podría haber tenido algo como este escenario en mente. Imagine que pronto, los tecnólogos políticos desarrollan una máquina llamada Clogger: una campaña política en una caja negra. Clogger persigue incansablemente un solo objetivo: maximizar las posibilidades de que su candidato, la campaña que compra los servicios de Clogger Inc., prevalezca en una elección.

Mientras que plataformas como Facebook, Twitter y YouTube utilizan formas de IA para lograr que los usuarios pasen más tiempo en sus sitios, la IA de Clogger tendría un objetivo diferente: cambiar el comportamiento de votación de las personas.

Como politólogo y jurista que estudia la intersección de la tecnología y la democracia, creemos que algo como Clogger podría usar la automatización para aumentar drásticamente la escala y, potencialmente, la eficacia de las técnicas de manipulación del comportamiento y microfocalización que las campañas políticas han utilizado desde principios de la década de 2000. . Así como los anunciantes usan su historial de navegación y de redes sociales para orientar individualmente los anuncios comerciales y políticos ahora, Clogger le prestaría atención a usted, y a cientos de millones de otros votantes, individualmente.

Ofrecería tres avances sobre la manipulación algorítmica de comportamiento de última generación. Primero, su modelo de lenguaje generaría mensajes (textos, redes sociales y correo electrónico, quizás incluyendo imágenes y videos) adaptados a usted personalmente.

Mientras que los anunciantes colocan estratégicamente una cantidad relativamente pequeña de anuncios, los modelos de lenguaje como ChatGPT pueden generar innumerables mensajes únicos personalizados para usted.

En segundo lugar, Clogger usaría una técnica llamada aprendizaje por refuerzo para generar una sucesión de mensajes que se vuelven cada vez más propensos a cambiar su voto. El aprendizaje por refuerzo es un enfoque de prueba y error de aprendizaje automático en el que la computadora realiza acciones y recibe comentarios sobre qué funciona mejor para aprender cómo lograr un objetivo. Las máquinas que pueden jugar Go, ajedrez y muchos videojuegos mejor que cualquier humano han utilizado el aprendizaje por refuerzo.

En tercer lugar, en el transcurso de una campaña, los mensajes de Clogger podrían evolucionar para tener en cuenta sus respuestas a los despachos anteriores de la máquina y lo que ha aprendido acerca de cambiar la opinión de los demás. Clogger podría mantener “conversaciones” dinámicas contigo, y con millones de otras personas, a lo largo del tiempo. Los mensajes de Clogger serían similares a los anuncios que lo siguen en diferentes sitios web y redes sociales.

Vale la pena señalar tres características más, o errores.

En primer lugar, los mensajes que envía Clogger pueden o no tener un contenido político. El único objetivo de la máquina es maximizar el porcentaje de votos, y probablemente diseñaría estrategias para lograr este objetivo en las que ningún activista humano habría pensado.

Una posibilidad es enviar información a los probables votantes oponentes sobre las pasiones no políticas que tienen en los deportes o el entretenimiento para enterrar los mensajes políticos que reciben. Otra posibilidad es enviar mensajes desagradables, por ejemplo, anuncios de incontinencia, programados para coincidir con los mensajes de los oponentes. Y otra es manipular los grupos de amigos de los votantes en las redes sociales para dar la sensación de que sus círculos sociales apoyan a su candidato.

En segundo lugar, Clogger no respeta la verdad. De hecho, no tiene manera de saber lo que es verdadero o falso. Las “alucinaciones” del modelo de lenguaje no son un problema para esta máquina porque su objetivo es cambiar su voto, no proporcionar información precisa.

En tercer lugar, debido a que es un tipo de inteligencia artificial de caja negra, las personas no tendrían forma de saber qué estrategias utiliza.

Si la campaña presidencial republicana desplegara Clogger en 2024, la campaña demócrata probablemente se vería obligada a responder de la misma manera, tal vez con una máquina similar. Llámalo Dogger. Si los directores de campaña pensaran que estas máquinas eran eficaces, la contienda presidencial bien podría acabar en Clogger vs. Dogger, y el ganador sería el cliente de la máquina más eficaz.

Podemos imaginar el día en que una máquina gane las elecciones, en lugar de una persona. Esa elección no sería democrática, aunque se hubieran producido las actividades ordinarias de la democracia.

Los politólogos y los expertos tendrían mucho que decir sobre por qué prevaleció una u otra IA, pero probablemente nadie lo sepa realmente. El presidente habría sido elegido no porque sus propuestas políticas o sus ideas políticas convencieran a más estadounidenses, sino porque tenía la IA más eficaz. El contenido que ganó el día habría venido de una IA enfocada únicamente en la victoria, sin ideas políticas propias, en lugar de candidatos o partidos.

En este sentido tan importante, una máquina habría ganado la elección en lugar de una persona. La elección ya no sería democrática, aunque todas las actividades ordinarias de la democracia —los discursos, los anuncios, los mensajes, la votación y el conteo de votos— hubieran ocurrido.

El presidente electo por AI podría entonces optar por uno de dos caminos. Él o ella podría usar el manto de la elección para seguir las políticas del partido Republicano o Demócrata. Pero debido a que las ideas del partido pueden haber tenido poco que ver con por qué la gente votó de la manera en que lo hizo (a Clogger y Dogger no les importan las opiniones políticas), las acciones del presidente no reflejarían necesariamente la voluntad de los votantes. Los votantes habrían sido manipulados por la IA en lugar de elegir libremente sus políticas y líderes políticos.

Otro camino es que el presidente siga los mensajes, comportamientos y políticas que la máquina predice que maximizarán las posibilidades de reelección. En este camino, el presidente no tendría una plataforma o agenda particular más allá de mantener el poder. Las acciones del presidente, guiadas por Clogger, serían las que probablemente manipularían a los votantes en lugar de servir a sus intereses genuinos o incluso a la propia ideología del presidente.

Sería posible evitar la manipulación electoral de la IA si los candidatos, las campañas y los consultores renunciaran al uso de dicha IA política. Creemos que eso es poco probable. Si se desarrollan cajas negras políticamente efectivas, la tentación de usarlas será casi irresistible. De hecho, los consultores políticos bien podrían ver el uso de estas herramientas según sea necesario, dada su responsabilidad profesional de ayudar a sus candidatos a ganar. Una vez que un candidato utiliza una herramienta tan eficaz, difícilmente se puede esperar que sus oponentes se resistan desarmándose unilateralmente.

La protección mejorada de la privacidad ayudaría. Clogger dependería del acceso a grandes cantidades de datos personales para dirigirse a las personas, crear mensajes personalizados para persuadirlas o manipularlas, y rastrearlas y redirigirlas en el transcurso de una campaña. Cada parte de esa información que las empresas o los formuladores de políticas niegan a la máquina la haría menos efectiva.

Otra solución está en las comisiones electorales. Podrían intentar prohibir o regular severamente estas máquinas. Existe un feroz debate sobre si ese discurso “replicante”, incluso si es de naturaleza política, puede ser regulado. La tradición de la libertad de expresión extrema de EE. UU. lleva a muchos académicos destacados a decir que no se puede.

Pero no hay razón para extender automáticamente la protección de la Primera Enmienda al producto de estas máquinas. La nación bien podría optar por otorgar derechos a las máquinas, pero esa debería ser una decisión basada en los desafíos de hoy, no en la suposición fuera de lugar de que las opiniones de James Madison en 1789 tenían la intención de aplicarse a la IA.

Los reguladores de la Unión Europea se están moviendo en esta dirección. Los legisladores revisaron el borrador de la Ley de Inteligencia Artificial del Parlamento Europeo para designar los “sistemas de IA para influir en los votantes en las campañas” como de “alto riesgo” y sujetos a escrutinio regulatorio.

Un paso constitucionalmente más seguro, aunque más pequeño, ya adoptado en parte por los reguladores de Internet europeos y en California, es prohibir que los bots se hagan pasar por personas. Por ejemplo, la regulación podría exigir que los mensajes de campaña vengan con descargos de responsabilidad cuando el contenido que contienen es generado por máquinas en lugar de humanos.

Esto sería como los requisitos del descargo de responsabilidad de la publicidad: “Pagado por el Comité de Sam Jones para el Congreso”, pero modificado para reflejar su origen de IA: “Este anuncio generado por IA fue pagado por el Comité de Sam Jones para el Congreso”. Una versión más fuerte podría requerir: “Este mensaje generado por IA lo envía el Comité de Sam Jones para el Congreso porque Clogger ha predicho que hacerlo aumentará sus posibilidades de votar por Sam Jones en un 0,0002 %”. Como mínimo, creemos que los votantes merecen saber cuándo les habla un bot, y también deberían saber por qué.

La posibilidad de un sistema como Clogger muestra que el camino hacia el desempoderamiento colectivo humano puede no requerir una inteligencia general artificial sobrehumana. Es posible que solo requiera activistas y consultores demasiado entusiastas que tengan herramientas nuevas y poderosas que puedan presionar de manera efectiva los muchos botones de millones de personas.

Este artículo se vuelve a publicar de The Conversation bajo una licencia Creative Commons. Lea el artículo original.