inoticia

Noticias De Actualidad
El ejecutivo dice en la primera reunión del consejo de la ONU que no se puede confiar en la gran tecnología para garantizar la seguridad de la IA

NACIONES UNIDAS (AP) — No se puede confiar en el puñado de grandes empresas tecnológicas que lideran la carrera para comercializar la IA para garantizar la seguridad de los sistemas que aún no entendemos y que son propensos a un “comportamiento caótico o impredecible”, una inteligencia artificial ejecutivo de la compañía dijo el martes en la primera reunión del Consejo de Seguridad de la ONU sobre las amenazas de AI a la paz mundial.

Jack Clark, cofundador de la empresa de inteligencia artificial Anthropic, dijo que esa es la razón el mundo debe unirse para evitar el mal uso de la tecnología.

Clark, quien dice que su compañía hace todo lo posible para entrenar a su robot de chat de IA para enfatizar la seguridad y la precaución, dijo que las cosas más útiles que se pueden hacer ahora “son trabajar en el desarrollo de formas de probar las capacidades, los usos indebidos y las posibles fallas de seguridad de estos sistemas. .” Clark dejó OpenAI, creador del chatbot ChatGPT más conocido, para formar Anthropic, cuyo producto de IA de la competencia se llama Claude.

El autor James Patterson aparece en un evento para promocionar su novela conjunta con el expresidente Bill Clinton, "El presidente está desaparecido", en Nueva York el 5 de junio de 2018, izquierda, y la autora Margaret Atwood aparece en los premios Glamour Women of the Year en Nueva York el 11 de noviembre de 2019. Patterson y Atwood se encuentran entre los miles de escritores que respaldan una carta abierta del Sindicato de Autores instando a las empresas de IA a obtener permiso antes de incorporar obras protegidas por derechos de autor en sus tecnologías. (Foto AP)

James Patterson, Suzanne Collins y Margaret Atwood se encuentran entre los miles de escritores que respaldan una carta abierta del Sindicato de Autores instando a las empresas de IA a obtener permiso antes de incorporar obras protegidas por derechos de autor en sus tecnologías.

ARCHIVO - El logotipo de Meta de Facebook se ve en la sede de la compañía en Menlo Park, California, el 28 de octubre de 2021. El CEO de Meta, Mark Zuckerberg, dijo el martes 18 de julio de 2023 que la compañía se está asociando con Microsoft para presentar la próxima generación de su Modelo de lenguaje grande de IA y hacer que la tecnología conocida como LLaMA 2 sea gratuita para investigación y uso comercial. (Foto AP/Tony Avelar, archivo)

La empresa matriz de Facebook, Meta Platforms, ha creado un sistema de inteligencia artificial que compite con ChatGPT y Bard de Google, pero está adoptando un enfoque diferente: lanzarlo de forma gratuita.

Los robots se presentan durante una conferencia de prensa con un panel de robots sociales humanoides habilitados para IA como parte de la cumbre global 'AI for Good' de la Unión Internacional de Telecomunicaciones (UIT) en Ginebra, Suiza, el viernes 07 de julio de 2023. Nueve humanoides habilitados para IA Los robots se sentaron o se pararon con sus creadores en un podio en un centro de conferencias de Ginebra el viernes para lo que la Unión Internacional de Telecomunicaciones de las Naciones Unidas anunció como la primera conferencia de prensa del mundo con robots sociales humanoides. (Martial Trezzini/Keystone vía AP)

Una agencia de tecnología de la ONU reunió a un grupo de robots que se parecían físicamente a los humanos en una conferencia de prensa.

ARCHIVO - Harvey Mason jr., CEO de The Recording Academy, aparece en la 63.a entrega anual de los premios Grammy en Los Ángeles el 14 de marzo de 2021. En junio, Recording Academy anunció una serie de cambios en los próximos premios Grammy para reflejar mejor una evolución industria de la música, incluidos los nuevos protocolos de IA. (Foto de Jordan Strauss/Invision/AP, Archivo)

En junio, la Academia de Grabación anunció una serie de cambios en los próximos premios Grammy para reflejar mejor una industria musical en evolución, incluidos nuevos protocolos de IA.

Rastreó el crecimiento de la IA durante la última década hasta 2023, donde los nuevos sistemas de IA pueden vencer a los pilotos militares en simulaciones de combate aéreo, estabilizar el plasma en reactores de fusión nuclear, diseñar componentes para semiconductores de próxima generación e inspeccionar productos en líneas de producción.

Pero si bien la IA traerá enormes beneficios, su comprensión de la biología, por ejemplo, también puede usar un sistema de IA que puede producir armas biológicas, dijo.

Clark también advirtió sobre “amenazas potenciales para la paz, la seguridad y la estabilidad global internacionales” provenientes de dos cualidades esenciales de los sistemas de IA: su potencial de uso indebido y su imprevisibilidad “así como la fragilidad inherente de que sean desarrollados por un conjunto tan reducido de actores. ”

Clark enfatizó que en todo el mundo son las empresas tecnológicas las que tienen computadoras sofisticadas, grandes cantidades de datos y capital para construir sistemas de inteligencia artificial y, por lo tanto, es probable que continúen definiendo su desarrollo.

En una sesión informativa en video para el organismo más poderoso de la ONU, Clark también expresó su esperanza de que la acción global tenga éxito.

Dijo que le alienta ver que muchos países enfatizan la importancia de las pruebas y evaluaciones de seguridad en sus propuestas de IA, incluidos la Unión Europea, China y los Estados Unidos.

En este momento, sin embargo, no existen estándares o incluso mejores prácticas sobre “cómo probar estos sistemas fronterizos en busca de cosas como discriminación, uso indebido o seguridad”, lo que dificulta que los gobiernos creen políticas y permite que el sector privado disfrute de una ventaja de información. él dijo.

“Cualquier enfoque sensato de la regulación comenzará con tener la capacidad de evaluar un sistema de IA para una capacidad o falla determinada”, dijo Clark. “Y cualquier enfoque fallido comenzará con grandes ideas de políticas que no están respaldadas por mediciones y evaluaciones efectivas”.

Con una evaluación sólida y confiable de los sistemas de IA, dijo, “los gobiernos pueden hacer que las empresas rindan cuentas y las empresas pueden ganarse la confianza del mundo en el que quieren implementar sus sistemas de IA”. Pero si no hay una evaluación sólida, dijo, “corremos el riesgo de que la captura regulatoria comprometa la seguridad global y entregue el futuro a un conjunto reducido de actores del sector privado”.

Otros ejecutivos de IA, como el CEO de OpenAI, Sam Altman, también han pedido regulación. Pero los escépticos dicen que la regulación podría ser una bendición para los pioneros con mucho dinero liderados por OpenAI, Google y Microsoft, ya que los jugadores más pequeños se ven desplazados por el alto costo de hacer que sus grandes modelos de lenguaje se adhieran a las restricciones regulatorias.

El secretario general de la ONU, Antonio Guterres, dijo que las Naciones Unidas son “el lugar ideal” para adoptar estándares globales para maximizar los beneficios de la IA y mitigar sus riesgos.

Advirtió al consejo que el advenimiento de la generación generativa La IA podría tener consecuencias muy graves para la paz y la seguridad internacionalesseñalando su uso potencial por parte de terroristas, delincuentes y gobiernos que causan “niveles horribles de muerte y destrucción, trauma generalizado y daño psicológico profundo en una escala inimaginable”.

Como primer paso para unir a las naciones, Guterres dijo que está nombrando una Junta Asesora de Inteligencia Artificial de alto nivel que informará sobre las opciones para la gobernanza global de la IA antes de fin de año.

El jefe de la ONU también dijo que agradecía los llamados de algunos países para la creación de un nuevo organismo de las Naciones Unidas para apoyar los esfuerzos globales para gobernar la IA, “inspirado en modelos como la Agencia Internacional de Energía Atómica, la Organización de Aviación Civil Internacional o el Panel Intergubernamental. sobre el Cambio Climático.”

El profesor Zeng Yi, director del Laboratorio de inteligencia cognitiva inspirado en el cerebro de la Academia de Ciencias de China, dijo al consejo que “las Naciones Unidas deben desempeñar un papel central para establecer un marco sobre IA para el desarrollo y la gobernanza a fin de garantizar la paz y la seguridad mundiales”.

Zeng, quien también codirige el Centro de Investigación de Ética y Gobernanza de la IA de China y el Reino Unido, sugirió que el Consejo de Seguridad considere establecer un grupo de trabajo para considerar los desafíos a corto y largo plazo que la IA plantea para la paz y la seguridad internacionales.

En su sesión informativa en video, Zeng enfatizó que los sistemas de IA generativa recientes “son todas herramientas de procesamiento de información que parecen ser inteligentes” pero que no tienen una comprensión real y, por lo tanto, “no son verdaderamente inteligentes”.

Y advirtió que “la IA nunca, nunca, debería pretender ser humana”, insistiendo en que los humanos reales deben mantener el control, especialmente de todos los sistemas de armas.

El secretario de Relaciones Exteriores de Gran Bretaña, James Cleverly, quien presidió la reunión mientras el Reino Unido ocupa la presidencia del consejo este mes, dijo este otoño que el Reino Unido reunirá a los líderes mundiales para la primera gran cumbre mundial sobre seguridad de la IA.

“Ningún país quedará libre de la IA, por lo que debemos involucrar y comprometer a la más amplia coalición de actores internacionales de todos los sectores”, dijo. “Nuestro objetivo compartido será considerar los riesgos de la IA y decidir cómo pueden reducirse a través de una acción coordinada”.

——

El escritor de tecnología de AP, Frank Bajak, contribuyó a este despacho desde Boston.