Amazon, Google, Meta, Microsoft y otras firmas tecnológicas acuerdan salvaguardias de IA establecidas por la Casa Blanca
WASHINGTON (AP) — Amazon, Google, Meta, Microsoft y otras empresas que lideran el desarrollo de tecnología de inteligencia artificial han acordado cumplir con un conjunto de salvaguardas de IA negociadas por la administración del presidente Joe Biden.
La Casa Blanca dijo el viernes que ha obtenido compromisos voluntarios de siete empresas estadounidenses destinados a garantizar que sus productos de IA sean seguros antes de lanzarlos. Algunos de los compromisos exigen la supervisión por parte de terceros del funcionamiento de los sistemas comerciales de inteligencia artificial, aunque no detallan quién auditará la tecnología o responsabilizará a las empresas.
Una oleada de inversión comercial en herramientas de IA generativa que pueden escribir texto convincentemente similar al humano y producir nuevas imágenes y otros medios ha despertado la fascinación del público, así como la preocupación por su capacidad para engañar a las personas y difundir desinformaciónentre otros peligros.
Google dice que está en las primeras etapas de desarrollo de herramientas que utilizan inteligencia artificial para ayudar a los periodistas a escribir historias y titulares.
Un candidato independiente para el Parlamento del Reino Unido recurrió a la inteligencia artificial para presentar sus promesas de campaña.
Un ejecutivo de una empresa de inteligencia artificial dijo en la primera reunión del Consejo de Seguridad de la ONU sobre las amenazas de la IA a la paz mundial que no se puede confiar en el puñado de grandes empresas tecnológicas que lideran la carrera para comercializar la IA para garantizar la seguridad de los sistemas que aún no entendemos y que son propensos a “cha
James Patterson, Suzanne Collins y Margaret Atwood se encuentran entre los miles de escritores que respaldan una carta abierta del Sindicato de Autores instando a las empresas de IA a obtener permiso antes de incorporar obras protegidas por derechos de autor en sus tecnologías.
Los cuatro gigantes tecnológicos, junto con OpenAI, el fabricante de ChatGPT, y las nuevas empresas Anthropic e Inflection, se comprometieron a realizar pruebas de seguridad “realizadas en parte por expertos independientes” para protegerse contra los principales riesgos, como la bioseguridad y la ciberseguridad, dijo la Casa Blanca en un comunicado.
Las empresas también se han comprometido con los métodos para informar sobre las vulnerabilidades de sus sistemas y con el uso de marcas de agua digitales para ayudar a distinguir entre las vulnerabilidades reales y las Imágenes generadas por IA conocidas como deepfakes.
También informarán públicamente sobre fallas y riesgos en su tecnología, incluidos los efectos sobre la equidad y el sesgo, dijo la Casa Blanca.
Los compromisos voluntarios están destinados a ser una forma inmediata de abordar los riesgos antes de un impulso a más largo plazo para lograr que el Congreso apruebe leyes que regulen la tecnología.
Algunos defensores de las regulaciones de IA dijeron que el movimiento de Biden es un comienzo, pero que se necesita hacer más para responsabilizar a las empresas y sus productos.
“La historia indicaría que muchas empresas de tecnología en realidad no se comprometen voluntariamente a actuar de manera responsable y respaldar regulaciones estrictas”, dijo James Steyer, fundador y director ejecutivo de la organización sin fines de lucro Common Sense Media en un comunicado.
El líder de la mayoría del Senado, Chuck Schumer, DN.Y., ha dicho que presentará una legislación para regular la IA. Ha realizado varias sesiones informativas con funcionarios del gobierno para educar a los senadores sobre un tema que atrae el interés bipartidista.
Varios ejecutivos de tecnología han pedido regulación, y varios fueron a la Casa Blanca en mayo para hablar con Biden, la vicepresidenta Kamala Harris y otros funcionarios.
Pero a algunos expertos y competidores emergentes les preocupa que el tipo de regulación que se propone pueda ser de gran ayuda para los pioneros con mucho dinero liderados por OpenAI, Google y Microsoft, ya que los jugadores más pequeños se ven desplazados por el alto costo de hacer que sus sistemas de IA sean conocidos como grandes modelos de lenguaje que se adhieren a las restricciones regulatorias.
El grupo comercial de software BSA, que incluye a Microsoft como miembro, dijo el viernes que acogía con beneplácito los esfuerzos de la administración Biden para establecer reglas para los sistemas de IA de alto riesgo.
“Las empresas de software empresarial esperan trabajar con la administración y el Congreso para promulgar leyes que aborden los riesgos asociados con la inteligencia artificial y promuevan sus beneficios”, dijo el grupo en un comunicado.
Varios países han estado buscando formas de regular la IA, incluyendo legisladores de la unión europea que han estado negociando reglas generales de IA para el bloque de 27 naciones.
El secretario general de la ONU, Antonio Guterres, dijo recientemente que la ONU está “el lugar ideal” para adoptar estándares globales y nombró una junta que informará sobre las opciones para la gobernanza global de la IA antes de fin de año.
El jefe de las Naciones Unidas también dijo que agradecía los llamados de algunos países para la creación de un nuevo organismo de la ONU para apoyar los esfuerzos globales para gobernar la IA, inspirado en modelos como la Agencia Internacional de Energía Atómica o el Panel Intergubernamental sobre el Cambio Climático.
La Casa Blanca dijo el viernes que ya ha consultado sobre los compromisos voluntarios con varios países.