inoticia

Noticias De Actualidad
Harris se reunirá con directores ejecutivos para tratar los riesgos de la inteligencia artificial

WASHINGTON (AP) — La vicepresidenta Kamala Harris se reunirá el jueves con los directores ejecutivos de cuatro grandes empresas de desarrollo de inteligencia artificial, mientras la administración Biden despliega un conjunto de iniciativas destinadas a garantizar que la tecnología en rápida evolución mejore la vida sin poner en riesgo los derechos y la seguridad de las personas.

La administración demócrata tiene previsto anunciar una inversión de 140 millones de dólares para crear siete nuevos institutos de investigación sobre inteligencia artificial, según informaron funcionarios de la administración a los periodistas en un avance de la iniciativa.

Además, se espera que la Oficina de Gestión y Presupuesto de la Casa Blanca publique en los próximos meses directrices sobre cómo pueden utilizar los organismos federales las herramientas de IA. También habrá un compromiso independiente por parte de los principales desarrolladores de IA para participar en una evaluación pública de sus sistemas en agosto en la convención de hackers de Las Vegas DEF CON.

Harris y los funcionarios de la administración tienen previsto debatir el jueves los riesgos que ven en el desarrollo actual de la IA con los consejeros delegados de Alphabet, Anthropic, Microsoft y OpenAI. El mensaje de los líderes del gobierno a las empresas es que tienen un papel que desempeñar en la reducción de los riesgos y que pueden trabajar junto con el gobierno.

El presidente Joe Biden señaló el mes pasado que la IA puede ayudar a hacer frente a las enfermedades y al cambio climático, pero también podría perjudicar la seguridad nacional y perturbar la economía de forma desestabilizadora.

El lanzamiento del chatbot ChatGPT este año ha provocado un mayor debate sobre la IA y el papel del gobierno en esta tecnología. Dado que la IA puede generar una escritura similar a la humana e imágenes falsas, existen preocupaciones éticas y sociales.

OpenAI, que desarrolló ChatGPT, ha mantenido en secreto los datos con los que se han entrenado sus sistemas de IA. Eso hace que sea difícil para los que no pertenecen a la empresa entender por qué ChatGPT está produciendo respuestas sesgadas o falsas a las solicitudes o abordar las preocupaciones sobre si está robando de obras protegidas por derechos de autor.

Las empresas preocupadas por ser responsables de algo en sus datos de entrenamiento podrían no tener incentivos para realizar un seguimiento adecuado, dijo Margaret Mitchell, jefa científica de ética en la startup de IA Hugging Face.

“Creo que podría no ser posible para OpenAI detallar realmente todos sus datos de entrenamiento a un nivel de detalle que sería realmente útil en términos de algunas de las preocupaciones en torno al consentimiento y la privacidad y la concesión de licencias,” Mitchell dijo en una entrevista el martes. Por lo que conozco de la cultura tecnológica, eso no se hace”.

Al menos en teoría, algún tipo de ley de divulgación podría obligar a los proveedores de IA a abrir sus sistemas al escrutinio de terceros. Pero dado que los sistemas de IA se construyen sobre modelos anteriores, no será fácil que las empresas pro