inoticia

Noticias De Actualidad
En la carrera mundial por regular la IA, Europa se prepara para ser pionera

LONDRES (AP) — El impresionante desarrollo de la inteligencia artificial ha deslumbrado a los usuarios al componer música, crear imágenes y escribir ensayos, al mismo tiempo que genera temores sobre sus implicaciones.. Incluso los funcionarios de la Unión Europea que trabajaban en reglas innovadoras para gobernar la tecnología emergente fueron tomados por sorpresa por el rápido ascenso de la IA.

El bloque de 27 naciones propuso las primeras reglas de IA del mundo occidental hace dos años, centrándose en controlar las aplicaciones arriesgadas pero con un enfoque limitado. Apenas se mencionaron los sistemas de inteligencia artificial de propósito general, como los chatbots. Los legisladores que trabajan en la Ley de IA consideraron incluirlos, pero no estaban seguros de cómo, o incluso si era necesario.

“Entonces el auge de ChatGPT explotó”, dijo Dragos Tudorache, un miembro rumano del Parlamento Europeo que codirigió la medida. “Si todavía había algunos que dudaban de si necesitamos algo, creo que la duda se desvaneció rápidamente”.

El lanzamiento de ChatGPT El año pasado capturó la atención del mundo debido a su capacidad para generar respuestas similares a las humanas en función de lo que ha aprendido al escanear grandes cantidades de materiales en línea. Con preocupaciones emergenteslos legisladores europeos se movieron rápidamente en las últimas semanas para agregar lenguaje sobre los sistemas generales de IA mientras daban los toques finales a la legislación.

La Ley de IA de la UE podría convertirse en el estándar global de facto para la inteligencia artificial, y las empresas y organizaciones podrían decidir que el tamaño del mercado único del bloque haría más fácil cumplir que desarrollar diferentes productos para diferentes regiones.

“Europa es el primer bloque regional en intentar de manera significativa regular la IAlo cual es un gran desafío considerando la amplia gama de sistemas que el amplio término ‘IA’ puede cubrir”, dijo Sarah Chander, asesora principal de políticas del grupo de derechos digitales EDRi.

Las autoridades de todo el mundo se esfuerzan por averiguar cómo controlar la tecnología en rápida evolución para garantizar que mejore la vida de las personas sin poner en peligro sus derechos o su seguridad. Los reguladores están preocupados por los nuevos riesgos éticos y sociales que plantea ChatGPT y otros sistemas de IA de propósito general, que podrían transformar la vida diaria, desde el trabajo hasta la educación a los derechos de autor y la privacidad.

La Casa Blanca incorporó recientemente los jefes de las empresas de tecnología que trabajan en IA, incluidos Microsoft, Google y el creador de ChatGPT, OpenAI, para discutir los riesgos, mientras que la Comisión Federal de Comercio advirtió que no dudaría en tomar medidas enérgicas.

China ha emitido un proyecto de reglamento que exige evaluaciones de seguridad para cualquier producto que utilice sistemas de IA generativa como ChatGPT. El organismo de control de la competencia de Gran Bretaña ha abierto una revisión del mercado de IAmientras que Italia prohibió brevemente ChatGPT por una violación de la privacidad.

Se espera que las amplias regulaciones de la UE, que cubren a cualquier proveedor de servicios o productos de IA, sean aprobadas por un comité del Parlamento Europeo el jueves, y luego comiencen las negociaciones entre los 27 países miembros, el Parlamento y la Comisión ejecutiva de la UE.

Las reglas europeas que influyen en el resto del mundo, el llamado efecto Bruselas, se desarrollaron previamente después de que la UE reforzó la privacidad de los datos. y cables de carga de teléfonos comunes obligatoriosaunque tales esfuerzos han sido criticados por sofocar la innovación.

Las actitudes podrían ser diferentes esta vez. Los líderes tecnológicos, incluidos Elon Musk y el cofundador de Apple, Steve Wozniak, han pedido una pausa de seis meses para considerar los riesgos..

Geoffrey Hinton, un científico informático conocido como el “Padrino de la IA”, y su compañero pionero de la IA, Yoshua Bengio, expresaron sus preocupaciones. la semana pasada sobre el desarrollo de IA sin control.

Tudorache dijo que tales advertencias muestran que la medida de la UE para comenzar a elaborar reglas de IA en 2021 fue “la decisión correcta”.

Google, que respondió a ChatGPT con su propio chatbot Bard y está implementando herramientas de inteligencia artificial, se negó a comentar. La compañía le ha dicho a la UE que “la IA es demasiado importante para no regularla”.

Microsoft, patrocinador de OpenAI, no respondió a una solicitud de comentarios. Ha acogido con beneplácito el esfuerzo de la UE como un paso importante “hacia que la IA confiable sea la norma en Europa y en todo el mundo”.

Mira Murati, directora de tecnología de OpenAI, dijo en una entrevista el mes pasado que creía que los gobiernos deberían participar en la regulación de la tecnología de IA.

Pero se le preguntó si algunas de las herramientas de OpenAI debe clasificarse como de mayor riesgo, en el contexto de las normas europeas propuestas, dijo que es “muy matizado”.

“Depende de dónde se aplica la tecnología”, dijo, citando como ejemplo un “caso de uso médico o caso de uso legal de muy alto riesgo” versus una aplicación de contabilidad o publicidad.

El CEO de OpenAI, Sam Altman, planea paradas en Bruselas y otras ciudades europeas este mes en una gira mundial para hablar sobre la tecnología con usuarios y desarrolladores.

Las disposiciones añadidas recientemente a la Ley de IA de la UE requerirían que los modelos de IA “fundamentales” divulguen el material con derechos de autor utilizado para entrenar los sistemas, según un borrador parcial reciente de la legislación obtenido por The Associated Press.

Los modelos básicos, también conocidos como modelos de lenguaje extenso, son una subcategoría de IA de propósito general que incluye sistemas como ChatGPT. Sus algoritmos están entrenados en vastos grupos de información en línea.como publicaciones de blog, libros digitales, artículos científicos y canciones pop.

“Tienes que hacer un esfuerzo significativo para documentar el material protegido por derechos de autor que usas en el entrenamiento del algoritmo”, allanando el camino para que los artistas, escritores y otros creadores de contenido busquen reparación, dijo Tudorache.

Los funcionarios que redactan las regulaciones de IA tienen que equilibrar los riesgos que plantea la tecnología. con los beneficios transformadores que promete.

Las grandes empresas de tecnología que desarrollan sistemas de inteligencia artificial y los ministerios nacionales europeos que buscan implementarlos “están tratando de limitar el alcance de los reguladores”, mientras que los grupos de la sociedad civil presionan para que haya más responsabilidad, dijo Chander de EDRi.

“Queremos más información sobre cómo se desarrollan estos sistemas, los niveles de recursos ambientales y económicos que se les asignan, pero también cómo y dónde se usan estos sistemas para que podamos desafiarlos de manera efectiva”, dijo.

Según el enfoque basado en el riesgo de la UE, los usos de la IA que amenazan la seguridad o los derechos de las personas se enfrentan a controles estrictos.

Reconocimiento facial remoto se espera que sea prohibido. También lo son los sistemas gubernamentales de “puntuación social” que juzgan a las personas en base a su comportamiento. El “raspado” indiscriminado de fotos de Internet utilizadas para la comparación biométrica y el reconocimiento facial también está prohibido.

Vigilancia predictiva y la tecnología de reconocimiento de emociones, además de los usos terapéuticos o médicos, también están fuera.

Las infracciones pueden resultar en multas de hasta el 6% de los ingresos anuales globales de una empresa.

Incluso después de obtener la aprobación final, prevista para finales de año o principios de 2024 a más tardar, la Ley de IA no entrará en vigor de inmediato. Habrá un período de gracia para que las empresas y organizaciones averigüen cómo adoptar las nuevas reglas.

Es posible que la industria presione por más tiempo argumentando que la versión final de la Ley de IA va más allá que la propuesta original, dijo Frederico Oliveira Da Silva, oficial legal sénior del grupo europeo de consumidores BEUC.

Podrían argumentar que “en lugar de uno y medio o dos años, necesitamos dos o tres”, dijo.

Señaló que ChatGPT se lanzó hace solo seis meses y ya ha presentado una serie de problemas y beneficios en ese tiempo.

Si la Ley AI no entra en vigencia por completo durante años, “¿qué pasará en estos cuatro años?” Dijo Da Silva. “Esa es realmente nuestra preocupación, y es por eso que les pedimos a las autoridades que estén al tanto, solo que realmente se concentren en esta tecnología”.

___

El escritor de tecnología de AP Matt O’Brien en Providence, Rhode Island, contribuyó.