inoticia

Noticias De Actualidad
Panel: Connecticut necesita salvaguardas para los algoritmos de las agencias

HARTFORD, Connecticut, EE.UU. (AP) — Connecticut necesita salvaguardas sobre el uso de inteligencia artificial por parte del gobierno estatal, incluidos algoritmos en el bienestar infantil y otras agencias para prevenir la discriminación y aumentar la transparencia, dijo el jueves un panel asesor de la Comisión de Derechos Civiles de EE. UU.

El Comité Asesor de Connecticut de la comisión federal pidió a los legisladores estatales que aprueben leyes que regulen dichos sistemas, lo que ha generado preocupación en otras partes del país.

El problema, dicen los críticos, es que los algoritmos pueden usar datos defectuosos que pueden identificar de manera desproporcionada a las minorías, las familias de bajos ingresos, las personas discapacitadas y otros grupos cuando las agencias toman decisiones sobre sacar a los niños de los hogares, aprobar la salud, la vivienda y otros beneficios, dónde concentrar la ley. cumplimiento y asignación de niños a las escuelas, entre otros usos.

“El estado de Connecticut toma miles de decisiones que afectan la vida y los derechos civiles de los residentes todos los días”, dijo David McGuire, presidente del Comité Asesor de Connecticut. “Cuando el estado usa un algoritmo, los residentes deben saber qué agencia está usando el algoritmo, la razón por la que se usa y las garantías de que el algoritmo es justo”.

El comité no identificó ningún caso específico de discriminación y sesgo en el uso de algoritmos en Connecticut, pero dijo que publicaría un informe más completo en los próximos meses. El panel también señaló un estudio que decía que algunas agencias de Connecticut no divulgaron información completa sobre su uso de algoritmos cuando se les preguntó en virtud de las leyes de registros públicos.

Las preocupaciones sobre tal uso de la inteligencia artificial, o IA, llevaron a la administración de Biden en octubre a emitir su Plan para una Declaración de Derechos de la IA. instando a la acción del gobierno para salvaguardar los derechos digitales y civiles. Varios estados han aprobado sus propias leyes de IA.

Una investigación de The Associated Press El año pasado reveló problemas de sesgo y transparencia en el uso creciente de algoritmos dentro del sistema de bienestar infantil del país.

McGuire dijo que la revisión del tema por parte del panel de Connecticut es la primera realizada por la Comisión de Derechos Civiles de EE. UU. o cualquiera de sus 56 comités asesores. La comisión fue establecida por la Ley de Derechos Civiles de 1957 como una agencia de investigación federal independiente y bipartidista.

Los partidarios del uso de algoritmos dicen que hacen que los sistemas gubernamentales sean más completos y eficientes mediante el uso de datos.

El comité asesor de Connecticut está instando a los legisladores estatales a aprobar leyes que requieran auditorías independientes de algoritmos, incluidas evaluaciones de posibles sesgos, y exijan bajo las leyes estatales de registros que la información sobre el uso de algoritmos por parte de las agencias esté disponible públicamente.

La oficina del gobernador demócrata Ned Lamont no respondió de inmediato a una solicitud de comentarios. Los demócratas controlan ambas cámaras de la Asamblea General.

Habrá un proyecto de ley de privacidad de datos en la sesión legislativa de este año que abordará el uso de algoritmos por parte del gobierno, dijo el senador estatal James Maroney, demócrata de Milford y copresidente del Comité de Ley General.

“Los algoritmos pueden afectarnos negativamente a todos”, dijo. “Hay diferentes instancias de consecuencias no deseadas, ya sea discriminación a veces en la contratación. Puede discriminar por edad. Hemos visto otros ejemplos en los que se discrimina a las personas básicamente por ser pobres. … Y luego, lamentablemente, también hay disparidades raciales en algunas de las decisiones que se toman cuando se utilizan procesos automatizados de toma de decisiones”.

El líder republicano del Senado, Kevin Kelly, y el líder republicano de la Cámara, Vincent Candelora, dieron la bienvenida a una revisión de cómo el estado usa los algoritmos.

“La gente podría sorprenderse al darse cuenta de que no son los seres humanos detrás de un escritorio los que toman algunas de estas decisiones, sino que podrían ser generadas por computadora”, dijo Candelora. “Necesitamos saber qué se incluye en esos programas que toman esas decisiones, porque creo que afecta la política”.

El panel asesor de Connecticut señaló un informe de la Facultad de Derecho de Yale publicado el año pasado que decía que ciertas agencias de Connecticut no divulgaron información completa sobre su uso de algoritmos en respuesta a sus solicitudes en virtud de la Ley de Libertad de Información del estado.

“Las respuestas a las solicitudes de libertad de información (FOI) confirmaron que los requisitos de divulgación existentes son insuficientes para permitir una supervisión pública significativa del uso de algoritmos y que las agencias no evalúan adecuadamente la efectividad y confiabilidad de los algoritmos”, dijo el informe.

“Las respuestas de la FOIA generalmente revelaron que las agencias no son lo suficientemente conscientes de los problemas potenciales que plantean sus algoritmos y no les preocupa la falta de transparencia”, dijo.

La facultad de derecho dijo que solicitó información sobre algoritmos de los departamentos estatales de Niños y Familias, Educación y Servicios Administrativos.

El Departamento de Niños y Familias proporcionó la única respuesta completa de FOIA a la facultad de derecho sobre el uso de algoritmos para identificar a niños en riesgo, dijo la facultad de derecho. La agencia reveló información básica pero no su código fuente, que dijo no tener y afirmó que estaba protegido como secreto comercial, dijo la facultad de derecho.

El Departamento de Educación produjo solo información parcial sobre un algoritmo que utiliza para asignar estudiantes a las escuelas, mientras que el Departamento de Servicios Administrativos no proporcionó información sobre un algoritmo utilizado para contratar empleados y contratistas estatales, según la facultad de derecho.

Un portavoz del Departamento de Niños y Familias dijo que se le preguntó a la agencia en 2021 sobre un algoritmo que dejó de usar en 2019 debido a la falta de personal. El algoritmo no tenía la intención de proteger a los niños o prevenir la intervención inadecuada de la agencia, según DCF.

El Departamento de Servicios Administrativos dijo que estaba trabajando en una respuesta y los funcionarios del Departamento de Educación no respondieron de inmediato un mensaje.