inoticia

Noticias De Actualidad
Preguntas y respuestas internas: el exescéptico de inteligencia artificial de Google, Timnit Gebru, comienza de nuevo

Cuando codirigió el equipo de inteligencia artificial ética de Google, Timnit Gebru era una voz privilegiada que cuestionaba el enfoque de la industria tecnológica hacia la inteligencia artificial.

Eso fue antes de que Google la expulsara. de la empresa hace más de un año. Ahora Gebru está tratando de hacer cambios desde el exterior como fundador del Instituto de Investigación de Inteligencia Artificial Distribuida, o DAIR.

Nacido de padres eritreos en Etiopía, Gebru habló recientemente con The Associated Press sobre lo mal que las prioridades de IA de Big Tech, y sus plataformas de redes sociales impulsadas por IA, sirven a África y otros lugares. El nuevo instituto se centra en la investigación de la IA desde la perspectiva de los lugares y las personas con mayor probabilidad de experimentar sus daños.

También es cofundadora del grupo Black in AI, que promueve el empleo y el liderazgo de los negros en el campo. Y es conocida por ser coautora de un estudio histórico de 2018 que encontró sesgos raciales y de género en el software de reconocimiento facial. La entrevista ha sido editada por su extensión y claridad.

P: ¿Cuál fue el ímpetu de DAIR?

R: Después de que me despidieran de Google, sabía que estaría en la lista negra de un montón de grandes empresas tecnológicas. Los que no sería… sería muy difícil trabajar en ese tipo de entorno. Simplemente no iba a hacer eso nunca más. Cuando decidí (comenzar DAIR), lo primero que me vino a la mente es que quería que se distribuyera. Vi cómo las personas en ciertos lugares simplemente no pueden influir en las acciones de las empresas de tecnología y el curso que está tomando el desarrollo de la IA. Si hay que construir o investigar IA, ¿cómo se hace bien? Desea involucrar a las comunidades que generalmente están en los márgenes para que puedan beneficiarse. Cuando hay casos en los que no se debe construir, podemos decir: ‘Bueno, esto no se debe construir’. No lo abordamos desde una perspectiva de solucionismo tecnológico.

P: ¿Cuáles son las aplicaciones de IA más preocupantes que merecen un mayor escrutinio?

R: Lo que es tan deprimente para mí es que incluso las aplicaciones en las que ahora tanta gente parece ser más consciente de los daños, están aumentando en lugar de disminuir. Llevamos mucho tiempo hablando de reconocimiento facial y vigilancia basada en esta tecnología. Hay algunas victorias: varias ciudades y municipios han prohibido el uso del reconocimiento facial por parte de las fuerzas del orden, por ejemplo. Pero entonces el gobierno está usando todas estas tecnologías sobre las que hemos estado advirtiendo. Primero, en la guerra, y luego para mantener fuera a los refugiados, como resultado de esa guerra. Entonces, en la frontera entre EE. UU. y México, verá todo tipo de cosas automatizadas que no ha visto antes. La forma número uno en la que estamos usando esta tecnología es mantener a la gente fuera.

P: ¿Puede describir algunos de los proyectos que DAIR está llevando a cabo que podrían no haber ocurrido en otros lugares?

R: Una de las cosas en las que nos enfocamos es el proceso mediante el cual hacemos esta investigación. Uno de nuestros proyectos iniciales trata sobre el uso de imágenes satelitales para estudiar el apartheid espacial en Sudáfrica. Nuestro compañero de investigación (Raesetje Sefala) es alguien que creció en un municipio. No es ella estudiando alguna otra comunidad y abalanzándose. Es ella haciendo cosas que son relevantes para su comunidad. Estamos trabajando en visualizaciones para averiguar cómo comunicar nuestros resultados al público en general. Estamos pensando cuidadosamente a quién queremos llegar.

P: ¿Por qué el énfasis en la distribución?

R: La tecnología afecta al mundo entero en este momento y existe un gran desequilibrio entre quienes la producen e influyen en su desarrollo y quienes sienten los daños. Hablando del continente africano, está pagando un costo enorme por el cambio climático que no causó. Y luego estamos usando tecnología de inteligencia artificial para mantener alejados a los refugiados climáticos. Es sólo un doble castigo, ¿verdad? Para revertir eso, creo que debemos asegurarnos de que defendemos a las personas que no están en la mesa, que no están impulsando este desarrollo ni influyendo en su futuro, para que puedan tener la oportunidad de hacerlo.

P: ¿Qué te hizo interesarte en la IA y la visión por computadora?

R: No hice la conexión entre ser ingeniero o científico y, ya sabes, guerras o problemas laborales ni nada por el estilo. Durante gran parte de mi vida, solo estaba pensando en qué temas me gustaban. Estaba interesado en el diseño de circuitos. Y luego también me gustaba la música. Toqué el piano durante mucho tiempo y quería combinar varios de mis intereses. Y luego encontré el grupo de audio en Apple. Y luego, cuando volvía a hacer una maestría y un doctorado, tomé una clase sobre procesamiento de imágenes que se refería a la visión por computadora.

P: ¿Cómo ha cambiado su enfoque su experiencia con Google?

R: Cuando estaba en Google, pasaba gran parte de mi tiempo tratando de cambiar el comportamiento de las personas. Por ejemplo, organizarían un taller y tendrían a todos los hombres, como 15 de ellos, y simplemente les enviaría un correo electrónico, ‘Mira, no puedes simplemente tener un taller como ese’. Ahora gasto más energía pensando en lo que quiero construir y cómo apoyar a las personas que ya están en el lado correcto de un problema. No puedo pasar todo mi tiempo tratando de reformar a otras personas. Hay muchas personas que quieren hacer las cosas de manera diferente, pero simplemente no están en una posición de poder para hacerlo.

P: ¿Crees que lo que te sucedió en Google ha provocado un mayor escrutinio de algunas de las preocupaciones que tenías sobre los modelos de aprendizaje de idiomas? ¿Podrías describir cuáles son?

P: Parte de lo que me pasó en Google estaba relacionado con un artículo que escribimos sobre modelos de lenguaje grandes, un tipo de tecnología de lenguaje. La búsqueda de Google lo usa para clasificar consultas o esos cuadros de preguntas y respuestas que ves, traducción automática, autocorrección y muchas otras cosas. Y estábamos viendo esta prisa por adoptar modelos de lenguaje cada vez más grandes con más datos, más poder de cómputo, y queríamos advertir a las personas contra esa prisa y pensar en las posibles consecuencias negativas. No creo que el periódico hubiera hecho olas si no me hubieran despedido. Me alegro de que haya llamado la atención sobre este problema. Creo que hubiera sido difícil hacer que la gente pensara en modelos de lenguaje grandes si no fuera por esto. Quiero decir, desearía que no me despidieran, obviamente.

P: En los EE. UU., ¿hay acciones que espera de la Casa Blanca y el Congreso para reducir algunos de los daños potenciales de la IA?

R: En este momento simplemente no hay regulación. Me gustaría algún tipo de ley en la que las empresas tecnológicas tengan que demostrarnos que no están causando daños. Cada vez que introducen una nueva tecnología, la responsabilidad de demostrar que algo es dañino recae en los ciudadanos, e incluso entonces tenemos que luchar para ser escuchados. Muchos años después, podría hablarse de regulación; luego, las empresas de tecnología han pasado a lo siguiente. Así no es como operan las compañías farmacéuticas. No serían recompensados ​​​​por no mirar (en los daños potenciales), serían castigados por no mirar. Necesitamos tener ese tipo de estándar para las empresas de tecnología.