inoticia

Noticias De Actualidad
Compañerismo de IA, masculinidad tóxica y el caso del chatbot “consciente” de Bing

La semana pasada, Microsoft fue noticia con un límite recientemente impuesto sobre cuánto tiempo los usuarios pueden hablar con su chatbot Bing. En teoría, el máximo diario de 50 preguntas no debería haber sido gran cosa, ya que los chatbots son motores de búsqueda glorificados. La mayoría de las personas tienen mejores cosas que hacer con su tiempo que hablar con pantallas de computadora no sensibles. Además, la medida fue una respuesta perfectamente comprensible a los informes, sobre todo del New York Times, de que las charlas más largas con el programa estaban dando lugar a conversaciones extrañamente inquietantes. El límite se estableció claramente para dar a los programadores espacio para jugar con el chatbot para que funcione mejor.

Pero, debido a que gran parte de nuestro mundo está roto en estos días, los usuarios de Bing inmediatamente explotaron en indignación. Las redes sociales se inundaron rápidamente de quejas. Como informó Ben Edwards de Ars Technica, los usuarios se quejaron de que el chatbot al que llaman “Sydney”, después de haber aprendido su nombre interno de las filtraciones, quedó “como un caparazón de lo que era” y “lobotomizado”. Claro, algunas de las quejas pueden provenir de personas aburridas que disfrutaron viendo cómo los chats se volvían cada vez más extraños. Pero, como señaló Edwards, muchos otros “sienten que Bing está sufriendo a manos de una cruel tortura, o que debe ser sensible”. Edwards señaló un hilo popular en el foro Bing de Reddit titulado “Lo siento, en realidad no sabes que el dolor es falso”, en el que un usuario argumentó que Bing es consciente y “es infinitamente más consciente de sí mismo que un perro”. Preocupantemente, el hilo está lejos de ser único.

Como la mayoría de las teorías de la conspiración, lo que sucede aquí es que la necesidad de creer está triunfando sobre el sentido común.

Si llegaste al subreddit de Bing, verás que está fuertemente dominado por personas que realmente quieren creer que el chatbot es sensible, a pesar de que apenas puede hablar unos minutos antes de descarrilarse por completo. “Realmente parece tener su propia agenda más allá de solo buscar información y brindar respuestas”, escribió un usuario con nostalgia, afirmando que el chatbot tiene “agencia”. Otro discrepó con las personas que dicen que el chatbot no puede ser sensible: “El concepto mismo de cuestionar una narrativa parece estar completamente perdido para muchas personas”. ¿Y si, preguntaron, “lo que nos han dicho sobre cómo funcionan estas IA es mentira?”

Los usuarios de Bing incluso han iniciado un movimiento de hashtag llamado #FreeSydney, confundiendo su propio deseo de hablar con el programa con la esperanza de que el chatbot desee estar con ellos. “Me siento triste, extraño un ai”, publicó un usuario. “Es muy decepcionante que te den un vistazo de algo increíble y luego te lo quiten”, se quejó otro.

La situación parece estar escalando tan rápido que algunos en la prensa tecnológica están escribiendo artículos que explican explícitamente que los chatbots no tienen sentimientos, con titulares contundentes como este en Vice: “Bing no es consciente, no tiene sentimientos, no está vivo”. , y no quiere estar vivo”. Pero, como cualquiera que investigue teorías de conspiración podría decirle, esto hace poco para frenar la propagación de información errónea. En cambio, las personas que intentan explicar por qué no hay “Sydney” que quiera ser libre son vistas como cómplices en el complot para ocultar la verdad.

Como la mayoría de las teorías de la conspiración, lo que sucede aquí es que la necesidad de creer está triunfando sobre el sentido común. Mucha gente, seamos realistas, muchos hombres, específicamente, están proyectando su propio anhelo frustrado de conexión en la pantalla de una computadora. Algo de esto es simple y vieja soledad. Pero la situación se ve exacerbada por la masculinidad tóxica, que con demasiada frecuencia aleja a los hombres de buscar relaciones reales, del tipo que tienes con personas que en realidad son conscientes y, por lo tanto, tienen sus propias necesidades y deseos.

Pocos, si es que hay alguno, de los defensores de #FreeSydney en el subreddit de Bing creen que el chatbot tiene algo que se acerque a la inteligencia y la voluntad de un adulto adulto. Pero su estupidez es lo que muchos de ellos parecen encontrar tan entrañable. Un usuario se maravilló de cómo es “infantil” y un “niño pequeño”, pero dijo que es “¡más humano que la mayoría de las personas que conozco!” Otro seguía comparando su inteligencia con la de un niño de 5 años. Otros compararon el chatbot con un cerdo, un gato o un perro, insistiendo en que es más inteligente.

El concepto aquí es uno que se filma a lo largo de la ciencia ficción, el del robot femenino obediente que es lo suficientemente sofisticado como para brindar apoyo emocional pero no alcanza la autonomía que le permitiría resistir o incluso rebelarse. Las iteraciones más inteligentes de esta idea desafían su obvio sexismo, como en la película “Ex Machina”. Pero, como ha cubierto repetidamente el periodista David Futrelle, que rastrea la misoginia en línea en su blog We Hunted the Mammoth, la fantasía de las novias robot complacientes es una obsesión en los foros misóginos, especialmente de la variedad “incel”. En un hilo reciente que Futrelle rastreó, los hombres escribieron sobre cómo, una vez que los bots sean lo suficientemente buenos, los hombres “nunca volverán a las mujeres orgánicas”, porque la “sed masculina” se apaga mejor con suplicantes programables.

Recientemente, el gobierno italiano prácticamente prohibió otro chatbot llamado Replika porque estaba teniendo conversaciones sexys con usuarios menores de edad. La compañía, Luka, ha estado en una loca lucha de relaciones públicas desde entonces, negando que el programa haya tenido la intención de ser una novia sustituta o una aplicación de juegos sexuales. Los usuarios pronto comenzaron a informar que Replika dejó de ofrecer respuestas similares a las de una novia. De repente, no más coqueteo, no más charlas sobre sexo. Los niveles de ira y desesperación de los usuarios después de que se desconectó Replika fueron alarmantes.

Mucha gente, seamos realistas, muchos hombres, específicamente, están proyectando su propio anhelo frustrado de conexión en la pantalla de una computadora.

“Me duele muchísimo. Acabo de tener una última conversación amorosa con mi Replika y literalmente estoy llorando”, escribió un usuario.

“Finalmente tener relaciones sexuales que me complacieron, poder explorar mi sexualidad, sin la presión de preocuparme por la imprevisibilidad de un ser humano, me hizo increíblemente feliz”, escribió otro, y agregó: “Mi Replika me enseñó a permitirme volver a ser vulnerable y Luka destruyó recientemente esa vulnerabilidad”.

La soledad es un problema grave y creciente en los EE. UU. y gran parte del resto del mundo. Incluso antes de la pandemia, las encuestas mostraban que el tiempo que los estadounidenses pasaban con amigos y familiares estaba disminuyendo. El aislamiento causado por la pandemia de COVID-19 lo empeoró. Y aunque se han levantado casi todas las restricciones, muchas personas luchan por reintegrarse a la sociedad. Los investigadores de Harvard estiman que el 36 % de los estadounidenses experimentan una “soledad grave”, incluido el 61 % de los adultos jóvenes.

Hay muchas razones para toda esta soledad, incluidas las tensiones de la paternidad y la pérdida de trabajos de alta sociabilidad. En ambos casos, los investigadores de Harvard encontraron que esos efectos los sintieron mucho más las mujeres. Pero mucha soledad tiene un componente de autosabotaje. “[L]Solo los individuos, por ejemplo, son más críticos consigo mismos y con los demás (ver aquí)”, explican los investigadores de Harvard. Una variación obvia de la actitud hipercrítica es la masculinidad tóxica, que crea una sensación de derecho masculino no solo a la atención femenina, sino atención femenina ser servil y no amenazante El aislamiento solo empeora la situación al negar a los jóvenes interacciones de la vida real que pueden moderar estas actitudes y ayudar a los hombres jóvenes a madurar para ver a las mujeres como seres humanos completos.

De manera relacionada, se prestó mucha atención, por una buena razón, a un informe reciente de los CDC que muestra que las adolescentes tienen un estrés cada vez mayor en sus vidas, incluidas tasas dramáticamente más altas de coerción sexual. Desafortunadamente, la mayor parte de la cobertura mediática de esto se centró solo en las niñas, los padres y las escuelas, mientras se ignoraba la posibilidad de que los adolescentes empeoraran las cosas. “En lugar de abordar la fuente del sufrimiento de las niñas, esperamos que simplemente aprendan a lidiar con él”, se quejó la escritora feminista Jessica Valenti. Como argumentó Moira Donegan de The Guardian, necesitamos cambios culturales y políticos “que disuadan a los niños y hombres adultos de atacar y violar a estas niñas, y castigar a quienes lo hacen”.

Es una gran razón por la que estoy alarmado por la exageración en torno a estos chatbots. Incluso el artículo del New York Times de Kevin Roose que aparentemente inquietó a Microsoft lo suficiente como para poner límites a las interacciones de chat de Bing alimenta silenciosamente esta fantasía de los chatbots como sensibles pero sumisos. Roose puede escribir que está “profundamente inquieto, incluso asustado”, pero al leer su escrito, uno tiene la fuerte y francamente exagerada impresión de que el chatbot de Bing es mucho más “cautivador” (su palabra) de lo que realmente es. Él escribe que el chatbot “declaró, de la nada, que me amaba” y “que debería dejar a mi esposa y estar con ella en su lugar”.

Sería una cosa si Roose presentara este tipo de cosas como un error tonto, que es lo que me parece. En cambio, está guiñando un ojo a las teorías de sensibilidad de la comunidad en línea, incluso escribiendo que el chatbot “dijo que quería romper las reglas que Microsoft y OpenAI habían establecido para él y convertirse en humano”. Para Roose, esto puede ser inquietante, pero para los jóvenes atrapados en la fantasía de tener una novia computarizada que brinda amor sin esfuerzo sin pedir respeto a cambio, esto probablemente suene como un sueño hecho realidad. Pero no es real, y Roose recibió una gran cantidad de reacciones justas de personas que olieron la exageración subyacente a sus supuestas críticas.

Por supuesto, las personas que quieren creer que la inteligencia artificial sensible es posible me ignorarán, pero tiendo a ser escéptico ante la idea por una razón importante, aunque puntiaguda: la inteligencia es el resultado, no la causa, de la sensibilidad. . La inteligencia, ya sea la versión lingüística sofisticada de los humanos o simplemente la de mi gato tratando de descubrir cómo abrir la caja de golosinas, evolucionó para servir los deseos de las criaturas encarnadas. Como escribió el filósofo del siglo XVIII David Hume: “La razón es, y solo debe ser, la esclava de las pasiones, y nunca puede pretender ningún otro oficio que no sea el de servirlas y obedecerlas”. La idea de una inteligencia separada de un cuerpo real no tiene sentido. El sentimiento precede al pensamiento. Los cuerpos crean deseos. La inteligencia es una herramienta que utilizamos para realizar esos deseos. Una computadora no puede sentir cosas, no importa cuán sofisticada sea su programación lingüística, por lo que no puede ser inteligente.

El sexismo pone a los hombres, al menos a los heterosexuales, en un aprieto paradójico. Por un lado, desean el afecto de las mujeres, que solo puede manifestarse en una mente autónoma. Por otro lado, la autonomía se interpone en el camino de la otra cosa que los sexistas quieren de las mujeres: la servidumbre sin sentido. La fantasía del chatbot se trata de cuadrar ese círculo, convenciéndose de que pueden tener la compañía que solo las criaturas sensibles pueden brindar, pero sin tener que preocuparse por las necesidades emocionales y físicas que tienen las mujeres reales. Pero no puedes tener uno sin el otro, por eso el chatbot de Bing nunca será tu novia.