inoticia

Noticias De Actualidad
Lo que la debacle de Sam Bankman-Fried puede enseñarnos sobre el “largoplacismo”

Todo el mundo habla de Sam Bankman-Fried, el altruismo efectivo (EA) y la ideología conocida como “largoplacismo” que aceptan muchos altruistas efectivos, incluido Bankman-Fried. El maremoto de mala prensa desencadenado por el catastrófico colapso de la plataforma de intercambio de criptomonedas FTX de Bankman-Fried llega en el peor momento para la comunidad longtermista: William MacAskill, el representante del longtermismo y “asesor” moral de Bankman-Fried, continuó un bombardeo mediático después de que saliera su libro “What We Owe the Future” el verano pasado, e incluso apareció en “The Daily Show”. El daño a la reputación del largoplacismo causado por los eventos recientes ha sido significativo, y no está claro si el movimiento, que se volvió inmensamente poderoso en los últimos años, puede recuperarse.

Los críticos del largoplacismo, como yo, lo vieron venir a kilómetros de distancia. No, específicamente, la implosión del imperio de Bankman-Fried, sino algo muy malo, algo que causaría un daño grave a personas reales, en nombre del largoplacismo. Durante años, he estado advirtiendo que el largoplacismo podría “justificar” acciones mucho peores que el fraude, que Bankman-Fried parece haber cometido en su esfuerzo por “hacerse inmensamente rico, por amor a la caridad”. Incluso algunos dentro o adyacentes a la comunidad a largo plazo han notado los peligros potenciales de la ideología, pero ninguno de los líderes de la comunidad ha tomado en serio tales advertencias. Por el contrario, los críticos han sido habitualmente descartados por atacar a un “hombre de paja” o por presentar sus críticas de “mala fe”. Uno espera que la debacle de FTX provoque una reflexión seria sobre por qué y cómo la ideología a largo plazo está jugando con fuego.

Es útil distinguir, desde el principio, entre el largoplacismo “moderado” y el “radical”. El longtermismo moderado es lo que MacAskill defiende en su libro, mientras que el longtermismo radical es lo que se encuentra en todos los documentos fundacionales de la ideología, incluidos múltiples artículos de Nick Bostrom y la tesis doctoral de Nick Beckstead. Este último es también con lo que MacAskill afirma que es más “simpatizante” y piensa que “probablemente tiene razón”. ¿Por qué, entonces, el libro de MacAskill se enfoca en la versión moderada? Como explica en detalle un artículo mío anterior de Salon, la respuesta es muy simple marketing. El largoplacismo radical es una visión tan inverosímil que tratar de persuadir al público de que es cierto sería un juego perdido. Por lo tanto, la estrategia de marketing fue presentarlo en una forma más moderada, que Alexander Zaitchik de New Republic describe acertadamente como una “droga de entrada” a la posición más radical.

Una y otra vez a lo largo de la historia, la combinación de utopismo y el modo utilitarista de razonamiento moral —la creencia de que el fin justifica los medios— ha sido desastrosa.

Si los que están en el poder lo toman literalmente, el largoplacismo radical podría ser profundamente peligroso. La razón, y esto es algo que todo político y periodista debe entender, es que combina lo que solo puede describirse como una visión tecno-utópica del futuro, en la que la humanidad crea cantidades astronómicas de valor al colonizar el espacio y simular grandes cantidades. de personas digitales, con un modo ampliamente utilitario de razonamiento moral. Una y otra vez a lo largo de la historia, la combinación de estos dos ingredientes, el utopismo y la creencia de que el fin justifica los medios, ha sido desastrosa. Como Steven Pinker, quien parece estar algo alineado con el altruismo efectivo (MacAskill incluso dio una conferencia invitada sobre el largoplacismo en una de las clases de Pinker), escribe en “Los mejores ángeles de nuestra naturaleza”:

Las ideologías utópicas invitan al genocidio por dos razones. Una es que establecieron un pernicioso cálculo utilitario. En una utopía, todos son felices para siempre, por lo que su valor moral es infinito. La mayoría de nosotros estamos de acuerdo en que es éticamente permisible desviar un tranvía desbocado que amenaza con matar a cinco personas hacia una vía lateral donde mataría solo a una. Pero supongamos que se pudieran salvar cien millones de vidas desviando el tranvía, o mil millones, o —proyectando en un futuro indefinido— infinitas. ¿Cuántas personas estaría permitido sacrificar para alcanzar ese bien infinito? Unos cuantos millones pueden parecer una ganga bastante buena.

¿Es el largoplacismo realmente utópico? Sí, en un par de sentidos. Por un lado, muchos de sus textos fundacionales imaginan explícitamente un futuro en el que nuestros descendientes utilizan tecnologías avanzadas para mejorar radicalmente, creando así una raza superior de “posthumanos”. Tales seres pueden ser inmortales, superinteligentes y tener perfecto control sobre sus emociones. Un ejemplo viene de la “Carta desde la utopía” de Bostrom, en la que escribe, haciéndose pasar por un posthumano del futuro: “¿Cómo puedo hablarte de la utopía y no dejarte desconcertado? ¿Con qué palabras podría transmitir la maravilla? Mi pluma , me temo, es tan desigual para la tarea como si hubiera tratado de usarlo contra un elefante de guerra que carga”. A partir de ahí, la “carta” lleva a los lectores a través de una fantasmagoría de maravillas, describiendo a nuestra progenie posthumana viviendo en “felicidad y deleite superiores”.

Otros líderes a largo plazo como Toby Ord comparten esta visión general. En su libro de 2020 “The Precipice”, Ord se vuelve poético sobre cómo la reingeniería del organismo humano podría permitirnos transformar “capacidades humanas existentes: empatía, inteligencia, memoria, concentración, imaginación”. Incluso podría aumentar nuestro sensorio al agregar nuevas modalidades como la ecolocalización y la magnetorrecepción. “Tales experiencias inexploradas existen en mentes mucho menos sofisticadas que la nuestra”, declara. “¿Qué experiencias, posiblemente de inmenso valor, podrían ser accesibles, entonces, a mentes mucho más grandes?” Además, la reingeniería de seres humanos no es solo algo que podría considerarse haciendo en el futuro, puede ser integral para realizar plenamente nuestro “enorme y glorioso” “potencial” a largo plazo en el universo. En sus palabras: “Alcanzar todo nuestro potencial para prosperar probablemente implicaría que nos transformáramos en algo más allá de la humanidad de hoy”. De igual manera, declara que “conservar para siempre a la humanidad tal como es ahora también puede desperdiciar nuestro legado, renunciando a la mayor parte de nuestro potencial”.

MacAskill también toca esta idea en “Lo que le debemos al futuro”, al escribir que “eutopía”, que se traduce como “buen lugar”, es “un futuro que, con suficiente paciencia y sabiduría, nuestros descendientes podrían realmente construir, si pavimentamos el camino para ellos”. Si bien no afirma que “un futuro maravilloso es probableafirma que “tampoco es solo una fantasía”.

Por otro lado, los a largo plazo radicales imaginan a nuestros descendientes colonizando el espacio y creando enormes simulaciones por computadora en las que billones y billones de personas digitales “viven vidas ricas y felices mientras interactúan entre sí en entornos virtuales”, citando a Bostrom. ¿Por qué estas personas serían felices? nadie explica Quizás tengan acceso a Zoloft digital. En la visión a largo plazo, cuantas más personas “felices” existan en el futuro, mayor será la cantidad de “valor”, y cuanto más valor, mejor será el universo. Esta es la razón por la que los a largo plazo están obsesionados con calcular cuán grande podría ser la población posthumana. Por ejemplo, Bostrom estima unos 1058 personas digitales en el futuro, es decir, un 1 seguido de 58 ceros, mientras que MacAskill y su colega de largo plazo Hilary Greaves señalan que podría haber 1045 solo en la galaxia de la Vía Láctea. De ello se deduce que podría haber literalmente cantidades astronómicas de valor en el futuro lejano: cantidades que eclipsan por completo el valor que la humanidad ha creado hasta ahora, o que existe en este momento.

Entonces, lo que nos espera, si jugamos bien nuestras cartas, es un mundo tecno-utópico entre los cielos lleno de cantidades insondables de bondad. Las apuestas son por lo tanto absolutamente enorme. Aquí es donde entra en escena la idea de “riesgo existencial”. Los longtermistas definen esto como, esencialmente, cualquier evento que nos impida realizar este glorioso futuro, y es por eso que el longtermismo radical implica que la tarea más importante para la humanidad es reducir el riesgo existencial. Como escribe Bostrom, “para los utilitaristas estándar, la prioridad número uno, dos, tres y cuatro debería ser… reducir el riesgo existencial”, siendo la quinta colonizar el espacio. Aquí vale la pena señalar que la comunidad de EA es abrumadoramente utilitaria (al menos un 70 por ciento) y sus principales luminarias, como MacAskill y Ord, “se describen a sí mismas como personas que tienen más credibilidad en el utilitarismo que cualquier otra visión moral positiva”. Bankman-Fried también es un utilitarista que, en sus propias palabras, tenía como objetivo “maximizar cada centavo que pueda y agregar felicidad neta en el mundo”.

Habiendo esbozado la ideología longevo, su peligro puede entenderse como doble: primero, lleva a sus adherentes a ignorar, descuidar y minimizar el sufrimiento actual. Si un problema no representa un riesgo existencial, entonces no debería ser una de nuestras cuatro (o cinco) prioridades globales principales. En segundo lugar, podría terminar justificando, a los ojos de los verdaderos creyentes, acciones dañinas por el bien cósmico mayor, es decir, crear una civilización multigaláctica llena de 1058 posthumanos en vastas simulaciones por computadora repartidas por todo el universo. Consideremos estos a su vez.

En uno de los textos fundacionales del longtermismo, publicado en 2013, Bostrom escribe que

el altruismo sin restricciones no es tan común como para permitirnos desperdiciarlo en una plétora de proyectos para sentirse bien de eficacia subóptima. Si beneficiar a la humanidad aumentando la seguridad existencial logra el bien esperado en una escala mucho mayor que la de las contribuciones alternativas, haríamos bien en centrarnos en esta filantropía más eficiente.

¿Cuáles son estos “proyectos para sentirse bien” en los que no debemos “desperdiciar” nuestros recursos? Como señala Peter Singer, quien se considera un altruista efectivo, esto incluiría causas benéficas como “donar para ayudar a los pobres del mundo” y reducir el “sufrimiento animal”. Esto, de hecho, lo hizo explícito Greaves en una entrevista sobre la filosofía a largo plazo. Citándola en su totalidad:

Hay un caso claro para la transferencia de recursos del mundo occidental próspero a los pobres del mundo. Pero las líneas de pensamiento a largo plazo sugieren que algo más sería aún mejor. Hay muchos candidatos para intervenciones a largo plazo potencialmente de muy alto valor. … El más claro, creo, es reducir los riesgos de extinción humana prematura. … Incluso si podemos hacer algo que reduzca la probabilidad de una extinción humana prematura en una pequeña cantidad, en términos de valor esperado, es decir, cuando promedias tu incertidumbre, la contribución de ese tipo de intervención podría ser enorme, mucho mayor, incluso , que las mejores cosas que podemos hacer en el área de la pobreza global.

¿Qué quiere decir Greaves con “extinción prematura”? Esto se refiere a cualquier evento de extinción que ocurra antes de que hayamos creado Utopía e inundado el universo con “valor”. En la visión a largo plazo, entonces, nosotros no debería gastar dinero en la pobreza global: esos recursos deberían destinarse a garantizar que nos demos cuenta de nuestro “potencial a largo plazo”. Después de todo, cuando uno toma una verdadera perspectiva cósmica En nuestro lugar en un universo que podría permanecer habitable durante literalmente billones de años por venir, todo el sufrimiento causado por la pobreza global se vuelve virtualmente imperceptible.

Desde el punto de vista a largo plazo, no deberíamos gastar dinero en la pobreza global: cuando uno toma una perspectiva cósmica En nuestro lugar en el universo, el sufrimiento causado por la pobreza se vuelve virtualmente imperceptible.

Es por eso que Bostrom escribe lo siguiente acerca de los peores horrores en la historia humana, incluidas las dos guerras mundiales: “Trágicos como tales eventos son para las personas inmediatamente afectadas, en el panorama general de las cosas, desde la perspectiva de la humanidad en su conjunto, incluso la peor de estas catástrofes son meras ondas en la superficie del gran mar de la vida”. ¿Por qué? Porque “no han afectado significativamente la cantidad total de sufrimiento o felicidad humanos ni han determinado el destino a largo plazo de nuestra especie”. En otra parte, describe “una guerra nuclear total entre Rusia y los Estados Unidos” —cuyos estudios muestran que podría matar literalmente a más de 5.000 millones de personas— como “una gran masacre para el hombre, un pequeño paso en falso para la humanidad”, siempre y cuando no causa nuestra extinción completa.

Es esta perspectiva, el punto de vista cósmico, lo que produce una visión profundamente insensible. del sufrimiento actual. Claro, la pobreza global es mala, pero no evitará que nuestros descendientes se conviertan en posthumanos radicalmente mejorados, colonizando el espacio y simulando enormes cantidades de personas digitales, que es lo que realmente importa. O considere el cambio climático, que según el longevo Jaan Tallinn, quien cofundó el Future of Life Institute, “no será un riesgo existencial a menos que haya un escenario fuera de control”. Un escenario fuera de control, que provocaría nuestra extinción, es muy poco probable.

La clara implicación de la declaración de Tallinn es que no deberíamos estar demasiado preocupado sobre el cambio climático no descontrolado. Por supuesto, causará un daño profundo, especialmente a las personas en el Sur global, pero en el gran esquema de las cosas, el sufrimiento de esas personas no será más que “simples ondas”. John Halstead, otro longtermist, se hace eco de esta idea en un documento inédito que ha tenido una gran influencia entre los longtermists. “Es difícil pensar en formas en las que el cambio climático podría ser un riesgo ex directo”, concluye (“riesgo ex” es la abreviatura de “riesgo existencial”). Así que no nos preocupemos demasiado por eso: hay peces más grandes para freír. Como he señalado en otra parte, es imposible leer la literatura a largo plazo y no obtener una imagen optimista de la crisis climática.

La perspectiva a largo plazo sobre el vasto futuro de la humanidad es también lo que lleva a Nick Beckstead a la sorprendente afirmación de que debemos priorizar salvar las vidas de las personas en los países ricos sobre salvar las vidas de las personas en los países pobres. Debido a que esta conclusión es tan impactante, citaré el pasaje completo:

[S]salvar vidas en países pobres puede tener un efecto dominó significativamente menor que salvar y mejorar vidas en países ricos. ¿Por qué? Los países más ricos tienen sustancialmente más innovación y sus trabajadores son mucho más productivos económicamente. Según los estándares ordinarios, al menos según los estándares humanitarios ilustrados ordinarios, salvar y mejorar vidas en los países ricos es casi tan importante como salvar y mejorar vidas en países pobres, siempre que las vidas mejoren en cantidades más o menos comparables. Pero ahora me parece más plausible que salvar una vida en un país rico es sustancialmente más importante que salvar una vida en un país pobre, en igualdad de condiciones.

Como muestra esto, uno de los peligros del largoplacismo radical es que inclina a los defensores a ignorar los gritos de las personas más desfavorecidas. Su sufrimiento es malo, sin duda, pero el fracaso en crear un cantidad mucho, mucho mayor de valor en un futuro muy lejano serían órdenes de magnitud peores. Para hacer esto más concreto, considere que hay 1.300 millones de personas hoy en día en pobreza multidimensional. Ahora compare esto con los 1058 personas digitales que podrían existir en el futuro. Para los longevos, podría existir implica debería existir, asumiendo que tales vidas serían mejores que miserables. Si analiza los números, lo mejor que puede hacer es concentrarse en todas estas personas del futuro, no en aquellas que luchan por sobrevivir hoy. Lo que más importa, argumenta Beckstead, es que nos centremos en la trayectoria de la civilización durante “los próximos millones, miles de millones y billones de años”.

El segundo peligro es que los verdaderos creyentes del largoplacismo radical se inclinen a cometer daños en aras de crear un paraíso tecno-utópico entre las estrellas lleno de valor astronómico. ¿Qué es exactamente lo que está fuera de la mesa dada la visión a largo plazo del futuro? ¿Qué medios no pueden ser justificados por un fin tan “inmenso y glorioso”? El propio Bostrom ha escrito que debemos mantener la violencia preventiva como una opción de “último recurso” para neutralizar las amenazas que podrían impedir que exista una civilización posthumana. También ha incursionado en la idea de implementar un sistema de vigilancia global masiva para monitorear las acciones de todos en el planeta, con el fin de prevenir la “destrucción de la civilización”, lo que podría representar un riesgo existencial. Esto fue publicado en una revista específicamente para los formuladores de políticas. O considere un escenario del mundo real esbozado por Olle Häggström, quien generalmente simpatiza con el largoplacismo. Haciendo referencia a la afirmación de Bostrom de que las reducciones minúsculas en el riesgo existencial son moralmente equivalentes a literalmente miles de millones de vidas humanas reales, Häggström escribe:

Me siento extremadamente intranquilo ante la perspectiva de que [Bostrom’s claim] podría llegar a ser reconocido entre los políticos y los tomadores de decisiones como una guía de políticas que vale la pena tomar literalmente. Sencillamente recuerda demasiado al viejo dicho “Si quieres hacer una tortilla, debes estar dispuesto a romper algunos huevos”, que normalmente se ha utilizado para explicar que un poco de genocidio podría ser algo bueno, si puede contribuir al objetivo de crear una utopía futura. Imagine una situación en la que el jefe de la CIA le explique al presidente de los EE. UU. que tienen evidencia creíble de que en algún lugar de Alemania hay un lunático que está trabajando en un arma del fin del mundo y tiene la intención de usarla para acabar con la humanidad, y que este lunático tiene una oportunidad en un millón de tener éxito. No tienen mayor información sobre la identidad o el paradero de este lunático. Si el presidente ha tomado en serio el argumento de Bostrom, y si sabe cómo hacer la aritmética, puede concluir que vale la pena llevar a cabo un ataque nuclear a gran escala contra Alemania para matar a todas las personas dentro de sus fronteras.

Que yo sepa, no hay hoy en día activistas a largo plazo radicales que pidan activamente algo como esto. Pero como explica Singer en su crítica del largoplacismo,

La visión de Marx del comunismo como la meta de toda la historia humana proporcionó a Lenin y Stalin una justificación para sus crímenes, y la meta de un “Reich de los Mil Años” fue, a los ojos de los nazis, razón suficiente para exterminar o esclavizar a aquellos considerados racialmente inferiores. … No estoy sugiriendo que ningún exponente actual de la idea de la bisagra de la historia aprobaría las atrocidades. Pero también Marx nunca contempló que un régimen que gobernara en su nombre aterrorizaría a su pueblo.

El punto crucial aquí es que todos los ingredientes necesarios para “justificar” las atrocidades están presentes en la ideología a largo plazo; de hecho, yacen en su muy central. Estas ideas y afirmaciones, argumentos y conclusiones, están allí mismo en la literatura canónica a largo plazo. Todo lo que falta es una situación en la que las acciones extremas parecen necesarias para salvaguardar nuestro futuro posthumano de valor astronómico, y alguien que, encontrándose en esta situación, se tome en serio las afirmaciones centrales de la literatura. Es muy posible que tal situación surja en el futuro, y que esa persona se encuentre en ella, embelesada e impulsada por visiones fantásticas de la utopía entre las estrellas.

Todos los ingredientes necesarios para “justificar” las atrocidades están presentes en la ideología a largo plazo. Todo lo que falta es una situación en la que las acciones extremas parecen necesarias para salvaguardar nuestro futuro posthumano de valor astronómico.

Por eso me ha alarmado cada vez más la influencia que ha adquirido el largoplacismo en los últimos cinco años. Elon Musk llamadas es “una pareja cercana a mi filosofía”. Un artículo de UN Dispatch informa que “la comunidad de política exterior en general y las Naciones Unidas en particular están comenzando a adoptar el largoplacismo”. La ideología es omnipresente en la industria de la tecnología y motiva gran parte de la investigación sobre cómo crear computadoras superinteligentes que algún día podrían reemplazarnos. Es la visión del mundo que apasionaba a Bankman-Fried, y que puede haberlo llevado a creer que un pequeño fraude, suponiendo que cometiera un fraude, lo que, nuevamente, parece probable, podría estar bien, ya que es por el bien cósmico mayor. De hecho, Bankman-Fried le dijo al New Yorker a principios de este año que nunca estuvo interesado en ayudar a los pobres del mundo; su “compromiso total” era con el largoplacismo. Por lo tanto, estableció el FTX Future Fund, que incluía a MacAskill y Beckstead en su equipo, para apoyar proyectos de investigación a largo plazo.

Estas son las dos razones principales por las que el largoplacismo radical es tan preocupante: minimiza todos los problemas sub-existenciales que enfrenta la humanidad y podría potencialmente inspirar actos de terror y violencia en nombre del mayor bien cósmico. Singer resume muy bien estas preocupaciones duales al escribir que

los peligros de tratar el riesgo de extinción como una preocupación primordial de la humanidad deberían ser obvios. Ver los problemas actuales a través de la lente del riesgo existencial para nuestra especie puede reducir esos problemas a casi nada, al tiempo que justifica casi cualquier cosa que aumente nuestras probabilidades de sobrevivir lo suficiente como para extenderse más allá de la Tierra.

Es de suma importancia que los periodistas, políticos, legisladores, empresarios y el público votante comprendan esta visión del mundo. Gran parte de mi artículo aquí ha esbozado las ideas centrales del largoplacismo utilizando el movimiento propias palabras – esto fue, por supuesto, a propósito, porque a menudo se descarta a los críticos por exagerar lo que realmente piensan los radicales a largo plazo. No estamos exagerando: la cosmovisión radical a largo plazo realmente es esto extraño, filosóficamente dudoso y potencialmente peligroso.

El colapso de FTX ha causado un daño inmenso a muchas personas, algunas, aparentemente, han perdido más de la mitad de su riqueza — y dañó gravemente la “marca” del largoplacismo. Lo que más me sorprende no es que implosionó un esquema Ponzi de criptomonedas dirigido por un longtermista utilitario, sino que el primer gran error relacionado con el longtermismo no fue aún peor. Si esta ignominiosa debacle no acaba con la ideología a largo plazo por completo, al menos debería provocar una reflexión extensa por parte de los líderes del movimiento sobre si deberían haber escuchado a sus críticos hace mucho tiempo.