inoticia

Noticias De Actualidad
Cómo ve Elon Musk el futuro: su extraña visión de ciencia ficción debería preocuparnos a todos

El mundo se ha vuelto loco. — Elon Musk

¿Qué quiere Elon Musk? ¿Cuál es su visión del futuro? Estas preguntas son de enorme importancia porque las decisiones que toma Elon Musk, de manera unilateral, antidemocrática, dentro de la burbuja relativamente pequeña de multimillonarios tecnológicos desconectados, muy probablemente tendrán un impacto profundo en el mundo que usted y yo, nuestros hijos y nietos, terminan viviendo en. Musk es actualmente la persona más rica del planeta y, aunque solo sea en virtud de este hecho, uno de los seres humanos más poderosos de toda la historia. Lo que él quiere que sea el futuro es, muy probablemente, cuál será el futuro para toda la humanidad acabará convirtiéndose.

Por eso es crucial desentrañar la cosmovisión normativa subyacente que ha dado forma a sus acciones y declaraciones públicas, desde fundar SpaceX y Neuralink hasta quejarse de que estamos en medio de “un desastre demográfico” porque subpoblacióna intentar, pero, lamentablemente, fracasar, comprar Twitter, la plataforma de redes sociales más influyente del mundo.

Musk nos ha dado algunas pistas sobre lo que quiere. por ejemplo, el dice espera “preservar la luz de la conciencia convirtiéndose en una civilización espacial y extendiendo la vida a otros planetas”, aunque hay buenas razones para creer que las colonias marcianas podrían resultar en guerras interplanetarias catastróficas que probablemente destruirán a la humanidad, como dice el teórico político Daniel Deudney. ha argumentado convincentemente en su libro “Dark Skies”. Musk afirma además en una entrevista reciente de TED que su “visión del mundo o filosofía motivadora” tiene como objetivo

para entender qué preguntas hacer sobre la respuesta que es el universo, y en la medida en que ampliemos el alcance y la escala de la conciencia, biológica y digital, seremos más capaces de hacer estas preguntas, enmarcar estas preguntas y comprender por qué estamos aquí, cómo llegamos aquí, qué diablos está pasando. Y así, esa es mi filosofía impulsora, expandir el alcance y la escala de la conciencia para que podamos comprender mejor la naturaleza del universo.

Pero más concretamente, la visión futurológica de Elon Musk también ha sido influenciada de manera crucial, al parecer, por una ideología llamada “largoplacismo”, como argumenté el pasado mes de abril en un artículo para Salon. Aunque el “largoplacismo” puede tomar muchas formas, la versión de la que Elon Musk parece más enamorado proviene del filósofo sueco Nick Bostrom, quien dirige el pomposamente llamado “Future of Humanity Institute”, que se describe a sí mismo en su sitio web como un “equipo de investigación multidisciplinario”. [that] incluye varias de las mentes más brillantes y famosas del mundo que trabajan en esta área”.

Musk parece preocupado por la escasez de población: le preocupa que no haya suficientes personas para colonizar Marte y que las personas ricas no estén procreando lo suficiente.

Por ejemplo, considere nuevamente los tuits recientes de Elon Musk sobre la subpoblación. No solo le preocupa que no haya suficientes personas para colonizar Marte: “Si no hay suficientes personas para la Tierra”, dice. escribe, “entonces definitivamente no habrá suficiente para Marte”; aparentemente también le preocupa que las personas ricas no estén procreando lo suficiente. como el escribió en un tuit del 24 de mayo: “Al contrario de lo que muchos piensan, cuanto más rico es alguien, menos hijos tiene”. Musk mismo tiene ocho hijos, y por lo tanto orgullosamente declarado“Estoy haciendo mi parte jaja”.

Aunque el temor de que las “personas menos deseables” superen a las “personas más deseables” (frases que el propio Musk no ha utilizado) se remonta a finales del siglo XIX, cuando el primo de Charles Darwin, Francis Galton, publicó el primer libro sobre eugenesia, la idea ha sido puesto en primer plano más recientemente por personas como Bostrom.

Por ejemplo, en el artículo de Bostrom de 2002 “Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards”, que es uno de los artículos fundadores del largoplacismo, identificó las “presiones disgénicas” como uno de los muchos “riesgos existenciales” que enfrenta la humanidad, junto con la energía nuclear. la guerra, el cambio climático fuera de control y nuestro universo como una gran simulación por computadora que se apaga, una posibilidad que Elon Musk parece tomar muy en serio. Como Bostrom escribió:

Es posible que la sociedad civilizada avanzada dependa de que haya una fracción suficientemente grande de individuos intelectualmente talentosos. Actualmente parece que hay una correlación negativa en algunos lugares entre el logro intelectual y la fecundidad. Si tal selección operara durante un largo período de tiempo, podríamos evolucionar hacia una especie menos inteligente pero más fértil, homo philoprogenitus (amante de muchos hijos).

En otras palabras, sí, deberíamos preocuparnos por la guerra nuclear y el cambio climático desbocado, pero deberíamos preocuparnos tanto como para sobre, para decirlo sin rodeos, personas menos inteligentes o menos capaces superando a las personas más inteligentes. Afortunadamente, continuó Bostrom, “la ingeniería genética se está acercando rápidamente al punto en el que será posible dar a los padres la opción de dotar a su descendencia de genes que se correlacionen con la capacidad intelectual, la salud física, la longevidad y otras características deseables”.

Por lo tanto, incluso si las personas menos inteligentes siguen teniendo más hijos que las personas inteligentes, las tecnologías avanzadas de ingeniería genética podrían rectificar el problema al permitir que las generaciones futuras creen bebés de diseño súper inteligentes que sean, como tales, superiores incluso a los más grandes genios entre nosotros. Esta idea neoeugenésica se conoce como “transhumanismo”, y Bostrom es probablemente el transhumanista más destacado del siglo XXI hasta el momento. Dado que Musk espera “impulsar la siguiente etapa de la evolución humana”, por ejemplo, poniendo electrodos en nuestros cerebros, se justifica concluir que Musk también es un transhumanista. (¡Ver Neuralink!)

Más recientemente, el 24 de mayo de este año, Elon Musk retuiteado otro artículo de Bostrom que también es fundamental para el largoplacismo, quizás incluso más. Titulado “Residuos astronómicos”, el tuit original lo describía como “Probablemente el artículo más importante jamás escrito”, que es el mayor elogio posible.

Dada la singular y profunda influencia de Musk en la forma de las cosas por venir, nos corresponde a todos, el público, los funcionarios gubernamentales y los periodistas por igual, comprender exactamente cuál es la grandiosa visión cósmica de Longtermismo bostromiano, como podríamos llamarlo, en realidad lo es. Mi objetivo para el resto de este artículo es explicar esta visión cósmica en todos sus detalles extraños y tecnocráticos, ya que he escrito sobre este tema muchas veces antes y una vez me consideré un converso a la cosmovisión cuasi-religiosa a la que corresponde.

La tesis principal de “Residuos astronómicos” extrae su fuerza de una teoría ética que los filósofos llaman “utilitarismo total”, a la que me referiré en forma abreviada como “utilitarismo” más adelante.

El utilitarismo establece que nuestra única obligación moral, el objetivo al que debemos aspirar siempre que se nos presente una elección moral, es maximizar la cantidad total de valor en el universo, donde el “valor” a menudo se identifica como algo así como “experiencias placenteras”.

Cuando nuestro universo finalmente se haya hundido en un estanque congelado de máxima entropía, cuanto más valor haya existido, mejor habrá sido ese universo. Pero, ¿cómo maximizamos exactamente el valor?

Entonces, cada vez que disfrutas de un buen programa de televisión, pasas una noche divertida con amigos, devoras una buena comida o tienes sexo, estás introduciendo valor en el universo. Cuando todo esté dicho y hecho, cuando el universo finalmente se haya hundido en un estanque congelado de máxima entropía según la segunda ley de la termodinámica, cuanto más valor haya existido, mejor habrá sido nuestro universo. Como seres morales, criaturas capaces de acción moral, a diferencia de los chimpancés, los gusanos y las rocas, estamos obligados a garantizar que exista la mayor cantidad posible de este “valor” en el universo.

Esto lleva a una pregunta: ¿Cómo podemos maximizar el valor exactamente? Como se insinuó anteriormente, una forma es aumentar la cantidad total de experiencias placenteras que cada uno de nosotros tiene. Pero el utilitarismo apunta a otra posibilidad: también podríamos aumentar la número total de personas en el universo que tienen vidas que, en general, crean cantidades netas positivas de valor. En otras palabras, cuanto mayor sea el número absoluto de personas que experimentan placer, mejor será nuestro universo, moralmente hablando. Por lo tanto, debemos crear como muchas de estas “personas felices” como nos sea posible.

Ahora mismo esta gente no existe. Nuestra última tarea moral es traerlos a la existencia.

Detrás de esta idea hay un relato muy extraño de lo que las personas, tú o yo, somos en realidad. Para los utilitaristas estándar, las personas no son más que “contenedores” o “recipientes” de valor. importamos solo como medio para un fin, como los objetos que permiten que exista “valor” en el universo. La gente es contenedores de valor y eso es todo, como sugiere el propio Bostrom en varios artículos que ha escrito.

Por ejemplo, describe a las personas en su artículo “Residuos astronómicos” como meras “estructuras de valor”, donde las “estructuras” pueden entenderse como “contenedores”. En otro artículo titulado “Carta desde la utopía”, Bostrom escribe que al modificar nuestros cuerpos y cerebros con tecnología, podemos crear un mundo tecno-utópico lleno de placeres infinitos, poblado por versiones superinteligentes de nosotros mismos que viven para siempre en un paraíso propio. hacer (¡no es necesaria ninguna religión sobrenatural!). Fingiendo ser un “posthumano” superinteligente e inmortal que escribe para los seres humanos contemporáneos, Bostrom proclama que “¡si tan solo pudiera compartir un segundo de mi vida consciente con ustedes! Pero eso es imposible. tu contenedor no podía contener ni una pequeña gota de mi alegría, es así de grande” (énfasis añadido).

Si desea objetar en este punto que está no solo un “contenedor de valor”, no estaría solo. Muchos filósofos encuentran esta explicación de lo que son las personas muy alienante, empobrecida e insostenible. Las personas, como yo diría, junto con muchas otras, deben ser vistas como fines en sí mismos que como tales son valiosos por sí mismos. No importamos simplemente porque somos los sustratos capaces de realizar “valor”, entendido como alguna propiedad impersonal que debe ser maximizada en el universo hasta los límites físicos absolutos. Todos somos únicos, importamos como fines más que como simples medios, en contraste con la visión utilitaria de los contenedores fungibles cuyo valor meramente instrumental es completamente derivado. (Desde ese punto de vista, sin nosotros, el valor no puede maximizarse, y por esa sola razón es importante que no solo sigamos existiendo, sino que “sean fructíferos y multiplíquense”, para citar la Biblia).

El argumento central de “Residuos astronómicos” adopta esta extraña visión de las personas y por qué son importantes. Dado que cuantos más contenedores de valor (es decir, personas como usted y yo) existan en el universo con cantidades netas positivas de valor, “moralmente mejor” se volverá el universo (desde el punto de vista utilitario), Bostrom se propone calcular cuántos podría haber gente futura si las generaciones actuales o futuras colonizaran una parte del universo llamada “Supercúmulo de Virgo”. El supercúmulo de Virgo contiene unas 1.500 galaxias individuales, incluida nuestra propia galaxia, la Vía Láctea, de la cual nuestro sistema solar es uno de un gran número; no sabemos la cifra exacta porque aún no las hemos contado todas.

Según el recuento de Bostrom, el supercúmulo de Virgo podría contener 1023 humanos biológicos por siglo, o un “1” seguido de 23 ceros. Ahora piense en eso: si estos humanos biológicos, los contenedores de valor, trajeran, en promedio, una cantidad neta positiva de valor al universo, entonces la cantidad total de valor que podría existir en el futuro si fuéramos a colonizar este supercúmulo sería absolutamente enorme. Sería tanto literal como figurativamente “astronómico”. Y desde la perspectiva utilitaria, eso sería extremadamente bueno, moralmente hablando.

Pero eso es solo la punta del iceberg. ¿Qué pasaría si fuéramos a simular seres sintientes en el futuro: conciencias digitales que viven en mundos simulados propios, que se ejecutan en computadoras hechas de exoplanetas enteros y alimentadas por los soles que los rodean que giran? Si esto fuera posible, si pudiéramos crear seres digitales capaces de tener experiencias placenteras en mundos de realidad virtual, potencialmente podría haber mucho más contenedores de valor (es decir, personas) que viven en el supercúmulo de Virgo.

¿Cuanto? Según Bostrom, el número límite inferior se elevaría a 1038 por siglo, o un 1 seguido de 38 ceros. Permítanme escribir eso para subrayar cuán grande es el número: 100,000,000,000,000,000,000,000,000,000,000,000,000. En comparación, menos de 8 mil millones de personas viven actualmente en la Tierra, y se estima que hasta ahora han existido 117 mil millones de miembros de Homo sapiens desde que nuestra especie surgió en la sabana africana hace unos 200.000 años. Escrito, 117 mil millones es 177.000.000.000. Diez elevado a 38 es camino, camino más grande que eso

Qué significa todo esto? Bostrom saca dos conclusiones: primero, dado que la entropía aumenta de acuerdo con la segunda ley de la termodinámica, los recursos que podríamos usar para simular a todas estas personas futuras (es decir, contenedores de valor) se desperdician cada segundo del día. “Mientras escribo estas palabras”, dice al comienzo de “Astronomical Waste”, “los soles están iluminando y calentando habitaciones vacías, la energía no utilizada está siendo arrojada a los agujeros negros y nuestra gran dotación común de negentropía [or negative entropy, the stuff we can use to simulate people] se está degradando irreversiblemente en entropía a escala cósmica”.

Esto significa que debemos intentar colonizar el espacio lo antes posible. En su cálculo, si 1038 contenedores de valor (es decir, personas) podrían existir en enormes simulaciones de computadora alimentadas por energía solar dentro del supercúmulo de Virgo, luego “alrededor de 1029 “vidas humanas potenciales” se pierden cada segundo que demoramos en colonizar el espacio. Dado que nuestra única obligación moral es crear tantas de estas personas como sea posible, de acuerdo con el utilitarismo, se deduce que tenemos la obligación moral de colonizar el espacio. lo antes posible.

Por supuesto, esto encaja con la prisa de Elon Musk por construir colonias en Marte, que se considera el trampolín para que nuestros descendientes se extiendan a otras regiones de la galaxia de la Vía Láctea más allá de nuestro pequeño y humilde sistema solar. Como Musk recientemente tuiteó, “La humanidad llegará a Marte durante tu vida”. En una entrevista de junio de este año, reiteró su objetivo de poner 1 millón de personas en Marte para 2050.

La importancia de esto es que, como implica el longevo Toby Ord, colega de Bostrom en el Future of Humanity Institute, en su libro reciente sobre el tema, inundar el universo con personas simuladas “solo requiere que [we] eventualmente viajar a una estrella cercana y establecer un punto de apoyo suficiente para crear una nueva sociedad floreciente desde la cual podamos aventurarnos más lejos”. Por lo tanto, al expandirse “solo seis años luz a la vez”, nuestros descendientes posthumanos podrían hacer “casi todas las estrellas de nuestra galaxia… alcanzable”, dado que “cada sistema estelar, incluido el nuestro, necesitaría establecer solo las pocas estrellas más cercanas [for] toda la galaxia [to] eventualmente llenar de vida”.

En otras palabras, el proceso podría ser exponencial, resultando en más y más personas (nuevamente, contenedores de valor) en el Supercúmulo de Virgo, y una vez más, desde el punto de vista utilitario, cuanto más mejor, siempre que estas personas aporten cantidades netas positivas, en lugar de negativas, de “valor” en el universo.

Pero la conclusión aún más importante que saca Bostrom de sus cálculos es que debemos reducir los “riesgos existenciales”, término que se refiere, básicamente, a cualquier evento que nos impida maximizar la cantidad total de valor en el universo.

Es por esta razón que las “presiones disgénicas” son un riesgo existencial: si menos “individuos intelectualmente talentosos”, en palabras de Bostrom, superan a las personas más inteligentes, entonces es posible que no podamos crear las tecnologías avanzadas necesarias para colonizar el espacio y crear poblaciones insondablemente grandes. de individuos “felices” en simulaciones informáticas masivas.

Esa es también la razón por la que la guerra nuclear y el cambio climático desbocado son riesgos existenciales: si causamos nuestra propia extinción, entonces, por supuesto, no quedará nadie para cumplir con nuestra obligación moral de maximizar el valor desde ahora hasta que el universo se vuelva inhabitable en un futuro muy lejano. Como concluye Bostrom, “para los utilitaristas estándar, la prioridad número uno, dos, tres y cuatro debería ser, en consecuencia, reducir el riesgo existencial. El imperativo utilitario ‘Maximizar lo esperado’ [value]!’ puede simplificarse a la máxima ‘¡Minimiza el riesgo existencial!'”

En consonancia con esto, Musk ha mencionado en numerosas ocasiones la importancia de evitar un “riesgo existencial”, a menudo en relación con las especulaciones sobre la creación de máquinas superinteligentes. De hecho, el riesgo existencial de las máquinas superinteligentes fue discutido en detalle por Bostrom en su éxito de ventas de 2014 “Superinteligencia”, aunque la mayoría de las ideas en ese libro, junto con la actitud elitista de Bostrom hacia el problema, provienen de otros teóricos. “Vale la pena leer superinteligencia por Bostrom”, tuiteó Musk poco después de su publicación, en lo que Bostrom ha utilizado desde entonces como propaganda para promover las ventas, como se ve en su sitio web.

En esta visión del mundo, la guerra nuclear y la catástrofe climática son “riesgos existenciales”, pero la pobreza, el racismo y el genocidio no son en esencia gran cosa.

Si bien no todos los retweets deben verse como patrocinios, el retweet de Elon Musk del artículo “Astronomical Waste” de Bostrom ciertamente se parece a eso. El tweet original no solo afirma que podría ser el artículo “más importante” jamás publicado, sino que sabemos que Musk ha leído y ha sido muy influenciado por al menos algunas de las contribuciones clave de Bostrom a la literatura a largo plazo de rápido crecimiento.

Musk quiere colonizar el espacio lo más rápido posible, al igual que Bostrom. Musk quiere crear implantes cerebrales para mejorar nuestra inteligencia, al igual que Bostrom. Musk parece estar preocupado por las personas menos “intelectualmente dotadas” que tienen demasiados hijos, al igual que Bostrom. Y Musk está preocupado por los riesgos existenciales de las máquinas superinteligentes, al igual que Bostrom. Como argumenté anteriormente, las decisiones y acciones de Elon Musk a lo largo de los años tienen más sentido si se lo considera un bostromiano a largo plazo. Fuera de este marco fanático y tecnocrático, tienen mucho menos sentido.

Todo esto es preocupante por muchas razones. Como argumenté el año pasado, el largoplacismo es “muy posiblemente el sistema de creencias seculares más peligroso del mundo actual”. ¿Por qué? Porque, si evitar un riesgo existencial debe ser —por razones supuestamente “morales”— nuestro principal cuatro prioridades globales como especie, donde la quinto la prioridad debe ser colonizar el espacio lo antes posible, entonces todos los demás problemas que enfrenta la humanidad terminan siendo degradados, minimizados, relegados a un segundo plano.

Por “todos los demás problemas”, me refiero a todos los problemas que son “no existenciales”, es decir, aquellos que no nos impedirían, a largo plazo, expandirnos por el cosmos, simular un gran número de personas digitales y maximizar el valor total.

¿Racismo? Claro, es malo, pero no es un riesgo existencial y, por lo tanto, luchar contra el racismo no debería ser una de nuestras principales prioridades globales. ¿Cambio climático? Bueno, mientras no cause directamente una catástrofe existencial, o indirectamente aumente tanto la probabilidad de otros riesgos existenciales, no deberíamos estar tan preocupados por eso. ¿Genocidio? Terrible, pero la eliminación de todo un grupo étnico, racial, religioso, etc., casi con certeza no amenazará nuestras perspectivas a largo plazo en el universo durante los próximos billones de años.

Para citar las propias palabras de Bostrom, un genocidio como el que se desarrolla en Ucrania en este momento podría constituir “una masacre gigante para el hombre”, pero desde la perspectiva a largo plazo es poco más que “un pequeño paso en falso para la humanidad”. En otro lugar, describió cosas como la Primera Guerra Mundial, la Segunda Guerra Mundial (que por supuesto incluye el Holocausto), la pandemia del SIDA que ha matado a más de 36 millones de personas y el accidente de Chernobyl de 1986 de esta manera: “Trágicos como tales eventos son para el las personas afectadas de inmediato, en el panorama general de las cosas… incluso la peor de estas catástrofes son meras ondas en la superficie del gran mar de la vida”. Meros ondulaciones.

Este es el marco ético que Elon Musk parece haber respaldado al twittear el artículo “Residuos astronómicos” de Bostrom. El futuro podría ser tan grande – podría contener tanta gente — que nada importa mucho ahora, en el siglo XXI, aparte de evitar los riesgos existenciales y expandirnos al espacio tan pronto como podamos.

Dado que Elon Musk es una de las personas más poderosas de toda la historia humana, deberíamos estar muy preocupados.

Estas consideraciones no solo brindan una razón sólida para tomar medidas inmediatas que harían a Musk menos poderoso, por ejemplo, exigiendo que, como mínimo, pague su parte justa en impuestos, sino que ofrece un argumento más general contra la desigualdad de riqueza: nadie deben estar en una posición en la que puedan controlar unilateral y antidemocráticamente de alguna manera significativa el curso futuro del desarrollo humano. Dicho control debe dejarse en manos de poblaciónla gente – nosotros deberíamos ser capaces de decidir nuestro propio futuro por nosotros mismos.

En este momento, el futuro está controlado por un pequeño grupo de personas extremadamente ricas que casi no rinden cuentas. Y algunas de esas personas adoptan visiones normativas del mundo que deberían ponernos a todos muy nerviosos.