El riesgo de una catástrofe planetaria o una catástrofe global es un evento futuro hipotético que podría degradar el bienestar de la mayor parte de la humanidad, por ejemplo, al destruir la civilización moderna; esta noción, introducido por diversos autores desde el final del XX ° siglo fue teorizado y definida en 2008 por el filósofo Nick Bostrom , que también había propuesto en 2002 para llamar riesgo existencial eventos que podrían causar la extinción de la humanidad .
Los posibles desastres planetarios incluyen el cambio climático , las pandemias y las guerras nucleares , pero también los riesgos relacionados con las nanotecnologías o la absorción por parte de la inteligencia artificial hostil, así como los eventos espaciales como los impactos de meteoritos .
Un estudio cuantitativo riguroso de estos riesgos es difícil, debido a la incertidumbre sobre las consecuencias finales (lo que está en juego ) de la amenaza que desencadena el desastre, y sobre la probabilidad de esta amenaza, y también debido a los numerosos sesgos cognitivos que complican el análisis; además, un evento que podría haber causado la extinción de la humanidad o la destrucción completa de la civilización obviamente nunca ha ocurrido antes, la probabilidad de que ocurra se minimiza; este fenómeno se conoce en estadística como sesgo de selección .
Aunque el riesgo de una catástrofe planetaria ha sido objeto de muchas de ciencia ficción historias (a menudo modernización de mitos muy antiguos como Pandora ), y alarmismo declaraciones de la década de 1950, no fue hasta principios del XXI ° siglo que diversas organizaciones tienen Empecé a estudiarlos de forma sistemática, especialmente bajo el liderazgo de los movimientos transhumanistas , y más recientemente, la collapsologie .
Un riesgo importante es un evento incierto, cuya ocurrencia es a menudo poco probable, pero cuyos efectos negativos son considerables. Los geógrafos y muchos especialistas luego cortan esta noción en tres términos: la amenaza , que es el evento incierto en sí, las cuestiones que son valores ecológicos o socioeconómicos sujetos a los efectos de la amenaza cuando ocurre, y la vulnerabilidad , que determina el mayor grado de incidencia. o menor grado de destrucción de las emisiones por estos efectos. Por ejemplo, en el caso del riesgo de inundación del río , el peligro es la inundación del curso de agua, los problemas son las personas y los bienes expuestos a la inundación, finalmente la vulnerabilidad se mide en particular teniendo en cuenta la altura, solidez y impermeabilidad de los edificios en cuestión.
A principios de la década de 1980, el descubrimiento del cráter de impacto de Chixculub y su conexión con la desaparición de los dinosaurios llevó a considerar seriamente la posibilidad de catástrofes que pudieran tener consecuencias a escala de todo el planeta, y en particular a analizar en estas denomina las repercusiones sobre el clima y la agricultura de una guerra nuclear .
A partir de la década de 1990, advertencias cada vez más detalladas (como la Advertencia de los científicos mundiales a la humanidad de 1992), a veces retomando tesis más antiguas como las del informe Meadows de 1972, llevaron a varios autores a aclarar la definición de riesgos. de desastres regionales y que potencialmente afecten a toda la humanidad.
Así, el filósofo Nick Bostrom introdujo en 2002 el concepto de riesgo existencial ( inglés : riesgo existencial ) y en 2008 el concepto de riesgo de catástrofe planetaria ( inglés : riesgo catastrófico global ), en relación a una clasificación de riesgos según su extensión e intensidad. , el rango que va de la escala individual a todas las generaciones futuras, y la intensidad de "imperceptible" a "máxima" (se dan ejemplos en la tabla siguiente ). En esta escala, define un "riesgo de desastre planetario" como al menos "global" (que afecta a la mayoría de los seres humanos) y de "mayor" intensidad (que afecta el bienestar de las personas durante un período prolongado); un "riesgo existencial" se define como "transgeneracional" y "máximo" (irreversible y fatal a corto plazo). Por lo tanto, un riesgo existencial destruye a la humanidad (o incluso a todas las formas de vida superiores) o al menos no deja ninguna posibilidad para la reaparición de una civilización, mientras que una catástrofe planetaria, incluso si matara a la mayoría de los humanos, dejaría una posibilidad de supervivencia. y reconstrucción para otros; Bostrom, por tanto, considera que los riesgos existenciales son mucho más importantes; también señala que la humanidad no podría haber considerado el riesgo existencial antes de 1950, y que todas las estrategias diseñadas para reducir el riesgo de catástrofe planetaria son ineficaces frente a las amenazas de extinción total.
Independientemente de este trabajo, en Catástrofe: Riesgo y respuesta , Richard Posner en 2004 reunió eventos que trajeron “una conmoción o una ruina total” a escala global (en lugar de local o regional), considerándolos merecedores de una atención particular. del análisis costo-beneficio , porque podrían, directa o indirectamente, poner en peligro la supervivencia de la humanidad en su conjunto. Entre los eventos discutidos por Posner se encuentran los impactos cósmicos , el calentamiento global fuera de control , las heladas grises , el bioterrorismo y los accidentes con aceleradores de partículas .
Casi por definición, los desastres planetarios no solo son riesgos importantes , sino que corresponden a la máxima vulnerabilidad y problemas tan amplios que son imposibles de cuantificar. Esto da como resultado una confusión que a menudo se hace entre riesgo y peligro en este caso.
Riesgo | Imperceptible | Soportable | Importante | Máximo |
Personal | Pérdida de un cabello | Pérdida de un dedo | Amputación de una pierna | Muerto |
Local | Tráfico lento | Cortar carreteras | Destrucción de infraestructura |
Terremoto de Lisboa de 1755 |
Global | Calentamiento global de 0,03 ° C |
Año sin verano |
Destrucción completa de la capa de ozono |
Invierno nuclear |
Transgeneracional | Pérdida de una especie de escarabajos |
Desaparición de los felinos | Extinción del Holoceno | Fin de la humanidad |
Basado en un artículo de Nick Bostrom sobre la prevención de riesgos existenciales; sobre un fondo rosa, los riesgos de una catástrofe planetaria; sobre fondo naranja, riesgos existenciales. |
Bostrom identifica cuatro tipos de escenarios de catástrofes planetarias. Los “bongs” son catástrofes brutales (accidentales o deliberadas); los ejemplos más probables son las guerras nucleares , el uso agresivo (y fuera de control) de la biotecnología o la nanotecnología y los impactos cósmicos . Los “ crujidos ” son escenarios de degradación progresiva de las estructuras sociales, en los que la humanidad sobrevive, pero la civilización se destruye irreparablemente, por ejemplo, por el agotamiento de los recursos naturales o por presiones disgénicas que reducen la inteligencia media. Los "aullidos" ( chillidos ) son escenarios de futuros distópicos , como los regímenes totalitarios que utilizan inteligencias artificiales para controlar la especie humana. Los "lamentos" ( quejidos ) son la disminución gradual de los valores y la civilización . Nick Bostrom considera que los últimos tres tipos de escenarios impiden (más o menos definitivamente) que la humanidad se dé cuenta de su potencial; Francis Fukuyama cree que este argumento, que se basa en los valores del transhumanismo , no es suficiente por sí solo para clasificarlos a todos como riesgos de catástrofe planetaria.
Entre los riesgos existenciales, es decir los riesgos de extinción masiva de la biosfera incluida la especie humana, aparecen sobre todo causas naturales exógenas , tales como:
Algunos de estos fenómenos han ocurrido muchas veces en el pasado, pero su probabilidad de ocurrencia a escala histórica a menudo es imposible de evaluar debido a la falta de datos científicos suficientes (las observaciones precisas solo comenzaron hace tres años, siglos).
Por otro lado, los riesgos de desastres planetarios suelen corresponder a causas endógenas (debidas a acciones humanas):
Con el desarrollo de la tecnología, la destrucción, si no de la humanidad, al menos de la civilización moderna por las acciones de una nación, una corporación, una comunidad religiosa o de otro tipo, o incluso un individuo, es más probable que antes desde un punto de vista estadístico. vista. Sin embargo, es posible que el desarrollo de técnicas de seguridad reduzca estos riesgos, al tiempo que sacrifica los derechos humanos y las libertades democráticas .
Algunos escenarios combinan causas naturales y provocadas por el hombre: una gran tormenta magnética del Sol o una inversión del campo magnético de la Tierra podría bloquear el funcionamiento de dispositivos y redes electrónicos de los que la economía mundial se ha vuelto totalmente dependiente, lo que provocaría un colapso global y a pérdidas, conflictos a gran escala. Una pandemia puede tener importantes consecuencias económicas y provocar una crisis sistémica .
Según el Future of Humanity Institute , es más probable que las causas antropogénicas provoquen la extinción de la humanidad que las causas naturales. De manera similar, el Proyecto de Cambridge para el Riesgo Existencial (desarrollado en 2012 por el Centro para el Estudio del Riesgo Existencial de la Universidad de Cambridge ) sostiene que las "mayores amenazas" para la especie humana son antropogénicas ; es, según él, el calentamiento global, las guerras nucleares, las biotecnologías que han escapado al control y las inteligencias artificiales hostiles.
Desde 1947, el Boletín de los Científicos Atómicos ha analizado el riesgo de desastres planetarios (inicialmente, los asociados con el conflicto nuclear ), representando simbólicamente su estimación de riesgo utilizando el Reloj del Juicio Final . Desde 1991, este reloj se ha acercado cada vez más a la medianoche; en particular, en 2015, se adelantó dos minutos para reflejar el hecho de que el Boletín de los Científicos Atómicos considera que el calentamiento global ahora corresponde a un riesgo de catástrofe planetaria, y quizás existencial; el término "riesgo existencial" ( riesgo existencial ) aparece desde entonces en todos los documentos resumen que acompañan al análisis de nuevos riesgos, como el de la desinformación cibernética en 2020; En 2021, el reloj está a medianoche desde su creación, debido, entre otras cosas, a "las brechas en la gobernanza global que ha revelado la gestión de la crisis del Covid-19 ".
Las listas más detalladas de riesgos a continuación (algunos de los cuales están interrelacionados, por ejemplo, una crisis sistémica que debilita los servicios de salud aumentará los riesgos de una pandemia) se clasifican según la probabilidad estimada decreciente; esta clasificación, basada en el trabajo de los distintos grupos de estudio que se citan a continuación , no concuerda bien con las clasificaciones más tradicionales de geógrafos, que se basan especialmente en la tipología de cuestiones (medioambientales, económicas, etc.).
El calentamiento global de hoy ( que no se discute por la comunidad científica, que la mayoría atribuye a las actividades industriales desde el XIX ° siglo ), conduce a variaciones anormales en el clima sobre la Tierra, y los efectos secundarios tales como aumento del nivel del mar y su acidificación . Incluso las proyecciones más moderadas de este calentamiento sugieren que aumentará, en particular aumentando la frecuencia e intensidad de los eventos climáticos extremos (olas de calor, inundaciones, tormentas, etc.) y los desastres asociados a ellos. Entre sus efectos indirectos se encuentran la pérdida de biodiversidad , el daño al sistema de producción agrícola actual , el aumento de la propagación de enfermedades infecciosas como la malaria y la rápida mutación de microorganismos .
Incluso se ha sugerido que exceder un cierto umbral podría hacer que el clima de la tierra cambie a un estado estable ardiente similar al de Venus (esta es la tesis de la fuga climática ); escenarios incluso menos extremos, sin hacer la Tierra inhabitable, podrían provocar el fin de la civilización (un ejemplo de un nuevo riesgo climático que aparece en algunos de estos escenarios es la formación de hiperciclones ). Sin embargo, la existencia de climas mucho más cálidos en un pasado relativamente reciente, por ejemplo durante el comienzo del Eoceno , lleva a muchos especialistas a discutir que estos últimos riesgos son reales.
Superpoblación y crisis agrícolasLos desastres ecológicos, como las cosechas catastróficas seguidas por el colapso de los servicios de los ecosistemas , podrían resultar de las tendencias actuales de superpoblación , crecimiento económico ilimitado y falta de agricultura sostenible . La mayoría de los escenarios de desastre involucran uno o más de los siguientes factores: la extinción del Holoceno , la escasez de agua potable (que podría llevar a que aproximadamente la mitad de la humanidad tenga solo agua presentando riesgos para la salud) y la disminución de polinizadores , pero también sobrepesca , masiva deforestación , desertificación , cambio climático o finalmente episodios de contaminación del agua ; muchas de estas preocupaciones ya se reflejaban en el informe Meadows de 1972.
Incluso sin una catástrofe repentina (los "golpes" definidos por Nick Bostrom ), los desequilibrios entre la población y los recursos alimentarios corren el riesgo de conducir gradualmente a grandes crisis, catástrofes malthusianas (estos son "colapsos" ( crujidos ) para la misma clasificación). El XX XX siglo vio un rápido aumento de la población mundial , debido a los avances médicos y una clara mejora de la productividad agrícola, especialmente de la revolución verde . Así, entre 1950 y 1984, las transformaciones globales de la agricultura llevaron a un aumento del 250% en la producción de cereales. La Revolución Verde permitió que la producción de alimentos siguiera el ritmo del crecimiento de la población e incluso que lo promoviera. La energía requerida para el trabajo agrícola fue proporcionada por combustibles fósiles, ya sea para tractores y riego (a motores que consumen hidrocarburos ), o para la fabricación de fertilizantes y plaguicidas; la llegada del cenit del petróleo podría conducir a una crisis agrícola.
En un estudio titulado Food, Land, Population and the US Economy , David Pimentel (profesor de la Universidad de Cornell ) y Mario Giampietro (investigador del Instituto Nacional de Investigación sobre Alimentos y Nutrición ) estiman que la población estadounidense máxima para una economía sostenible no puede exceder los 200 un millón de personas; el mismo estudio afirma que para evitar desastres, la población mundial debería reducirse en dos tercios; creen que las consecuencias de esta crisis agrícola deberían aparecer a partir de 2020 y volverse críticas después de 2050. Dale Allen Pfeiffer teme que en las próximas décadas se produzca un aumento de los precios de los alimentos seguido de hambrunas masivas como las que el mundo todavía nunca ha conocido. Estos cálculos se superponen con los de la ONG estadounidense Global Footprint Network , que determina el día de la superación (la fecha en la que se consumió en su totalidad la producción mundial anual de recursos renovables ), y señala que desde 1971 (año en que se produjo por primera vez), sucede todos los años antes: en 2019 tiene lugar el 26 de julio; si en 2020, debido a la pandemia Covid-19 , solo tuvo lugar el 22 de agosto, vuelve al 29 de julio a partir de 2021.
Desastres ambientalesAdemás de las crisis mencionadas anteriormente, varios riesgos ecológicos amenazan la producción agrícola. Por lo tanto, el trigo , el segundo cereal producido después del maíz, sigue siendo susceptible a las infecciones por hongos. Ug99 , una cepa de roya negra , puede causar la pérdida total de cultivos de la mayoría de las variedades modernas. La infección se transmite por el viento y no se conoce ningún tratamiento; si contaminase las principales regiones de producción (Estados Unidos, Europa, Rusia y el norte de China), la crisis resultante conduciría a un aumento vertiginoso de los precios, pero también a la escasez de otros productos alimenticios. Al igual que con otros escenarios de desastres, es de temer los desplazamientos masivos de población o incluso las guerras. Por otro lado, a pesar de los debates sobre la introducción de plantas modificadas genéticamente , los riesgos de que esta introducción provoque una catástrofe ecológica global (por ejemplo, por la aparición de insectos resistentes a todos los pesticidas, o malezas invasoras) parecen insignificantes.
La mayoría de los otros posibles desastres ambientales ( derrames de petróleo , contaminación industrial e incluso accidentes nucleares ) permanecen localizados. Sin embargo, la nube marrón asiática podría tener consecuencias climáticas en todo el mundo; de manera similar, la contaminación de los océanos parece estar volviéndose global. En particular, según la Fundación Race for Water , “[…] la contaminación de los océanos por plásticos […] representa el peor desastre ecológico de la historia. " .
Finalmente, las muertes por contaminación del aire están alcanzando niveles alarmantes y provocando un déficit económico anual de cientos de miles de millones de dólares, según el Banco Mundial . Sin embargo, no está claro que se trate de un desastre planetario en el sentido de Nick Bostrom, en la medida en que muchas regiones tienen los medios para luchar contra esta contaminación a nivel local.
Todas las amenazas descritas en los apartados anteriores, consideradas crisis global, han sido objeto de varios intentos de alerta. El 13 de noviembre de 2017, la revista BioScience y la revista Le Monde publicaron un manifiesto firmado por 15.364 científicos de 184 países: señalando que desde la convocatoria de la " Advertencia de los científicos mundiales a la humanidad " lanzada en 1992 por la Unión de Científicos Preocupados y más más de 1.700 científicos independientes, incluida la mayoría de los premios Nobel de ciencia vivos en ese momento, “no solo la humanidad no ha logrado avances suficientes en la solución de estos desafíos ambientales predichos, sino que es motivo de gran preocupación que la mayoría de ellos hayan empeorado considerablemente” . Concluyen: “Para evitar la miseria generalizada y la pérdida catastrófica de la biodiversidad, la humanidad debe adoptar una alternativa que sea más sostenible desde el punto de vista ambiental que su práctica actual. Aunque esta recomendación ya fue formulada claramente hace veinticinco años por los principales científicos del mundo, en la mayoría de las áreas no hemos escuchado su advertencia. Pronto será demasiado tarde para desviarnos de nuestro camino condenado porque el tiempo se acaba ” ; En noviembre de 2019, este texto fue retomado por más de 11.000 científicos, insistiendo en “el riesgo de sufrir indecibles sufrimientos por la crisis climática”.
El 6 de mayo de 2019, la IPBES , tras su reunión en París , a su vez lanzó una gran alerta sobre la pérdida de biodiversidad , afirmando que "la salud de los ecosistemas de los que dependemos, como todas las demás especies, se está deteriorando más rápido que alguna vez ” y que “ un millón de especies animales y vegetales ... están en peligro de desaparecer en el corto plazo ” , lo que representa una de cada ocho de las especies conocidas hasta la fecha.
Guerras y destrucción masivaEl escenario que más se ha estudiado es el de la guerra nuclear . Aunque la probabilidad anual de una guerra de este tipo es baja, Martin Hellman señaló en 1985 que si esta probabilidad permanece constante o no disminuye lo suficientemente rápido, la guerra es inevitable a largo plazo: inevitablemente llegará un día en que la suerte de la guerra vendrá, la civilización se agotará. Durante la Crisis de los Misiles en Cuba , John Kennedy estimó que las probabilidades de una guerra nuclear eran "entre una en tres y una en dos"; En varias ocasiones, el estallido de tal conflicto (con sus riesgos de escalada incontrolable) solo se evitó por poco, como en 1962, cuando Vasily Arkhipov se opuso al envío de un misil nuclear contra un barco estadounidense, o durante la falsa alarma nuclear soviética de 1983 .
A partir de 2020, Estados Unidos y Rusia tienen un arsenal combinado de 12,100 armas nucleares y, incluidas otras potencias nucleares, hay 13,400 armas nucleares en existencia en todo el mundo, con un poder destructivo total de aproximadamente 5,000 megatones (Mt), o 250,000. multiplicado por el de la bomba de Hiroshima , que es sólo una fracción del arsenal de la Guerra Fría y se reduce constantemente; Estas cifras, sin embargo, explican las estimaciones pesimistas simbolizadas por el Reloj del Apocalipsis , que se adelantó en 2018 para reflejar la preocupación por "la incapacidad de los líderes mundiales para enfrentar las inminentes amenazas de una guerra nuclear " , y que se adelantó nuevamente el 23 de enero. , 2020 por las mismas razones, acompañado de una nueva preocupación por la desinformación cibernética .
El público en general a menudo identificaba la guerra nuclear con el " fin del mundo " , pero hasta principios de la década de 1980, los líderes y expertos veían solo un riesgo bajo de la extinción completa de la humanidad como resultado de la muerte. famosa declaración de 1957, Mao Zedong explicó que no temía una guerra nuclear, en la que "muchos chinos sobrevivirían"; nuevamente en 1982, Brian Martin estimó que un intercambio de bombas entre los Estados Unidos y la URSS podría matar de 400 a 450 millones de personas directamente, y tal vez unos cientos de millones más por las consecuencias, especialmente en el hemisferio norte, es decir, "pequeños más del 10% de la humanidad ”. Sin embargo, a partir de 1983, escenarios más pesimistas, teniendo en cuenta la noción de invierno nuclear , llevaron a temores, como mínimo, de una destrucción completa de la civilización en este caso, en particular por la imposibilidad del invierno nuclear . varios años.
Las armas del Apocalipsis constituyen una forma última del concepto de disuasión nuclear : son armas suicidas que garantizan que un hipotético agresor perecería con el agredido (y con el resto de la humanidad). Son técnicamente factibles (como las bombas H gigantes de sal a cobalto ), pero el concepto fue abandonado a principios de la década de 1960 (principalmente porque por naturaleza eran una espada de Damocles para sus dueños), y ya no forman parte de la seriedad. considerados riesgos existenciales.
Otros tipos de armas y conflictos pueden generar riesgos de catástrofes planetarias, en particular el uso de armas de destrucción masiva ( químicas y biológicas ), pero también ciertas formas de bioterrorismo (porque corren el riesgo de desencadenar pandemias incontrolables).
Riesgos sistémicosAunque las crisis financieras , como la Gran Depresión , a menudo han sido globales en el pasado, hasta entonces no se podía llamar riesgo de catástrofe planetaria en sentido estricto. Mais l'accélération des communications et l'utilisation massive d'Internet rendent désormais envisageable deux types d'effondrement du système : d'une part une déstabilisation des mécanismes financiers, provoquée par exemple par une amplification des fluctuations boursières échappant à tout contrôle (risque qui a été associé aux transactions à haute fréquence lors du Flash Crash de 2010 ), ou par une crise de confiance analogue à la crise des subprimes , d'autre part une perte physique d'informations, voire de valeurs, liée à une panne d 'Internet. El primer riesgo es difícil de medir (y en particular, poco asegurable ); sin embargo, Internet ha sido diseñado para soportar la mayoría de los ataques o si se producen errores, y es sólo el comienzo del XXI ° siglo , se observó que una llamarada solar lo suficientemente potente, como la de 1859 o que de 2012 Julio , se interrumpe suficientemente comunicaciones y la electrónica a "pasar la civilización en el XVIII ° siglo" .
De manera más general, la globalización y la interconexión de varios sistemas ahora significa que una crisis local o una que involucre solo un recurso puede, por efecto dominó , conducir a una catástrofe planetaria (estos son "colapsos" ( crujidos ). En el sentido de Nick Bostrom ) . La crisis más conocida de este tipo es la llegada del pico del petróleo (y en particular sus consecuencias en la agricultura), pero se ha anticipado desde hace varias décadas , y solo serían efectos indirectos inesperados los que podrían convertirlo en un colapso global. Otros escenarios de crisis sistémica de este tipo han sido menos estudiados y podrían tener consecuencias difíciles de reparar; Podemos mencionar así la " crisis del agua ", que se globaliza, pero que sobre todo podría desembocar en una guerra entre China, India y Pakistán (tres potencias nucleares) por el control de los recursos hídricos en el Himalaya, o la escasez de raros tierras , a priori de poca importancia, pero que pueden presionar la fabricación de productos tan diversos como bombillas de bajo consumo, coches eléctricos o aerogeneradores , con importantes consecuencias en la transición energética . Alrededor de 1990, Joseph Tainter desarrolló análisis más generales de estos escenarios; en su obra más conocida, El colapso de sociedades complejas , estudia el colapso de la civilización maya , la civilización anasazi y el Imperio Romano , en términos de teoría de redes , economía energética y teoría de la complejidad . Si bien estas crisis son el resultado de cadenas de desastres locales, no inevitables y a los que podemos esperar encontrar soluciones más o menos rápidas, Victor Clube y Bill Napier señalaron que escenarios de catástrofes sistémicas brutales (los “golpes”) desencadenados por un accidente local también son posibles, y dejan solo un estrecho margen de maniobra antes de convertirse en planetarios.
Posibles riesgos Inteligencia artificialEn 1993, Vernor Vinge popularizó, bajo el nombre de singularidad tecnológica , la idea según la cual si el hombre logra construir una inteligencia artificial (IA) superior a él, esta a su vez puede construir otra incluso superior. Esta retroalimentación positiva conduciría rápidamente a una superinteligencia inconcebible para nosotros. Él comenta que podría resultar peligroso para los humanos. Esta idea dio origen a un movimiento social , el singularitarismo .
Más precisamente, se ha sugerido que las computadoras capaces de aprender podrían rápidamente volverse superinteligentes y emprender acciones no previstas por su programación, incluso hostiles; o que los robots pudieran competir con la humanidad. También es posible que la primera superinteligencia en aparecer elimine a todas las demás, pudiendo también manipular cualquier inteligencia inferior para lograr sus objetivos. Nick Bostrom llama a esta pregunta el "problema de control".
Stephen Hawking , Bill Gates y Elon Musk han expresado temores de que las inteligencias artificiales crezcan fuera de control, y Hawking dijo que podría significar "el fin de la humanidad". Expertos participan en una conferencia de 2009 organizada por la Asociación para el Avance de la Inteligencia Artificial para discutir la posibilidad de que las computadoras y los robots adquieran algún tipo de autonomía , y la amenaza que esta posibilidad podría presentar. Además del hecho de que algunos robots han adquirido diversas formas de semiautonomía, que van desde encontrar salidas para recargar hasta elegir objetivos para atacar, señalan que algunos virus informáticos pueden luchar activamente contra su eliminación y alcanzar "el nivel de inteligencia de las cucarachas ". . Estos expertos añaden que si sigue siendo improbable un surgimiento de la conciencia como a menudo se describe en la ciencia ficción, no se pueden descartar otros problemas o peligros. Más recientemente, varios grupos científicos notan una aceleración del progreso en inteligencia artificial (de los cuales la victoria de AlphaGo contra Lee Sedol en marzo de 2016 se convierte en uno de los signos más visibles) que puede generar nuevas preocupaciones. Eliezer Yudkowsky piensa que los riesgos creados por la inteligencia artificial son más impredecibles que cualquier otro tipo de riesgo y agrega que la investigación sobre este tema está siendo sesgada por el antropomorfismo : las personas basan su análisis de la inteligencia artificial en su propia inteligencia, esto los lleva a subestimar las posibilidades de la IA. También separa los riesgos en problemas técnicos (algoritmos imperfectos o defectuosos que impiden que la IA logre sus objetivos), y fallos "filosóficos", mucho más perniciosos y difíciles de controlar, donde los objetivos de la IA son de hecho dañinos para la humanidad. Nick Bostrom se incorporó a este puesto publicando en 2014 Superintelligence: Paths, Dangers, Strategies .
BiotecnologíasLa biotecnología puede crear un riesgo de catástrofe planetaria al desarrollar agentes infecciosos naturales o artificiales, que luego podrían propagarse mediante el uso de armas biológicas , a ataques terroristas o por accidente, provocando pandemias .
Se observa un crecimiento exponencial en el sector biotecnológico; Noun y Chyba predicen que esto conducirá a una gran mejora en estas técnicas en las próximas décadas. Consideran que los riesgos correspondientes de la guerra biológica y el bioterrorismo son mayores que los de las armas nucleares o químicas, porque los agentes infecciosos son más fáciles de producir y su producción en masa es difícil de controlar, volviéndose accesibles las correspondientes capacidades tecnológicas, incluso para individuos aislados. Hasta ahora, los usos terroristas de la biotecnología han sido raros, pero es difícil saber si esto se debe a la falta de medios o de motivación.
El principal riesgo esperado en el futuro es la aparición de agentes infecciosos modificados genéticamente o totalmente artificiales. De hecho, generalmente se cree que la virulencia de los agentes infecciosos naturales, que han coevolucionado con sus huéspedes, está limitada por la necesidad de que los huéspedes sobrevivan el tiempo suficiente para transmitir el agente, pero es posible modificar genéticamente estos agentes (voluntariamente). o accidentalmente) para cambiar su virulencia y otras características. Por ejemplo, un grupo de investigadores australianos cambió involuntariamente las características del virus de la viruela del ratón al tratar de desarrollar un virus que esterilizaría a los roedores; el virus modificado se volvió extremadamente letal incluso en ratones vacunados o con resistencia natural. Si no están estrictamente reguladas, las tecnologías que permiten la manipulación genética de las características del virus pueden estar fácilmente disponibles en el futuro.
Noun y Chyba proponen tres categorías de medidas para reducir los riesgos de pandemias (naturales o provocadas por el hombre): regulación o prohibición de investigaciones potencialmente peligrosas, mejora de la vigilancia de la salud y desarrollo de medios para luchar contra la propagación de epidemias (por ejemplo, producir vacunas más eficaces y distribuirlas más ampliamente).
NanotecnologíasMuchas nanotecnologías están en desarrollo o ya se están utilizando. El único que parece presentar un riesgo de desastre planetario significativo es el ensamblaje molecular , una técnica que permitiría construir estructuras complejas con precisión atómica. El ensamblaje molecular es por el momento un concepto puramente teórico y que requiere importantes avances en nanotecnología, pero que podría hacer posible producir objetos sofisticados en grandes cantidades y a bajo costo en nano-fábricas del tamaño de impresoras 3D (que son un crudo y macroscópico versión del mismo concepto). Cuando estas nano-fábricas puedan producir más por sí mismas , la producción podría limitarse solo por la cantidad de recursos relativamente abundantes, como materias primas, energía y software; así podrían, entre otras cosas, fabricar a bajo costo armas sofisticadas, autónomas y duraderas.
Chris Phoenix clasifica los riesgos de desastre creados por la nanotecnología en tres categorías:
Sin embargo, también señala que es probable que las nanotecnologías reduzcan varios otros riesgos de catástrofe planetaria.
Varios investigadores afirman que la mayoría de estos riesgos provienen del potencial militar y la carrera armamentista. Se han sugerido varias razones de por qué estas técnicas podrían conducir a escaladas inestables (a diferencia de, por ejemplo, las armas nucleares):
La autorregulación de todos los actores, estatales o no, que parecen difíciles de lograr, las medidas para limitar los riesgos de armamento y guerra se han propuesto principalmente en el marco del multilateralismo . Debería desarrollarse una infraestructura internacional, quizás análoga a la Agencia Internacional de Energía Atómica y dedicada específicamente a las nanotecnologías, dando más poder al nivel supranacional. También es posible incentivar el desarrollo tecnológico diferencial , favoreciendo las tecnologías defensivas.
Son posibles otras catástrofes planetarias debidas a las nanotecnologías. Así, en 1986, en su libro Engines of Creation , Eric Drexler consideró la noción de gelatina gris , un tema a menudo retomado por los medios de comunicación y la ciencia ficción; este escenario involucra pequeños robots autorreplicantes que destruirían toda la biosfera usándola como fuente de energía y materiales. Sin embargo, ahora los expertos en la materia (incluido Drexler) han desacreditado este escenario; Según Chris Phoenix , "la gelatina gris solo podría ser el resultado de un proceso delicado y deliberado, no un accidente" .
Accidentes relacionados con la tecnología experimentalLa biotecnología podría conducir al desarrollo de pandemias incurables, las guerras químicas provocarían una contaminación irremediable, la nanotecnología produciría escarcha gris catastrófica. De manera más general, Nick Bostrom ha sugerido que cada nueva tecnología puede presentar riesgos impensable antes, y que en su búsqueda del conocimiento, la humanidad aún se arriesgaría inadvertidamente crear un dispositivo capaz de destruir la Tierra, o incluso el sistema solar , ellos. Física de partículas investigación que pueden crear condiciones excepcionales con consecuencias catastróficas. Algunos científicos ya estaban preocupados de que la primera prueba nuclear pudiera incendiar la atmósfera ; Más recientemente, han surgido especulaciones alarmistas con respecto a la posible producción de microagujeros negros , extraños u otros estados físicos anormales en el Gran Colisionador de Hadrones , y con la visión de una reacción en cadena que podría conducir al desastre . Estos temores particulares obviamente no se materializaron y, además, ya habían sido refutados por los cálculos, pero cada nuevo avance tecnológico puede dar lugar a temores similares.
Los riesgos descritos en esta sección corresponden a peligros independientes de las acciones humanas; la mayoría, con la principal excepción de las pandemias, apenas se mitigan con posibles medidas preventivas. Sin embargo, su probabilidad anual, comparada con la de los riesgos de origen humano, a menudo se estima que es insignificante (de nuevo con la excepción de las pandemias).
PandemiaLa mortalidad por pandemia es igual a la virulencia del agente infeccioso , multiplicada por el número total de personas infectadas. En general, se asume que existe un límite para la virulencia de los agentes infecciosos que han coevolucionado con sus huéspedes, porque un agente que mata a su huésped demasiado rápido no tendrá tiempo de propagarse. Este modelo simple predice que si no existe un vínculo entre la virulencia y el modo de transmisión, los agentes infecciosos progresarán a formas de baja virulencia y transmisión rápida. Sin embargo, esta hipótesis no siempre se verifica y cuando existe una relación entre virulencia y transmisión, por ejemplo porque la descomposición cadavérica libera el agente infeccioso, pueden aparecer altos niveles de virulencia, limitados solo por otros factores, como las interacciones entre diferentes hospedadores ( pulgas, ratas y humanos en caso de peste , por ejemplo); además, si la pandemia es un fenómeno secundario ligado a una zoonosis , la virulencia en humanos puede ser total. Muchas pandemias históricas han tenido un efecto devastador en grandes poblaciones, siendo las más conocidas la peste negra (entre 1347 y 1352) y la gripe española (1918-1919); esto implica que una pandemia mundial podría representar una amenaza realista para la civilización.
La corriente de vigilancia sanitaria hace que la probabilidad de una pandemia tan relativamente baja, al menos para agentes infecciosos, sea similar a los conocidos (y en particular no modificados por el uso de biotecnología ). Sin embargo, nunca se puede descartar la posibilidad de que aparezca un nuevo patógeno (como en el caso de las enfermedades emergentes ), o que una mutación haga que un virus como la influenza sea mucho más virulento ; un debilitamiento de los servicios de salud ligado, por ejemplo, a una crisis económica también podría hacer mucho mayor este riesgo de catástrofe planetaria. Por el contrario, las medidas de contención tomadas durante la pandemia de Covid-19 podrían tener importantes consecuencias económicas; la transformación de esta crisis en una catástrofe planetaria no es descartada por ciertos colapsólogos .
Aunque no está directamente relacionado con las pandemias, la aparición de " superbacterias " resistentes a todos los antibióticos plantea nuevas amenazas de crisis de salud. Por otro lado, enfermedades como la obesidad o las alergias , aunque no son contagiosas, se describen metafóricamente como pandemias; si se propagan, podrían terminar ejerciendo importantes presiones reproductivas a escala mundial.
Cambios climáticosUn cambio climático es un cambio duradero de los climas del mundo. En un pasado relativamente reciente (a escala geológica), la Tierra ha experimentado climas que van desde edades de hielo hasta episodios tan cálidos que las palmeras crecieron en la Antártida. Además, se asume que los llamados episodios de la Tierra Bola de Nieve , donde todos los océanos estaban cubiertos de hielo, tuvieron lugar en un pasado mucho más remoto. Los cambios climáticos repentinos (unas pocas décadas) tuvieron lugar a escala regional, por ejemplo durante la Pequeña Edad de Hielo o durante el Período Cálido Medieval , pero los cambios climáticos globales ocurrieron lentamente, al menos desde el comienzo del Cenozoico , y el clima se ha vuelto incluso más estable desde el final de la última Edad de Hielo hace diez mil años. A medida que la civilización (y la agricultura en particular) se desarrolló durante un período de climas estables, un cambio natural hacia un nuevo régimen climático (más cálido o más frío) podría representar un riesgo de catástrofe planetaria.
El período actual (el Holoceno ) se considera un episodio interglaciar en medio de una oscilación bastante regular entre glaciaciones y desglaciaciones, con un período de unos 50.000 años, lo que se explica por la teoría astronómica de los paleoclimas . Una nueva glaciación ciertamente constituiría una catástrofe planetaria en el sentido de Bostrom , pero aparte del hecho de que el modelo no predice ninguna para los próximos milenios, la intervención del calentamiento global probablemente modificará la evolución de los climas, posiblemente incluso conduciendo a cambio climático, aparición de regímenes muy diferentes a los vividos por la Tierra en el pasado.
VulcanismoLa erupción de un supervolcán puede provocar un invierno volcánico similar a un invierno nuclear , vinculado a una contaminación significativa (azufre, cenizas y dióxido de carbono). Uno de esos eventos, la erupción de Toba , ocurrió en Indonesia hace unos 71.500 años; Según la teoría del desastre de Toba , esta erupción podría haber reducido las poblaciones humanas a unas pocas decenas de miles de personas.
La Caldera de Yellowstone es otro de estos supervolcanes, que ha experimentado al menos 142 erupciones formadoras de calderas durante los últimos 17 millones de años, incluidas una docena de “supererupciones” . Durante la última de estas erupciones, hace 640.000 años, la ceniza expulsada cubrió todo Estados Unidos al oeste del Mississippi , así como el noroeste de México.
Este tipo de erupciones tiene consecuencias importantes sobre el clima global, que pueden llegar a desencadenar una glaciación si el sol permanece oculto el tiempo suficiente por las cenizas, o por el contrario al calentamiento global si son los gases de efecto invernadero los principales causantes. prevalecer. En menor escala, esto sucedió en 1816 después de la erupción de Tambora , lo que resultó en un “ año sin verano ”.
Aunque no bajo el mismo mecanismo, las erupciones que dieron origen a las provincias magmáticas están indudablemente acompañadas (durante decenas o incluso cientos de miles de años) de emisiones de gas y polvo en cantidades comparables a las de los supervolcanes. Siguen siendo mucho más raros (el más reciente, el del Grupo Basáltico de Columbia , que ocurrió hace unos quince millones de años), y generalmente se considera que son responsables de la más importante de las extinciones masivas , la extinción del Pérmico. El Triásico, por ejemplo, está correlacionado con la formación de las trampas siberianas . Este es claramente un riesgo existencial, pero uno sobre el que probablemente se nos advirtiera con milenios de anticipación.
Otros riesgos geológicosEl campo magnético de la Tierra se ha invertido muchas veces a lo largo de su historia, dejando huellas particulares en las rocas del fondo oceánico, lo que ha permitido fechar estas inversiones . Actualmente son poco frecuentes, el último tuvo lugar hace 780.000 años. En el momento de la transición, el campo se debilita considerablemente, permitiendo que la radiación ( viento solar , llamaradas solares , rayos cósmicos ) llegue al suelo, poniendo en peligro la civilización por aumento de cáncer, mutaciones, etc. Sin embargo, estas teorías actualmente permanecen parcialmente desacreditadas, y el análisis estadístico no muestra ninguna correlación entre estas reversiones y extinciones masivas .
Otro riesgo de catástrofe planetaria es un megatsunami , una ola gigante que podría ser provocada, por ejemplo, por el colapso de una isla volcánica. La probabilidad de este tipo de eventos ha sido muy exagerada por los medios de comunicación y estos escenarios solo corresponden a desastres regionales. Sin embargo, un impacto cósmico que se produzca en el océano (como el correspondiente a la extinción de los dinosaurios ) podría provocar que un megatsunami barriera continentes enteros.
Impacto cósmicoVarios asteroides han chocado con la Tierra durante su historia. El asteroide Chicxulub , por ejemplo, es la causa más probable de la extinción de los dinosaurios no aviares hace 66 millones de años, durante el Cretácico tardío . Un objeto de más de un kilómetro de diámetro que golpeara la Tierra probablemente destruiría la civilización y, a partir de los tres kilómetros, tendría muchas posibilidades de provocar la extinción de la humanidad; Se estima que estos impactos ocurren en promedio una vez cada 500.000 años (los impactos de objetos grandes, que superan los 10 kilómetros, son aproximadamente 100 veces menos frecuentes). El escenario de colisión combina varias de las catástrofes planetarias vistas anteriormente: invierno de impacto , activación de erupciones volcánicas y megatsunami (si el impacto tiene lugar en el océano), pero también terremotos , tormentas de fuego , etc.
Otras amenazas cósmicasAparte de los impactos de los asteroides, y quizás de las erupciones solares excepcionales , las otras amenazas identificables corresponden típicamente a escenarios de muy largo alcance o de muy baja plausibilidad; Además, no es concebible en un futuro previsible protegerse de él. Por lo tanto, el Sol pasará inevitablemente por una fase de expansión (transformándolo en una gigante roja que quizás abarque la órbita de la Tierra) en aproximadamente 7 mil millones de años; Asimismo, las simulaciones de movimientos planetarios a largo plazo muestran que una colisión entre Mercurio y la Tierra (un riesgo existencial para cualquier forma de vida) tiene una probabilidad no despreciable de que ocurra en unos pocos miles de millones de años.
Muchos eventos de alta energía, como estallidos de rayos gamma , supernovas e hipernovas , plantearían riesgos existenciales si ocurrieran a unos pocos cientos de años luz de la Tierra (una hipernova podría ser la causa de la extinción del Ordovícico-Silúrico ). . Sin embargo, se estima que la probabilidad de que esto ocurra es muy baja.
Otros riesgos, como el paso del sistema solar a través de una nebulosa oscura o una nube de polvo cósmico (que podría provocar un cambio climático significativo), o el acercamiento de otra estrella en un año, la luz solar, también se estima que son insignificantes en la escala. de los próximos milenios.
Vida extraterrestreDesde La Guerra de los Mundos , la vida extraterrestre y sus interacciones con la especie humana han sido temas recurrentes en la ciencia ficción. Sin embargo, aunque científicos como Carl Sagan creen que su existencia (pero no necesariamente la existencia de inteligencia extraterrestre) es muy probable, las distancias interestelares son tales que una interacción con la humanidad parece poco probable. El único riesgo que se puede prever razonablemente es el de la contaminación accidental (por ejemplo, por bacterias marcianas), e incluso este escenario se considera muy poco realista.
Ciertos peligros que no dependen de acciones humanas tienen una probabilidad que podemos considerar calcular con precisión. Entonces, la probabilidad de que la Humanidad se extinga en el próximo siglo debido a un impacto cósmico sería de una en un millón (aunque algunos científicos dicen que el riesgo podría ser mucho mayor). Asimismo, se estimó que la frecuencia de erupciones volcánicas de magnitud suficiente para crear una catástrofe climática, análoga a la que resultó de la explosión de Toba (que tal vez habría provocado la virtual extinción de la humanidad) fue de uno cada 50.000 años.
El peligro relativo que plantean otras amenazas es mucho más difícil de estimar. En 2008, en la Conferencia Planetaria sobre Riesgo de Desastres celebrada en la Universidad de Oxford , un grupo de expertos de renombre que unieron su experiencia en diferentes tipos de riesgo sugirieron una probabilidad del 19% de que la especie se extinguiera. Humana durante el próximo siglo (sin embargo, la conferencia Los procedimientos advierten que el método utilizado para sintetizar las respuestas dadas no tiene en cuenta correctamente la falta de respuesta a determinadas preguntas). El informe anual de 2016 de la Global Challenges Foundation señala que incluso las estimaciones más optimistas implican que el estadounidense promedio tiene cinco veces más probabilidades de morir en una catástrofe global que en un accidente automovilístico.
Peligro | Probabilidad estimada de un extinción de la humanidad antes de 2100 |
---|---|
Probabilidad total | 19% |
Armas que utilizan nanotecnología | 5% |
Inteligencia artificial hostil | 5% |
Guerras no nucleares | 4% |
Pandemia resultante de manipulaciones biológicas | 2% |
Guerra nuclear | 1% |
Accidente de nanotecnología | 0,5% |
Pandemia natural | 0,05% |
Terrorismo nuclear | 0,03% |
La estimación precisa de estos riesgos presenta considerables dificultades metodológicas. Se ha prestado mucha atención a los riesgos que abarcan los próximos cien años, pero pronosticar ese marco de tiempo es difícil: mientras que las amenazas planteadas por la naturaleza son relativamente constantes (aunque pueden descubrirse nuevos riesgos), las amenazas planteadas por la naturaleza son relativamente constantes (aunque Es posible que se descubran nuevos riesgos. Es probable que las amenazas antropogénicas cambien drásticamente con el desarrollo de nuevas tecnologías. En el pasado, se ha demostrado que la capacidad de los expertos para predecir el futuro en tales escalas de tiempo es bastante limitada. Además, además de los aspectos tecnológicos de estas nuevas amenazas, el análisis de su impacto en la sociedad y su capacidad para defenderse de ellas está limitado por las dificultades metodológicas de las ciencias humanas, y por la velocidad con la que las relaciones internacionales pueden cambiar.
Los riesgos existenciales plantean otros problemas de estimación, debido a un importante sesgo de selección , el principio antrópico . A diferencia de la mayoría de los otros desastres, el hecho de que una extinción masiva que afecte a la humanidad nunca haya ocurrido en el pasado no brinda información sobre la probabilidad de que ocurra tal evento en el futuro, porque, por definición, una extinción no deja observadores (humanos) y, por lo tanto, incluso si los desastres que constituyen riesgos existenciales fueran muy probables, el hecho de que la humanidad sobreviviera solo significaría que tuvo mucha suerte. Sin embargo, para estimar estos riesgos, sigue siendo posible utilizar eventos similares que han dejado rastros, como los cinco grandes episodios de extinción que precedieron a la aparición del hombre; A veces también es posible calcular los efectos de un desastre tecnológico en particular, por ejemplo, un invierno nuclear .
En 1950, el físico italiano Enrico Fermi se preguntaba por qué la humanidad aún no se había encontrado con civilizaciones extraterrestres. Como preguntó, “¿dónde están todos? ". Dada la edad del Universo y su gran cantidad de estrellas, la vida extraterrestre debería ser trivial, a menos que la Tierra sea muy atípica. Es esta peculiaridad la que se conoce como la paradoja de Fermi .
Aunque no es ampliamente aceptado, una explicación propuesta de la paradoja es la noción de riesgo existencial, y más específicamente, la idea de que civilizaciones que podríamos haber observado (o que podrían habernos visitado) fueron destruidas antes, dejar aparecer a la humanidad.
La reducción de los riesgos existenciales beneficia principalmente a las generaciones futuras; según la estimación de su número, se puede considerar que incluso una pequeña disminución del riesgo tiene un gran valor moral. Derek Parfit afirma así que nuestros descendientes podrían sobrevivir potencialmente otros cinco mil millones de años, hasta que la expansión del Sol haga inhabitable la Tierra; Nick Bostrom incluso piensa que la colonización del espacio permitiría que un número astronómico de personas sobreviviera durante cientos de miles de millones de años; es la comparación entre la población actual y esta enorme cantidad de descendientes potenciales destruidos por la extinción lo que justifica "moralmente" que se haga todo lo posible para reducir los riesgos.
Estas posiciones no han sido realmente controvertidas, aunque desde un punto de vista económico debe tenerse en cuenta que el valor de un bien corriente es más importante que el valor del mismo bien si no debe verse afectado solo en el futuro; el modelo más utilizado, el de descuento exponencial , podría hacer que estos beneficios futuros sean mucho menos significativos. Sin embargo, Jason Gaverick Matheny afirmó que este modelo es irrelevante para determinar el valor de la reducción del riesgo existencial.
Algunos economistas han intentado estimar la importancia de los riesgos de catástrofe planetaria (pero no de los riesgos existenciales). Martin Weitzman sostiene que la expectativa (en un sentido estadístico) del costo económico resultante del cambio climático es importante debido a situaciones en las que los modelos afectan una baja probabilidad, pero que causarían daños catastróficos. De manera más general, Richard Posner piensa que hacemos muy poco, la mayoría de las veces, para mitigar los riesgos de catástrofes planetarias cuando son bajos y difíciles de estimar.
Además de los sesgos cognitivos analizados en el siguiente apartado, también existen razones económicas que explican por qué se hace poco esfuerzo para reducir los riesgos existenciales, e incluso ciertos riesgos de catástrofe planetaria no irreparable: estos riesgos conciernen a un bien global, es decir. Que es decir, aunque una gran potencia los reduzca, disfrutará solo de una pequeña parte del beneficio correspondiente; además, la mayoría de estos beneficios serán cobrados por las generaciones futuras, quienes obviamente no tienen forma de pagar un seguro contra estos riesgos a las generaciones actuales.
Según Eliezer Yudkowsky , muchos sesgos cognitivos pueden influir en cómo los individuos y grupos sienten la importancia de los riesgos de una catástrofe global, a través de los cuales se incluyen la insensibilidad al alcance , la heurística de disponibilidad , la conjunción de error , la heurística del afecto y el efecto de exceso de confianza . Así, la insensibilidad al alcance lleva a la gente a preocuparse más por las amenazas individuales que por las dirigidas a grupos más grandes (razón por la cual sus donaciones para causas altruistas no son acordes con la magnitud del problema); esto hace que no consideren que la extinción de la humanidad sea un problema tan grave como debería ser. Asimismo, el error de conjunción les lleva a minimizar desastres que poco tienen que ver con aquellos de los que han tenido conocimiento, y a asumir que el daño que ocasionarán no será mucho más grave.
A menudo se ha observado que la mayoría de los riesgos antropogénicos mencionados anteriormente corresponden a mitos a menudo muy antiguos, siendo los de Prometeo , Pandora y, más recientemente, el del aprendiz de brujo los más representativos. El simbolismo de los Cuatro Jinetes del Apocalipsis , los tres últimos que representan la Guerra, el Hambre y la Plaga, ya se encuentra en el Antiguo Testamento en la forma de la incómoda elección ofrecida por Dios al Rey David . Los diversos riesgos de la revuelta de las máquinas aparecen en el mito del Golem y, combinados con la biotecnología, en la historia del monstruo de Frankenstein . Por otro lado, se ha sugerido que los relatos de desastres de varias tradiciones religiosas (donde se relacionan con mayor frecuencia con la ira de las deidades) corresponderían a recuerdos de catástrofes reales (por ejemplo, el Diluvio estaría relacionado con la reconexión del mar de Mármara con el Mar Negro ); Bajo el nombre de catastrofismo coherente ( catastrofismo coherente ), Victor Clube y Bill Napier desarrollaron la hipótesis de que las lluvias de meteoritos cataclísmicos han dado lugar a muchos mitos cosmológicos, que van desde la historia de la destrucción de Sodoma y Gomorra (tesis también defendida por Marie-Agnès Courty ) a las descripciones del Apocalipsis ; sus ideas, sin embargo, son poco aceptadas por la comunidad científica.
La existencia de estas interpretaciones "míticas" , así como de muchas profecías del fin del mundo , facilita un fenómeno de negativa parcial o total a tomar en cuenta estos riesgos de desastre, conocido como síndrome de Cassandra : mientras que los riesgos antropogénicos son minimizados por atribuyéndolos a miedos irracionales, los desastres descritos en los mitos se consideran exagerados por la ignorancia y la distorsión de los recuerdos.
El análisis de los riesgos provocados por el ser humano también adolece de dos sesgos opuestos: los denunciantes tienden a exagerar el riesgo para ser escuchados, o incluso a denunciar riesgos imaginarios en nombre del principio de precaución ; Poderosos intereses económicos tratan, por el contrario, de minimizar los riesgos vinculados a sus actividades, como muestra por ejemplo el caso del Heartland Institute , y más en general el análisis de las estrategias de desinformación expuestas en Los mercaderes de la duda .
Dando una interpretación racional al mito de la edad de oro , Jared Diamond finalmente señala que ciertas catástrofes (los "colapsos" ( crujidos ) de Nick Bostrom ) pueden pasar desapercibidos para las sociedades que los padecen, por falta de una memoria histórica suficiente. ; así explica, por ejemplo, el desastre ecológico que sufren los habitantes de Isla de Pascua .
El Bulletin of the Atomic Scientists es una de las organizaciones más antiguas que se ocupa de los riesgos globales; fue fundada en 1945 después de que el bombardeo de Hiroshima hiciera que el público en general tomara conciencia de los peligros de las armas atómicas. Estudia los riesgos asociados con las armas y tecnologías nucleares, y es famoso por su gestión del Reloj del Juicio Final desde 1947.
En 1972, el trabajo del Club de Roma dio lugar a un famoso informe, ¿ Detener el crecimiento? , Advirtiendo contra el riesgo de agotamiento de los recursos naturales y los desastres ambientales para el final de la XXI ° siglo. Aparecido en el medio del auge de la guerra , el informe fue fuertemente disputada en su lanzamiento por su pesimismo, sino más bien sus supuestos se consideran optimistas cuarenta años después de su publicación por el Club: el agotamiento de hecho sucede antes de mediados del XXI ° siglo.
Desde principios de la década de 2000 , un número creciente de científicos, filósofos y multimillonarios de las nuevas tecnologías han creado organizaciones independientes o vinculadas a la academia, dedicadas al análisis de riesgos de desastres planetarios.
Entre estas organizaciones no gubernamentales (ONG) se encuentra el Instituto de Investigación de Inteligencia Artificial (establecido en 2000), que tiene como objetivo reducir los riesgos de desastres asociados con la inteligencia artificial y la singularidad tecnológica , y del que Peter Thiel es un donante importante. Más recientemente, la Lifeboat Foundation (establecida en 2006) subsidia la investigación tecnológica de prevención de desastres, y la mayoría de los fondos se destinan a proyectos universitarios; El Future of Life Institute fue creado en 2014 para “buscar formas de salvaguardar a la humanidad frente a los nuevos desafíos tecnológicos” , Elon Musk es uno de sus mayores donantes.
Entre las organizaciones dependientes de las universidades se encuentra el Future of Humanity Institute , fundado en 2005 por Nick Bostrom en la Universidad de Oxford para realizar investigaciones sobre el futuro a largo plazo de la humanidad y los riesgos existenciales, el Centro para el estudio de los riesgos existenciales , fundado en 2012 en la Universidad de Cambridge (y de la que Stephen Hawking es consultor) para estudiar cuatro riesgos antropogénicos: inteligencia artificial , biotecnologías , calentamiento global y riesgos de guerra; o nuevamente, en la Universidad de Stanford , el Centro de Seguridad y Cooperación Internacional , estudiando políticas de cooperación para reducir el riesgo de una catástrofe planetaria.
Finalmente, otros grupos de evaluación de riesgos pertenecen a organizaciones gubernamentales. Así, la Organización Mundial de la Salud (OMS) cuenta con un departamento denominado Alerta y Respuesta Global (GAR) responsable de la coordinación entre los Estados Miembros en caso de una pandemia ; la Agencia de los Estados Unidos para el Desarrollo Internacional (USAID) tiene un programa similar. El Laboratorio Nacional Lawrence Livermore es una división, la Dirección Principal de Seguridad Global ( Ejecutivo Senior de Seguridad Global ) para estudiar en nombre del Gobierno temas como bioseguridad, contra el terrorismo, etc.
La noción de gobernanza global respetando los límites planetarios se ha propuesto como un enfoque para prevenir los riesgos de desastres ecológicos. En particular, el campo de la geoingeniería prevé manipular el medio ambiente a escala global para combatir los cambios antropogénicos en la composición atmosférica. Se han considerado técnicas integrales de almacenamiento y conservación de alimentos , pero su costo sería elevado y, además, podrían agravar las consecuencias de la desnutrición . David Denkenberger y Joshua Pearce sugirieron el uso de varios alimentos alternativos para disminuir el riesgo de inanición relacionado con desastres planetarios como un invierno nuclear o un cambio climático repentino, por ejemplo, convertir biomasa (árboles y madera) en productos comestibles; sin embargo, se necesitará mucho progreso en esta área para que estos métodos permitan sobrevivir a una fracción significativa de la población. Otras sugerencias de reducción de riesgos, como las estrategias de desviación de asteroides para hacer frente a los riesgos de impacto o el desarme nuclear , están resultando económica o políticamente difíciles de implementar. Finalmente, la colonización del espacio es otra propuesta que se hace para aumentar las posibilidades de supervivencia ante un riesgo existencial, pero soluciones de este tipo, actualmente inaccesibles, sin duda requerirán, entre otras cosas, el uso de ingeniería a gran escala .
Entre las precauciones efectivamente tomadas individual o colectivamente, podemos citar:
Rara vez se niega la importancia de los riesgos detallados en las secciones anteriores, incluso si los riesgos para los seres humanos a menudo se minimizan; sin embargo, los análisis de Nick Bostrom han sido criticados desde varias perspectivas distintas.
Muchos de los riesgos que menciona Nick Bostrom en sus libros se consideran exagerados (incluso imaginarios), o corresponden a escalas de tiempo tan vastas que parece un poco absurdo agruparlos con amenazas casi inmediatas. Además, los cálculos de probabilidad , expectativa o utilidad son difíciles o mal definidos para este tipo de situaciones, como muestran paradojas como el argumento del Apocalipsis , por ejemplo , y como lo reconoce el propio Nick Bostrom. En particular, desarrolló un argumento ético afirmando que el exorbitante número de nuestros descendientes condenados a la nada por una catástrofe existencial justifica el uso de todos los medios concebibles para reducir, por poco que sea, la probabilidad de este accidente; sin embargo, los cálculos en los que se basa han sido controvertidos y este argumento bien puede ser una falacia .
Nick Bostrom y Max Tegmark publicaron en 2005 un análisis del riesgo de inestabilidad de todo el universo . Independientemente de la validez de sus cálculos (tendiendo a mostrar que el riesgo es muy bajo), cabe preguntarse si realmente tiene sentido hablar de una catástrofe de la que nadie sería advertido y que no dejaría ningún observador; En una discusión similar sobre el riesgo de una reacción en cadena , un amigo respondió a las ansiedades de Richard Hamming con "No se preocupe, Hamming, no quedará nadie para culparlo" .
Los análisis de Nick Bostrom se basan en el transhumanismo , una ideología que aboga por el uso de la ciencia y la tecnología para mejorar las características físicas y mentales de los seres humanos; considera, por tanto, que todo lo que pueda impedir que la humanidad desarrolle plenamente su potencial es un riesgo existencial; estimando, por ejemplo, que solo la conquista del espacio interestelar puede proteger a la humanidad de peligros cósmicos previsibles en la escala de cientos de millones de años, pone entre los riesgos existenciales la desaparición del potencial tecnológico necesario para esta colonización.
Esta posición ha sido severamente criticada, entre otras cosas porque lleva a negar valores a los que se apega la humanidad presente, en nombre de hipotéticos valores futuros. Steve Fuller señala en particular que si una catástrofe planetaria no destruye a toda la humanidad, los sobrevivientes pueden creer legítimamente en algunos casos que su situación ha mejorado.
Los escenarios de catástrofe planetaria están germinando en los mitos más antiguos enumerados: inundación que envolvió a todos los seres vivos en la Epopeya de Gilgamesh , destrucción por hielo, agua o fuego en el mito nórdico de Ragnarök , lista de las diez plagas de Egipto , etc. estos relatos, ni los propuestos por la ciencia ficción hasta alrededor de 1950, se refieren a la plausibilidad científica o sociológica; Las descripciones de las distopías (correspondientes a los "aullidos" ( chillidos ) de Nick Bostrom ), con la notable excepción de 1984 , también prestan poca atención a la coherencia y viabilidad de los sistemas que ofrecen como contraste.
Después de Hiroshima , se desarrolló una abundante literatura postapocalíptica , incluyendo además obras no ubicadas en el campo de la ciencia ficción, como Malevil , pero la mayoría de estas novelas se centran en la cuestión de la supervivencia y no en las causas del desastre (casi siempre nuclear ); en 1985, Jacques Goimard explicará la popularidad de estas historias por el “deseo de colapso”.
A principios de la década de 1970, aparecieron descripciones de catástrofes ambientales orientadas al realismo. Así, John Brunner publicó Tous à Zanzibar (1968) y The Blind Troupeau (1972), denunciando respectivamente los peligros de la superpoblación y la contaminación , y queriendo ser científicamente irreprochables; se basa en documentación muy actualizada, que refleja los análisis de los primeros movimientos ambientales , y es incluso sorprendentemente precisa en sus predicciones.
Las novelas que describen desastres debido a nuevas tecnologías ( inteligencia artificial , biotecnologías , nanotecnologías , etc.) no aparecieron antes de 1990 y permanecieron marginales; muchos más están preocupados, como en las novelas de Iain Banks sobre Cultura , por cómo los humanos podrían adaptarse a estas tecnologías, en universos inspirados en ideas transhumanistas .
Los desastres han sido un tema de elección desde los inicios de la historia del cine (con por ejemplo en 1927 Metrópolis , considerada la primera película distópica ), pero la dificultad de lograr efectos especiales convincentes ha hecho que los directores se enamoren de sí mismos. mundo devastado, como en la serie de Mad Max .
Desde la década de 1990 , el enorme progreso de los efectos especiales digitales le dio a la película de desastres una nueva vida: el Día de la Independencia relatando una invasión alienígena, Volcán la erupción de un volcán en la ciudad o Armagedón describiendo la destrucción de un asteroide que amenaza el impacto ; también podemos citar las películas de la serie Terminator y las de la serie Matrix , que ilustran la “revuelta de las máquinas”. En 2004, El día después de Roland Emmerich describió un cambio climático brutal. Sin embargo, todas estas películas han sido objeto de fuertes críticas por su falta de realismo o verosimilitud.
Más recientemente, otros tipos de catástrofes planetarias, en particular pandemias , han sido objeto de películas que requieren menos efectos especiales y, además, más realistas, siendo la película más famosa de este tipo Contagio .