La Tierra existe desde hace 45 millones de siglos y sin embargo este que estamos viviendo es único en la historia.

POR BBC

«Es el primer siglo en el que una especie, la nuestra, ostenta tanto poder y es tan dominante que tiene el futuro del planeta en sus manos», escribe el prestigioso astrónomo británico Martin Rees en «En el futuro. Perspectivas para la humanidad».

«Lo que está en juego es más importante que nunca; lo que ocurra en este siglo se hará sentir durante miles de años», sentencia en dicho libro de 2018.

En verdad Rees lleva más de dos décadas repitiendo estas advertencias que, para una amplia mayoría, sonarían interesantes, pero improbables. Quizás en aquel entonces, más que ciencia, parecían propias de ciencia ficción.

De hecho, él mismo reconoció en una charla TED que «nos preocupamos demasiado por riesgos menores: accidentes aéreos improbables, sustancias cancerígenas en los alimentos, dosis bajas de radiación… Pero nosotros y los políticos que nos gobiernan vivimos en negación de los escenarios catastróficos».

Entonces llegó 2020 y cada palabra de Rees pasó a tener una escalofriante vigencia.

Por ejemplo, en esa charla que dio en 2014 afirmaba que ahora «los peores peligros vienen de nosotros»: «Y no solo está la amenaza nuclear. En nuestro mundo interconectado (…) los viajes en avión pueden propagar pandemias en cuestión de días; y las redes sociales pueden divulgar pánico y rumores literalmente a la velocidad de la luz».

Sin embargo, hubo quienes no necesitaron la pandemia de covid-19 para escuchar a Rees. Desde 2015 un pequeño grupo interdisciplinario de investigadores trabaja bajo su liderazgo en el llamado Centro para el Estudio de Riesgo Existencial (CSER) en la Universidad de Cambridge, en Reino Unido.

El centro, que ha contado con el asesoramiento de destacadas figuras de la academia —como el físico Stephen Hawking— y de la industria —como el empresario Elon Musk—, investiga los peligros que podrían llevar a la extinción de la humanidad o al colapso de la civilización y qué hacer para mitigarlos.

Es justamente en este segundo aspecto que trabaja la bióloga molecular peruana Clarissa Ríos Rojas, quien ingresó al CSER en marzo, poco antes de que el gobierno británico decretara la cuarentena por coronavirus.

«Ya hemos tenido pandemias antes y sin embargo, covid-19 nos agarró desprevenidos», dice Ríos a BBC Mundo. «Entonces, ¿qué falló? ¿Cuáles son las lecciones que podemos aprender de este experimento y cómo podemos prepararnos nuevamente para el futuro?», se pregunta.

En otras palabras, su trabajo en Cambridge consiste en identificar por qué las predicciones basadas en datos científicos no son escuchadas y, en consecuencia, generar políticas públicas que preparen a la humanidad para la próxima catástrofe global.

Así como la profunda crisis provocada por el coronavirus no fue la primera, tampoco será la última.

5 áreas de riesgo
Lo primero que explica Ríos es que existe una diferencia entre riesgo catastrófico y existencial.

Si bien las definiciones varían levemente entre ellas, en general se entiende que los eventos de riesgo catastrófico son aquellos que, de ocurrir, terminarían con la vida del 10% de la población mundial o provocarían un daño equivalente.

Para tener una referencia, se considera que el evento más letal del siglo XX fue la pandemia de influenza de 1918, más conocida como gripe española, donde murieron entre el 1% y 5% de la población mundial, según distintos estimativos.

En cambio, un evento de riesgo existencial implica la aniquilación de todos los seres humanos o una reducción poblacional tan grande que no permita continuar con los estándares de vida actuales, que menoscabe drástica y permanentemente su potencial.

El CSER estudia este último tipo de eventos, a los cuales divide en cinco grandes áreas: riesgos biológicos, ambientales, tecnológicos, derivados de la inteligencia artificial y de las injusticias sociales.

Algunos ejemplos son muy claros, como las pandemias dentro del área biológica o el cambio climático en la ambiental. De hecho, otros riesgos naturales —como el impacto de un asteroide o la erupción de un supervolcán— están muy presentes en el imaginario colectivo, ya que han demostrado su poder devastador en el pasado.

Pero existen otros riesgos existenciales menos evidentes, como el de la inteligencia artificial.

«El miedo con la inteligencia artificial no es que surja un Arnold Schwarzenegger que nos mate a todos», dice Ríos en referencia al personaje de Terminator en la primera película de la saga.

«En realidad puede pasar que, para lograr el objetivo de salvar a la humanidad, se destroce todo el ecosistema porque no se le dieron los parámetros necesarios para guiar a esa inteligencia artificial que sigue aprendiendo por sí sola», explica.

Siga leyendo en BBC

Seguir leyendo…