“Llevo unos años obsesionado (…) con la supervivencia de la humanidad“, le aseguró el ganador del premio Nobel de Física 2004, David Gross, al medio especializado Live Science, tras augurar que las posibilidades de que la humanidad viva otras cinco décadas “son muy bajas”.
El experto abordó el tema durante la entrevista en la que se le preguntó respecto del futuro de la ciencia, en particular de la posibilidad de que se desarrolle alguna “teoría unificada” que explique las fuerzas fundamentales del universo.
Pero la respuesta de Gross no fue la que esperaba el reportero: “Actualmente, dedico parte de mi tiempo a intentar explicarle a la gente… que las probabilidades de que vivan 50 años más son muy bajas“, le dijo.
Por qué el físico cree que la humanidad no llegará al 2100
De acuerdo con lo argumentado por el físico, su análisis establece que, debido a la posibilidad de una guerra nuclear, la expectativa de vida para la especie humana es de unos 35 años, aunque admite que “es una estimación aproximada”.
Lo anterior, debido al incremento de que se produzca una guerra nuclear. “Incluso después del fin de la Guerra Fría, cuando teníamos tratados de control de armas estratégicas, que ya no existen, se estimaba que había un 1% de probabilidad de guerra nuclear cada año“, explicó.
“La situación ha empeorado muchísimo en los últimos 30 años, como se puede comprobar cada vez que se lee el periódico”, complementó.
Recalcó que una de las situaciones más complejas es que en los últimos 10 años, “ya no existen tratados. Estamos entrando en una increíble carrera armamentística. Tenemos tres superpotencias nucleares y se habla del uso de armas nucleares”.
“Hay una guerra importante en pleno desarrollo en el centro de Europa. Estamos bombardeando Irán. India y Pakistán estuvieron a punto de entrar en guerra. Eso ha aumentado la probabilidad”, alertó Gross.
El otro argumento que entregó el físico para augurar el próximo fin de la humanidad es la rápida incorporación de la inteligencia artificial a la vida diaria.
“Va a ser muy difícil resistirse a que la IA tome decisiones, porque actúa muy rápido”, apuntó el físico, según el que es muy probable que la inteligencia artificial aprenda a lanzar armas nucleares y que estas sean cada vez más sofisticadas.
Dijo que, en la medida en que los sistemas se vuelven más rápidos y complejos, la capacidad humana para supervisarlos en tiempo real se reduce y esa pérdida de control puede traer consecuencias irreversibles.