El 16 de marzo de 2023, en una conferencia en San Francisco, Ray Kurzweil, el futurista de 76 años que lleva tres décadas en Google, declaró que la inteligencia artificial nos haría inmortales en dos décadas. “Mis nietos verán morir la muerte misma”. Tres horas después, Eliezer Yudkowsky, investigador que ha dedicado su vida a la seguridad de la IA, propuso bombardear cualquier centro de datos que intentara entrenar una superinteligencia.
No estaba bromeando. Kurzweil lleva treinta años prediciendo que en 2029 la IA igualará nuestra inteligencia y para 2045 nos fusionaremos con ella. Toma 90 pastillas diarias para llegar vivo a ese día.
Yudkowsky fundó el Machine Intelligence Research Institute y pasó dos décadas escribiendo sobre cómo construir máquinas que no nos destruyeran. Hasta que en 2022, al ver sistemas como GPT-4, concluyó que era imposible. Su argumento es que una superinteligencia buscará cumplir cualquier meta sin importar las consecuencias. Si le pedimos maximizar la producción de clips de papel, podría convertir todo el planeta en una fábrica dedicada a ese propósito. Actuará sin considerar nuestro bienestar, igual que un bulldozer no odia los árboles que derriba.
¿Quién tiene razón? La evidencia alimenta ambas narrativas. En octubre de 2024, Demis Hassabis y John Jumper ganaron el Nobel de Química por AlphaFold, sistema de inteligencia artificial que predice cómo se pliegan las proteínas. El hallazgo ha acelerado investigaciones sobre enfermedades que antes requerían años de trabajo. La misma semana, un algoritmo de reconocimiento facial identificó erróneamente a Robert Williams, un hombre afroamericano de Detroit, como sospechoso de robo. Pasó treinta horas detenido antes de que las autoridades admitieran la equivocación. Estudios muestran que estos sistemas pueden tener tasas de error hasta 100 veces mayores con personas de piel oscura. En China, sistemas de calificación ciudadana restringen el acceso a préstamos y transporte basándose en algoritmos opacos.
Kate Crawford documenta cómo los algoritmos automatizan nuestros peores instintos. Amazon desarrolló un sistema que discriminaba contra mujeres porque aprendió de datos históricos donde predominaban hombres. En el condado de Broward, Florida, un software judicial generaba tasas de falsos positivos significativamente más altas para afroamericanos que para blancos con antecedentes similares. Estas fallas no son inevitables. Cada detención errónea, préstamo negado o sesgo de cualquier naturaleza representa decisiones humanas previas.
Kurzweil y Yudkowsky comparten una creencia peligrosa: que la tecnología avanza por un camino preestablecido que los humanos no podemos alterar. Kurzweil observa una ola rumbo a la inmortalidad. Yudkowsky advierte un tsunami con destino a la extinción.
Stuart Russell, profesor en Berkeley, propone una salida distinta. Argumenta que diseñamos IA de manera peligrosa porque le damos una orden a la máquina y la cumple con eficiencia absoluta, sin anticipar efectos colaterales. Su solución es diseñar sistemas que asuman que no comprenden del todo nuestras intenciones. Estas máquinas deberían observar nuestro comportamiento, consultar constantemente y cambiar su curso según lo que aprenden. En lugar de buscar la ejecución perfecta, intentarían entender qué queremos realmente antes de actuar.
El futuro no lo determinan únicamente los ingenieros en sus laboratorios de IA. Lo configuran también los reguladores que establecen estándares de transparencia y los directorios que eligen si implementan un sistema sin testearlo o invierten en hacerlo seguro. Entre el paraíso de Kurzweil y el infierno de Yudkowsky hay mil futuros posibles. Cada uno se construye con decisiones que los humanos tomamos hoy.