Es difícil no haber leído algo sobre Inteligencia Artificial (IA) que transmita incertidumbre. En un podcast reciente, Tucker Carlson, ex Fox y miembro influyente del movimiento MAGA, entrevistó al CEO de ChatGPT, Sam Altman. En la conversación se muestra —a pesar de la insistencia del periodista republicano en atribuirle a la IA un carácter divino— un aspecto mucho más mundano: las reglas que moldean esta tecnología no son neutrales, sino escritas y revisadas por un grupo de personas.
Tenemos la impresión de que no hay diferencias de fondo entre los distintos proveedores de IA, en parte, porque persiste la idea de que la inteligencia artificial sería “artificial” en un sentido que elimina el factor humano de sus respuestas. Sin embargo, esta idea está lejos de ser cierta, y han sido las propias compañías quienes han empezado a reconocerlo. Esto se observa con especial insistencia en los carteles publicitarios que se ven entre el aeropuerto de San Francisco y el centro de la ciudad, donde cada anuncio sobre IA declara que esta tecnología es humana. Lo que falta entonces, es saber en qué creen y con qué principios trabajan las personas que diseñan el ChatGPT, Copilot y otros.
Según Altman, y a diferencia de lo que ha planteado el historiador y escritor israelí – Yuval Noah Harari, la IA no tiene agencia propia: solo responde a instrucciones humanas. Pero lo que no está claro es por qué responde lo que responde. Volviendo a la entrevista de Altman, el CEO de ChatGPT lo deja claro: “Consultamos a cientos de filósofos morales y expertos en ética tecnológica, y tuvimos que tomar decisiones”. Esas visiones de mundo están plasmadas en un documento llamado model spec, que funciona como un manual que determina qué puede decir y qué debe callar la IA. En otras palabras, un conjunto de decisiones normativas que orientan el comportamiento del ChatGPT. Altman asume incluso la carga personal: “La persona a la que deberían responsabilizar soy yo. Soy una figura pública. Al final, soy yo quien puede tomar cualquiera de estas decisiones”.
Lo decisivo entonces es la visión de mundo que informa estas reglas, y con qué claridad se le comunica eso a la gente. Si cada compañía instruye a sus modelos con principios propios, entonces lo que falta son declaraciones explícitas y comparables de valores: qué priorizan ante conflictos (libertad de expresión vs. prevención de daño; pluralismo vs. veracidad; protección de menores; tratamiento de la sexualidad y la religión, etc.), cómo ponderan esos criterios y quién puede cambiarlos.
Ahora bien, esas definiciones nunca se dan en el vacío: todas las IA han sido desarrolladas por compañías privadas, sustentadas en modelos de negocio que privilegian las ganancias. Esto significa que, junto con decisiones morales, pesan también las decisiones financieras, lo que explica la opacidad que rodea a estas reglas. Ante esa mezcla de principios y cálculos económicos, a los usuarios no nos queda otra que desarrollar la sospecha: leer con distancia lo que nos dicen ChatGPT o cualquier otra IA, sabiendo que detrás del cruce automatizado de miles de millones de datos siempre hay un punto de vista y un negocio que sostener.
Por eso, más que insistir en el argumento amenazador de la IA —una historia que las tecnologías repiten una y otra vez— o reclamar una moral única, lo urgente es evitar la opacidad y mientras exista asumirla como tal. Hoy, decisiones de alto impacto social están encapsuladas en manuales empresariales. Y si esas reglas orientan la esfera pública, sus fundamentos deben ser visibles y elegibles. Ahí se juega la diferencia entre una promesa de “IA humana” como eslogan y una IA con valores declarados, expuestos ante ciudadanos que puedan decidir.