Todo indica que se trataba de alguien dedicado profesionalmente al desarrollo de tecnologías de la IA
Por: Mario Alberto Velázquez García
Hace unos días escuchaba en una estación de radio de Sonora que, durante una presentación en la Feria del Libro de Guadalajara, un ponente afirmaba que pronto ya no sería necesario que las "mentes más brillantes" trabajaran, porque la Inteligencia Artificial estaba en condiciones de resolver los "mayores problemas" del planeta. Sin ningún cuestionamiento crítico, los locutores celebraron la idea y concluyeron —con algunos matices— que esta nueva forma de "inteligencia" podría, mediante la tecnología, solucionar desde las sequías hasta el orden mundial. En estas líneas quiero responder a esa afirmación con un rotundo NO: la Inteligencia Artificial no puede resolver los grandes problemas del mundo. A continuación, explico por qué.
En primer lugar, conviene observar quién enuncia el mensaje. Todo indica que se trataba de alguien dedicado profesionalmente al desarrollo de tecnologías de Inteligencia Artificial. ¿Y qué implica esto? Que su postura está lejos de ser objetiva: responde a un interés evidente por promover lo que produce. Es el equivalente a un vendedor de remedios milagrosos que promete curar desde un resfriado hasta la diabetes con una sola pastilla.
En segundo lugar, la idea de que la Inteligencia Artificial puede resolver todos los problemas del mundo se sostiene sobre una premisa falsa: que todos los problemas de la humanidad son de carácter técnico. Es decir, que basta una nueva máquina, un sistema informático o una medicina innovadora para solucionarlos. Pero antes de hablar de soluciones técnicas deberíamos preguntarnos: ¿qué entendemos por "los grandes problemas del mundo"? E igualmente importante: ¿quién decide cuáles son esos problemas centrales?
Incluso si lográramos acordar una lista, surge otra pregunta: ¿existe realmente una sola vía para resolverlos, digamos, la que nos proponga una máquina? La respuesta es no. Si uno vive en un país rico, las prioridades serán muy distintas a las de quien habita en África o América Latina. Además, todo problema involucra múltiples actores, intereses y escalas. Dependiendo de quién defina el enfoque —gobiernos, empresas, comunidades— las soluciones variarán: pueden ser radicales o graduales, consensuadas o impuestas, legales o ilegales. Esas diferencias son, justamente, los matices que alimentan el debate político sobre cómo queremos organizar el mundo.
Un ejemplo ilustrativo: el gobierno de China manejó la pandemia de Covid-19 con cifras de contagios y muertes notablemente menores que las de muchos países. Sin embargo, para lograrlo aplicó un control extremo sobre la movilidad individual, imponiendo severas sanciones a quienes violaban las restricciones. ¿Fue efectivo? Sí. ¿Fue ético o deseable? Esa es otra discusión. Seguridad a cambio de libertad: un dilema tan viejo como los Estados modernos.
Otro caso revelador proviene del ejército estadounidense, que probó un sistema de inteligencia artificial en un "juego de guerra" simulando un intercambio de misiles con sus principales adversarios. En cierto punto, los supervisores se alarmaron y detuvieron la simulación: la máquina había concluido que la solución óptima era bombardear el propio Pentágono porque las decisiones "irracionales" de los humanos interferían con su estrategia más eficiente. La Inteligencia Artificial operó bajo una lógica puramente probabilística y racional, sin considerar límites éticos ni políticos.
Ese es precisamente el problema. La Inteligencia Artificial carece de un componente indispensable para enfrentar los dilemas más profundos de la humanidad: la ética. Las máquinas calculan probabilidades, optimizan recursos, eligen lo más "eficiente". Los seres humanos, en cambio, a veces debemos decidir no por lo que es más conveniente en términos racionales, económicos o militares, sino por lo que es moralmente correcto, justo o socialmente deseable.
Por estas razones —y por muchas otras que ni siquiera fueron consideradas en la charla que originó este texto— la Inteligencia Artificial no puede resolver los grandes problemas del mundo. Creer lo contrario no sólo es ingenuo: es peligroso, porque desplaza nuestra responsabilidad ética y política hacia máquinas que no pueden asumirla.
Profesor-investigador en el Centro de Estudios Transfronterizos de El Colegio de Sonora