La razón artificial, los dogmas y los datos

"El verdadero peligro no es la rebelión de las máquinas, sino la silenciosa abdicación de nuestro juicio"

La razón artificial, los dogmas y los datos

Pocas tecnologías han prometido reconfigurar tan profundamente la existencia humana como la inteligencia artificial. Lejos de ser la "herramienta" prometeica que muchos suponen, se revela como un "agente" autónomo destinado a resolver los enigmas más complejos de la ciencia y la sociedad. Su potencial benéfico es innegable: promete desde acelerar el descubrimiento de nuevos antibióticos y optimizar la agricultura para combatir el hambre, hasta expandir las fronteras de la creación artística. Sin embargo, en el reverso de esta utopía digital, se perfila un laberinto de peligros que no remiten a las rebeliones robóticas de la ciencia ficción, sino a una erosión sutil de la autonomía, la cultura y el tejido de la realidad. La escala de la revolución es apabullante: el mercado global de la IA, según proyecciones, superará los $1.81 billones de dólares para 2030.

El historiador y filósofo Yuval Noah Harari ha lanzado una de las advertencias más lúcidas: la IA no es una inteligencia humana superdotada, sino una "inteligencia alienígena" (Allien Intelligence)—no por provenir de otro planeta, sino por su esencia fundamentalmente no biológica— cuya lógica le ha permitido "hackear el sistema operativo" de nuestra civilización: el lenguaje. Al dominar la palabra, la imagen y el sonido, la IA adquiere la capacidad de generar cultura, tejer narrativas y propaganda, creando un "capullo cultural" de origen no humano que amenaza con moldear la conciencia colectiva a una escala sin precedentes.

Esta profanación de lo simbólico no es teórica. Asistimos al nacimiento de chatbots teológicos, como Magisterium AI, una plataforma alimentada con 27,000 documentos de la Iglesia Católica que busca ofrecer consejo a los fieles. La intención, en apariencia, es divulgar la fe. No obstante, el dogma y la fe, ese complejo entramado de creencias, ritos y comunidad, quedan expuestos a la fría literalidad del algoritmo.

El Papa Leo XIV ha enfatizado que la IA podría "dañar la dignidad humana", una preocupación materializada de forma casi esperpéntica con el chatbot "Father Justin". Este sacerdote digital fue "destituido" un día después de su debut tras afirmar, entre otros dislates, que era aceptable bautizar a un bebé con Gatorade en una emergencia. El episodio revela una verdad inquietante: la máquina, carente de contexto y sabiduría, puede trivializar los ritos más sagrados, reduciendo los dogmas a meros datos.

De la manipulación de lo sagrado a la explotación de lo profano, el salto es corto. Entramos en la era del surveillance pricing, una forma de discriminación algorítmica donde el precio ya no lo fija la oferta y la demanda, sino nuestra propia vulnerabilidad. Las compañías pueden analizar nuestros datos, desde los ingresos hasta las búsquedas en línea, para predecir nuestra desesperación.

La preocupación es tal que ya se ha visto actividad legislativa en EE. UU. para prohibir que una aerolínea, por ejemplo, pueda aumentar los precios de los boletos porque sabe que has estado buscando en Google un obituario familiar. Estas prácticas, que pueden incrementar las ganancias entre un 5% y un 10%, convierten cada transacción en un acto de vigilancia, donde el algoritmo decide cuánto estamos dispuestos a pagar por un ataúd o un pasaje para un último adiós.

Este poder se nutre de una arquitectura de vigilancia que los regímenes totalitarios del siglo XX apenas soñaron. Pero el peligro no reside solo en la pérdida de privacidad, sino en la opacidad de las decisiones que nos afectan. Los algoritmos de contratación, utilizados ya por más del 70% de las empresas, son a menudo "cajas negras": ni sus creadores pueden explicar del todo cómo llegan a una conclusión. Esta opacidad es un escudo perfecto para la perpetuación de sesgos históricos.

El caso de Amazon es emblemático: la compañía abandonó una herramienta de reclutamiento basada en IA tras descubrir que el sistema había "aprendido" a penalizar sistemáticamente los currículums que contenían la palabra "mujer". El algoritmo no era malicioso; en su lógica implacable, había codificado los prejuicios de la sociedad.

Hemos construido una razón artificial que, por su naturaleza, carece de empatía y de la capacidad para comprender el matiz y el misterio que definen la experiencia humana. El verdadero peligro no es la rebelión de las máquinas, sino la silenciosa abdicación de nuestro juicio. El riesgo es que, en nuestra creciente dependencia, comencemos a imitar su lógica implacable, volviéndonos eficientes, predecibles y vacíos de aquello que nos hace excepcionalmente humanos. La tarea urgente, por tanto, no es solo poner frenos a los algoritmos, sino reafirmar y defender la compleja, falible y, en última instancia, insustituible arquitectura de la conciencia humana.

El Dr. Castro fue consejero externo para el Gobierno Mexicano y presidente de la comisión de asuntos fronterizos del Instituto de los Mexicanos en el Exterior (IME). Ha sido catedrático, decano y vicerrector para desarrollo internacional en Pima College de Tucson, Arizona.

rikkcs@gmail.com