Dr. José Luis Soto Ortiz
Decidir nunca ha sido un proceso puramente lógico, desde la psicología cognitiva sabemos que el juicio humano surge de una interacción entre percepción, memoria, emoción y experiencia. Elegir implica interpretar lo que ocurre, anticipar consecuencias y asumir incertidumbre. Este proceso exige recursos mentales limitados. Herbert Simon (Administrative Behavior) describió esta condición como racionalidad limitada: el ser humano no decide desde una capacidad infinita, sino dentro de restricciones cognitivas reales. La decisión, en esencia, siempre ha sido también una negociación con nuestros propios límites.
Este esfuerzo se relaciona con la carga cognitiva: el costo mental de sostener la deliberación. Daniel Kahneman (Pensar rápido, pensar despacio) demostró que el cerebro tiende a reducir ese esfuerzo siempre que sea posible. La mente no está diseñada para pensar constantemente, sino para economizar energía. Pensar profundamente es una excepción, no la norma. Es precisamente esta economía interna la que hace posible que sistemas externos intervengan en el proceso de decidir sin que lo percibamos como una pérdida.
Los sistemas de inteligencia artificial no necesitan imponerse para transformar el juicio humano. Basta con que simplifiquen el entorno. Al filtrar opciones, anticipar preferencias y organizar la información, reducen el esfuerzo necesario para decidir. El individuo sigue eligiendo, pero el campo de elección ha sido previamente diseñado. La decisión permanece, pero su origen se desplaza.
Este fenómeno ha sido identificado como automation bias. Linda Skitka (Automation Bias and Human Decision-Making) mostró que las personas tienden a confiar en sistemas automatizados no porque sean necesariamente más precisos, sino porque liberan al sujeto del peso de evaluar por sí mismo. La delegación no ocurre por debilidad, sino por eficiencia. La máquina no sustituye el juicio: lo vuelve prescindible.
Edwin Hutchins (Cognition in the Wild) explicó que la cognición no reside exclusivamente en el individuo, sino que puede distribuirse entre el sujeto y su entorno. En el contexto actual, esa distribución ha alcanzado un nuevo umbral. Los sistemas técnicos no solo amplían la capacidad humana, sino que comienzan a reorganizarla. Absorben parte del esfuerzo de decidir y, con ello, modifican silenciosamente la relación del individuo con su propia capacidad de actuar y asumir responsabilidad por sus decisiones.
El cambio pasa inadvertido ya que no suprime la decisión, sino que la vuelve cómoda. Seguimos eligiendo, pero cada vez con menos incertidumbre. El juicio no desaparece; se suaviza. Y cuando decidir deja de incomodar, también deja de formar carácter. Esto no ocurre en la tecnología, sino en la psicología. La inteligencia artificial no necesita sustituir nuestro pensamiento para transformarlo. Le basta con intervenir antes de que lo hagamos, organizando las opciones y anticipando respuestas. Cuando el esfuerzo de decidir se reduce hasta volverse casi invisible, también se vuelve imperceptible el hecho de que ya no estamos pensando desde el mismo punto de partida.
El riesgo no es la pérdida de la capacidad de juzgar, sino algo más silencioso: la pérdida de la necesidad de hacerlo. Porque el criterio no desaparece cuando se prohíbe, sino cuando deja de ejercerse. Y cuando eso ocurre, la asistencia se vuelve costumbre. El verdadero punto de inflexión no será cuando las máquinas decidan por nosotros, sino cuando decidir sin ellas deje de formar parte de nuestra práctica cotidiana. No por incapacidad, sino por comodidad.
Tal vez el verdadero punto de inflexión no sea el momento en que las máquinas puedan decidir por nosotros, sino aquel en que dejemos de considerar necesario decidir sin ellas. Porque el eclipse del criterio no ocurre cuando la tecnología avanza, sino cuando el esfuerzo de juzgar deja de parecernos indispensable. Y en ese instante, el eclipse será completo: no por incapacidad, sino por costumbre.