Cada día vemos cómo la Inteligencia Artificial va tomando espacios en distintas áreas del quehacer humano. Perdón, en realidad vemos cómo un grupo de humanos que administran aplicaciones de Inteligencia Artificial van tomando espacios en distintas áreas del quehacer. Esto tiene cosas buenas que se traducen en una mayor productividad, creación y, en general, constituyen una valiosa ayuda para las organizaciones y personas.
Nosotros no estamos en contra de estos progresos tecnológicos. Consideramos que son valiosos y productivos y que hacen un aporte significativo en muchas áreas del quehacer humano. No obstante, creemos indispensable hacer notar algunos aspectos vitales que, en general pasan inadvertidos para la gran mayoría de los usuarios de estos nuevos artefactos.
Tomemos el ejemplo de Gemini de Google cuya labor se encuentra en escribir, crear borradores de correos electrónicos, generar informes, resumir contenido, crear presentaciones, planificar eventos, intercambiar ideas, desarrollar planes, buscar información, generar imágenes, entre muchas de las acciones posibles.
La cuestión de fondo aquí es si la interacción entre uno o varios humanos con este artefacto es una decisión de interactuar en modo de interdependencia consciente o de modo dependiente y, a la vez, con qué frecuencia lo utilizarán.
Si la relación es de dependencia cognitiva y con alta frecuencia, es posible que se inicie un proceso de debilitación de la capacidad humana de discernimiento y juicio crítico. Esto ocurriría porque las respuestas rápidas y estructuradas de la Inteligencia Artificial pueden desincentivar el esfuerzo mental necesario para evaluar información y construir conocimiento propio. Ni qué decir del desastre en el caso de estudiantes de educación básica utilizando este tipo de artefactos.
Si se recurre a la perspectiva de Kahneman, existe el riesgo de que el sistema de pensar rápido e intuitivamente tome un rol predominante al delegar el sistema lento y analítico a la Inteligencia Artificial, lo que podría erosionar la capacidad reflexiva y el pensamiento crítico. En este contexto, en lugar de usar la IA como una herramienta para expandir nuestras capacidades cognitivas, podríamos caer en la trampa de aceptarla como una fuente incuestionable de conocimiento.
Para mitigar estos riesgos, es clave promover una interdependencia consciente, en la que la IA sea un complemento del pensamiento humano en lugar de un sustituto. Esto implica educar en el uso crítico de la IA, fomentar el pensamiento reflexivo y mantener ejercicios de razonamiento independiente para evitar una atrofia cognitiva. A corto plazo, es crucial fomentar el discernimiento mediante prácticas que obliguen a las personas a cuestionar, contrastar y validar la información proporcionada por la IA. Esto podría incluir la enseñanza de epistemología básica, heurísticas de pensamiento crítico y ejercicios de argumentación.
A largo plazo, una educación basada en el pensamiento crítico debe ir más allá de simples métodos analíticos y convertirse en un eje central de la formación humana. Esto implicaría rediseñar los sistemas educativos para priorizar la autonomía cognitiva, la resolución de problemas complejos y la integración de múltiples perspectivas antes de aceptar una conclusión.