La pregunta, provocadora por naturaleza, se ha abierto paso en universidades, oficinas, salas de redacción y cafés digitales: ¿nos está volviendo más tontos la inteligencia artificial?. La inquietud, que hasta hace poco era un susurro entre educadores y neurocientíficos, ya ocupa titulares y reportajes de alto calibre. La tesis es tan simple como inquietante: a medida que delegamos más tareas cognitivas en sistemas como ChatGPT, Gemini o Claude, corremos el riesgo de atrofiar habilidades mentales básicas —como pensar críticamente, escribir con profundidad o incluso recordar información esencial.
La IA nos facilita la vida. Nos resume artículos, redacta correos, traduce ideas en segundos, organiza agendas y responde dudas en tiempo real. El problema no es su eficiencia, sino nuestra creciente dependencia de ella sin cuestionamiento. Cuando los usuarios utilizan IA para tareas intelectuales, tienden a aceptar sus respuestas con una confianza excesiva, incluso cuando las respuestas contienen errores. La sensación de “ahorro de esfuerzo” puede convertirse, sin que lo notemos, en una renuncia progresiva a nuestra autonomía intelectual.
Un ejemplo claro: en entornos académicos, estudiantes que emplean IA para redactar ensayos tienden a involucrarse menos con los textos fuente, disminuyen su capacidad de argumentación y reducen su comprensión profunda de los temas. El conocimiento se vuelve superficial, rápido, desechable.
No todo es distopía. Algunos expertos señalan que cada revolución tecnológica —desde la escritura hasta la calculadora— trajo consigo temores similares. Lo que cambia no es solo lo que pensamos, sino cómo pensamos. La IA podría, en teoría, liberar capacidad mental para tareas más creativas o estratégicas, si se usa como herramienta de ampliación y no como sustituto. Pero esa diferencia depende menos del algoritmo y más del usuario. ¿Queremos que la IA piense por nosotros o con nosotros?
Un punto crítico es el uso de IA en entornos corporativos y gubernamentales. Cuando ejecutivos, analistas o funcionarios confían ciegamente en recomendaciones generadas por modelos opacos, se debilita la deliberación y se reduce la calidad del juicio humano. El pensamiento complejo —ese que exige matices, contexto, intuición y experiencia— no puede tercerizarse por completo. Hacerlo sería como dejar que un piloto automático tome decisiones de vida o muerte en medio de una tormenta sin intervención humana.
El desafío no es detener el avance de la inteligencia artificial, sino elevar nuestra alfabetización crítica frente a ella. Aprender a cuestionarla, verificarla, complementar sus respuestas con pensamiento propio y no renunciar al esfuerzo intelectual que nos define como especie. Universidades, escuelas y medios de comunicación tienen un rol crucial: enseñar no solo a usar IA, sino a pensar sobre lo que produce. La pregunta ya no es si debemos integrarla a nuestra vida, sino cómo evitar que al hacerlo, abandonemos partes esenciales de nosotros mismos.
La IA no nos hará más tontos por sí sola. Pero sí puede hacerlo si decidimos apagar nuestras capacidades a cambio de comodidad. La inteligencia humana ha sido siempre una construcción activa, no un privilegio automático. Y como tal, exige uso, desafío y tensión constante. La tecnología avanza a velocidad de vértigo. Nuestra mente, si quiere seguir el ritmo, debe seguir pensando, dudando, creando y decidiendo con lucidez propia.