La experta emite una advertencia contundente: la inteligencia artificial no solo modifica nuestra existencia en el ámbito digital, sino que también podría mermar nuestra habilidad para razonar de manera crítica e independiente.
El diálogo mundial sobre la inteligencia artificial ha cobrado impulso durante años, sin embargo, son escasas las voces que consiguen examinar sus repercusiones más complejas con la calma y la precisión que distinguen a Sonia Contera, destacada profesora de Física en la Universidad de Oxford. En múltiples apariciones públicas, la investigadora ha planteado una preocupación que va más allá de los progresos tecnológicos y las discusiones habituales sobre normativas: la eventualidad de que la IA nos impulse, de manera gradual pero constante, a abandonar la autonomía del pensamiento. Conforme a Contera, el peligro real no se encuentra exclusivamente en los algoritmos, sino en cómo permitimos que sustituyan funciones cognitivas fundamentales para nuestra esencia individual y colectiva.
A lo largo de los años recientes, su punto de vista ha cobrado importancia en un escenario donde las utilidades de automatización se incorporan a las actividades diarias: desde la elaboración de escritos y la toma de resoluciones económicas hasta la sugerencia de qué material consumir, observar o adquirir. Contera argumenta que esta sujeción podría llevar a un deterioro progresivo de la reflexión autónoma, particularmente si se adopta la tecnología sin una evaluación consciente de sus fronteras y sin ponderar sus efectos a futuro. Sus meditaciones, lejos de pretender generar pánico, nos convocan a una práctica conjunta de autoexamen acerca de cómo deseamos coexistir con sistemas que, si bien son potentes, no dejan de ser creaciones humanas.
La preocupación por una sociedad que deja de cuestionar
Para Contera, la cuestión fundamental no es si la inteligencia artificial puede superar o igualar determinadas capacidades humanas, sino qué efecto puede tener en nuestra disposición a cuestionar la información que recibimos. En un entorno donde las respuestas son inmediatas, precisas en apariencia y cada vez más personalizadas, resulta tentador aceptar lo que un algoritmo ofrece sin mayor análisis. La catedrática advierte que esta conducta podría convertirse en un hábito social, debilitando uno de los pilares de la democracia: el ejercicio del pensamiento crítico.
La investigadora insiste en que la IA reproduce patrones aprendidos a partir de datos preexistentes, lo que significa que no puede reemplazar la capacidad humana de contextualizar, imaginar o desafiar lo establecido. Sin embargo, la facilidad con la que proporciona soluciones aparentemente correctas hace que muchas personas deleguen en ella tareas de reflexión que antes asumían de forma natural. En su opinión, este comportamiento es especialmente preocupante en una época en la que la opinión pública se encuentra fragmentada y en la que la sobreabundancia de información puede llevar a la desorientación colectiva.
Contera subraya que esta renuncia progresiva al pensamiento propio no ocurre de manera abrupta, sino mediante pequeños gestos cotidianos: seguir recomendaciones sin contrastarlas, adoptar opiniones generadas por sistemas automatizados o permitir que la tecnología decida por nosotros sin comprender cómo llega a sus conclusiones. Todo ello, señala, configura una cultura en la que la autonomía intelectual corre el riesgo de diluirse, mientras que la dependencia emocional y práctica hacia los sistemas digitales se acentúa.
IA y la responsabilidad del ser humano
En sus reflexiones, la catedrática recalca que el verdadero desafío no es tecnológico, sino ético y cultural. La IA, explica, puede convertirse en un aliado extraordinario si se utiliza para potenciar las capacidades humanas, pero también puede convertirse en un sustituto del esfuerzo intelectual si se normaliza su uso como herramienta para evitar la complejidad del pensamiento. Según Contera, la solución no pasa por rechazar la tecnología, sino por comprender profundamente cómo funciona y cuáles son sus límites.
Esta postura implica reconocer que los sistemas de IA no poseen conciencia, intención ni comprensión genuina, sino que operan mediante patrones estadísticos basados en grandes cantidades de datos. Delegar decisiones complejas en mecanismos que no tienen la capacidad de evaluar consecuencias morales es, para Contera, una renuncia peligrosa a la responsabilidad humana. La investigadora hace hincapié en que la IA puede cometer errores sutiles, amplificar sesgos o generar conclusiones aparentemente coherentes pero incorrectas, lo que exige una supervisión constante.
Para prevenir este desplazamiento de la responsabilidad, Sonia Contera propone promover una alfabetización digital profunda, orientada no solo al uso técnico de herramientas, sino a la comprensión crítica del proceso detrás de cada resultado. Este enfoque permitiría que los usuarios se mantengan como agentes activos en la toma de decisiones, utilizando la IA como una guía complementaria y no como un sustituto del pensamiento propio. La catedrática considera que fomentar esta cultura de responsabilidad compartida es esencial para que la sociedad pueda aprovechar los beneficios de la tecnología sin perder su capacidad de análisis.
La función de la inventiva humana en un entorno automatizado
Una de las reflexiones más relevantes de Contera gira en torno a la relación entre creatividad humana y automatización. Aunque la IA es capaz de generar contenido, analizar enormes volúmenes de información y simular procesos complejos, todavía no puede replicar la creatividad genuina, entendida como la capacidad de imaginar soluciones nuevas, combinar ideas de manera inédita y dar sentido a experiencias subjetivas. La catedrática señala que esta creatividad constituye un rasgo único de la especie humana y que debe ser protegida en un entorno cada vez más dominado por algoritmos.
Contera sostiene que, paradójicamente, la dependencia excesiva de la IA podría debilitar la creatividad al desalentar el esfuerzo necesario para producir ideas originales. Cuando las personas recurren a herramientas automatizadas para resolver problemas o generar contenido, existe el riesgo de que las soluciones generadas sean meras repeticiones de patrones existentes, limitando así la innovación real. Para ella, la creatividad requiere tiempo, reflexión, errores y exploración, aspectos que los sistemas automatizados tienden a simplificar o eliminar.
En este sentido, la catedrática invita a reflexionar sobre el valor de la incertidumbre y la ambigüedad, elementos esenciales en el proceso creativo. Aunque la IA puede ayudar a explorar posibilidades, no puede reemplazar la sensibilidad humana ni la capacidad para interpretar emociones, historias o contextos culturales. Por ello, Contera hace un llamado a no abandonar la curiosidad ni la búsqueda de sentido en un mundo donde la inmediatez tecnológica puede resultar seductora pero limitante.
La importancia de recuperar el hábito de pensar
A lo largo de sus análisis, Contera insiste en un mensaje central: la sociedad necesita recuperar y fortalecer el hábito de pensar. En su opinión, cuestionar, reflexionar y analizar no solo son ejercicios intelectuales, sino prácticas esenciales para preservar la libertad individual y colectiva. La IA puede ofrecer herramientas extraordinarias, pero no puede sustituir la experiencia humana de razonar, ni reemplazar la interacción social, moral y emocional que define nuestras decisiones más importantes.
La académica destaca que el acto de pensar conlleva la aceptación de riesgos, la posibilidad de cometer errores, el debate de conceptos y la puesta en tela de juicio de planteamientos; todos ellos, procesos que la tecnología busca simplificar, pero que no deberían desaparecer. En una etapa histórica donde el progreso tecnológico avanza a pasos agigantados, preservar la habilidad de la reflexión constituye, según su perspectiva, una obligación compartida entre las entidades educativas, los gobiernos, las corporaciones y la sociedad en general.
Contera sostiene que el razonamiento crítico no es un privilegio académico, sino una práctica diaria que facilita la toma de decisiones fundamentadas, la resistencia a la manipulación y la edificación de una comunidad más perspicaz. Esta perspectiva cobra particular importancia en un entorno donde los datos circulan a gran velocidad y donde la distinción entre lo auténtico y lo fabricado puede desdibujarse sin un constante esfuerzo de discernimiento.