Hoy me preguntaron unos colegas docentes por qué estaba capacitando en el uso de herramientas de inteligencia artificial, si lo que supuestamente queremos evitar es su uso. La pregunta venía acompañada de una preocupación legítima. Los estudiantes ya no piensan, solo usan la IA para entregar trabajos.
No fue una pregunta confrontativa. Fue una inquietud que aparece cada vez con más frecuencia en espacios académicos. Existe la sensación de que algo importante se está perdiendo cuando una herramienta responde rápido, redacta bien y parece resolverlo todo. En ese momento entendí que la conversación no era solo sobre la inteligencia artificial, sino sobre el lugar que está ocupando en los procesos de aprendizaje y, en general, en muchos espacios de nuestra vida cotidiana. Cada vez más decisiones, respuestas y procesos están mediadas por chatbots y sistemas automatizados.
La inteligencia artificial ya está presente en el aula, en la investigación y en la vida diaria de los estudiantes, queramos o no. Para bien y también para mal, si no se usa de manera adecuada. Prohibirla o ignorarla no hace que desaparezca. Lo único que logra es dejarnos sin herramientas para acompañar su uso de forma consciente. El problema no es que los estudiantes utilicen IA, sino que lo hagan sin criterio, sin reflexión y sin claridad sobre qué procesos están delegando.
La IA puede expandir ideas existentes, pero no genera criterio propio. Funciona a partir de patrones. Cuando no hay pensamiento crítico previo, el riesgo es que amplifique errores y sesgos en lugar de corregirlos. No porque sea malintencionada, sino porque no evalúa, no duda y no se responsabiliza del conocimiento que produce.
Aquí hay algo fundamental que no podemos perder de vista. Las decisiones las sigue firmando una persona. La inteligencia artificial no asume consecuencias epistemológicas. No responde por la validez de un argumento, por la calidad de una conclusión ni por el impacto de lo que se comunica. Esa responsabilidad sigue siendo humana.
Por eso, la pregunta central no debería ser cómo evitar que los estudiantes usen inteligencia artificial, sino cómo enseñarles a pensar con ella sin dejar de pensar por sí mismos. Y para lograrlo, primero necesitamos formarnos como docentes. No para convertirnos en especialistas técnicos, sino para comprender qué puede hacer la IA, qué no puede hacer y qué no debería hacer dentro de un proceso formativo.
Ahora, una pausa para hablarle también a quienes son estudiantes y están leyendo esto.
Usar inteligencia artificial no significa que no sepas pensar. El problema no es apoyarte en una herramienta, sino dejar que piense por ti todo el tiempo. Si la IA escribe un texto, propone una idea o resume información, la pregunta importante no es si quedó bien, sino si tú entiendes lo que está ahí, si estás de acuerdo y si podrías defenderlo sin la pantalla enfrente. Pensar, crear e imaginar siguen siendo habilidades que nadie puede hacer por ti, aunque la tecnología avance.
Formarse en el uso de inteligencia artificial no es fomentar dependencia. Es aprender a usarla con criterio. No es renunciar al pensamiento crítico, es reconocer que hoy necesita ser más consciente que nunca. Desde ahí nace mi interés compartir y abrir estos espacios de conversación. No desde el miedo ni la prohibición, sino desde la responsabilidad compartida de formar personas críticas, autónomas y conscientes en un entorno donde la tecnología ya es parte de la vida académica.
Hasta aquí mi reporte, Joaquín.

