El martes pasado, en mitad de una clase de programación, pasó lo que todos sabíamos que iba a pasar pero nadie decía en voz alta. Un compañero dejó la pantalla de su portátil a la vista de la profesora. En ella, un bloque de código en Python perfectamente tabulado... y el inconfundible fondo oscuro de ChatGPT explicándole dónde estaba el error de sintaxis.
Se hizo un silencio tenso de un par de segundos. Yo, desde la fila de atrás, ya me estaba preparando para el típico sermón sobre la ética estudiantil y la decadencia de la educación moderna.
Pero la profesora simplemente suspiró, se ajustó las gafas y dijo: "Si vais a usar eso para que os haga las prácticas, al menos tened la decencia de entender qué hace el bucle while que os acaba de generar, porque en el examen escrito os voy a crujir".
Ese momento resume a la perfección el elefante en la habitación que tenemos ahora mismo en las universidades. Estudio primero de Inteligencia Artificial y os prometo que el contraste entre lo que nos enseñan y las herramientas que usamos a diario es digno de estudio. Después de un año paseándome por los pasillos y las cafeterías de la facultad, he llegado a la conclusión de que los profesores se dividen, básicamente, en tres bandos muy claros respecto a la IA.
1. Los "Negacionistas" del código a bolígrafo
Empecemos por el bando más duro. Suelen ser profesores que llevan dando la misma asignatura desde antes de que yo naciera. Para ellos, usar un modelo de lenguaje es el equivalente moderno a copiar en un examen con una chuleta metida en el boli Bic.
Su estrategia es la prohibición absoluta y la negación de la realidad.
- La barrera física: Nos obligan a hacer exámenes de programación en papel. Sí, en pleno 2026, sigo escribiendo código a mano, tachando variables y contando los espacios de la indentación a ojo.
- La amenaza constante: Te advierten desde el día uno que pasan todos los trabajos por detectores de IA (aunque nosotros, como estudiantes de IA, sabemos de sobra que esos detectores fallan más que una escopeta de feria).
- Su argumento: Sostienen que si la máquina te da la respuesta, tu cerebro se atrofia. Y siendo sincero, en parte tienen razón. Como os conté en mi artículo sobre la realidad de estudiar IA, la base matemática hay que sudarla. Si no entiendes el álgebra lineal que hay detrás, eres solo un operador de herramientas, no un ingeniero.
2. Los "Realistas" resignados
Este es el grupo mayoritario y, personalmente, los que me caen mejor. Son los profesores que saben perfectamente que el 90% de la clase tiene una pestaña abierta con Claude, Gemini o ChatGPT mientras hacen los trabajos. Han aceptado la derrota, pero intentan salvar los muebles.
Su enfoque es puramente pragmático: "Sé que lo usáis, no os puedo vigilar en vuestras casas, así que vamos a subir el nivel".
- Adiós a los trabajos de relleno: Han dejado de pedirnos ensayos teóricos o resúmenes de temarios porque saben que eso lo hace un bot en cinco segundos.
- Defensa oral: Ahora, si entregas un proyecto de código, tienes que sentarte con ellos 10 minutos y explicarles por qué has elegido esa estructura de datos y no otra. Si balbuceas, estás suspenso, por muy bonito que sea tu código.
- La IA como depurador: No les importa que uses la IA para encontrar un error tonto (un punto y coma que falta, una variable mal llamada), pero te exigen que la lógica la pongas tú.
3. Los "Entusiastas" que te piden los prompts
Y luego están los profesores que han visto el cielo abierto. Suelen ser los más jóvenes o los que están metidos en investigación. Para ellos, no usar la IA hoy en día es como intentar cavar una zanja con una cuchara de postre existiendo excavadoras.
- Integración obligatoria: Literalmente te exigen que uses IA para partes del proyecto. Te dicen: "Genera la estructura básica con un modelo, y luego optimízala tú a mano".
- Evaluación del proceso: En lugar de pedirnos solo el trabajo final, nos piden el historial de conversación. Quieren ver cómo nos hemos peleado con la máquina. Quieren evaluar si sabemos hacer buen Prompt Engineering, si sabemos guiar al modelo cuando alucina o se equivoca.
- Cambio de paradigma: Nos repiten como un mantra que nuestro trabajo en el futuro no será picar código básico, sino ser arquitectos de sistemas.
La gran hipocresía del sistema educativo
Lo que más me frustra (y lo que más comentamos en los grupos de WhatsApp de la uni) es la tremenda esquizofrenia del sistema.
Por las mañanas, tenemos clases donde nos hablan del futuro del desarrollo de software, de agentes autónomos y de cómo automatizar procesos complejos. Y por las tardes, nos encierran en un aula dos horas sin conexión a internet a vomitar teoría de memoria.
Es una transición dolorosa. La universidad es un transatlántico pesado y lento para girar, mientras que la tecnología avanza a la velocidad de un caza de combate.
Mi conclusión (desde mi silla de estudiante)
Si algo estoy sacando en claro este primer año, es que usar ChatGPT para que te haga los deberes es hacerte trampas al solitario. He visto a compañeros entregar prácticas perfectas y luego ser incapaces de explicar qué es una API.
Pero criminalizar la herramienta es igual de absurdo.
Al final, estoy aplicando lo mismo que os conté en la guía sobre cómo estudiar con IA. Yo uso los modelos como si fueran ese compañero de clase súper listo pero un poco despistado: le pregunto dudas, le pido que me explique conceptos de cálculo que no entiendo con otras palabras, y lo uso para quitarme el trabajo mecánico de encima. Pero el volante lo llevo yo.
"Veremos cómo evoluciona esto en segundo curso, pero algo me dice que el debate no ha hecho más que empezar. Y vosotros, ¿qué opináis? ¿Cómo está afectando esto en vuestras facultades o trabajos?"