Como buena enfermera de emergencias, sé que cuando algo «explota», la primera reacción humana es el caos. Y como fan de la filosofía (ya lo decía Séneca, «no hay viento favorable para el que no sabe a dónde va»), me he dado cuenta de que en el sector educativo llevamos un tiempo navegando a la deriva en una tormenta de algoritmos y miedos.
He decidido cederle los mandos de la Razor Crest por hoy a Luis Gómez. ¿Por qué? Pues porque a veces, para entender un trauma complejo, necesitas una interconsulta. Luis tiene una perspectiva de la educación que no solo es distinta a la mía, sino que es ese «ojo externo» necesario para analizar cómo hemos pasado de la sorpresa al pánico, y del pánico al «prohibamos todo y volvamos a la tabla de arcilla».
Luis nos trae una reflexión cruda sobre estos tres años de aceleración tecnológica. Mientras yo me peleo con sistemas que integran IA en el triaje o trato de enseñar ética digital a futuros técnicos, él pone el dedo en la llaga de un sistema que prefiere poner vallas al campo antes que enseñar a los colonos a cultivar la tierra.
Es una lectura ácida, real y necesaria. Porque, seamos sinceros: prohibir el acceso al conocimiento digital es como intentar detener una hemorragia masiva con una tirita de dibujos animados. Entretenido para la foto, pero poco útil para la supervivencia del paciente (que, en este caso, es nuestro modelo educativo).
Os dejo con su análisis.
Desde que ChatGPT apareció en noviembre de 2022, el ecosistema educativo entró en una fase de aceleración inédita.
No fue una innovación más. No fue una herramienta puntual. Por primera vez, una tecnología de uso masivo era capaz de redactar textos, resolver problemas, explicar contenidos y simular procesos cognitivos con una naturalidad desconocida hasta entonces.
En cuestión de semanas, millones de estudiantes y docentes tuvieron acceso a un asistente capaz de acompañar —o sustituir según el uso— buena parte de las tareas escolares tradicionales.
Y como ocurre siempre que algo desborda los marcos conocidos, el sistema educativo reaccionó tarde, mal y a trompicones.
1. El primer reflejo:
La primera gran reacción institucional no fue pedagógica, sino defensiva. La pregunta dominante no fue “¿cómo lo usamos?”, sino “¿cómo evitamos que hagan trampas?”.
Durante meses, el debate giró casi exclusivamente en torno al fraude académico. Se habló de trabajos copiados, de exámenes invalidados, de deberes “no auténticos”. La IA fue presentada como una amenaza al esfuerzo, al mérito y a la evaluación tradicional.
Mientras tanto, apenas se abría espacio para darle una vuelta a qué significaba aprender en un mundo donde una máquina podía producir respuestas correctas en segundos.
Como tantas otras veces en la historia educativa, se empezó la casa por el tejado.
2. Una oportunidad perdida.
Paralelamente, muchos docentes comprendieron enseguida que aquello no iba a desaparecer. Que prohibirlo era tan absurdo como intentar prohibir internet, las calculadoras o los buscadores.
Pidieron formación. Propusieron grupos de trabajo. Diseñaron experiencias piloto. Buscaron entender la herramienta antes de juzgarla. En demasiados casos, se encontraron con un muro administrativo. Hubo incluso comunidades donde se llegó a vetar explícitamente la autoformación en inteligencia artificial.
Se pedía prudencia, pero se impedía aprender.
Se reclamaba responsabilidad, pero se negaban medios.
Una contradicción que se ha repetido durante todo el proceso.
3. La IA en todas partes
Mientras el debate educativo se estancaba, la inteligencia artificial avanzaba sin pedir permiso. Entró en la medicina, como bien sabe la autora de este blog; en el derecho, en la administración, en la empresa, en el periodismo, en la creación artística. Transformó procesos, acortó tiempos, redefinió profesiones. Y, por supuesto, entró en las casas.
El alumnado empezó a usarla fuera del aula mucho antes de que la escuela supiera qué hacer con ella dentro. Las familias convivían con asistentes, filtros, generadores de imágenes, tutores improvisados, sin apenas orientación. La brecha ya no era solo digital. Era cultural y educativa.
4. Apagando fuegos
Ante esa complejidad, muchas administraciones optaron por el atajo: limitar, bloquear, prohibir.
Prohibir móviles. Prohibir plataformas. Prohibir herramientas. Prohibir usos… mientras se seguía enviando material tecnológico a los centros educativos. Hay que tener a todos contentos. Volver a exámenes orales. Reducir tecnología. Refugiarse en formatos “seguros”.
Como si el problema fuera el dispositivo y no el contexto.
Como si el riesgo estuviera en la herramienta y no en la falta de criterio.
Se intentó “poner vallas al campo” mientras el campo seguía creciendo.
5. Peeeero… la IA no es imparcial.
Con el paso del tiempo, la investigación y la experiencia han ido aportando matices.
Sabemos hoy que:
- El impacto de las redes y la IA en la salud mental es complejo y multifactorial.
- No hay evidencias sólidas que justifiquen alarmismos simples.
- Los riesgos existen, pero también las oportunidades.
- El diseño de las plataformas importa más que la edad del usuario.
- La regulación sin educación funciona mal.
- La prohibición sin acompañamiento genera atajos.
Y sabemos, sobre todo, que la tecnología amplifica lo que ya existe: desigualdad, desinformación, creatividad, colaboración, dependencia o autonomía.
No crea mágicamente problemas. Los intensifica.
6. Lo difícil
En todo este recorrido, hay una gran ausencia: la formación sistemática en pensamiento digital.
Se ha hablado mucho de dispositivos. Poco de comprensión.
Se ha hablado de límites. Poco de sentido.
Se ha hablado de control. Poco de responsabilidad.
Formar en IA no es enseñar a usar botones. Es enseñar a preguntar, contrastar, dudar, contextualizar, detectar sesgos, comprender procesos, asumir límites.
Es alfabetización algorítmica.
Es ciudadanía digital.
Y eso no se improvisa.
7. El último capítulo:
En este contexto llega ahora el anuncio de prohibir el acceso a redes sociales a menores de 16 años.
Una medida llamativa. Popular. Tranquilizadora. Aunque aún es pronto y hay que esperar, la opinión de los expertos es que:
Plantea enormes problemas técnicos (verificación, privacidad, biometría), dudas científicas (evidencia limitada), riesgos sociales (exclusión de colectivos vulnerables) y una eficacia cuestionable (experiencias internacionales poco concluyentes).
Pero, sobre todo: seguimos buscando soluciones simples para problemas complejos.
Es más fácil prohibir que formar. Es más rentable políticamente bloquear que educar. Es más rápido vetar que acompañar.
Eso sí, como afirma Enrique Dans, la idea de exigir responsabilidad penal a los ejecutivos no es ninguna barbaridad. Durante años, estas empresas han tratado las multas como un coste asumible del negocio, mientras seguían generando beneficios multimillonarios. Cuando la infracción sistemática deja de tener consecuencias personales para quienes toman las decisiones, el incentivo a cumplir desaparece. Si la única forma de garantizar el respeto a la legislación es que los directivos respondan penalmente por ello, entonces ese es el camino que hay que recorrer.
8. No hay atajos
res años después de la llegada de ChatGPT, el balance es que la inteligencia artificial no ha destruido la educación, la ha puesto frente al espejo. Ha evidenciado nuestras rigideces, inercias, miedos y lentitudes, pero también el enorme potencial de una escuela capaz de repensarse.
No necesitamos menos tecnología, sino más criterio; no más prohibiciones, sino más formación; no más alarmas, sino más diálogo.
La solución no está en los bloqueos, los vetos ni los titulares apresurados.
