Ir(responsables)
¿De quién es la responsabilidad si algo sale mal con la IA en los entornos escolares?
Hace unos días, Chris Zomer explicaba lo que significa que las grandes tecnológicas (en su caso hablaba de Google) pongan a disposición de los estudiantes menores todas las capacidades de sus sistemas de inteligencia artificial.
Contaba Chris (Melbourne, Australia) que Google había enviado un correo electrónico informando a los padres que sus hijos ya tenían acceso a #Gemini (la IA de Google) y se preguntaba sobre quién sería el responsable si algo sale mal. La respuesta breve sería, según Chris, "No Google, ¡sino los padres!"
Ben Williamson lo resumió bien:
"La IA generativa en las escuelas significa la responsabilización de niños, profesores y padres por las irresponsabilidades de las empresas tecnológicas multimillonarias."
Puedes leer la reflexión de Chris Zomer aquí
Hace un par de días, en Madrid, Microsoft anunciaba que a partir del próximo curso escolar (septiembre 2025) Copilot Chat estará disponible para estudiantes mayores de 13 años en España.
Lo hacía en un evento en el que lanzaba, junto con PUE Academy, el programa AI Skills for Education, un programa gratuito de formación y certificación en Inteligencia Artificial (40h) para docentes y estudianyes (estos, mayores de 16 años).
Que copilot chat esté disponible para mayores de 13 años significará, según Microsoft, que los estudiantes podrán acceder a una herramienta de inteligencia artificial capaz de asistirles en múltiples tareas académicas.
Eso sí, matizan, siempre que exista una administración responsable y se habilite de forma lógica y consensuada desde la institución educativa. Es decir, algo parecido a lo que contaba Chris Zomer para Google, Microsoft descarga la responsabilidad en el centro educativo, el equipo directivo y el profesorado. Y suponemos que también en los padres. El patrón entre la manera de actuar de Google y Microsoft en este aspecto es muy similar.
En realidad, podríamos decir que lo que hacen es que "oficializan" algo que ya estaba pasando desde que OpenAI abriera sin más su ChatGPT. Una vez que estas herramientas están ahí disponibles (en realidad no solo están disponibles es que es prácticamente imposible no interaccionar con ellas) la pregunta relevante es
¿de quién es la responsabilidad si algo sale mal?.
Por supuesto, en la presentación no faltaron los lugares comunes que son habituales en estos contextos (democratización, seguridad, pensamiento crítico).
Así, se habló de "democratización del acceso a tecnologías avanzadas en entornos educativos"; "se garantizará la seguridad y privacidad de los datos"; "Queremos que los estudiantes puedan beneficiarse de las capacidades de la inteligencia artificial para mejorar su aprendizaje, desarrollar habilidades clave para el futuro y fomentar la curiosidad y el pensamiento crítico en el aula".
Con este tipo de declaraciones comerciales funciona bien el viejo refrán de dime de qué presumes y te diré de qué careces. Cuando se insiste tanto en la seguridad, la democratización del acceso y la mejora de los aprendizajes es, probablmente, porque seguramente la seguridad, el acceso equitativo, y el aprendizaje está seriamente comprometidos con estas medidas. Pero este es otro tema.
Termino esta pequeña reflexión haciendo explícito, para que no se malinterprete, el objetivo de este texto.
Su objetivo no es negar una realidad (que la IA rodea ya todo lo que hacen estudiantyes, docentes y escuelas y que por tanto es inevitable). Tampoco es tratar de poner puertas a algo que ya parece incontrolable. Ni quiero sostener que miremos para otro lado. Al contrario, lo que quiero defender es la importancia de tomarnos en serio la IA en educación, lo que pasa por poner encima de la mesa escolar el tema de la IA, abriendo conversaciones entre docentes, con los estudiantes y con las familias.
Y quiero defender también la importancia de exigir responsabilidad a las grandes corporaciones tecnológicas y en general a todos los agentes de Inteligencia Artificial, y exigir, sobre todo, responsabilidad a nuestras administraciones educativas que en lugar de aplaudir, aceptar y blanquear sin más el camino trazado por las grandes tecnológicas deberían estar trabajando por diseñar, desarrollar e incorporar en la escuelas (universidades) sistemas tecnológicos (véase de IA) responsables, seguros, educativos, de código abierto, sin interes de lucro,....
Carlos M.

