La IA enfrenta a docentes y estudiantes: cómo manejan su irrupción en el aula
Su uso, generalizado a lo largo del último año, impacta en la forma en que se desarrollan trabajos y exámenes. El debate entre la represión y el acompañamiento.
Con mayor o menor impacto, con consecuencias positivas y de las otras, la presencia de la Inteligencia Artificial (IA) en todos los niveles de la educación es un hecho que viene sacudiendo la realidad en las escuelas y universidades.
Como una nueva y altamente mejorada versión del "rincón del vago", la IA se presenta como una tentadora herramienta capaz de resolver sin esfuerzo cualquier tarea que exija a la mente, prometiendo resultados que no necesariamente se reflejan en el trabajo terminado y generando un debate ético y de compromiso intelectual que enfrenta a los protagonistas del proceso educativo.
¿Cómo fue y es dar clase ante su irrupción en las aulas? En esta nota, un docente de nivel primario, una docente de nivel medio y un profesor de educación superior reflexionan sobre la incidencia de la IA en los procesos de enseñanza y aprendizaje. El tema es materia de debate entre especialistas y objeto de análisis en todo el mundo. Pero mientras se analizan sus efectos ventajosos y desventajosos, sus potencialidades y riesgos, la IA ya es parte de la cotidianeidad áulica.
“Los chicos buscan resolver todo por ChatGPT. Incluso con trabajos hechos en clase. Llega un momento en que decís ‘no puedo ir en contra de esto'."
“Los chicos buscan resolver todo por ChatGPT. Los más chicos no tienen tanto acceso, porque no siempre les dan el celular en la casa. Pero los más grandes, sí. Incluso con trabajos hechos en clase. Llega un momento en que decís ‘no puedo ir en contra de esto, entonces voy a tratar de enseñar que la usen a su favor’”, plantea Nicolás Todaro, docente de Ciencias Sociales y Lengua en un séptimo grado por la mañana y maestro de quinto grado por la tarde en distintas escuelas públicas de la Ciudad de Buenos Aires. En ambas aulas, pero con más fuerza en la de séptimo, el uso de la IA explotó este 2025.
“Los más chicos no la manejan muy bien. No la tienen tan incorporada como en los años superiores. Solo interactúan con ChatGPT. Si les doy una actividad, sacan la foto y la suben. Van a lo fácil”, opina Natalia Otermin, docente de Lengua y Literatura de tercero a sexto año en una secundaria agrotécnica del interior de la provincia de Santa Fe. En busca de herramientas, cursa además la Diplomatura en Inteligencia Artificial Generativa en la Escuela Secundaria que se dicta en la Facultad de Ciencias de la Educación de la Universidad Nacional de Entre Ríos (UNER).
“El uso de la IA generó un verdadero problema en el ámbito universitario. Incorporar la IA en la educación no deja de impactar negativamente en el proceso de aprendizaje, en la medida en que ‘hacer un buen uso de la IA’ no deja de delegar en ella el ejercicio de tareas formativas que contribuyen a desarrollar las competencias elementales de la disciplina que se estudia. La gran incógnita es cómo enfrentar esta situación como docentes”, señala Pablo Escalante, docente de la carrera de Historia en la Universidad Nacional de San Martín (UNSAM), en la provincia de Buenos Aires.
Saquen una hoja
“Ya casi no tomo evaluación escrita. En Lengua, sí. En la parte de comprensión lectora. Pero en Ciencias Sociales las evaluaciones son orales, en grupo o mano a mano. Me parece mejor, por el intercambio que se genera. Y al ser oral lo pueden poner en sus palabras”, dice Todaro sobre el cambio en la forma de examinar el desempeño de sus alumnos y alumnas.
"Cambié mi forma de evaluar: ahora trabajo más con evaluaciones formativas, de todo el proceso. Y siempre trato de que tengan que crear.”
“Las evaluaciones las fui cambiando, pero nunca fui de dar consignas donde tengan que presentar definiciones, entonces no hay posibilidad de copiar. Sí cambié yo mi forma de evaluar: ahora trabajo más con evaluaciones formativas, de todo el proceso. Y siempre trato de que tengan que crear”, apunta Otermin sobre sus modos de tomar examen en secundaria. “Siempre me gustó ver cómo redactan, pero estoy trabajando mucho la oralidad. Los finales solían ser escritos y ahora son orales”.
Recientemente, la dirección de la carrera de Historia de UNSAM realizó una reunión entre docentes y representantes estudiantiles para atender una situación generada a raíz de sospechas en distintas cátedras del posible uso de IA en trabajos prácticos de importancia central en el avance de las materias.
Según se pudo conocer, la reunión reflejó las tensiones lógicas entre alumnos y docentes: los primeros considerándose acusados, algunos alegando falta de fundamento, y los segundos intentando despegarse de una actitud meramente represiva -por lo que aseguran haber recibido insultos y agresiones- y a la vez exponiendo una falta grave al compromiso ético que debe primar en el ámbito universitario. En este caso puntual, un sector del alumnado que asegura no haber recurrido a esa herramienta reclamó medidas más precisas -y acordadas- para la detección del supuesto uso de IA.
Para Escalante, esta forma de recurrir a la IA implica “una deshonestidad intelectual seria de parte de gente adulta que supuestamente cursa de forma voluntaria una carrera con la que busca aprender a realizar las tareas que ahora delega en la IA”.
Un dilema similar se le presentó a Todaro, en nivel primario: ante la consigna de hacer una composición sobre José de San Martín, en séptimo grado, “una alumna presentó un escrito súper lindo. Los compañeros decían que lo había hecho con ChatGPT. Ella decía que no, que después de trabajar el tema se había quedado pensando y había escrito eso. Si ella decía que no había usado IA, yo no tenía por qué no creerle. Además, en general su uso es evidente y el trabajo parecía hecho por ella”, cuenta el docente. El enfrentamiento acusatorio entre alumnos y alumnas por el uso o no de la IA quizá sea un efecto poco analizado y bastante nocivo (¿otra fuente de bullying y violencia?) al interior de las aulas. En todos los niveles.
La IA, palabra santa
“Chicos y chicas hoy nacen cada vez más tecnológicos, pero no saben cómo no ser engañados. Creen en lo primero que sale. Tienen que aprender a indagar. A la IA hay que saber indagarla”, remarca Todaro, a partir de sus clases con alumnos y alumnas de entre 9 y 13 años. Sin embargo, considera que esa ‘creencia’ en el contenido al que se enfrentan no solo tiene que ver con ChatGPT. “Toman lo que les dice la IA como verdad absoluta, pero también lo hacen cuando uno les habla. Hay una ingenuidad propia la infancia y todo lo absorben”, plantea.
Según la experiencia de Otermin en nivel medio, estudiantes adolescentes confían más en las respuestas de ChatGPT, a las que no cuestionan, que en las de docentes o adultos en general. “No dudan del ChatGPT, nos ponen en duda a nosotros. Eso lo trabajamos: les explicamos que a veces incluso les puede dar una fecha o un dato erróneo”.
La docente de Lengua y Literatura recuerda el caso de un alumno de tercer año que se presentó a rendir un examen sobre el origen del castellano. En su exposición dio cuenta de ideas y datos que no tenían nada que ver con lo visto en clase. Algunos, incorrectos. “No era lo que yo había enseñado. Traía otros conceptos. Me dijo que se había guiado por un resumen de ChatGPT”, cuenta Otermin. En otro caso, en sexto año, pidió un ensayo por escrito que luego debía ser expuesto oralmente. “El escrito lo presentaron, pero sin leerlo. Incluso decía ‘la introducción debe contener tales elementos’. Se los empecé a leer en voz alta, para que lo notaran. Era un ‘copiar y pegar’. No tienen la interacción crítica que buscamos”, advierte la docente.
“Mi experiencia al trabajar con la palabra en el ámbito editorial y docente confirma estas impresiones –señala Escalante- Dadas las dificultades que el estudiantado arrastra desde el secundario, los problemas de escritura en el grado son evidentes, y se presentan con mucha frecuencia. Es más, estos problemas no desaparecen en los textos de posgrado, aunque sí disminuyen de forma significativa. Llamativamente, la mayoría de los trabajos prácticos que evalué este año en el grado presentaban una sofisticación inusual en su redacción. No cabía duda de que esos trabajos prácticos habían sido realizados con asistencia de la IA”.
“Con todo, el uso de la IA para mejorar la redacción no supone necesariamente un problema. Formalmente, no veo mayores diferencias entre esta herramienta y, por ejemplo, el corrector ortográfico que ofrece un procesador de texto. El problema –considera- es que el estudiantado usa la IA principalmente para realizar los trabajos prácticos domiciliarios en los que se supone que debería aplicar lo aprendido en clase”, apunta Escalante.
"Tengo la impresión de que no se toma una real conciencia de esto, ni de sus consecuencias lógicas."
Ante este panorama, se pregunta, “¿cuándo se aprenderá a escribir, a argumentar o a resolver problemas propios de cada disciplina si no es en esta instancia de formación? Tengo la impresión de que no se toma una real conciencia de esto, ni de sus consecuencias lógicas: solicitar a la IA que resuelva los problemas que plantea la disciplina que se está estudiando supone admitir de alguna manera que es posible prescindir de la intervención humana en esa disciplina. ¿Cuál es el sentido de estudiar una carrera en humanidades a la que se deshumaniza en el acto mismo de delegar la resolución de sus problemas constitutivos en la IA?”
Domar a la bestia
“A los problemas de orden ético se agregan, además, problemas de orden práctico –dice el docente de la UNSAM- En mi experiencia, los resultados que se obtienen al encargar a la IA la resolución de los trabajos prácticos están directamente relacionados con cuán bien o mal fue comprendida la consigna, ya que esta debe ser traducida a un prompt (…) La IA presenta una interfaz de usuario que la vuelve bastante accesible y casi intuitiva en su modo de uso, pero redactar un buen prompt no es tarea fácil. En el ámbito universitario, los problemas de lecto-comprensión y escritura que el estudiantado arrastra desde el secundario se trasladan al prompt, y es así que la IA devuelve en muchos casos respuestas desopilantes o descabelladas”, advierte.
Pese a las dificultades, aparece la búsqueda de estrategias para hacer de la IA una herramienta y evitar que sólo sea una vía de plagio y atajos. “Estuvimos trabajando el holocausto, consultando a ChatGPT lo que decía sobre el tema. Pero después les pregunté qué fue para ellos, qué pensaron entre lo que les devolvía la IA y lo que habíamos visto en clase. A partir de todo eso, pudieron dar sus opiniones”, cuenta Todaro sobre un tema trabajado en séptimo grado.
Desde un aula secundaria, Otermin comparte una experiencia similar. “Cuando trabajamos crítica literaria, les digo que guarden los celulares y escriban a partir de lo que leímos. Entonces hacen un primer bosquejo y recién después lo pueden compartir con ChatGPT. Les digo que le pregunten qué dice por ejemplo sobre determinado cuento de Borges y que luego armen algo propio. Es el modo que encontré de poder trabajar”.
El dilema no está resuelto. Los docentes consultados coinciden en que es fácil detectar un trabajo realizado con IA, pero los sistemas diseñados para esa detección dan resultados ambiguos y llevan a situaciones de acusaciones y discusiones inconducentes. Incluso un caso fue noticia: la Universidad Católica Australiana tuvo que pedir disculpas a su estudiantado tras haberlos acusado de plagio, cuando el dispositivo de detección de uso de IA dijo lo contrario. Pero lo que está en juego va mucho más allá de si se detecta o no una entrega engañosa. Lo que está en juego es el proceso de enseñanza-aprendizaje en tiempos de IA.
