Cuando ChatGPT se hizo público, causó pánico porque facilitaba increíblemente hacer trampa en las tareas escolares. Ahora los estudiantes se quejan de la dependencia de sus profesores en la IA.
En febrero, Ella Stapleton, entonces estudiante de último año en la Universidad Northeastern, estaba revisando los apuntes de su clase de comportamiento organizacional cuando notó algo extraño. ¿Acaso se trataba de una consulta a ChatGPT que había hecho su profesor?
A mitad del documento, que su profesor de negocios había elaborado para una lección sobre modelos de liderazgo, había una instrucción a ChatGPT: “Amplía todas las áreas. Sé más detallado y específico”. Después había una lista de rasgos de liderazgo positivos y negativos, cada uno con una definición prosaica y un ejemplo con viñetas.
Stapleton envió un mensaje de texto a una amiga de la clase.
“¿Viste los apuntes que puso en Canvas?”, escribió, refiriéndose a la plataforma informática que aloja los materiales de los cursos de la universidad. “Lo hizo con ChatGPT”.
“DIOS no”, respondió la compañera de clase. “¿Qué demonios?”.
Stapleton decidió investigar un poco. Revisó las presentaciones de diapositivas de su profesor y descubrió otros signos reveladores de IA: textos distorsionados, fotos de oficinistas con partes del cuerpo extrañas y errores ortográficos atroces.
No estaba contenta. Dado el costo y la reputación de la escuela, esperaba una educación de alto nivel. Este curso era obligatorio para su licenciatura en negocios y su programa prohibía las “actividades académicamente deshonestas”, incluido el uso no autorizado de inteligencia artificial o chatbots.
“Nos dice que no lo usemos y luego lo usa él”, dijo.
Stapleton presentó una queja formal ante la escuela de negocios de Northeastern, citando el uso no revelado de IA, así como otros problemas que tuvo con su estilo de enseñanza, y solicitó el reembolso de la matrícula de esa clase. Siendo la cuarta parte de la factura total del semestre, eso supondría más de 8.000 dólares.
Cuando ChatGPT se hizo público a finales de 2022, causó pánico en todos los niveles educativos porque facilitaba increíblemente hacer trampa. Los estudiantes a quienes se les pedía que escribieran un trabajo de historia o un análisis literario podían hacer que la herramienta lo escribiera en cuestión de segundos. Algunas escuelas la prohibieron, mientras que otras emplearon servicios de detección de IA, a pesar de las dudas sobre su precisión.
Pero, ah, las vueltas que da la vida. Ahora los estudiantes se quejan en sitios como Rate My Professors de la dependencia excesiva de sus profesores en la IA y examinan los materiales de los cursos en busca de palabras que ChatGPT tiende a utilizar demasiado, como “crucial” y “profundizar”. Además de denunciar la hipocresía, esgrimen un argumento económico: están pagando, a menudo bastante, para que les enseñen humanos, no un algoritmo que ellos también podrían consultar gratis.
Por su parte, los profesores dijeron que utilizaban chatbots de IA como una herramienta para ofrecer una mejor educación. Los maestros entrevistados por The New York Times dijeron que los chatbots les ahorraban tiempo, los ayudaban con cargas de trabajo abrumadoras y les servían como asistentes de enseñanza automatizados.
Sus números van en aumento. En una encuesta nacional realizada el año pasado a más de 1800 profesores de enseñanza superior, el 18 por ciento se describió como usuario frecuente de herramientas de IA generativa; en una encuesta de repetición este año, ese porcentaje casi se duplicó, según Tyton Partners, el grupo consultor que llevó a cabo la investigación. La industria de la IA quiere ayudar, y obtener ganancias: las empresas emergentes OpenAI y Anthropic han creado recientemente versiones empresariales de sus chatbots diseñadas para universidades.
(El Times ha demandado a OpenAI por infracción de derechos de autor por utilizar contenido de noticias sin permiso).
Está claro que la IA generativa ha llegado para quedarse, pero las universidades se esfuerzan por seguir el ritmo de las normas cambiantes. Ahora son los profesores los que están en la curva de aprendizaje y, como el profesor de Stapleton, se abren camino entre las dificultades de la tecnología y el desdén de sus alumnos.
Alcanzar la calificación
El otoño pasado, Marie, de 22 años, escribió un ensayo de tres páginas para un curso de antropología por internet de la Universidad de Southern New Hampshire. Buscó su calificación en la plataforma en línea de la escuela, y se alegró de haber recibido un sobresaliente. Pero en una sección de comentarios, su profesora había publicado accidentalmente un intercambio con ChatGPT. Incluía la rúbrica para calificar que la profesora había pedido al chatbot que utilizara y una petición de “comentarios realmente agradables” para Marie.
“Desde mi punto de vista, la profesora ni siquiera leyó nada de lo que escribí”, dijo Marie, quien pidió utilizar su segundo nombre y solicitó que no se revelara la identidad de su docente. Podía entender la tentación de utilizar la IA. Trabajar en la universidad era un “tercer trabajo” para muchos de los docentes, que podían tener cientos de alumnos, dijo Marie, y no quería avergonzar a su profesora.
Aun así, Marie se sintió agraviada y enfrentó a su profesora durante una reunión de Zoom. La profesora dijo a Marie que sí leía los ensayos de sus alumnos, pero que utilizaba ChatGPT como guía, lo que la escuela permitía.
Robert MacAuslan, vicepresidente de IA en Southern New Hampshire, dijo que la escuela creía “en el poder de la IA para transformar la educación” y que existían directrices tanto para el profesorado como para los estudiantes para “garantizar que esta tecnología mejora, y no sustituye, la creatividad y la supervisión humanas”. Una lista de cosas que hacer y que no hacer para el profesorado prohíbe utilizar herramientas, como ChatGPT y Grammarly, “en lugar de una retroalimentación auténtica y centrada en el ser humano”.
“Estas herramientas nunca deben utilizarse para ‘hacer el trabajo’ por ellos”, dijo MacAuslan. “Más bien, pueden considerarse como mejoras para sus procesos ya establecidos”.
Después de que un segundo profesor pareciera utilizar ChatGPT para darle retroalimentación, Marie se cambió a otra universidad.
Paul Shovlin, profesor de inglés en la Universidad de Ohio, en Athens, Ohio, dijo que podía entender su frustración. “No me gusta mucho eso”, dijo Shovlin tras conocer la experiencia de Marie. Shovlin es también miembro del profesorado de IA, cuya función incluye desarrollar las formas adecuadas de incorporar la IA a la enseñanza y el aprendizaje.
“El valor que aportamos como instructores es la retroalimentación que podemos dar a los estudiantes”, dijo.“Son las conexiones humanas que forjamos con los estudiantes como seres humanos que están leyendo sus palabras y que están siendo impactados por ellas”.
Shovlin es partidario de incorporar la IA a la enseñanza, pero no simplemente para facilitar la vida del maestro. Los estudiantes deben aprender a utilizar la tecnología de forma responsable y “desarrollar una brújula ética con la IA”, dijo, porque es casi seguro que la utilizarán en el lugar de trabajo. No hacerlo correctamente podría tener consecuencias. “Si metes la pata, te despedirán”, dijo Shovlin.
Un ejemplo que utiliza en sus propias clases: en 2023, los responsables de la facultad de educación de la Universidad de Vanderbilt respondieron a un tiroteo masivo en otra universidad enviando un correo electrónico a los estudiantes en el que se pedía la cohesión de la comunidad. El mensaje, que describía la promoción de una “cultura del cuidado” mediante la “construcción de relaciones sólidas entre unos y otros”, incluía una frase al final que revelaba que se había utilizado ChatGPT para escribirlo. Después de que los estudiantes criticaran que la empatía hubiera sido encargada a una máquina, los funcionarios implicados dimitieron temporalmente.
No todas las situaciones son tan claras. Shovlin dijo que era difícil establecer normas porque el uso razonable de la IA puede variar en función del tema. El Centro para la Enseñanza, el Aprendizaje y la Evaluación, del que es miembro, tiene en lugar de eso “principios” para la integración de la IA, uno de los cuales evita un “enfoque único para todas las situaciones”.
El Times se puso en contacto con decenas de profesores cuyos alumnos habían mencionado su uso de la IA en reseñas en internet. Los profesores dijeron que habían usado ChatGPT para crear tareas de programación informática y cuestionarios sobre lecturas obligatorias, incluso cuando los alumnos se quejaron de que los resultados no siempre tenían sentido. Lo usaban para organizar sus comentarios a los alumnos, o para hacerlos más amables. Como expertos en sus campos, dijeron, pueden reconocer cuándo alucina o se equivoca en la información.
No hubo consenso entre ellos sobre lo que era aceptable. Algunos reconocieron que utilizan ChatGPT para ayudar a calificar el trabajo de los alumnos; otros criticaron esta práctica. Algunos hicieron hincapié en la importancia de la transparencia con los alumnos al emplear la IA generativa, mientras que otros dijeron que no informaban de su uso debido al escepticismo de los alumnos sobre la tecnología.
No obstante, la mayoría opinó que la experiencia de Stapleton en Northeastern —en la que su profesor parecía utilizar la IA para generar apuntes y diapositivas de clase— estaba perfectamente bien. Esa fue la opinión de Shovlin, siempre y cuando el profesor editara lo que ChatGPT generaba para reflejar su experiencia. Shovlin lo comparó con la práctica habitual en el mundo académico de utilizar contenidos de terceros, como planeaciones de clases y estudios de casos.
Decir que un profesor es “una especie de monstruo” por utilizar IA para generar diapositivas “a mí, me parece ridículo”, dijo.
La calculadora con esteroides
Shingirai Christopher Kwaramba, profesor de negocios de la Universidad de la Mancomunidad de Virginia, describió ChatGPT como un compañero que ahorra tiempo. Dijo que las planeaciones de clase que antes tomaban días en ser elaboradas ahora tardan horas. Él lo utiliza, por ejemplo, para generar conjuntos de datos de tiendas de cadena ficticias, que los alumnos utilizan en un ejercicio para comprender diversos conceptos estadísticos.
“Lo veo como la era de la calculadora con esteroides”, dijo Kwaramba.
Kwaramba comentó que ahora tenía más tiempo para atender a los estudiantes en su oficina.
Otros profesores, como David Malan en Harvard, dijeron que una consecuencia del uso de IA era que menos estudiantes acudían a los horarios de oficina para recibir ayuda especial. Malan, profesor de informática, ha integrado un chatbot de IA personalizado en una popular clase que imparte sobre los fundamentos de la programación informática. Sus cientos de alumnos pueden recurrir al chatbot para que les ayude con sus tareas de programación.
Malan ha tenido que retocar el chatbot para perfeccionar su enfoque pedagógico, de modo que solo ofrezca orientación y no respuestas completas. La mayoría de los 500 estudiantes encuestados en 2023, el primer año que se ofreció, dijeron que les resultaba útil.
En lugar de dedicar tiempo a “preguntas más mundanas sobre el material introductorio” durante los horarios de oficina, él y sus ayudantes de cátedra dan prioridad a las interacciones con los estudiantes en los almuerzos semanales y los hackatones, “momentos y experiencias más memorables”, dijo Malan.
Katy Pearce, profesora de comunicación de la Universidad de Washington, desarrolló un chatbot de IA personalizado entrenándolo con versiones de tareas antiguas que había calificado. Ahora este puede brindar a los estudiantes comentarios sobre sus escritos que imitan los suyos en cualquier momento, de día o de noche. Ha sido beneficioso para los alumnos que, de otro modo, dudarían en pedir ayuda, dijo.
“¿Llegará un momento, en un futuro previsible, en que gran parte de lo que hacen los estudiantes de posgrado que son ayudantes de profesor lo pueda hacer la IA?”, dijo. “Sí, absolutamente”.
¿Qué ocurre entonces con el flujo de futuros profesores que provendrían de las filas de los ayudantes de cátedra?
“Será sin duda un problema”, dijo Pearce.
Un momento de aprendizaje
Tras presentar su queja en Northeastern, Stapleton mantuvo una serie de reuniones con funcionarios de la escuela de negocios. En mayo, al día siguiente de su ceremonia de graduación, los funcionarios le comunicaron que no le devolverían el dinero de la matrícula.
Rick Arrowood, su profesor, se mostró arrepentido por el episodio. Arrowood, que es profesor adjunto y lleva casi dos décadas dando clases, dijo que había subido los archivos y documentos de sus clases a ChatGPT, al motor de búsqueda de IA Perplexity y a un generador de presentaciones de IA llamado Gamma para “darles un nuevo aspecto”. A primera vista, dijo, los apuntes y las presentaciones que habían generado tenían un aspecto estupendo.
“En retrospectiva, ojalá lo hubiera mirado con más detenimiento”, dijo.
Puso los materiales en internet para que los revisaran los alumnos, pero recalcó que no los utilizó en clase, porque prefiere que las clases estén orientadas al debate. Se dio cuenta de que los materiales tenían defectos cuando las autoridades escolares le preguntaron por ellos.
La vergonzosa situación le hizo darse cuenta, dijo, de que los profesores deberían abordar la IA con más precaución y revelar a los alumnos cuándo y cómo se utiliza. Northeastern publicó una política formal de IA apenas hace poco; exige la atribución cuando se utilizan sistemas de IA y la revisión del resultado para comprobar su “exactitud y adecuación”. Una portavoz de Northeastern dijo que la escuela “adopta el uso de la inteligencia artificial para mejorar todos los aspectos de su enseñanza, investigación y operaciones”.
“Lo mío es enseñar”, dijo Arrowood. “Si mi experiencia puede ser algo de lo que la gente pueda aprender, entonces, bueno, ese es mi lugar feliz”.
c. 2025 The New York Times Company