Querían frenar ChatGPT prohibiendo celulares, pero los estudiantes terminaron dándoles una lección a los maestros

La tecnología no es buena ni mala, ni tampoco neutra”. La frase que popularizó el historiador tecnológico Melvin Kranzberg es aplicable en prácticamente cualquier entorno, pues apunta a que su impacto depende directamente del contexto y de cómo se utiliza.

FERIA DE SAN FRANCISCO

Esa es justo su relevancia en la educación con la inteligencia artificial, donde evidentemente tiene sus pros y sus contras. Si bien, a menudo impide que los estudiantes estudien “como antes” y desarrollen sus propios trabajos, también ofrece múltiples beneficios. Todo esto sucede en medio de intentos de regulaciones sobre el uso de dispositivos electrónicos y de los esfuerzos de los profesores para detectar contenido generado con algún asistente de IA.

El caso que abordaremos en esta ocasión fue documentado por The New York Times. El medio plantea cómo, luego de la llegada de plataformas como ChatGPT, el sistema educativo vivió toda una revolución, con olas de pánico y prohibiciones para evitar su uso en tareas académicas por plagio. Esto llevó a que las instituciones implementaran, por ejemplo, sistemas de detección de contenido hecho con IA. Sin embargo, ahora son los estudiantes quienes, irónicamente, denuncian el uso excesivo de la tecnología por parte de sus profesores.

Ahora los alumnos denuncian el uso de IA

Por ejemplo, Ella Stapleton, una estudiante de la Universidad Northeastern en Massachusetts, descubrió que los apuntes de su profesor incluían instrucciones directas para ChatGPT. Estas generaban material lleno de errores, texto genérico y hasta imágenes distorsionadas. Molesta porque las normas prohíben a los alumnos usar IA sin permiso y por el uso opaco de su maestro, presentó una queja formal y solicitó que le fuera devuelta su matrícula.

En otro caso, una estudiante de nombre Marie descubrió que un ensayo había sido calificado con un intercambio entre su profesor y ChatGPT. Esto la llevó a cuestionar el valor de la educación impartida por algoritmos en lugar de humanos. Según el medio, si bien esto hace que los estudiantes se pregunten de la legitimidad y ética de su uso sin transparencia, del lado de los profesores se justifica como una forma de aligerar sus cargas de trabajo y hasta mejorar su labor docente.

Según los maestros entrevistados por el medio, ChatGPT les funciona como una especie de asistente automático que ayuda con la escritura, la generación de materiales didácticos, la estructuración de comentarios más empáticos en las evaluaciones y hasta en la calificación de las tareas. Por otro lado, los estudiantes han encontrado patrones repetitivos y vocabulario que suele ser el utilizado por los chatbots, lo que ha generado una especie de “escepticismo académico”.

Esto se ha visto reflejado en plataformas como Rate My Professors, donde los estudiantes reclamaron que ahora hay muchas diapositivas vacías, explicaciones vagas o hasta comentarios impersonales. Para muchos alumnos que dedican una gran cantidad de dinero en su educación, representa una especie de “traición” el hecho de darle tanto poder a las herramientas de IA en lo que, en principio, es la interacción humana en la educación superior.

Un “asistente” para mejorar la enseñanza

En defensa de su uso, está, por ejemplo, la perspectiva de profesores como Paul Shovlin, de la Universidad de Ohio. Él acepta que el uso de la IA puede ser válido, siempre y cuando no sustituya el criterio pedagógico, con una integración razonada donde se conserve la dimensión ética del aprendizaje y el vínculo entre profesores y alumnos. También considera importante que los estudiantes se familiaricen con el uso de esta nueva herramienta, como lo harían con cualquier otro programa, además de que puedan tener su propio criterio sobre cuándo y cómo utilizarla.

Dentro del informe del New York Times también se indicó que los profesores exploran “con entusiasmo” las posibilidades que ofrece la IA. Por ejemplo, la maestra Katy Pearce, de la Universidad de Washington, creó un chatbot entrenado específicamente para ofrecer retroalimentación a los estudiantes que no querían pedir ayuda, para que pudieran entender mejor los criterios de calificación.

Escuela 2

También está la historia de David Malan, de Harvard, que hizo un asistente con IA para sus clases de programación. De esta forma, redujo el número de preguntas básicas y le dio tiempo para poder crear nuevas experiencias, como reuniones semanales o hackatones. Para muchos docentes, este tipo de chatbots se comparan con la llegada de la calculadora en su momento (algo también dicho en su momento por el CEO de OpenAI: si bien no sustituye la necesidad de hacer operaciones matemáticas y, por lo tanto, el razonamiento para llegar a un resultado, sí permitía agilizar los procesos.

Otro caso es el de Christopher Shingirai Kwaramba, de la Universidad Commonwealth de Virginia, quien gracias a la IA ahora tiene más tiempo para hacer tutorías personalizadas, el cual dedica a la creación de nuevos conjuntos de datos y ejemplos que antes requerían una mayor inversión.

Sin embargo, acepta el medio, la mayoría de los entrevistados indicaron que algo que aún con toda la tecnología no se puede delegar a las máquinas es la compresión, la empatía y la conexión humana, algo que evidentemente la IA no puede replicar al mismo nivel.

El caso de Northeastern: una queja y nuevas políticas universitarias

En el caso de Stapleton, el profesor mencionado, Rick Arrowood, aceptó que había utilizado no solo ChatGPT, sino también Perplexity y Gamma para mejorar sus materiales. Aceptó también que no había revisado lo suficiente el contenido antes de cargarlo en la plataforma escolar y que lo hizo no con la intención de reemplazar la enseñanza, sino de “complementar el proceso de aprendizaje”. Sin embargo, sí se sinceró sobre haber subestimado el impacto que podía tener el uso de la IA sin aviso.

Por lo pronto, y para intentar evitar una situación similar, la universidad donde se presentó este caso implementó nuevas políticas. Entre ellas está la de exigir que se atribuya y revise todo el contenido hecho por IA, para así mantener la ética profesional de la escuela y de los maestros.

OBRAS DE INFRAESTRUCTURA HIDALGO

Cortesía de Xataka



Dejanos un comentario: