Eli Alshanetsky/The Conversation*
La última generación de modelos de IA es más precisa y fluida, y produce textos pulidos con menos errores y confusos. Como profesor de filosofía, me preocupa cada vez más: cuando un ensayo impecable ya no refleja el razonamiento del estudiante, la calificación se vuelve vacía, al igual que el diploma.
El problema no se limita al aula. En campos como el derecho, la medicina y el periodismo, la confianza depende de saber que el trabajo fue guiado por el criterio humano. Un paciente, por ejemplo, espera que la receta de un médico refleje el pensamiento y la formación de un experto.
Los productos de IA ahora pueden utilizarse para respaldar las decisiones de las personas. Pero incluso cuando el papel de la IA en este tipo de trabajo es reducido, no se puede estar seguro de si el profesional dirigió el proceso o simplemente escribió algunas instrucciones para realizar la tarea. Lo que se pierde en esta situación es la rendición de cuentas: la sensación de que las instituciones y los individuos pueden responder por lo que certifican. Y esto ocurre en un momento en que la confianza pública en las instituciones cívicas ya se está erosionando.
Considero la educación como el campo de pruebas para un nuevo desafío: aprender a trabajar con la IA preservando la integridad y la visibilidad del pensamiento humano. Si se resuelve este problema, podría surgir un modelo para otros campos donde la confianza depende de saber que las decisiones aún provienen de personas. En mis clases, estamos probando un protocolo de autoría para garantizar que la escritura de los estudiantes se mantenga conectada con su pensamiento, incluso con la IA involucrada.
Cuando el aprendizaje falla
El intercambio fundamental entre profesor y alumno se ve afectado. Un estudio reciente del MIT reveló que los estudiantes que usaban grandes modelos lingüísticos para ayudarse con sus ensayos sentían menos apropiación de su trabajo y obtenían peores resultados en indicadores clave relacionados con la escritura.
Los estudiantes aún quieren aprender, pero muchos se sienten frustrados. Pueden preguntarse: “¿Para qué pensarlo yo mismo si la IA me lo puede decir?”. A los profesores les preocupa que sus comentarios ya no calen. Como dijo una estudiante de segundo año de la Universidad de Columbia a The New Yorker tras entregar su ensayo con ayuda de la IA: “Si no les gusta, no lo escribí yo, ¿sabes?”.
Las universidades se encuentran en aprietos. Algunos profesores intentan hacer las tareas “a prueba de IA”, optando por reflexiones personales o exigiendo que los alumnos incluyan sus indicaciones y el proceso. En los últimos dos años, probé versiones de estas estrategias en mis propias clases, incluso pidiendo a los alumnos que inventen nuevos formatos. Pero la IA puede imitar casi cualquier tarea o estilo.
Como es lógico, otros abogan ahora por un retorno a lo que se denomina “estándares medievales”: exámenes en clase con cuadernos y exámenes orales. Sin embargo, estos premian principalmente la velocidad bajo presión, no la reflexión. Y si los alumnos utilizan la IA fuera de clase para las tareas, los profesores simplemente bajarán el nivel de exigencia, tal como sucedió cuando los teléfonos inteligentes y las redes sociales empezaron a erosionar la lectura sostenida y la atención.
Muchas instituciones recurren a prohibiciones generales o delegan el problema a empresas de tecnología educativa, cuyos detectores registran cada pulsación de tecla y reproducen borradores como si fueran películas. Los profesores revisan cronologías forenses; los alumnos se sienten vigilados. Demasiado útil para prohibirla, la IA se oculta como contrabando.
El desafío no reside en que la IA proporcione argumentos sólidos; los libros y los compañeros también lo hacen. La diferencia radica en que la IA se infiltra en el entorno, susurrando constantemente sugerencias al oído del estudiante. Es crucial si el estudiante simplemente las repite o las incorpora a su propio razonamiento, pero los profesores no pueden evaluarlo a posteriori. Un trabajo sólido puede ocultar la dependencia de la IA, mientras que uno deficiente puede reflejar una verdadera dificultad.
Mientras tanto, otras características del razonamiento del estudiante —frases poco claras que mejoran a lo largo del trabajo, la calidad de las citas, la fluidez general de la escritura— también quedan ocultas por la IA.
Restablecer el vínculo entre proceso y producto
Aunque muchos preferirían evitar el esfuerzo de pensar por sí mismos, es precisamente eso lo que hace que el aprendizaje sea duradero y prepara a los estudiantes para convertirse en profesionales y líderes responsables. Incluso si fuera deseable ceder el control a la IA, no se le puede exigir responsabilidad, y sus creadores no desean ese rol. La única opción, a mi parecer, es proteger el vínculo entre el razonamiento del estudiante y el trabajo que lo sustenta.
Imagine una plataforma de aula donde los profesores establecen las reglas para cada tarea, decidiendo cómo se puede usar la IA. Un ensayo de filosofía podría ejecutarse en modo sin IA: los estudiantes escriben en una ventana que deshabilita copiar y pegar y las llamadas externas a la IA, pero que aún les permite guardar borradores. Un proyecto de programación podría permitir la asistencia de la IA, pero hacer una pausa antes de la entrega para formular al estudiante preguntas breves sobre el funcionamiento de su código. Cuando el trabajo se envía al profesor, el sistema emite un recibo seguro —una etiqueta digital, como un sobre sellado de un examen— que confirma que se produjo bajo las condiciones especificadas.
Esto no es detección: ningún algoritmo escanea en busca de marcadores de IA. Y no se trata de vigilancia: no hay registro de pulsaciones de teclado ni espionaje de borradores. Los criterios de IA de la tarea están integrados en el proceso de entrega. Los trabajos que no cumplan estas condiciones simplemente no se procesarán, como cuando una plataforma rechaza un tipo de archivo no compatible.
En mi laboratorio de la Universidad de Temple, estamos probando este enfoque utilizando el protocolo de autoría que he desarrollado. En el modo principal de verificación de autoría, un asistente de IA plantea preguntas breves y conversacionales que ayudan a los estudiantes a reflexionar: “¿Podrías reformular tu idea principal con mayor claridad?” o “¿Hay un ejemplo mejor que ilustre la misma idea?”. Sus respuestas y ediciones breves e inmediatas permiten al sistema medir la coherencia entre su razonamiento y la versión final.
Las indicaciones se adaptan en tiempo real a la escritura de cada estudiante, con la intención de que el coste de hacer trampa sea mayor que el esfuerzo de pensar. El objetivo no es calificar ni reemplazar a los profesores, sino reconectar el trabajo que entregan los estudiantes con el razonamiento que lo produjo. Para los docentes, esto les devuelve la confianza en que sus comentarios se basan en el razonamiento real del estudiante. Para los estudiantes, fomenta la conciencia metacognitiva, ayudándoles a discernir cuándo están pensando de verdad y cuándo simplemente están desahogándose.
Creo que tanto docentes como investigadores deberían poder diseñar sus propios sistemas de control de autoría, emitiendo cada uno una etiqueta de seguridad que certifique que el trabajo superó el proceso elegido, una etiqueta que las instituciones pueden decidir si aceptan y adoptan.
Cómo interactúan los humanos y las máquinas de IA
Existen iniciativas similares en marcha fuera del ámbito educativo. En el sector editorial, los programas de certificación ya experimentan con sellos de “autor humano”. Sin embargo, sin una verificación fiable, estas etiquetas se convierten en meras afirmaciones de marketing. Lo que se debe verificar no son las pulsaciones de teclado, sino cómo las personas interactúan con su trabajo.
Esto traslada la cuestión a la autoría cognitiva: no si se utilizó IA ni en qué medida, sino cómo su integración afecta a la propiedad intelectual y la reflexión. Como observó recientemente un médico, aprender a implementar la IA en el campo de la medicina requerirá una ciencia propia. Lo mismo se aplica a cualquier campo que dependa del criterio humano.
Considero que este protocolo actúa como una capa de interacción con etiquetas de verificación que acompañan al trabajo dondequiera que vaya, como el correo electrónico que se transfiere entre proveedores. Complementaría los estándares técnicos ya existentes para verificar la identidad digital y la procedencia del contenido. La diferencia clave radica en que los protocolos actuales certifican el producto, no el criterio humano que lo sustenta.
Sin otorgar a las profesiones el control sobre el uso de la IA y garantizar el lugar del juicio humano en el trabajo asistido por IA, esta tecnología corre el riesgo de erosionar la confianza de la que dependen las profesiones y las instituciones cívicas. La IA no es solo una herramienta; es un entorno cognitivo que está transformando nuestra manera de pensar. Para habitar este entorno en nuestros propios términos, debemos construir sistemas abiertos que mantengan el juicio humano en el centro.
*Eli Alshanetsky es profesor adjunto de Filosofía en la Universidad de Temple.
Este texto fue publicado originalmente en The Conversation









