Descripción
El uso de inteligencia artificial generativa en educación superior ha vuelto más incierta la evaluación del aprendizaje cuando esta se basa únicamente en el producto final. En tareas de escritura académica, un ensayo puede presentar calidad formal sin dejar claro cuánto del resultado corresponde al trabajo intelectual del estudiante y cuánto al uso de herramientas como ChatGPT. Ante ello, esta investigación explora si la evaluación del proceso de interacción con IA generativa puede aportar evidencia útil para valorar aprendizaje.
El estudio se desarrolló como un piloto cuantitativo, exploratorio-correlacional, con 10 estudiantes de medicina de una universidad presencial. A cada participante se le solicitó elaborar un ensayo con apoyo de ChatGPT y entregar la transcripción completa de su interacción con la herramienta. El producto final fue evaluado mediante una rúbrica de ensayo y el proceso con una rúbrica inspirada en el marco DRIVE, centrada en dos dimensiones: Directive Reasoning Interaction (DRI) y Visible Expertise (VE).
Los resultados mostraron una correlación positiva fuerte entre la calidad del ensayo y la calidad de la interacción con GPT (r = 0.86). Además, el análisis del proceso permitió identificar perfiles diferenciados de estudiantes según la combinación entre conducción estratégica de la interacción y visibilidad del conocimiento disciplinar.
Se concluye que, en este piloto, la evaluación del proceso parece captar una dimensión relevante del aprendizaje y puede complementar de manera valiosa la evaluación del producto final. Como siguiente etapa, se propone una intervención con Budly para fortalecer la comprensión de contenidos y mejorar la interacción posterior con ChatGPT.
| Institución | Universidad Anáhuac Online |
|---|