Tranche de vie de prof : Comment corriger 1850 questions à développement sans devenir fou?
Je viens de finaliser la correction de l’examen final de 185 étudiants X 10 questions en utilisant l’IA comme outil d’aide à la correction. Voici ma méthodologie :
• Correction séquentielle sans consulter l’identifiant de l’étudiant.
• Une question corrigée à la fois pour tous les étudiants.
• Utilisation d’un Projet ChatGPT avec des instructions claires et le contenu des présentations de mon cours, en suivant un prompt structuré et testé au préalable avec des échantillons.
• Chaque question/réponse/correction IA revue manuellement.
• Finalement, chaque copie validée une seconde fois dans son entièreté.
Résultats :
• Courbe normale avec une moyenne et médiane autour de 80 %.
• Répartition cohérente des corrections IA : les réponses > 8/10 se distinguent clairement de celles < 6/10.
• Uniformité des réponses par étudiant : un étudiant moins performant aura plusieurs notes faibles, tandis qu’un plus performant maintient un niveau constant de qualité.
• L’analyse statistique n’a révélé aucun problème majeur, ce qui valide la pertinence et la qualité de l’examen.
L’IA s’est avérée être un allié précieux pour garantir la rigueur, l’équité de la correction, offrir une rétroaction personnalisée, tout en optimisant mon efficacité. Mais au final, c'est au moins une vingtaine d'heures de correction. Je vais modifier l'approche pour réduire le nombre de questions mais qu'elles exigent plus d'analyse critique et de mentions spécifiques à la matière du cours.
En tant qu’enseignant, avez-vous expérimenté ce genre d’approche ? Quels ont étés les résultats ?
Conseiller en ingénierie de données & Science des Données | Expert Cloud infra (Azure, AWS) | Big Data analytics & AI
4 months ago
Merci stephane pour ton partage d’intégration de l’IA dans le processus de correction. deux aspects retiennent particulièrement mon attention. D’une part, même avec un IA performant, le gain de temps semble bien mais encore limité, ce qui montre que son efficacité reste relative dans un contexte où chaque réponse doit être revue manuellement . D’autre part, en marketing, ethique , gestion , où les réponses peuvent varier énormément d’un étudiant à l’autre, l’évaluation repose souvent sur l’interprétation de nuances , d’arguments originaux ou de cas spécifiques. Les IA ont parfois du mal à saisir ces subtilités, surtout lorsqu’une réponse s’écarte des formulations types, ou des prompt ce qui rend l’analyse véritablement cas par cas.