Article
Stadler M., Kolb, N. et Sailer, M. (2021). The right amount of pressure: Implementing time pressure in online exams. Distance Education, 42(2), 219-230. https://doi.org/10.1080/01587919.2021.1911629
Résumé
Stadler, Kolb et Sailer (2021) explorent différentes manières de gérer le temps pendant les examens en ligne et leurs impacts sur l’expérience étudiante. Ils rappellent le besoin urgent de la mise en ligne des examens lors de la pandémie de COVID-19 et l’augmentation, en conséquence, des situations de plagiat. Bien que la réduction de la durée des examens soit considérée comme une des solutions pour limiter le plagiat, il n’existe pas ou peu d’indications sur la façon dont cette réduction peut être effectivement mise en œuvre.
Pour cette étude exploratoire, trois formats différents d’un même examen comprenant des questions à choix multiples présentées séquentiellement (il est impossible de revenir en arrière entre deux questions ou de consulter l’ensemble des questions dès le départ) ont été utilisés et ont donné lieu à trois conditions expérimentales :
- Condition 1 : une durée limitée (huit minutes) pour l’ensemble de l’examen contenant six questions;
- Condition 2 : une durée limitée et identique pour chacune des six questions de l’examen;
- Condition 3 : une durée variable pour chaque question selon la longueur des consignes.
Cent onze (111) personnes inscrites à un cours en méthodologie de recherche d’une université allemande ont été recrutées et assignées aléatoirement à l’une des trois conditions. Relativement aux trois conditions, une hypothèse est émise et deux questions de recherche sont posées.
- Hypothèse : La performance devrait être meilleure si la pression exercée par le temps est moins grande (condition 1).
- Question 1 : Existe-t-il un lien entre l’évaluation subjective de l’examen par les personnes ayant réalisé l’examen et la condition à laquelle elles ont été assignées?
- Question 2 : Comment le temps est-il utilisé pour les différentes questions dans la condition 1?
Au résultat obtenu à l’examen s’ajoutent l’observation de six mesures subjectives réalisées en cours d’expérimentation, afin de répondre à la question 1, soit : (1) l’effort requis pour réaliser l’examen, (2) la capacité de l’examen à bien mesurer les apprentissages, (3) l’objectivité de l’examen, (4) le caractère plus ou moins équitable de l’examen, (5) la familiarité et enfin, (6) la préférence de format.
Concernant les résultats, l’hypothèse n’a pas été confirmée. Les résultats sont plus faibles dans la condition 3. Pour ce qui est de la question 1, aucune corrélation n’a été repérée entre les différentes mesures subjectives et les trois conditions. Enfin, pour la question 2, les chercheurs ont repéré des différences pour quatre des six questions; cela a pris moins de temps que prévu pour répondre à ces questions.
Enfin, l’ensemble des mesures ont montré, d’une part, que l’examen avait été perçu comme difficile, équitable et objectif quelle que soit la condition. D’autre part, que les personnes ayant réalisé l’examen n’avaient pas de préférence quant aux trois formes d’examens proposées. Les chercheurs recommandent un temps égal offert pour chaque question de niveau de difficulté équivalent (condition 2) tout en concédant que l’impossibilité de naviguer entre les questions pourrait nuire au premier format (condition 1) car la personne réalisant l’examen ne peut déployer des stratégies personnelles d’étude après avoir lu l’ensemble des questions.
Appréciation et utilisation potentielle
La conception des instruments d’évaluation des apprentissages représente encore une activité complexe pour laquelle de multiples facteurs entrent en ligne de compte. L’urgence en 2020 de repenser les évaluations et notamment les examens pour qu’ils soient réalisés en ligne n’a fait que rappeler cette complexité ainsi que le rôle crucial de l’évaluation dans toute démarche de formation.
Cette complexité inhérente à la conception des instruments d’évaluation rend notamment difficile l’identification de solutions générales et génériques pour contrer le plagiat. Le recours systématique à des tests (quiz) constitués de questions à choix multiples offerts en séquence stricte lors d’un laps de temps très court et à un moment unique de la session ne nous apparait pas être une de ces solutions générales et génériques. Comme Stadler et al. (2021) le soulignent, en modulant la durée d’un examen ou de ses parties, on en augmente la difficulté et il est possible que l’évaluation vise alors la capacité à performer sous pression plutôt que l’atteinte des objectifs d’apprentissage.
Des études empiriques, telles que celle menée par Stadler et al. (2021), bien que circonscrites à des caractéristiques particulières des examens et menant souvent à des résultats parcellaires, nourrissent la réflexion sur les examens en ligne. Elles permettent surtout d’envisager la constitution progressive d’un corpus de connaissances apte à orienter le corps professoral et le personnel pédagogique qui le soutient lors de la conception d’examens en ligne.
Notice biographique
Julien Contamines est spécialiste en sciences de l’éducation à l’Université TÉLUQ depuis 2011. Il est ainsi amené à accompagner les professeur.es dans le développement de leurs cours en ligne dans un rôle de conseiller et de concepteur pédagogique selon la situation. Il participe également à des projets de service ou institutionnels au cours desquels il peut mettre à profit son expertise en pédagogie universitaire et à distance.
Parallèlement, il œuvre comme chargé d’encadrement dans le même établissement depuis une vingtaine d’années. Il accompagne les personnes étudiantes inscrites aux programmes en technologie éducative et en formation à distance, que cela soit dans des cours sur le design pédagogique, la formation en ligne, le développement cognitif à l’aide des technologies ou encore la communication pédagogique à distance.