Actualité

De nouvelles évaluations pour la compréhension écrite

Les évaluations fondées sur des scénarios sont-elles porteuses de nouvelles découvertes sur la compréhension écrite ?

Une collégienne assise devant son ordinateur s’apprête à passer un test de 45 minutes évaluant son niveau de compréhension écrite. Auparavant, ce type d’évaluation annuelle comportait une série de courts extraits de textes, parfois ennuyeux, sur des sujets variés sans rapport entre eux, suivis de questionnaires à choix multiples, afin de déterminer son aptitude à comprendre ce qu'elle lisait. 

Cette fois-ci, c'est un tout autre format de test qu'on lui propose ; celui-ci ressemble davantage à un projet ludique durant lequel elle peut interagir avec des camarades et un professeur virtuels. L'intégralité du test porte sur le même thème. Dans cet exemple, on lui demande d’aider sa classe à créer un site Internet au sujet des écoles respectueuses de l'environnement. Ainsi, elle doit lire un texte en ligne et participer à un forum de discussion avec ses camarades où elle peut visionner leurs commentaires et les siens. Elle doit rédiger un résumé d'une partie du texte (et voit celui que son camarade virtuel « Brian » a réalisé) ; compléter un planning de tâches, en partie déjà rempli par « Diana » ; puis évaluer un ensemble de commentaires au sujet des écoles écologiques en indiquant si ce sont des faits, des opinions, s'ils sont vrais, faux ou totalement hors sujet.

Cette élève vient tout juste de passer la version pilote d'un nouveau test de recherche, le Global Integrated Scenario-Based Assessment ou GISA (qui rime avec visa). Ce test a été développé par une équipe de chercheurs dirigée par ETS dans le cadre d'une initiative financée par le gouvernement américain et s'intitulant « Reading for Understanding » (Lire pour Comprendre). Cette initiative a pour but de découvrir et d'offrir des stratégies efficaces pour améliorer la compréhension écrite des élèves de niveau primaire et secondaire.

GISA a été conçu pour aider les enseignants à évaluer la compréhension écrite de leurs élèves de manière plus efficace que ce qu’il est possible de faire avec des tests traditionnels. Selon les spécialistes, ses aspects novateurs pourraient, à terme, contribuer à améliorer les capacités de lecture des élèves.

Se fier à la science

Le projet subventionné « Reading for Understanding », ayant développé le test GISA, fut dirigé par les chercheurs d'ETS John Sabatini et Tenaha O'Reilly, en collaboration avec d'autres chercheurs d'ETS et trois universités partenaires (l’université de Floride, l’université d’Arizona et l’université de Northern Illinois). Le projet a commencé en 2010 et devrait se finir en 2017.

Au cours de son développement, environ 100 000 élèves à travers le pays ont passé le test GISA, du niveau primaire et secondaire. Selon John Sabatini, les essais de cette évaluation ont prouvé la fiabilité de cet outil pour évaluer la compréhension écrite. Les élèves ne l'ont trouvé ni trop simple, ni trop compliqué, malgré sa grande différence avec les évaluations précédemment passées.

En créant GISA, les concepteurs du test se sont tournés vers de récentes recherches cognitives sur la compréhension écrite afin d'élaborer des tâches et une structure qui révéleraient la capacité des élèves à comprendre ce qu'ils lisent.

Par exemple, toujours selon John Sabatini, les chercheurs ont étudié le travail de Walter Kintsch, professeur de psychologie et de neuroscience à l'université du Colorado à Boulder, qui a découvert que nous lisons de deux façons différentes : la première sert à comprendre ce que le texte raconte - les détails et le message principal - tandis que la seconde sert à utiliser ces informations, par exemple, pour résoudre un problème.

Tout comme les évaluations de compréhension écrite traditionnelles, le test GISA évalue la compréhension de base d'un texte. Cependant, contrairement à la plupart des tests standards, le test GISA évalue aussi la capacité du lecteur à mettre en application les connaissances qu'il ou elle a assimilé grâce au texte.

 « GISA est une évaluation bien plus stimulante, intégrée et analytique. » affirme Catherine Snow. Professeur de sciences de l'éducation à l'université Harvard Catherine Snow a travaillé auparavant sur un projet de recherche « Reading for Understanding » en utilisant  le test GISA pour évaluer les résultats des élèves.

Elle souligne que  le test GISA ne se contente pas de demander aux élèves de résumer, mais aussi de sélectionner, de comparer et d'analyser.

« Ce plus large ensemble de tâches reflète mieux ce que nous attendons de nos jours des élèves à l'issue d'un enseignement de compréhension écrite », déclare-t-elle.

Chaque version du test GISA se focalise sur un seul scénario, en amenant par exemple les élèves à préparer un exposé sur les déserts ou bien à vérifier les informations d'un site Internet sur les origines de Mona Lisa. Les élèves doivent résoudre les problèmes ou les tâches liés au thème qui leur est donné, tout en utilisant les informations qu'ils ont lues. Ce procédé aide les évaluateurs à observer comment les lecteurs analysent et interprètent les consignes.

« L'une des idées était de rendre les évaluations plus authentiques, pour réellement leur donner un sens », explique Tenaha O'Reilly.

Le spécialiste en compréhension écrite,  P. David Pearson, un professeur en sciences de l'éducation à l'université de Californie à Berkeley, a déclaré qu'une des raisons pour laquelle il aime  le test GISA est que l'on expose un but précis pour chaque exercice. De plus, les exercices « correspondent aux façons dont on utilise la compréhension écrite au quotidien.» Il a également ajouté qu'utiliser « ce que l'on connaît pour l'appliquer au contexte réel fait partie intégrante de la compréhension écrite. »

John Sabatini nous informe qu'un domaine de recherche récent s’est penché sur l'intégration de l'information collectée au travers de sources multiples. Avec internet, les lecteurs d'aujourd'hui ont accès à une grande quantité d’informations, souvent non vérifiées, sur différents supports (blogs, réseaux sociaux, sites Internet) et exposant divers points de vue. Cela leur demande de savoir comment trier, filtrer et synthétiser de façon critique et stratégique ce qu'ils ont lu.

Fondé sur des scénarios et sur un système de distribution numérique de tests, GISA s'adapte aux compétences du 21ème siècle en proposant une multitude de ressources numériques. Ces ressources offrent souvent des points de vue divergents que les lecteurs doivent évaluer.

Parfois, ces différentes perspectives proviennent des camarades virtuels du test. Souvent, ils déterminent les tâches et incarnent un contexte social, collaboratif et interactif dans le test. D'autres fois, ils peuvent donner des informations inexactes ou hors-sujet. Tout comme dans le monde réel, les lecteurs doivent pouvoir déterminer lorsque les sources sont fiables ou non, et lorsque les informations sont vraies ou sans fondement.

GISA peut-il améliorer la compréhension écrite ?

Si les évaluations fondées sur des scénarios tels que GISA devenaient évidente, comment cela pourrait-il influer sur l’apprentissage de la lecture ? Les tests pourraient-ils réellement améliorer la collecte d'informations lors de la lecture ?

Selon le spécialiste de la lecture Pearson, les tests « devraient refléter un bon programme scolaire plutôt que de devoir en être le guide », mais reconnaît aussi que les tests « ont un impact sur le programme scolaire et sur l'éducation, qu'on le veuille ou non. »

Si GISA venait à dépasser la phase pilote et devenir un véritable produit, il pourrait « avoir un impact positif sur l’apprentissage de la lecture », affirme-t-il. « Cela motiverait les concepteurs de programmes scolaires, les enseignants et les décideurs à enseigner la compréhension écrite d'une façon beaucoup plus sociale et plus axée sur l'application des connaissances acquises par la lecture aux problèmes du monde. Et puisque les tâches de GISA ont tendance à encourager les élèves à rassembler les informations de sources numériques, il y aurait nécessairement un aspect critique où les problématiques de pertinence et de validité feraient partie intégrante de la lecture. »

Catherine Snow est du même avis. Elle relève le fait que ces évaluations sont « très puissantes » car elles peuvent changer la façon dont les enseignants conçoivent un sujet et instruisent leurs élèves.« Dans l'idéal, si un test tel que GISA venait à être utilisé à plus grande échelle, cela changerait la vision qu'ont les enseignants de la compréhension », déclare-t-elle.

John Sabatini, quant à lui, ne pense pas que le test GISA pourrait améliorer à lui seul la façon dont les élèves lisent.

« Bien que nous ayons très envie de penser que l'évaluation peut entraîner le développement de la lecture, nous n'en sommes pas encore là — et ce n’est peut-être pas l’objectif approprié », explique-t-il.

Cependant, il ajoute que « les évaluations peuvent déterminer et offrir un objectif ainsi qu'un retour sur les compétences », qui peut guider les élèves et les enseignants.

Pour cela, Tenaha O'Reilly indique que les créateurs de GISA y ont inclus des stratégies de lecture validées empiriquement, telles que la synthèse, la paraphrase et l'utilisation d'agendas graphiques.

« Nous avons décidé d'ajouter ce types de stratégies au test lui-même afin d'être en accord avec les pratiques éducatives des écoles et de soutenir ces bonnes habitudes de lecture » affirme-t-il tout en notant que « leur but ultime était d’intégrer partiellement un modèle potentiel d'apprentissage. »

L'évolution actuelle et future

GISA est un test pilote qui a été développé dans le cadre d'une initiative de recherche. Il n'est pas utilisé à l'école. Cependant, la méthode de test fondée sur des scénarios commence à se propager parmi les autres tests, que ce soit dans le domaine de la lecture ou autres compétences. Le « National Assessment of Educational Progress » (NAEP, le programme national d'évaluation des progrès dans le système éducatif américain), par exemple, a commencé à expérimenter des scénarios similaires à ceux de GISA, entre autres dans le domaine de la lecture et de la science, comme nous l'indique Pearson, Président du comité permanent de lecture du NAEP.

De leur côté, John Sabatini et Tenaha O'Reilly espèrent que les tests comme GISA, basés sur des scénarios, deviendront plus répandus et plus familiers chez les enseignants et les élèves. Cela leur permettrait d'aller encore plus loin dans leur future conception du test.

« Nous ne voulions pas non plus aller trop loin, car jamais auparavant des élèves n'avaient passé un test de la sorte », explique John Sabatini, se référant à la première version de GISA.

Il ajoute que, cependant, GISA 2.0 pourrait être encore plus créatif, proposer plus d'adaptations, de choix et de retours. En d'autres termes, les élèves auraient plus d'options durant le test en fonction des choix qu'ils feraient. Il est également envisagé d'inclure une combinaison de ressources papier et numériques, comme dans la vie réelle.

Des scénarios GISA ou similaires pourraient potentiellement être adaptés pour des évaluations de littérature ou de langues étrangères pour adultes, comme l'affirme John Sabatini. « Nous espérons continuer à travailler dans l'une ou l'autre direction. »

Lorna Collier est un auteur spécialisé dans l'éducation, la technologie et les affaires. Elle écrit couramment pour le National Council of Teachers of English (Conseil national des professeurs d'anglais) et le Center for Digital Education (Centre pour l'éducation à l'ère numérique).