bas de page

 
Schéma d'évaluation pour le choix du multimédia pédagogique approprié

Khalid Ahaji, Said Zahim, Mohamed Droui, Benaissa Badda
 

Résumé
Ces dernières années, le monde a connu une révolution informatique et technologique qui a touché tous les secteurs notamment ceux de l'éducation et de la formation. Le développement des technologies de l'information et de la communication a rendu ces outils incontournables et sont de plus en plus introduites dans les processus enseignement-apprentissages. Ce phénomène s'est accompagné d'une abondance de multimédias pédagogiques sous différentes formes (exerciseurs, tutoriaux, plates-formes, etc.) sur internet, sur des CD ou sur des DVD. Or, Le choix de l'outil multimédia pédagogique approprié à intégrer dans l'acte enseignement-apprentissage est un travail éminemment didactique et qui nécessite un processus d'évaluation. Cet article présente une proposition d'un parcours méthodologique des différentes étapes d'évaluations que nous avons utilisées pour le choix d'un bon outil multimédia pédagogique parmi plusieurs.

Mots-clés : Outils Multimédias, Intégration, Pédagogie, Évaluation, Enseignement, Apprentissage, didactique, Schéma d'évaluation.

Introduction

   Ces dernières années, le monde a connu une révolution informatique et technologique qui ont touché tous les secteurs. L'enceinte éducative n'est pas exclue de ce mouvement. En effet, le développement des technologies de l'information et de la communication a rendu ces outils incontournables et sont de plus en plus introduits dans les processus enseignement-apprentissages. Ces événements sont accompagnés d'une abondance de multimédias pédagogiques sous différentes formes (exerciseurs, tutoriaux, plates formes, etc.) et qu'on peut trouver sur internent, sur des CD ou sur des DVD. Or, le choix d'un bon outil multimédia pédagogique est une décision éminemment didactique et qui nécessite un plan d'évaluation. Beaucoup d'Enseignants Innovants Marocains adhèrent à cette vogue de conception des Technologies de l'information et de la communication en vue de leur intégration dans leurs pratiques pédagogiques.

   Dans ce travail de recherche, nous avons essayé de construire un schéma d'évaluation des multimédias pédagogique, en passant par l'analyse et l'étude d'un certains nombres d'outils TIC conçus par des Enseignants Innovants Marocains.

Problématique

   La question d'évaluation des outils multimédias pédagogiques une thématique qui intéresse actuellement beaucoup de chercheurs et concepteurs des environnement informatiques d'apprentissages humains (Stufflebeam, 1980 ; Meloche, Trigano, Bibeau ; 1992 ; Ahaji, El Hajjami et al. ; etc.). Une première analyse de la revue de littérature dévoile la diversité des méthodes et instruments utilisés pour juger un outil multimédia pédagogique. Ces techniques comme le montre Meloche (2005), peuvent porter sur :

  • des mesures et des quantifications : l'évaluateur est lui est possible de tout mesurer, de tout quantifier ;

  • l'évaluation formative : quand on aborde ce type d'évaluation, l'accent mise sur des outils de type qualitatif devient de moins en moins pertinent ;

  • l'évaluation selon le contexte : dans ce type d'évaluation, il est important de considérer les nombreuses caractéristiques propres à l'enseignant et aux élèves devant utiliser le multimédia ; le type d'utilisation proposée du multimédia (multimédia dédié uniquement à des exercices ou à des bases de données, ou comprenant l'ensemble des ressources auxquelles on devrait faire appel pour atteindre les différents objectifs du cours).

   La question que nous nous posons, c'est comment désigner l'outil multimédia le plus approprié parmi plusieurs ?

   Notre objectif c'est d'essayer de construire un Schéma d'évaluation des outils TIC intégrant à la fois l'évaluation catégorielle, l'évaluation quantitative et l'évaluation qualitative.

Cadre théorique

   La revue de littérature montre que les démarches d'élaboration de méthodes d'application multimédia mises au point sont très nombreuses. Cependant ces outils méthodologiques qu'ils soient opératoires, théoriques ou encore automatisés, prennent des formes assez typiques. Ils assemblent les cas, un certain nombre de principes, de critères et procèdent d'approches différentes qui donnent lieu à des typologies variées. Parmi les principales démarches élaborées on trouve les dix sept méthodes recensées par Patrik Benazet (2007) :

La méthode « CIDOC [1] »

   Dans cette démarche, l'analyse évaluative est conduite à l'aide d'une grille structurée selon les cinq axes suivants : Contenus, Fonctionnalités, Interface, Utilisation et Impact. Chacun des axes est incliné en grille applicable à toute ressource multimédia en relation avec les musées.

La méthode « design, Implementation, and evaluation of Multimedia Resources for Earth sciences Education » : University at Buffalo-New york–USA

   Elle englobe la construction des ressources multimédia et leur évaluation, d'une définition de ce qu'elles doivent être pour une réelle efficacité sur le plan didactique. Cette démarche est structurée selon 2 axes : l'étude des fonctions d'évaluation et celle des méthodes d'évaluation. La méthodologie d'évaluation est déroulée à différentes stades : en partant de la conception des ressources multimédia d'apprentissage jusqu'à leur utilisation en quatre temps : 1-analyse et définition des objectifs ; 2-étude de la documentation ; évaluation formative et évaluation de l'impact.

La méthode « EMMUS [2] » : Réseau européen de recherche sur l'utilisabilité du multimédia-Europe

   EMMUS propose une évaluation très en amont de la réalisation du produit en associant fortement les utilisateurs. L'approche évaluative d'EMMUS repose sur les normes d'utilisabilité de l'ISO et en particulier l'ISO 13407. La visée première est donc la prise en compte de l'utilisateur. Les outils proposés sont les suivants :

Évaluation subjective : utilise des questionnaires

Charge de cognitive : mesure le sentiment qu'ont les utilisateurs du degré d'effort fourni et non pas l'effort qu'ils pensent que la tâche aurait pu exiger d'eux ;

Technique d'Incidents critique : propose des questions ouvertes ;

Évaluation par inspection : utilise une liste de critères ;

Méthodes d'analyse d'observation : Elle met en relation l'environnement multimédia envisagé avec l'expérience qu'a déjà un utilisateur dans son environnement de travail traditionnel ;

Contexte d'utilisation : c'est une technique générique qui aide au développement en posant certaines questions d'investigation probantes sur le sujet ;

Le tri de cartes : elle est utilisée pour faire ressortir les modèles de représentations mentales des systèmes avec lesquels les utilisateurs travaillent ;

Les groupes panels : cette approche permet d'identifier les questions qui peuvent devoir être abordées lors du développement et fournissent une perspective à facettes multiples ;

Le prototype papier : L'utilisateur désigne les modalités qui lui paraissent les plus appropriées et l'équipe de développement tient ensuite compte des suggestions des utilisateurs ;

Évaluation coopérative : Cette technique vise à dégager les principes d'utilisabilité en associant les utilisateurs et les développeurs afin d'évaluer un prototype ;

Estimation des coûts : s'appui sur un certain nombre de questions simples que le client et le développeur doivent considérer ensemble au début du projet.

La méthode « EMPI [3] » : Une méthode informatisée pour l'évaluation des didacticiels multimédias

   La méthode EMPI repose sur un questionnaire structuré selon les six thèmes principaux suivants :

  • Le thème impressions générales rend compte de l'image que le didacticiel offre à l'utilisateur.

  • Le thème qualité informatique permet d'évaluer la mise au point technique du logiciel.

  • Le thème utilisabilité correspond à l'évaluation ergonomique de l'interface.

  • Le thème documents multimédia envisage la présentation et la forme des contenus.

  • Le thème scénarisation s'intéresse à l'ensemble des techniques d'écriture utilisées pour agencer les informations.

  • Le thème didactique s'intéresse enfin aux ressources pédagogiques mobilisées en fonction du contexte d'apprentissage.

   Chacun de ces six thèmes est divisé en méta-critères, sous-critères et questions. L'ensemble constitue une base de connaissances, sous forme d'un questionnaire hiérarchique, qui permet de noter le didacticiel selon différentes dimensions, dans l'optique de le comparer avec d'autres logiciels ou avec un contexte pédagogique donné.

La méthode « ERGOVAL » : Université Toulouse 1-France

   C'est une méthode d'évaluation ergonomique. L'objectif a été de définir un outil utilisable par des informaticiens, qui automatise l'évaluation de la présentation statique des interfaces. La méthode Ergoval est basée sur une expertise réalisée avec la méthodologie KADS (Knowledge Acquisition and Design Support). KADS est une méthodologie de développement de systèmes à base de connaissances qui s'appuie sur la construction d'un modèle d'expertise pour exprimer la sémantique des connaissances ainsi que les principes et mécanismes de base du raisonnement permettant de résoudre un problème donné. Ce modèle d'expertise représente les connaissances sur quatre niveaux : Niveau stratégie, niveau tâche, niveau inférence et niveau domaine.

La méthode « Evaluating educational multimedia » : University of Alberta-Canada

   Cette méthode prend en considération un large inventaire d'aspects qui fondent le design pédagogique. Il s'agit d'une démarche applicable tant au moment de la conception des ressources multimédias qu'au moment de l'utilisation d'une ressource existante. Globalement l'analyse de la ressource multimédia éducative porte sur les qualités didactiques que devrait faire ressortir un produit multimédia au sens où l'entend l'auteur.

La méthode « Evaluation of Multimedia Products » : University of Michigan-USA

   Le principe de l'évaluation repose sur une inspection thématique portant sur 8 aspects de la ressource multimédia : Documentation ; Configuration système nécessaire ; Lancement du programme ; Design d'écrans ; Fonctionnalités avancées ; Navigation dans le programme ; Efficacité de l'hypertexte et Contenus textuels. Cette approche empirique est très orientée vers la mise en oeuvre du produit et l'analyse de son efficience.

La méthode « Evaluation Methodology for Computer Mediatel Teletraining Systems » : INSA [4] de Lyon – France

   C'est une méthodologie qui repose sur une évaluation en situation. Les principes de la démarche sont au nombre de trois : quantifier les résultas du travail de l'apprenant afin d'évaluer la performance de l'apprentissage, analyser les types de communication utilisées en vue d'évaluer les comportements des acteurs et enfin étudier la perception du dispositif dans la perspective d'une évaluation du niveau de satisfaction

La méthode « Heuristic evaluation of educational multimedia » : University of Southern Queensland , Toowoomba, Australie

   La méthode s'appuie sur le jeu d'heuristique qui s'appui sur les éléments suivants : la contextualisation ; la pertinence avec la pratique professionnelle ; le professionnalisme ; la pertinence de la représentation des réponses ; la présentation des ressources vidéo ; la nature du support de l'aide ; le caractère motivant du produit ; la présentation des ressources et l'efficacité globale du produit. Les experts ont été invités à évaluer le produit en tous points et à porter les commentaires jugés nécessaires au verso de la grille.

La méthode « MERLIN » : Inria-France

   La méthode pour l'Ergonomie des Logiciels Interactifs aborde la conception et l'évaluation des produits multimédias interactifs au travers de méthodes ergonomiques en associant les points de vue ergonomiques et informatique de l'interaction homme- machine avec une orientation centrée sur l'utilisateur. La démarche est déroulée en cinq temps : Description assistée ; Entrevue avec le concepteur ; Entrevue avec l'utilisateur ; Traitement des données et l'inspection évaluative.

La méthode « MIME [5] Evaluation Tools » : Geotrgia Institue of Technology-USA

   L'objectif de ce programme est de faciliter l'usage des dispositions multimédiatisés dans l'enseignement industriel. Il revête de nombreuses formes d'évaluation selon différentes approches et permettent une adaptation sans limites : la matrice d'évaluation ; le formulaire d'enregistrement d'événement ; la liste d'expertise ; le protocole pour les groupes panel ; le tableau d'analyse des fonctionnalités ; le protocole d'entretien semi directif ; la questionnaire ; les formulaires d'analyse d'interfaces utilisateur et le rapport d'évaluation type.

La méthode « Quality evaluation of educational multimedia systems » : University of Ballarat-Australie

   Le cadre de la méthodologie couvre trois champs : le produit lui-même, les conditions de son utilisation et les impacts qu'il induit. La constitution de la grille d'évaluation est proposée sur la base des points suivants : l'évaluation du produit ; l'évaluation des conditions d'utilisation et l'évaluation des Impacts.

La méthode « LAMI » : GRAIM [6] – Université Laval – Canada

   L'Apprentissage Multimédia Interactif a eu pour but d'expérimenter l'usage des Systèmes d'Apprentissage Multimédia Interactif (SAMI) dans l'enseignement supérieur afin d'étudier ses impacts sur les étudiants, les professeurs et l'organisation pédagogiques tout entière, en concevant, développant et évaluant ces systèmes. C'est une méthodologie qui repose sur une logique tridimensionnelle formalisée par les questions : qui évalue ? qu'évalue-t-on ? et quand évalue-t-on ?. » Les évaluations sont menées à l'aide d'un jeu de fiche dont la construction a été conçue par l'exploitation de la matrice tridimensionnelle.

La méthode « ProcOpe » : CNRS-ESA 7021 Cognition et Activités Finalisées – Université de Paris 8

   Le principe de ProcOpe repose sur la formulation d'un réseau sémantique décrivant le système de l'interface comme une organisation des savoir-faire à travers les actions qui peuvent être appliquées aux objets qui la composent. La méthode ProcOPe peut être utilisée pour évaluer un dispositif interactif du point de vue de sa complexité afin de proposer des simplifications. Cette approche modélisée ne s'appuie pas sur l'observation des utilisateurs mais sur un modèle cognitif prédictif qui appréhende chaque procédure par décomposition.

La méthode « The design, implementation and evaluation of a multimedia application for second language listening comprehension » : University of Wolverhampton

   Cette démarche consiste à comparer les résultats, obtenus grâce à la méthode multimédiatisée, aux résultats obtenus par un apprentissage plus traditionnel basé sur l'utilisation de cassettes audio et vidéo.

La méthode « The Developement, Formative and Summative Evaluation of A Computer multimedia Tutorial » : WALDEN University – USA

   La méthode s'appuie sur une succession d'inspections menées par des évaluateurs choisis parmi les futurs utilisateurs de la ressource. La méthodologie déroule chronologiquement les trois étapes suivantes : 1-L'évaluation formative ; 2-L'évaluation sommative et 3-La prise en compte des résultats.

La méthode « SUMI » (Software Usability Measurement Inventory) : University college Cork-IRELAND

   La méthodologie d'évaluation a été structurée à partir de la synthèse de plusieurs approches d'utilisabilité. Le questionnaire est organisé selon cinq thèmes d'évaluation qui regroupent chacun un nombre variable d'items : affect ; efficience ; utilisabilité ; contrôle et apprenabilité.

Méthodologie

   Devant l'abondance d'outils multimédias pédagogiques, ou une foi l'évaluateur et/ou l'équipe d'évaluation devront juger de l'importance d'un produit didactique, il est possible d'entamer le schéma suivant :

Catégorisation des produits

   L'évaluateur pourra dans une première étape utiliser le tableau de catégorisation des logiciels (De Vries, 2001) pour identifier les types des produits selon la fonction pédagogique (Tableau n° 1) ;

Fonction Pédagogique

Type de logiciel

Théorie

Tâche

Connaissances

Présenter de l'information

Tutoriel

cognitiviste

Lire

Présentation ordonnée

Dispenser des exercices

Exercices répétés

béhavioriste

Faire des exercices

Association

Véritablement enseigner

Tuteur intelligent

cognitiviste

dialoguer

Représentation

Captiver l'attention et la motivation de l'élève

Jeu éducatif

Principalement béhavioriste

jouer

 

Fournir un espace d'exploration

Hypermédia

Cognitiviste

constructiviste

explorer

Présentation en accès libre

Fournir un environnement pour la découverte des lois naturelles

Simulation

Constructiviste Cognition située

Manipuler observer

modélisation

Fournir un environnement pour la découverte de domaines abstraits

Micro-monde

constructiviste

construire

matérialisation

Fournir un espace d'échange entre élèves

Apprentissage collaboratif

Cognition située

discuter

Construction de l'élève

Tableau n° 1. Les huit fonctions pédagogiques et leurs caractéristiques. De Vries, E.(2001). Les logiciels d'apprentissage : panoplie ou éventail ?.

Grille d'évaluation

   Le choix des critères qui peuvent aider à sélectionner les produits est un deuxième travail que peut entamer l'évaluateur avec des spécialistes (Ahaji, El Hajjami et al., 2005).

Analyse de la consistance interne des facteurs d'évaluation

   Cette troisième étape est très importante dans la mesure où elle permet aux évaluateurs de distinguer les critères pouvant mieux juger les principaux axes d'évaluation. La suppression des facteurs déviants, soulève des limites de l'évaluation utilisant des critères, car chaque évaluateurs apporte un jugement différent de l'autre sur un même critère, d'où l'importance de trouver un autre moyen pour mieux choisir l'outil multimédia pédagogique (Ahaji, Alem, El Hajjami, 2006).

Expérimentation du produit multimédia

   L'expérimentation de l'outil multimédia est une étape ultime et décisive dans le jugement du produit. En effet, elle permet de confronter les utilisateurs potentiels (enseignants ou élèves) aux produits à expérimenter.

Choix des groupes expérimental et Témoin

   La fixation de certaines variables externes est très utile pour avoir des résultats crédibles. Nous avons pensé avant la réalisation de l'expérimentation, de connaître le niveau des élèves en informatique et leurs difficultés relatives en optique géométrique, contenu du logiciel à expérimenter. L'expérimentateur peut fixer d'autres variables externes qu'il juge utiles.

Niveau de connaissance des élèves en informatique

   La connaissance du niveau informatique des élèves (Tableau n° 2) permet de séparer les deux groupes. Le groupe expérimental est celui qui a des compétences en matière d'usages des TIC (Ahaji, El Hajjami et al., 2008). Avoir des connaissances en matière d'usage des TIC permet aux élèves de mieux utiliser l'outil multimédia à expérimenter.

   Le tableau n° 2 est un exemple de questionnaire pour mesurer le niveau de maîtrise des élèves en informatique et l'intégration des TIC dans l'enseignement.

Nom et Prénom :..................... Niveau/Classe ....................... Lycée :.........

Les 5 items qui mesurent le degré d'utilisation des technologies de l'information et de la communication (TIC) dans des activités pédagogiques. Quelle est votre fréquence d'utilisation des TIC dans les activités pédagogiques suivantes ?
0 = Jamais    1 = Parfois    2 = Souvent    3 = Très souvent

Activités

Fréquence

0

1

2

3

1. Les activités de communication interpersonnelle (e-mail, chat, liste de diffusion, forum, etc.)

       

2. La recherche et le partage d'information en utilisant les TIC

       

3. La réalisation, en utilisant les TIC, d'une oeuvre collective par les apprenants (projet commun)

       

4. L'édition et la publication des documents (traitement de texte, page HTML, publication assistée, etc.)

       

5. L'utilisation autonome des ressources technologiques, par les apprenants, pour apprendre.

       

Tableau n° 2. Degré d'utilisation des technologies de l'information et de la communication (TIC) dans des activités pédagogiques.

Les 14 items suivant mesurent le sentiment d'efficacité personnelle vis-à-vis l'utilisation des TIC.

Quel est votre niveau de maîtrise et d'autonomie pour chacun des usages suivants ?
0 = Très mal    1 = Moyen    2 = Bon    3 = Très bon

Activités

Votre niveau de maîtrise

0

1

2

3

1. Courrier électronique

       

2. Navigation sur Internet

       

3. Recherche d'information dans ma discipline à l'aide de moteurs de recherche

       

4. Production de pages Web

       

5. Hébergement d'un site Web

       

6. Utilisation d'un tableur (Excel...)

       

7. Logiciel de présentation multimédia (PowerPoint...)

       

8. Traitement de texte

       

9. Logiciel de publication PAO (Publisher...)

       

10. Base de données (Access...)

       

11. Traitement d'images (Paint Shop Pro – PhotoShop...)

       

12. Numériseur (Scanner)

       

13. Appareil photo numérique

       

14. Échange de fichiers dans un réseau local

       

Avez-vous déjà utilisez un logiciel scientifique ? ...............................................................

Si oui, décrire ce produit : ...............................................................

À votre avis, l'usage des TIC permet-il de mieux comprendre les concepts scientifiques ?
Décrirez comment ? ...............................................................

Tableau n° 3. Mesure du sentiment d'efficacité personnelle vis-à-vis l'utilisation des TIC.

Difficultés des utilisateurs (élèves) sur le contenu de l'outil multimédia

   Il est aussi très pratique de connaître les difficultés des élèves sur le contenu du multimédia qu'en veut expérimenter. Cela permettra de mieux étudier l'effet de l'outil sur les élèves une fois on leur administre un postest. Dans cette étape le choix du plan expérimental le plus adéquat est « le plan prétest-postest ». L'analyse de l'effet se fait alors à travers la comparaison des moyennes des deux groupes et l'administration d'un test d'hypothèse adéquat (Ahaji, El Hajjami et al.,2006).

Attitudes des élèves envers l'intégration des TIC

   Cette étape est très importante, elle complète les autres. La connaissance des attitudes des élèves envers l'intégration des TIC dans le cours peut se faire via l'analyse d'interviews avec les utilisateurs (Ahaji, El Hajjami et al., 2008).

Résultats

Catégorisation des produits

   L'étude et l'évaluation d'Outils Multimédias Pédagogiques d'Enseignantes et d'Enseignants Innovants Marocains, à montré que (35 %) sont des logiciels de type « tutoriels », qui selon De Vrie (2000), ont une fonction pédagogique de présentation de l'information, suivant le modèle théorique cognitiviste et dont la tâche consiste uniquement à une simple lecture et une présentation ordonnée de connaissances. En seconde position, on trouve une représentation de 14 % des logiciels de type « apprentissage collaboratif », dont la fonction pédagogique consiste à fournir un espace d'échange et discussion entre élèves, ce qui leur permet de construire leur savoir. Ce type de produit suit la théorie de la cognition située. 11,84% des logiciels sont de type hypermédia, dont la fonction pédagogique est de fournir un espace d'exploration suivant une théorie cognitiviste et constructiviste (Ahaji, El Hajjami et al., 2008).

Grille d'évaluation

   Un groupe constitué de treize (13) évaluateurs spécialistes a été invité pour sélectionner les critères pouvant mieux évaluer les multimédias pédagogiques. Le choix de la grille d'évaluation a porté sur 20 critères répartis en quatre principales thématique : le contenu, l'utilisation pédagogique, l'ergonomie de l'interface et l'innovation pédagogique (Ahaji, Hajjami et al., 2008).

Analyse de la consistance interne des facteurs d'évaluation 

   Un panel de 61 juges a évalué avec une échelle de Lickert à 4 niveaux 4 qualités des multimédia selon les 20 items. L'analyse de la consistance interne des items permet d'identifier et de supprimer quelques items déviants. Il apparaît alors que le degré de cohérence interne est satisfaisant pour chacune des 4 qualités (alpha de Crombach = 0,90 pour la qualité 'contenu', alpha = 0,88 pour 'l'ergonomie', alpha =0,91 pour 'l'utilisation pédagogique', alpha = 0,93 pour 'l'innovation pédagogique') (Ahaji, K. et al., 2006).

Thèmes

Alpha de cronbakh avant suppressions d'items déviant

Alpha de cronbakh après suppressions d'items déviant

contenu

0,8487

0,8960

Ergonomie de l'interface

0,8362

0,8839

utilisation pédagogique

0,9114

0,9114

innovation pédagogique

0,8864

0,9255

Tableau n° 4. Analyse de l'alpha de cronbakh.

   Pour un même critère, nous avons noté des différences de notations, donc de jugement entre les évaluateurs.

Expérimentation du produit multimédia

   Ce travail a été réalisé avec un groupe comprenant quatre enseignants de physique chimie de second cycle, deux didacticiens de la physique, un inspecteur de la matière et des élèves de baccalauréat des sciences expérimentales (Ahaji, El Hajjami et al., 2008).

   L'analyse des résultats du questionnaire distribué aux deux classes a montré que tous les élèves ont de bonnes compétences informatiques qui les permettent d'utiliser sans aucun obstacle les TIC.

Difficultés des utilisateurs (élèves) sur le contenu de l'outil multimédia :

   L'étude a permis de constater que les élèves interrogés, bien qu'ils ont déjà vu le cours d'Optique (contenu du logiciel à expérimenter) dans les programmes du cycle de l'enseignement collégial, ont toujours de grandes difficultés portant sur : l'identification des lentilles ; la représentation : la modélisation physique des lentilles ; La correspondance prisme-lentille ; le tracé du trajet d'un faisceau lumineux traversant une lentille convergente ; le tracé de l'image d'un objet AB et la détermination de : la nature, le sens et la longueur de l'image en considérant la position de l'objet par rapport à la lentille . Et pour les applications à l'oeil : nous avons également constaté que les élèves ont toujours des difficultés qui portent sur : l'Identification des lentilles permettant la correction de deux anomalies de l'oeil, et le tracé des schémas optiques correspondants.

Effet de l'intégration du logiciel « Optique » sur les apprentissages d'élèves :

Analyse quantitative

Groupe Expérimental

Groupe Témoin

Élèves

Notes

Élèves

Notes

E1

17,75

E'1

16,25

E2

20

E'2

18

E3

15,75

E'3

20

E4

20

E'4

20

E5

20

E'5

16,75

E6

15

E'6

15,25

E7

20

E'7

17

E8

17,5

E'8

17

E9

20

E'9

16

E10

16

E'10

14

E12

20

E'11

10,5

E13

11,5

E'12

16,75

E14

15,5

E'13

15,75

E15

20

E'14

18,25

T1 (moyenne du groupe expérimental) 17,7857143

T2 (moyenne du groupe témoin) 16,5357143

T1– T2 = 17,7857143 – 16,5357143 = 1.25 > 0

Tableau n° 5. Moyennes des deux groupes d'élèves.

   La différence des moyennes T1 – T2 est positive. Le groupe expérimental a donc enregistré un effet positif envers l'utilisation du logiciel « Optique ».

   Pour décider si la différence observée entre les moyennes des groupes est attribuable à une cause systématique ou si elle peut être considérée à l'effet des fluctuations dues au hasard, on applique le test de Student pour de petits échantillons. En d'autre terme, cela nous permettra d'éprouver l'hypothèse nulle.

   En pratique on ne doit pas se préoccuper de la taille de l'échantillon dans le choix du test : on effectue un test t quelle que soit la taille de l'échantillon (D'Hainaut, 1978) :

Échantillon de taille quelconque : t= (M1-M2) * 1/ ( (S1)/N1 + (S2)/N2 ) 1/2
Où M1 est la moyenne, et N1 le nombre d'élèves du groupe Expérimental ;
Et M2 est la moyenne, et N2 le nombre d'élèves du groupe Témoin.
S1 et S2 sont respectivement les erreurs-types sur la différence de moyennes du groupe Expérimental et du groupe Témoin.
L1 est le degré de liberté du groupe Expérimental
L2 est le degré de liberté du groupe Témoin.
La valeur des seuils de t pour la probabilité de 5 % (ou de 1 %) va donc varier en fonction du nombre de degrés de liberté dans les échantillons.

On trouve t = 4,019.

   En consultant le tableau du test t à deux issues :

1re issue

0,05

0,025

0,01

0,005

2e issue

0,1

0,05

0,02

0,01

L1 = 13

3,552

4,320

5,300

6,024

L2 = 13

3,552

4,320

5,300

6,024

Moyenne

1,771

2,160

2,650

3,012

Tableau n° 6. Test à deux issues.

   Nous remarquons que t = 4,019 > 3,012 : différence très significative au niveau p = 0,01. Donc nous pouvons confirmer notre hypothèse de recherche : l'utilisation des séquences de simulations en optique géométrique a eu un effet positif sur l'apprentissage d'élèves de niveau baccalauréat sciences expérimental.

Analyse qualitative

Les six cas de figure

Schéma

Réelle

Virtuelle

Renversée

Sur la même distance

Pas d'image

< à l'image objet

> à l'image objet

= à l'image objet

Point situé au foyer objet

Même sens que l'objet

1

7

8

0

9

0

0

4

2

3

5

0

2

15

12

2

15

0

0

13

2

0

2

0

3

15

11

2

15

9

0

2

2

10

0

0

4

15

12

2

15

0

0

0

15

0

0

0

5

14

0

5

0

0

11

0

2

0

0

3

6

13

0

13

0

1

1

0

13

0

0

13

différence

-11

-18

-13

-9

-7

-5

-8

-21

-13

-12

-5

Tableau n° 7. Cas du groupe témoin.

Les six cas de figure

Schéma

Réelle

Virtuelle

Renversée

Sur la même distance

Pas d'image

< à l'image objet

> à l'image objet

= à l'image objet

Point situé au foyer objet

Même sens que l'objet

1

10

4

1

6

1

1

6

0

0

7

0

2

13

11

1

13

0

0

11

0

1

0

0

3

14

10

1

13

9

0

0

1

12

0

0

4

13

11

1

13

0

0

1

12

0

0

0

5

14

0

0

0

0

14

0

0

0

0

0

6

14

0

14

0

0

0

0

14

0

0

12

différence

-6

-14

-4

-9

-6

-1

-10

-13

-13

-7

-2

Tableau n° 8. Cas du groupe expérimental.

   Les tableaux n° 7 et n° 8 ci-dessus enregistrent les réponses d'élèves des deux groupes. Ils comprennent le nombre d'élèves ayant pu tracer le schéma optique. Et de ceux ayant pu ou non déterminer les caractéristiques de l'image d'un objet AB. Le nombre d'élèves n'ayant pas répondu ou a donné une réponse fausse est comptabilisé négativement.

   La plupart des élèves des deux groupes ont donnés des réponses fausses. Le taux de ces réponses est beaucoup plus élevé chez les élèves ayant suivi le cours traditionnel (groupe témoin).

   De manière générale, la comparaison des résultats des deux groupes, montre que le groupe témoin enregistre des différences négatives nettement supérieures par rapport au groupe expérimental. Nous pouvons ainsi constater d'après l'histogramme que les élèves du groupe témoin ont toujours des difficultés surtout quant il s'agit de :

  • Tracer le schéma optique de l'un des six cas de figure de la position de l'objet par rapport à la lentille ;

  • Déterminer les caractéristiques (nature, sens, taille et forme) de l'image obtenue à travers une lentille convergente en considérant les positions de l'objet par rapport à la lentille.

   Donc les résultats de cette analyse rejoignent ceux de l'analyse quantitative et confirment une foi de plus l'hypothèse qui postule que l'intégration de l'outil multimédia (logiciel d'optique géométrique) a un effet positif sur l'apprentissage d'élèves de niveau baccalauréat sciences expérimentales.


Figure n° 1. Histogramme relatif aux réponses des deux groupes selon les six possibilités de la position de l'objet par rapport à la lentille convergente.

Attitudes des élèves envers l'intégration des TIC 

   La lecture des transcriptions des différentes déclarations des élèves nous a permis de déceler les points suivants (Ahaji, El Hajjami et al., 2008) :

  • Une grande motivation constatée chez tous les élèves ;

  • Tous les groupes sont pour l'intégration des TIC dans l'enseignement et l'apprentissage des sciences physique ;

  • Les élèves sont conscients des difficultés que génère la nature de l'enseignement des sciences physiques, et pensent que l'intégration des TIC, sous forme de simulation (modélisation), peut résoudre ces problèmes et amener à des apprentissages significatifs.

Conclusion

   L'évaluation de multimédias pédagogiques est une étape très importante dans tout plan ou design des concepteurs de ces outils informatiques. C'est un travail complexe et dans lequel plusieurs formes d'évaluations peuvent être utilisées.

   Le schéma d'évaluation proposé (figue 2) a été conçu suite à un certain nombre de travaux d'évaluation que nous avons faits au Centre National des Innovations Pédagogiques et de l'Expérimentation, avec une équipe pluridisciplinaire. Il a été appliqué pour le choix d'outils multimédias pédagogiques les plus appropriés.

   L'ensemble d'outils utilisés ont été construits en interaction avec des spécialistes. La proposition de cet instrument est une contribution aux différents travaux portant sur l'évaluation des multimédias pédagogiques.

   Dans notre travail, nous avons mis en valeur aussi bien l'évaluation de l'outil multimédia que l'évaluation de l'effet de l'utilisation de cet outil sur les utilisateurs.


Figure n° 2. Schéma d'évaluation pour le choix du multimédia pédagogique approprié.

Khalid Ahaji(1)(2)(3),
ahaji.khalid@gmail.com
Said Zahim(1),
Mohamed Droui(2)(5),
Benaissa Badda(4).

(1) Centre d'Orientation et de Planification de l'Éducation.
(2) Laboratoire « Technologies de l'Information et de la Communication pour la Formation en Sciences », École Normale Supérieure - Fès. Maroc.
(3) Laboratoire Interdisciplinaire de Recherches en Didactique des Sciences et Techniques (LIRDIST). UFR didactique des Mathématiques et de la Physique, Faculté des sciences Dhar El Mahraz. Fès. Maroc.
(4) Centre de Formation des Instituteurs (CFI), Khémisset, Maroc.
(5) Unité Centrale de la Recherche Pédagogique, Ministre de l'Éducation nationale.

Bibliographie

Ahaji, K, El Hajjami, A., Chikhaoui, A., Jarrad, E. (2005). Étude et évaluation des produits multimédias pédagogiques des enseignants innovants. Actes du Colloque International du Réseau Marocain de Didactique des Sciences (REMADIS), FST Errachidia, mai 2005.
http://ahaji.site.voila.fr/articles/aricle_1_evaluation_multimedias.pdf

Ahaji, K., El Hajjami, A., Ajana, L., El Mokri, A., Chikhaoui, A. (2006). Difficultés d'élèves de baccalauréat sciences expérimentales en optique géométrique. Congrès de l'AIPU-Monastir'2006. Article Publié dans les actes du colloque.

Ahaji, K., El Hajjami, A., Ajana, L., El Mokri, A., Chikhaoui, A. (2008). Analyse de l'effet d'intégration d'un logiciel d'optique géométrique sur l'apprentissage d'élèves de niveau baccalauréat sciences expérimentales. Article publié dans EpiNet, la revue électronique EPI, n° 100, décembre 2008.
http://www.epi.asso.fr/revue/articles/a0812c.htm

Benazet, P. (2004). Approche sémiotique des processus cognitifs du multimédia éducatif. Évaluation et préconisations. Thèse pour obtenir le grade de grade de Doctorat. université de Perpignan, Faculté des Lettres et Sciences Humaines.

Bibeau, R. (1992). Protocole d'évaluation formative d'un logiciel éducatif, conception et réalisation. Direction des ressources didactiques et de la formation à distance. Québec

Beaufils, D. (1998). L'ordinateur dans l'enseignement des sciences physique. 8e Journées nationales Informatique et Pédagogie des Sciences Physiques, UdP-INRP.

D'Hainaut, L. (1978). Concepts et méthodes de la statistique. Volume 1. Édition Labor, Bruxelles, p. 203-212.

Webographie

Crozat, S,. Hu, O. et Trigano, P. « EMPI, un guide logiciel d'aide à l'évaluation du multimédia pédagogique ».
http://www.hds.utc.fr/ptrigano/aipu/aipu.html (consulté le 08/05/05).

Bernadet, C. (2001-2002). « Évaluer des logiciels éducatifs ». Cellule d'Ingénierie pédagogique. DET. Home Page.
http://nte.unifr.ch/IMG/pdf/courshp20022003_session030514.pdf.

De Vries, E. (2001). Les logiciels d'apprentissage : panoplie ou éventail ? Revue Française de Pédagogie.
http://cqfd.teluq.uquebec.ca/D4_1_b.pdf (consulté le 15/02/05).

Hu, O., Trigano, P. « Proposition de critères d'aide à l'évaluation de l'Interface Homme-Machine des logiciels multimédia pédagogiques ».
http://www.hds.utc.fr/ptrigano/ihm98.html (consulté le 01/02/06).

Meloche, M. « Comment évaluer un logiciel multimédia ». Home Page.
http://cqfd.teluq.uquebec.ca/D4_1_b.pdf (consulté le 15/02/05).

Stufflebeam, D. I. (1980). L'évaluation en éducation et la prise de décision, Ottawa, Edition NHP, 464 p. Home Page.
http://innovalo.scola.acparis.fr/Telechargements/Seminaires_2000/Evaluer_2000.doc (consulté le 15/02/05).

NOTES

[1] Comité international pour la documentation

[2] European Multimedia Usability Service

[3] Évaluation des logiciels Multimédia Pédagogiques Interactifs.

[4] Institut National des Sciences Appliquées.

[5] Multimedia in Manufacturing Education.

[6] Groupe de Recherche sur les Apprentissages Interactifs Multimédiatisés.

haut de page
Association EPI
Février 2013

Accueil Articles