Apport spécifique de l'informatique et de l'ordinateur Jacques Hebenstreit Conférence de M. le Professeur J. Hebenstreit, Grenoble, Juin 1973. Texte rédigé d'après un enregistrement au magnétophone et publié dans le numéro spécial (décembre 1976) du Bulletin de liaison de la Section « Informatique et enseignement » de l'INRDP. C'est un peu également ce qui s'est passé en Angleterre et en Écosse, comme au Canada d'ailleurs dans l'Ontario, où l'informatique dans l'enseignement s'est traduite à 95 % par l'enseignement du Fortran à des élèves qui n'en voyaient pas d'applications, le but plus ou moins avoué étant le suivant « les ordinateurs existent il faut que les gens apprennent à s'en servir ». Comme si le fait de connaître un langage de programmation permettait aux gens de se servir des ordinateurs. Toutes proportions gardées, parce que toute comparaison est très approximative, on peut dire qu'on n'est pas plus capable de se servir d'un ordinateur parce qu'on connaît un langage de programmation, qu'on est capable de trouver le meilleur chemin sur une carte routière parce qu'on sait conduire. IL n'y a aucun rapport entre les deux types de problèmes. L'autre solution est celle adoptée par l'Éducation nationale qui part du principe que l'informatique est en train de se dégager en tant que méthodologie et que la solution la plus économique, au moins à moyen terme, consiste à former les enseignants d'abord et à installer des matériels ensuite.  Cette expérience est parfaitement originale puisque, à l'heure actuelle, dans aucun pays au monde on ne procède de cette manière. Ceci implique, par contre, quantité de difficultés. La première difficulté est que, si l'informatique en tant que discipline, commence effectivement à se dégager et à pouvoir être formulée, il n'en va pas de même en ce qui concerne son application à l'enseignement. Ici, il faut bien reconnaître que si l'on ne veut pas aller au plus facile qui consiste à réduire l'introduction de l'informatique à l'enseignement d'un langage de programmation, alors tous les problèmes se posent au niveau de la recherche rien n'est donné à l'avance un effort intellectuel considérable reste à faire pour arriver effectivement à introduire l'informatique de manière constructive. Essayons de revenir quelque peu aux définitions fondamentales : ce qui caractérise l'informatique c'est d'abord son objet qui est l'information au sens des informaticiens, pas au sens du petit Larousse, et là, plusieurs contraintes surgissent d'entrée de jeu. La notion d'information pour un informaticien est essentiellement liée à des ensembles finis  il n'y a pas de notion d'information sur des ensembles indéfinis. Ceci implique, par exemple, que des applications mathématiques seront ou très difficiles ou triviales. Très difficiles parce que la notion de voisinage, de coupure, n'existe pas pour un ordinateur et pas davantage en informatique où l'on traite toujours des nombres finis, si grands soient-ils. Même si, par des astuces de représentation, on a l'impression qu'on manipule des réels, ce sont de faux réels, puisque dans un ordinateur la plus petite distance entre deux réels est une grandeur finie. Un raisonnement de type « considérons o, donné à l'avance, aussi petit qu'on veut et soit 5 etc. » n'a pas de sens en informatique et surtout pas dans un ordinateur. Autrement dit, pour un informaticien, l'information se présente toujours comme des chaînes de symboles pris dans des ensembles finis et qu'il s'agit de manipuler selon un certain nombre de règles. Ceci introduit d'entrée de jeu une notion fondamentale qui est la distinction entre la sémantique et la syntaxe, qui, en sciences, est relativement évidente : on sait bien que lorsqu'en physique on a écrit une relation mathématique, comme le disait Bertrand Russell, on ne sait plus très bien de quoi on parle. On se trouve devant un ensemble de symboles qui n'ont d'existence que par leur définition, dont les règles du jeu sont connues à l'avance et qu'il s'agit de manipuler. C'est moins évident dès que l'on aborde les domaines littéraires mais il est important d'insister sur le fait qu'une phrase écrite n'a pas de signification intrinsèque elle n'a de signification que celle qu'on lui donne par convention. En tout état de cause, ce que cette phrase exprime va bien au delà de l'ensemble de caractères qu'on utilise pour l'écrire. C'est la distinction fondamentale entre la signification et la représentation, entre le « signifiant » et le « signifié ». Ceci trouve des applications à peu près évidentes au niveau de la grammaire par exemple, où certaines règles sont purement syntaxiques alors que d'autres relèvent à la fois de la sémantique et de la syntaxe. Il est également important de montrer que, si la chaîne de caractères qui est une phrase écrite n'a pas de signification intrinsèque sauf par convention, il n'en reste pas moins que l'on peut, moyennant des manipulations sur ces caractères et selon des règles convenablement choisies, aboutir à des transformations qui, tout en étant syntaxiques au départ, se traduisent par un changement de signification de la phrase : (passage de la forme affirmative à la forme interrogative par exemple). De manière générale, la notion de représentation symbolique est fondamentale en informatique et plus précisément toute représentation d'un système réel par un ensemble de symboles forme ce que l'on appelle un modèle, l'ordinateur étant un dispositif automatique de manipulation de symboles, il est par là même, selon notre définition, l'outil permettant de manipuler les modèles, c'est-à-dire le réel, à travers ses différentes représentations. Une des phases essentielles du raisonnement informatique devient dès lors la démarche modélisante, c'est-à-dire le passage d'une situation réelle à ses différentes représentations symboliques en vue de leur traitement sur ordinateur. Introduire l'informatique dans l'enseignement d'une discipline revient dès lors à montrer, à l'intérieur de cette discipline, comment on passe d'une situation réelle, qui relève de cette discipline, aux différentes représentations symboliques (ou modèles) qui permettent de manipuler cette réalité de manière figurée une carte géographique, par exemple, est un modèle et le rapprochement de diverses cartes sur lesquelles on aura porté respectivement le relief, les voies d'eau et les densités de population permettent de construire un modèle plus complexe dans lequel on pourra faire entrer les corrélations mises en évidence par la comparaison entre les cartes etc. Cette primauté donnée à l'enseignement de la méthodologie sur l'enseignement des connaissances qui est, en fait, l'entraînement à la démarche modélisante (construction d'un modèle et critique de sa validité), ne requiert pas, en soi, l'utilisation d'un ordinateur  mais, si l'on dispose d'un ordinateur, deux modes d'utilisation voisins, quoique différents par leurs objectifs, peuvent être dégagés. a) Simulation du type « découverte guidée » où l'élève utilise en mode conversationnel un programme écrit par le professeur. Ce programme comporte d'une part un modèle d'une situation réelle simple et d'autre part, une partie dialogue par laquelle l'élève est invité à faire une série d'expériences sur le modèle inclus dans le programme. À partir des résultats de ces expériences l'élève est invité à imaginer un modèle qui explique ces résultats. b) Simulation du type « exploration » où l'élève utilise également en mode conversationnel un programme écrit par le professeur. Ce type de programme comporte uniquement un modèle d'une situation mais qui peut cette fois être très complexe ou difficile à réaliser pratiquement, parce que trop dangereux ou trop coûteux etc. Le programme ne comporte qu'un minimum de dialogue qui se réduit pratiquement au mode d'utilisation du programme lui-même et l'élève est invité à une activité du type « Si je fais ça, qu'est-ce qui se passe ? ». Le but est ici de satisfaire la curiosité de l'élève sur des thèmes proches des cours ou des travaux pratiques mais avec un degré de complexité nettement plus grand. Il ne s'agit là en aucune manière d'une révolution ou d'une mutation, termes qui sont un peu trop à la mode pour être réellement significatifs, mais plutôt de la systématisation d'un grand nombre de démarches, et plus particulièrement de la possibilité de porter un ensemble de démarches plus ou moins intuitives au niveau conscient des élèves, alors qu'elles ne sont pas toujours conscientes même au niveau du professeur. En clair, qu'est-ce que cela signifie ? On se rend compte à travers les difficultés qu'on rencontre dans les différentes disciplines lorsqu'on essaye d'y introduire l'informatique, qu'il y a une certaine remise en cause à faire, qu'il y a à revoir la manière dont on posait les problèmes, la manière dont on concevait les différents concepts, les différentes méthodes, les différentes démarches qu'on utilisait. En particulier cela veut dire qu'on doit être capable de reformuler, au niveau de la perception par l'élève de l'enseignement qui lui est donné, la méthodologie sous-jacente à ce qu'on lui apprend. Je crois que tout le monde aujourd'hui est conscient que l'enseignement conçu comme un système de transmission de connaissances est périmé depuis fort longtemps et qu'en prendre conscience en affirmant que, enseigner c'est « apprendre à apprendre », ça ne résout pas les problèmes. De manière plus précise, on pourrait dire que ce qu'il s'agit de développer peut-être le plus, chez l'élève, indépendamment des mécanismes que Piaget appelle « logico-mathématiques », c'est ce que Landa, le psychopédagogue russe appelle d'un terme, que je n'aime pas beaucoup, « l'algorithme de reconnaissance » (qui n'est en fait qu'un pseudo algorithme car il n'a aucune des caractéristiques d'un algorithme, disons que c'est sans doute la traduction française du terme russe qui a conduit à ce vocabulaire). Autrement dit, si tout le monde est conscient qu'il est difficile pour un élève de faire une synthèse dans le découpage vertical des disciplines qu'on lui enseigne, il est encore beaucoup plus difficile de lui permettre de faire la synthèse entre ces différents enseignements, qui est cependant, en principe, le but de l'enseignement. Aucun phénomène, aucun problème de la vie réelle, ne relève d'une discipline exclusivement tout problème réel est par définition pluridisciplinaire et un des buts que l'enseignement devrait se donner est de permettre à l'élève, devant une situation réelle, de pouvoir analyser, dans ce qu'il sait, ce qui est adéquat à cette situation et qui permettra de la résoudre. Autrement dit, apprendre à faire appel aux bonnes connaissances devant un problème déterminé. Ceci ne peut pas être obtenu simplement en lui transmettant les résultats accumulés depuis quelques centaines d'années un peu dans tous les domaines. Mais par contre il est pensable que ceci soit plus facile si, au lieu de lui enseigner les résultats accumulés, on lui enseigne la méthodologie des différentes disciplines, c'est-à-dire quel est l'objet spécifique d'une discipline, quelles sont les démarches spécifiques de telle discipline, quelles sont les classes d'objets qui relèvent de la discipline en question, quelle est la méthodologie qu'on utilise dans une situation déterminée devant un problème de biologie, de géologie, de géographie, d'histoire, de littérature etc. Que viendrait faire l'informatique dans cette affaire ? Il se trouve que, si l'on essaye d'analyser la méthodologie qui est propre à une discipline déterminée, on s'aperçoit qu'elle est essentiellement basée sur des démarches et des représentations modélisantes, c'est-à-dire, en définitive, des représentations de plus en plus complexes, de mieux en mieux organisées, hiérarchisées entre un certain nombre de concepts abstraits qui sont des représentations d'une certaine réalité. Il se trouve que ceci est fondamentalement la démarche de l'informaticien, c'est-à-dire la démarche mise en jeu dès qu'on veut passer un problème quel qu'il soit sur ordinateur (je parle d'un problème réel, non pas d'un problème déjà posé en termes d'ordinateurs). Imaginons par exemple le problème de la circulation automobile (on veut faire une simulation sur ordinateur) : Si l'on étudie la circulation automobile à un carrefour, la première difficulté est d'arriver à trouver une représentation, c'est-à-dire un ensemble de symboles, muni d'une structuration adéquate, qui représente convenablement le problème en question au niveau des symboles qu'on va manipuler. Ceci est typiquement la recherche d'un modèle qui n'est pas mathématique, en première approximation, mais simplement causal, relation de cause à effet qui n'est pas mathématisable par définition. On peut ensuite chercher un modèle plus raffiné, essayer de le quantifier, faire intervenir les accélérations des voitures au feu vert, la longueur des files d'attente, la nature des phénomènes aléatoires qui font que les automobiles arrivent d'une certaine manière à un carrefour, et ainsi de suite. Le modèle devient de plus en plus abstrait, de plus en plus mathématique et à la limite purement mathématique : on n'a plus alors qu'un ensemble de symboles qu'il suffit de manipuler. Il faut ensuite analyser et essayer de comprendre ce que signifie le résultat, c'est-à-dire quelles sont les relations de ce résultat formalisé au réel ceci n'est pas toujours aussi évident qu'on voudrait bien le croire. Il y a toujours pendant, le problème de Weill de la propagation d'une onde électromagnétique autour de la terre supposée sphérique, avec une antenne située sur la terre. Ce problème a été mis en équation par Weill, et résolu. On a une magnifique solution qui est la somme de deux termes, mais on est toujours aujourd'hui incapable de trouver une signification physique à chacun des termes. Tout ce que je viens de dire est d'une certaine manière relativement philosophique et je ne voudrais pas rester dans un domaine aussi abstrait où l'on peut discuter pendant un certain temps encore pour savoir ce que tout cela veut dire au juste. Pour illustrer mon propos, je voudrais vous résumer en quelques mots le travail de deux années que j'ai mené avec une équipe de professeurs de physique. Ce groupe a travaillé, il faut bien le reconnaître, de façon intensive. La partie apparente de l'iceberg constituée par les trois heures hebdomadaires de réunion, cache la partie importante du travail qui se faisait en dehors de ces réunions et qui s'est soldée au total par un nombre très élevé d'heures de réflexion, de programmation et de tests. Je dois dire que les six premiers mois ont été particulièrement pénibles, puisque pendant cette période on n'a pas écrit une seule ligne de programme. En fait pendant ces six mois la discussion a tourné essentiellement autour de la question : « Que veut-on faire ? Quels sont les objectifs de l'enseignement, en termes des comportements que l'on veut obtenir en introduisant l'informatique dans l'enseignement de la physique ? » Ce n'est qu'après une discussion difficile, longue, souvent déprimante, qu'un certain nombre de concepts ont émergé, et qu'on a réussi finalement à se mettre d'accord sur l'idée suivante : Au fond, plus que faire passer des résultats de la physique en utilisant l'ordinateur, le but qu'on se propose est de familiariser l'élève avec la démarche du physicien, c'est-à-dire avec la méthodologie de la physique, et non avec les résultats de la physique. Ceux-ci sont dans tous les manuels de physique. Il est inutile de trop s'encombrer l'esprit de U = R I, I = U/R, etc. Il en existe beaucoup comme ceux-ci, encadrés de rouge dans le texte, mais qui en définitive n'ont jamais appris de la physique à personne, parce que si on écrit U = R I, on ne sait toujours pas si c'est la résistance qui crée le courant, si c'est la différence de potentiel et ainsi de suite. On peut manipuler la formule dans tous les sens mais cela ne dît pas ni ce qu'est une différence de potentiel, ni ce qu'est un courant, ni ce qu'est une résistance, ni surtout comment on est arrivé à ce genre de relation. Ceci étant, on a essayé de dégager un certain nombre de démarches classiques en sciences expérimentales, tout particulièrement en physique, où on a la possibilité, contrairement par exemple à la biologie, de réaliser une expérience en jouant sur un paramètre, toute chose égale par ailleurs, ce qui n'est pas toujours facile en biologie. Un certain nombre de démarches ont ainsi pu être dégagées (on peut en trouver beaucoup d'autres). L'idée fondamentale a été d'utiliser l'ordinateur de façon à mettre l'élève en situation bien définie à l'avance où l'on puisse contrôler que les démarches intellectuelles qu'il suit pour exécuter la tâche proposée sont des démarches cohérentes au sens des sciences expérimentales. Une des premières démarches consiste par exemple, quand on fait une série d'expériences, à ne pas la faire au hasard, mais de manière que chacune des expériences apporte quelque chose de nouveau par rapport à la précédente. Dans un des programmes qui ont été écrits, qui est celui des lois de la réflexion, on donne à l'élève une cible dans un plan, définie par ses coordonnées, on donne un point de départ par ses coordonnées et un mur sur lequel une balle parfaitement élastique rebondit. On demande à l'élève d'indiquer les coordonnées du point d'impact de la balle sur le mur en vue de toucher la cible et l'ordinateur lui répond « vous êtes passé un mètre à gauche », ou « deux mètres à droite » etc. L'élève est alors autorisé à faire une deuxième expérience en simulation, c'est-à-dire à redonner un 2e point d'impact  il s'agit de vérifier que le nouvel écart par rapport à la cible est plus faible, donc que la démarche n'est pas aléatoire, mais que l'élève procède bien de manière convergente. Aussi surprenant que cela puisse paraître ce n'est pas du tout le cas général on s'est aperçu, en faisant des tests, que ce n'était pas le cas de tous les élèves et qu'un pourcentage non négligeable donnait systématiquement tort à l'expérience ils faisaient une hypothèse sur les lois de la réflexion, et, au vu de résultats erronés, au lieu de corriger l'hypothèse en fonction de l'erreur commise, déplaçaient le point de départ de manière à vérifier leur hypothèse. Ils étaient parfaitement triomphants lorsqu'ils avaient trouvé ensemble des points du plan pour lequel ils avaient raison. Ceci est un certain entraînement à un type de démarche qu'il est difficile de faire passer en expérimentation réelle, parce qu'il est pratiquement impossible de suivre la démarche d'un élève lorsqu'il manipule des « boîtes à lumière », des miroirs etc. L'analyse de ces démarches sur la feuille de l'ordinateur permet de suivre pratiquement pas à pas ce que l'élève a fait, et, au cas où il a une démarche erronée, de le reprendre et de voir ensuite avec lui les raisons profondes, d'ordre psychologique, qui font qu'il a ce genre de démarche. Ceci est un exemple typique parmi d'autres, le but étant ici de faire trouver par les élèves le modèle explicatif de la réflexion. Au bout d'un certain nombre d'expériences sur l'ordinateur (l'exercice durait environ 1h 30 en mode interactif sur la console) il a été intéressant de constater que certains élèves avaient trouvé l'égalité des angles d'incidence et de réflexion, alors que d'autres, par une démarche naturelle, n'avaient pas trouvé cette égalité mais « l'image virtuelle ». C'est extrêmement important parce que cela permet de montrer par exemple que pour une situation en physique il n'y a jamais de modèle unique. Il existe un très grand nombre de modèles différents les uns des autres, souvent obtenus par une démarche intellectuelle parfaitement arbitraire au départ, telle que la construction de l'image virtuelle, (celle-ci qui, comme son nom l'indique, n'existe pas, est une notion inventée par le physicien pour des raisons de commodités). Il y a là nettement une phase de créativité, au niveau de la démarche de l'élève, lorsqu'il invente en quelque sorte, poussé par les constatations expérimentales, l'existence de l'image virtuelle pour expliquer le phénomène. Il est intéressant également en fin de séance de montrer aux élèves qu'il existe plusieurs manières de voir un phénomène, donc plusieurs modèles qu'ils n'ont pas tous la même valeur opérationnelle (dans certaines circonstances l'égalité des angles est un outil plus puissant que l'image virtuelle, alors que dans d'autres circonstances, par exemple lorsqu'on vise une cible, l'image virtuelle est nettement préférable). D'autres programmes ont été écrits pour mettre en évidence d'autres démarches systématiques du physicien. Par exemple lorsqu'on a un ensemble de paramètres, pour essayer de comprendre ce qui se passe et proposer un modèle explicatif, il faut faire varier un seul paramètre à la fois, en laissant les autres constants, ce qui a été implémenté dans un des programmes. D'autres programmes ont été écrits pour montrer que la construction d'un modèle en physique est quelquefois relativement complexe, et quelquefois relativement arbitraire qu'on peut, par exemple, assez souvent, prendre un modèle de type asymptotique. Je pense aux gaz parfaits aucun gaz réel n'est parfait mais on a un modèle de gaz parfait qui s'applique à peu près aux gaz réels. Autre résultat important habituer les élèves à considérer que tout modèle a un domaine de validité en dehors duquel il devient absurde : le produit PV est constant à condition de ne pas trop augmenter la pression, car alors on risque de liquéfier le gaz. D'autres démarches du physicien existent, bien entendu, et ceci est propre à l'ensemble des sciences expérimentales, par exemple l'utilisation d'un modèle mathématique permettant par analogie de s'éviter une reconstruction modélisante complexe dans des domaines qui apparemment ressortent du même comportement (je pense au circuit électrique oscillant et au pendule, où visiblement il y a quelque chose de commun, et où un modèle mathématique construit pour l'un des phénomènes peut, par analogie, être utilisé pour l'autre, moyennant une traduction des coefficients en termes convenables). Si j'ai pu expliciter, sur certains exemples ce qui a été dit au début concernant l'utilisation de l'ordinateur, c'est parce qu'il y a eu beaucoup de travail investi dans cette réflexion et que ceci a abouti effectivement à un certain nombre de programmes qui ont été testés avec des élèves. Il est clair que ce genre de recherches est extrêmement difficile parce qu'il n'existe pratiquement aucune littérature dans ce domaine pour les différentes disciplines concernées. Si ce genre de démarche a pu être appliqué en physique, c'est par une réflexion difficile et longue et si l'on veut poser le problème en géographie par exemple, il sera très différent. Néanmoins je dirais que les lignes de force sont relativement claires et je crois qu'à peu près tout le monde est convaincu qu'il est dérisoire de considérer aujourd'hui l'enseignement de la géographie comme on pouvait le considérer, il y a 20, 30 ou 40 ans, quand il consistait à faire apprendre par les élèves des millions de tonnes de charbon, de blé, des mètres de hauteur de montagne, des profondeurs de mer, des longueurs de fleuves, toutes choses qui n'ont avec la géographie, telle que la pratique le géographe, qu'un rapport assez lointain. Bien plus que ces données brutes qu'on nous demandait de régurgiter le jour du baccalauréat, il est infiniment plus intéressant d'enseigner la géographie telle qu'elle se fait : par exemple entraîner les élèves par la simulation sur ordinateur à voir ce qu'est un modèle de croissance urbaine, ce qu'est un équilibre entre une production agricole et une production industrielle, bref des problèmes qui sont de vrais problèmes de la géographie et qui font que la géographie est une science spécifique avec son objet, ses méthodes, et ceci, toute proportion gardée, est vrai pour toutes les sciences que ce soit en biologie ou en histoire. La partie la plus difficile est probablement l'ensemble des disciplines littéraires mais c'est sans doute, là aussi, s'il y a le plus gros effort à faire, qu'il y a les résultats les plus importants à attendre l'informatique dans ce domaine fait partie de cet environnement qui se crée lentement dans les disciplines littéraires et qui, basé sur le structuralisme en particulier, et sur les grammaires formelles, n'a certes pas réussi à expliquer le phénomène linguistique mais donne une attitude nouvelle vis à vis d'un certain nombre de problèmes qui jusqu'à présent étaient, il faut bien le reconnaître, traités de manière nébuleuse. Ne serait-il pas utile par exemple d'attirer l'attention des élèves sur le fait que dans un cours de français on fait deux choses simultanément : on utilise de la langue française pour parler de la langue française il y a la langue comme objet d'étude et la langue qui permet de parler de cet objet d'étude. Ce qui dans ce cas particulier introduit une confusion énorme puisqu'il s'agit naturellement de la même langue. L'introduction de langages formels où l'on distingue précisément les langages des méta-langages permet de mettre en évidence un certain nombre de faits importants qui étaient jusqu'à présent ressentis, mais difficilement formulables. D'autres approches peuvent apporter un éclairage intéressant et on se contentera de donner un exemple. En mathématiques, un ensemble est défini sans ambiguïté si pour tout objet on peut répondre par « oui » ou par « non » à la question « Cet objet appartient-il à l'ensemble ? ». Si l'ensemble comporte un nombre fini d'objets, la méthode de définition la plus simple de l'ensemble consiste à faire la liste des objets qui appartiennent à l'ensemble. Par comparaison d'un objet quelconque avec les objets de la liste, on peut répondre sans hésiter à la question précédente. C'est ainsi qu'est défini dans une grammaire l'ensemble formé par les conjonctions de coordination. Si, par contre, l'ensemble comporte un nombre très grand ou infini d'éléments, alors il n'est plus possible, humainement parlant, de comparer un objet à tous les objets d'une liste, car la liste serait beaucoup trop longue. Pour surmonter cette difficulté, on donne (en mathématiques) une règle qui, appliquée à un objet quelconque, permet de répondre par oui ou par non à la question ci-dessus. Il n'en va pas autrement en grammaire lorsqu'on définit les ensembles formés respectivement par les noms communs, les verbes, les adverbes etc. S'il est, par contre, impossible de trouver une telle règle, alors il n'y a pas d'autre solution que de revenir à la table, même si elle est relativement longue, comme c'est le cas pour les verbes irréguliers en anglais. Ce même mécanisme intellectuel, à savoir l'utilisation d'une table pour les ensembles finis et le passage à une règle lorsque le nombre d'éléments d'un ensemble devient trop grand ou infini, se retrouve dans de nombreux cas. Une fonction (en mathématiques) est un mécanisme qui, à un élément d'un ensemble fait correspondre un autre élément du même ensemble ou d'un autre ensemble. Si l'ensemble de départ est fini, la fonction est définie par une table dans laquelle figure la valeur de la fonction pour chaque valeur de la variable. Si l'ensemble de départ devient infini, il n'est plus possible de dresser une table car elle serait de taille infinie et l'on est obligé de recourir à un mécanisme simple qui est la notation fonctionnelle (y = 3x par exemple) qui permet, moyennant un nombre fini d'opérations, de trouver la valeur de la fonction (y) pour n'importe quelle valeur de la variable (x) prise dans un ensemble fini. Il n'en va pas autrement en linguistique. Si une langue comporte un nombre fini de phrases, il suffit de faire la liste de ces phrases pour déterminer, par comparaison, si une phrase proposée est, ou non, une phrase correcte, c'est-à-dire une phrase du langage. Si, par contre, le nombre de phrases d'un langage devient très grand, il faut, pour déterminer si une phrase proposée est ou non une phrase correcte, disposer d'un mécanisme qui permet, en un nombre fini d'opérations, d'aboutir au résultat. Un tel mécanisme existe et s'appelle une grammaire. Je voudrais terminer en disant qu'une manière, souvent évoquée, d'introduire l'informatique dans l'enseignement consiste à privilégier les organigrammes à condition de bien faire attention à ce dont on parle. Une recette de cuisine n'est pas un organigramme, pas plus que la manière de se rendre d'un point à un autre. Un organigramme est une représentation à 2 dimensions d'un algorithme et il n'y a d'algorithme que sur des symboles. En effet, qui dit algorithme dit processeur et les processeurs que l'on utilise sont fondamentalement des dispositifs physiques qui ne sont pas capables de faire autre chose que de manipuler des symboles indépendamment de leur signification. Autrement dit on ne peut faire d'algorithmes que sur des ensembles de symboles bien spécifiés où les règles du jeu sont parfaitement spécifiées. L'algorithme n'a de sens que s'il décrit une suite d'opérations qu'un processeur, dispositif physique, sait effectuer. L'organigramme n'a donc lui-même de sens que s'il explique un algorithme c'est-à-dire une suite d'opérations effectuée par un processeur parfaitement défini sur une suite de symboles parfaitement définis. Ceci ne pose pas de problèmes particuliers en mathématique qui est un peu un domaine privilégié dans la mesure où ce qu'on y manipule ce sont justement des symboles sans signification selon des règles parfaitement définies. Cela revient à dire que les activités de calcul, en particulier, sont au niveau des ordinateurs, des applications plus ou moins triviales, voire même dangereuses dans un certain sens, si l'on se reporte à l'expérience. Si vous proposez à des élèves de 14 ou 15 ans de chercher la solution d'un système de 2 équations à 2 inconnues, à moins de prendre des coefficients particulièrement aberrants pour ces équations, le calcul à la main sera terminé avant que le programme ait été écrit. Ceci est une règle générale en informatique, d'où le danger de commencer par un langage de programmation. Il est presque toujours plus long, pour un problème simple, d'écrire un programme et de le mettre au point que de résoudre le problème à la main, sauf cas particulier où le problème est d'une taille telle qu'il faudrait passer des mois de calcul pour le résoudre (par exemple d'une matrice 10 x 10). Mais on rencontre rarement dans l'enseignement secondaire des problèmes d'une telle taille. Les applications des ordinateurs, en calcul ou en gestion, coûtent très cher et l'ordinateur n'y prend tout son intérêt que parce que son utilisation est répétitive, l'investissement que l'on fait dans le programme étant alors amorti par le nombre de fois qu'on l'utilise. Il est très difficile de faire passer ce genre d'idées dans l'enseignement secondaire parce que, par exemple, on a rarement 100 équations du 2e degré à résoudre. L'emploi de la règle à calcul donne alors plus rapidement le résultat que l'écriture et l'utilisation du programme. Ce résultat a été observé un peu partout. Lorsqu'on enseigne un langage de programmation à des élèves, ceux-ci, après la phase d'utilisation du « gadget », se découragent parce qu'au fond ils n'ont pas de problèmes dont la taille justifie l'effort à investir dans les programmes pour les résoudre. Il semble donc que la bonne approche ne soit pas de commencer par l'apprentissage d'un langage de programmation et de faire programmer les élèves mais plutôt, encore qu'il n'y ait pas de règles absolues dans ce domaine :
Ce n'est finalement que dans une phase finale où les taches qu'on propose à l'élève sont d'une réelle complexité, et où la solution à la main serait plus longue qu'une solution sur ordinateur, que l'utilisation de celui-ci doit être introduit comme outil que l'on manipule à l'aide d'un langage de programmation. J'ai peur qu'en ne suivant pas cette voie, on ait très rapidement un phénomène de rejet devant le temps nécessaire à l'écriture d'un programme et que l'installation des ordinateurs dans les lycées ne se solde par un échec. Jacques Hebenstreit ___________________ |