Apport spécifique de l’informatique et de l’ordinateur à l’enseignement secondaire Jacques Hebenstreit – 1973

Apport spécifique de l’informatique et de l’ordinateur
à l’enseignement secondaire

Jacques Hebenstreit

Conférence de M. le Professeur J. Hebenstreit, Grenoble, Juin 1973. Texte rédigé d’après un enregistrement au magnétophone et publié dans le numéro spécial (décembre 1976) du Bulletin de liaison de la Section « Informatique et enseignement » de l’INRDP.

On assiste depuis quelques années à des tentatives d’introduction de l’informatique dans l’enseignement secondaire et l’on peut distinguer deux approches possibles : La première consiste à mettre des ordinateurs dans les lycées et à essayer de les utiliser, voie explorée aux États Unis et dont on peut tenter aujourd’hui d’analyser les résultats. En effet si certaines expériences menées par les américains sont tout à fait remarquables (je pense au projet « Plato » par exemple), d’autres, par contre, se sont soldées par ce que les anglo-saxons appellent la formation de « Fortran-idiots », c’est-à-dire de gens qui apprennent à programmer et qui s’en tiennent là, ne sachant pas très bien que faire de cette technique qu’ils ont ainsi acquise.

   C’est un peu également ce qui s’est passé en Angleterre et en Écosse, comme au Canada d’ailleurs dans l’Ontario, où l’informatique dans l’enseignement s’est traduite à 95 % par l’enseignement du Fortran à des élèves qui n’en voyaient pas d’applications, le but plus ou moins avoué étant le suivant « les ordinateurs existent il faut que les gens apprennent à s’en servir ». Comme si le fait de connaître un langage de programmation permettait aux gens de se servir des ordinateurs. Toutes proportions gardées, parce que toute comparaison est très approximative, on peut dire qu’on n’est pas plus capable de se servir d’un ordinateur parce qu’on connaît un langage de programmation, qu’on est capable de trouver le meilleur chemin sur une carte routière parce qu’on sait conduire. IL n’y a aucun rapport entre les deux types de problèmes.

   L’autre solution est celle adoptée par l’Éducation nationale qui part du principe que l’informatique est en train de se dégager en tant que méthodologie et que la solution la plus économique, au moins à moyen terme, consiste à former les enseignants d’abord et à installer des matériels ensuite.

   Cette expérience est parfaitement originale puisque, à l’heure actuelle, dans aucun pays au monde on ne procède de cette manière.

   Ceci implique, par contre, quantité de difficultés. La première difficulté est que, si l’informatique en tant que discipline, commence effectivement à se dégager et à pouvoir être formulée, il n’en va pas de même en ce qui concerne son application à l’enseignement. Ici, il faut bien reconnaître que si l’on ne veut pas aller au plus facile qui consiste à réduire l’introduction de l’informatique à l’enseignement d’un langage de programmation, alors tous les problèmes se posent au niveau de la recherche rien n’est donné à l’avance un effort intellectuel considérable reste à faire pour arriver effectivement à introduire l’informatique de manière constructive.

   Essayons de revenir quelque peu aux définitions fondamentales : ce qui caractérise l’informatique c’est d’abord son objet qui est l’information au sens des informaticiens, pas au sens du petit Larousse, et là, plusieurs contraintes surgissent d’entrée de jeu. La notion d’information pour un informaticien est essentiellement liée à des ensembles finis     il n’y a pas de notion d’information sur des ensembles indéfinis. Ceci implique, par exemple, que des applications mathématiques seront ou très difficiles ou triviales. Très difficiles parce que la notion de voisinage, de coupure, n’existe pas pour un ordinateur et pas davantage en informatique où l’on traite toujours des nombres finis, si grands soient-ils. Même si, par des astuces de représentation, on a l’impression qu’on manipule des réels, ce sont de faux réels, puisque dans un ordinateur la plus petite distance entre deux réels est une grandeur finie. Un raisonnement de type « considérons o, donné à l’avance, aussi petit qu’on veut et soit 5 etc. » n’a pas de sens en informatique et surtout pas dans un ordinateur. Autrement dit, pour un informaticien, l’information se présente toujours comme des chaînes de symboles pris dans des ensembles finis et qu’il s’agit de manipuler selon un certain nombre de règles. Ceci introduit d’entrée de jeu une notion fondamentale qui est la distinction entre la sémantique et la syntaxe, qui, en sciences, est relativement évidente : on sait bien que lorsqu’en physique on a écrit une relation mathématique, comme le disait Bertrand Russell, on ne sait plus très bien de quoi on parle. On se trouve devant un ensemble de symboles qui n’ont d’existence que par leur définition, dont les règles du jeu sont connues à l’avance et qu’il s’agit de manipuler.

   C’est moins évident dès que l’on aborde les domaines littéraires mais il est important d’insister sur le fait qu’une phrase écrite n’a pas de signification intrinsèque elle n’a de signification que celle qu’on lui donne par convention. En tout état de cause, ce que cette phrase exprime va bien au delà de l’ensemble de caractères qu’on utilise pour l’écrire. C’est la distinction fondamentale entre la signification et la représentation, entre le « signifiant » et le « signifié ». Ceci trouve des applications à peu près évidentes au niveau de la grammaire par exemple, où certaines règles sont purement syntaxiques alors que d’autres relèvent à la fois de la sémantique et de la syntaxe.

   Il est également important de montrer que, si la chaîne de caractères qui est une phrase écrite n’a pas de signification intrinsèque sauf par convention, il n’en reste pas moins que l’on peut, moyennant des manipulations sur ces caractères et selon des règles convenablement choisies, aboutir à des transformations qui, tout en étant syntaxiques au départ, se traduisent par un changement de signification de la phrase : (passage de la forme affirmative à la forme interrogative par exemple).

   De manière générale, la notion de représentation symbolique est fondamentale en informatique et plus précisément toute représentation d’un système réel par un ensemble de symboles forme ce que l’on appelle un modèle, l’ordinateur étant un dispositif automatique de manipulation de symboles, il est par là même, selon notre définition, l’outil permettant de manipuler les modèles, c’est-à-dire le réel, à travers ses différentes représentations. Une des phases essentielles du raisonnement informatique devient dès lors la démarche modélisante, c’est-à-dire le passage d’une situation réelle à ses différentes représentations symboliques en vue de leur traitement sur ordinateur.

   Introduire l’informatique dans l’enseignement d’une discipline revient dès lors à montrer, à l’intérieur de cette discipline, comment on passe d’une situation réelle, qui relève de cette discipline, aux différentes représentations symboliques (ou modèles) qui permettent de manipuler cette réalité de manière figurée une carte géographique, par exemple, est un modèle et le rapprochement de diverses cartes sur lesquelles on aura porté respectivement le relief, les voies d’eau et les densités de population permettent de construire un modèle plus complexe dans lequel on pourra faire entrer les corrélations mises en évidence par la comparaison entre les cartes etc.

   Cette primauté donnée à l’enseignement de la méthodologie sur l’enseignement des connaissances qui est, en fait, l’entraînement à la démarche modélisante (construction d’un modèle et critique de sa validité), ne requiert pas, en soi, l’utilisation d’un ordinateur     mais, si l’on dispose d’un ordinateur, deux modes d’utilisation voisins, quoique différents par leurs objectifs, peuvent être dégagés.

a) Simulation du type « découverte guidée » où l’élève utilise en mode conversationnel un programme écrit par le professeur. Ce programme comporte d’une part un modèle d’une situation réelle simple et d’autre part, une partie dialogue par laquelle l’élève est invité à faire une série d’expériences sur le modèle inclus dans le programme. À partir des résultats de ces expériences l’élève est invité à imaginer un modèle qui explique ces résultats.
Le but est, ici, essentiellement d’ordre méthodologique, le programme étant conçu de telle manière que seule une démarche méthodologique correcte permette d’aboutir à un résultat.
Il est intéressant d’indiquer que certains élèves trouvent des modèles radicalement différents de celui que le professeur a inclus dans le programme et cependant parfaitement valides ce qui souligne, s’il en était besoin, à quel point ce type de simulation fait appel à l’activité créatrice de l’élève.

b) Simulation du type « exploration » où l’élève utilise également en mode conversationnel un programme écrit par le professeur. Ce type de programme comporte uniquement un modèle d’une situation mais qui peut cette fois être très complexe ou difficile à réaliser pratiquement, parce que trop dangereux ou trop coûteux etc. Le programme ne comporte qu’un minimum de dialogue qui se réduit pratiquement au mode d’utilisation du programme lui-même et l’élève est invité à une activité du type « Si je fais ça, qu’est-ce qui se passe ? ». Le but est ici de satisfaire la curiosité de l’élève sur des thèmes proches des cours ou des travaux pratiques mais avec un degré de complexité nettement plus grand.

   Il ne s’agit là en aucune manière d’une révolution ou d’une mutation, termes qui sont un peu trop à la mode pour être réellement significatifs, mais plutôt de la systématisation d’un grand nombre de démarches, et plus particulièrement de la possibilité de porter un ensemble de démarches plus ou moins intuitives au niveau conscient des élèves, alors qu’elles ne sont pas toujours conscientes même au niveau du professeur. En clair, qu’est-ce que cela signifie ? On se rend compte à travers les difficultés qu’on rencontre dans les différentes disciplines lorsqu’on essaye d’y introduire l’informatique, qu’il y a une certaine remise en cause à faire, qu’il y a à revoir la manière dont on posait les problèmes, la manière dont on concevait les différents concepts, les différentes méthodes, les différentes démarches qu’on utilisait. En particulier cela veut dire qu’on doit être capable de reformuler, au niveau de la perception par l’élève de l’enseignement qui lui est donné, la méthodologie sous-jacente à ce qu’on lui apprend. Je crois que tout le monde aujourd’hui est conscient que l’enseignement conçu comme un système de transmission de connaissances est périmé depuis fort longtemps et qu’en prendre conscience en affirmant que, enseigner c’est « apprendre à apprendre », ça ne résout pas les problèmes.

   De manière plus précise, on pourrait dire que ce qu’il s’agit de développer peut-être le plus, chez l’élève, indépendamment des mécanismes que Piaget appelle « logico-mathématiques », c’est ce que Landa, le psychopédagogue russe appelle d’un terme, que je n’aime pas beaucoup, « l’algorithme de reconnaissance » (qui n’est en fait qu’un pseudo algorithme car il n’a aucune des caractéristiques d’un algorithme, disons que c’est sans doute la traduction française du terme russe qui a conduit à ce vocabulaire).

   Autrement dit, si tout le monde est conscient qu’il est difficile pour un élève de faire une synthèse dans le découpage vertical des disciplines qu’on lui enseigne, il est encore beaucoup plus difficile de lui permettre de faire la synthèse entre ces différents enseignements, qui est cependant, en principe, le but de l’enseignement. Aucun phénomène, aucun problème de la vie réelle, ne relève d’une discipline exclusivement tout problème réel est par définition pluridisciplinaire et un des buts que l’enseignement devrait se donner est de permettre à l’élève, devant une situation réelle, de pouvoir analyser, dans ce qu’il sait, ce qui est adéquat à cette situation et qui permettra de la résoudre. Autrement dit, apprendre à faire appel aux bonnes connaissances devant un problème déterminé. Ceci ne peut pas être obtenu simplement en lui transmettant les résultats accumulés depuis quelques centaines d’années un peu dans tous les domaines. Mais par contre il est pensable que ceci soit plus facile si, au lieu de lui enseigner les résultats accumulés, on lui enseigne la méthodologie des différentes disciplines, c’est-à-dire quel est l’objet spécifique d’une discipline, quelles sont les démarches spécifiques de telle discipline, quelles sont les classes d’objets qui relèvent de la discipline en question, quelle est la méthodologie qu’on utilise dans une situation déterminée devant un problème de biologie, de géologie, de géographie, d’histoire, de littérature etc.

   Que viendrait faire l’informatique dans cette affaire ? Il se trouve que, si l’on essaye d’analyser la méthodologie qui est propre à une discipline déterminée, on s’aperçoit qu’elle est essentiellement basée sur des démarches et des représentations modélisantes, c’est-à-dire, en définitive, des représentations de plus en plus complexes, de mieux en mieux organisées, hiérarchisées entre un certain nombre de concepts abstraits qui sont des représentations d’une certaine réalité. Il se trouve que ceci est fondamentalement la démarche de l’informaticien, c’est-à-dire la démarche mise en jeu dès qu’on veut passer un problème quel qu’il soit sur ordinateur (je parle d’un problème réel, non pas d’un problème déjà posé en termes d’ordinateurs).

   Imaginons par exemple le problème de la circulation automobile (on veut faire une simulation sur ordinateur) : Si l’on étudie la circulation automobile à un carrefour, la première difficulté est d’arriver à trouver une représentation, c’est-à-dire un ensemble de symboles, muni d’une structuration adéquate, qui représente convenablement le problème en question au niveau des symboles qu’on va manipuler. Ceci est typiquement la recherche d’un modèle qui n’est pas mathématique, en première approximation, mais simplement causal, relation de cause à effet qui n’est pas mathématisable par définition.

   On peut ensuite chercher un modèle plus raffiné, essayer de le quantifier, faire intervenir les accélérations des voitures au feu vert, la longueur des files d’attente, la nature des phénomènes aléatoires qui font que les automobiles arrivent d’une certaine manière à un carrefour, et ainsi de suite. Le modèle devient de plus en plus abstrait, de plus en plus mathématique et à la limite purement mathématique : on n’a plus alors qu’un ensemble de symboles qu’il suffit de manipuler. Il faut ensuite analyser et essayer de comprendre ce que signifie le résultat, c’est-à-dire quelles sont les relations de ce résultat formalisé au réel ceci n’est pas toujours aussi évident qu’on voudrait bien le croire. Il y a toujours pendant, le problème de Weill de la propagation d’une onde électromagnétique autour de la terre supposée sphérique, avec une antenne située sur la terre. Ce problème a été mis en équation par Weill, et résolu. On a une magnifique solution qui est la somme de deux termes, mais on est toujours aujourd’hui incapable de trouver une signification physique à chacun des termes.

   Tout ce que je viens de dire est d’une certaine manière relativement philosophique et je ne voudrais pas rester dans un domaine aussi abstrait où l’on peut discuter pendant un certain temps encore pour savoir ce que tout cela veut dire au juste. Pour illustrer mon propos, je voudrais vous résumer en quelques mots le travail de deux années que j’ai mené avec une équipe de professeurs de physique. Ce groupe a travaillé, il faut bien le reconnaître, de façon intensive. La partie apparente de l’iceberg constituée par les trois heures hebdomadaires de réunion, cache la partie importante du travail qui se faisait en dehors de ces réunions et qui s’est soldée au total par un nombre très élevé d’heures de réflexion, de programmation et de tests.

   Je dois dire que les six premiers mois ont été particulièrement pénibles, puisque pendant cette période on n’a pas écrit une seule ligne de programme. En fait pendant ces six mois la discussion a tourné essentiellement autour de la question : « Que veut-on faire ? Quels sont les objectifs de l’enseignement, en termes des comportements que l’on veut obtenir en introduisant l’informatique dans l’enseignement de la physique ? » Ce n’est qu’après une discussion difficile, longue, souvent déprimante, qu’un certain nombre de concepts ont émergé, et qu’on a réussi finalement à se mettre d’accord sur l’idée suivante : Au fond, plus que faire passer des résultats de la physique en utilisant l’ordinateur, le but qu’on se propose est de familiariser l’élève avec la démarche du physicien, c’est-à-dire avec la méthodologie de la physique, et non avec les résultats de la physique. Ceux-ci sont dans tous les manuels de physique. Il est inutile de trop s’encombrer l’esprit de U = R I, I = U/R, etc. Il en existe beaucoup comme ceux-ci, encadrés de rouge dans le texte, mais qui en définitive n’ont jamais appris de la physique à personne, parce que si on écrit U = R I, on ne sait toujours pas si c’est la résistance qui crée le courant, si c’est la différence de potentiel et ainsi de suite. On peut manipuler la formule dans tous les sens mais cela ne dît pas ni ce qu’est une différence de potentiel, ni ce qu’est un courant, ni ce qu’est une résistance, ni surtout comment on est arrivé à ce genre de relation. Ceci étant, on a essayé de dégager un certain nombre de démarches classiques en sciences expérimentales, tout particulièrement en physique, où on a la possibilité, contrairement par exemple à la biologie, de réaliser une expérience en jouant sur un paramètre, toute chose égale par ailleurs, ce qui n’est pas toujours facile en biologie. Un certain nombre de démarches ont ainsi pu être dégagées (on peut en trouver beaucoup d’autres). L’idée fondamentale a été d’utiliser l’ordinateur de façon à mettre l’élève en situation bien définie à l’avance où l’on puisse contrôler que les démarches intellectuelles qu’il suit pour exécuter la tâche proposée sont des démarches cohérentes au sens des sciences expérimentales.

   Une des premières démarches consiste par exemple, quand on fait une série d’expériences, à ne pas la faire au hasard, mais de manière que chacune des expériences apporte quelque chose de nouveau par rapport à la précédente. Dans un des programmes qui ont été écrits, qui est celui des lois de la réflexion, on donne à l’élève une cible dans un plan, définie par ses coordonnées, on donne un point de départ par ses coordonnées et un mur sur lequel une balle parfaitement élastique rebondit. On demande à l’élève d’indiquer les coordonnées du point d’impact de la balle sur le mur en vue de toucher la cible et l’ordinateur lui répond « vous êtes passé un mètre à gauche », ou « deux mètres à droite » etc.

   L’élève est alors autorisé à faire une deuxième expérience en simulation, c’est-à-dire à redonner un 2e point d’impact     il s’agit de vérifier que le nouvel écart par rapport à la cible est plus faible, donc que la démarche n’est pas aléatoire, mais que l’élève procède bien de manière convergente. Aussi surprenant que cela puisse paraître ce n’est pas du tout le cas général on s’est aperçu, en faisant des tests, que ce n’était pas le cas de tous les élèves et qu’un pourcentage non négligeable donnait systématiquement tort à l’expérience ils faisaient une hypothèse sur les lois de la réflexion, et, au vu de résultats erronés, au lieu de corriger l’hypothèse en fonction de l’erreur commise, déplaçaient le point de départ de manière à vérifier leur hypothèse. Ils étaient parfaitement triomphants lorsqu’ils avaient trouvé ensemble des points du plan pour lequel ils avaient raison.

   Ceci est un certain entraînement à un type de démarche qu’il est difficile de faire passer en expérimentation réelle, parce qu’il est pratiquement impossible de suivre la démarche d’un élève lorsqu’il manipule des « boîtes à lumière », des miroirs etc.

   L’analyse de ces démarches sur la feuille de l’ordinateur permet de suivre pratiquement pas à pas ce que l’élève a fait, et, au cas où il a une démarche erronée, de le reprendre et de voir ensuite avec lui les raisons profondes, d’ordre psychologique, qui font qu’il a ce genre de démarche. Ceci est un exemple typique parmi d’autres, le but étant ici de faire trouver par les élèves le modèle explicatif de la réflexion. Au bout d’un certain nombre d’expériences sur l’ordinateur (l’exercice durait environ 1h 30 en mode interactif sur la console) il a été intéressant de constater que certains élèves avaient trouvé l’égalité des angles d’incidence et de réflexion, alors que d’autres, par une démarche naturelle, n’avaient pas trouvé cette égalité mais « l’image virtuelle ». C’est extrêmement important parce que cela permet de montrer par exemple que pour une situation en physique il n’y a jamais de modèle unique. Il existe un très grand nombre de modèles différents les uns des autres, souvent obtenus par une démarche intellectuelle parfaitement arbitraire au départ, telle que la construction de l’image virtuelle, (celle-ci qui, comme son nom l’indique, n’existe pas, est une notion inventée par le physicien pour des raisons de commodités). Il y a là nettement une phase de créativité, au niveau de la démarche de l’élève, lorsqu’il invente en quelque sorte, poussé par les constatations expérimentales, l’existence de l’image virtuelle pour expliquer le phénomène. Il est intéressant également en fin de séance de montrer aux élèves qu’il existe plusieurs manières de voir un phénomène, donc plusieurs modèles qu’ils n’ont pas tous la même valeur opérationnelle (dans certaines circonstances l’égalité des angles est un outil plus puissant que l’image virtuelle, alors que dans d’autres circonstances, par exemple lorsqu’on vise une cible, l’image virtuelle est nettement préférable). D’autres programmes ont été écrits pour mettre en évidence d’autres démarches systématiques du physicien. Par exemple lorsqu’on a un ensemble de paramètres, pour essayer de comprendre ce qui se passe et proposer un modèle explicatif, il faut faire varier un seul paramètre à la fois, en laissant les autres constants, ce qui a été implémenté dans un des programmes. D’autres programmes ont été écrits pour montrer que la construction d’un modèle en physique est quelquefois relativement complexe, et quelquefois relativement arbitraire qu’on peut, par exemple, assez souvent, prendre un modèle de type asymptotique. Je pense aux gaz parfaits aucun gaz réel n’est parfait mais on a un modèle de gaz parfait qui s’applique à peu près aux gaz réels. Autre résultat important habituer les élèves à considérer que tout modèle a un domaine de validité en dehors duquel il devient absurde : le produit PV est constant à condition de ne pas trop augmenter la pression, car alors on risque de liquéfier le gaz. D’autres démarches du physicien existent, bien entendu, et ceci est propre à l’ensemble des sciences expérimentales, par exemple l’utilisation d’un modèle mathématique permettant par analogie de s’éviter une reconstruction modélisante complexe dans des domaines qui apparemment ressortent du même comportement (je pense au circuit électrique oscillant et au pendule, où visiblement il y a quelque chose de commun, et où un modèle mathématique construit pour l’un des phénomènes peut, par analogie, être utilisé pour l’autre, moyennant une traduction des coefficients en termes convenables).

   Si j’ai pu expliciter, sur certains exemples ce qui a été dit au début concernant l’utilisation de l’ordinateur, c’est parce qu’il y a eu beaucoup de travail investi dans cette réflexion et que ceci a abouti effectivement à un certain nombre de programmes qui ont été testés avec des élèves. Il est clair que ce genre de recherches est extrêmement difficile parce qu’il n’existe pratiquement aucune littérature dans ce domaine pour les différentes disciplines concernées.

   Si ce genre de démarche a pu être appliqué en physique, c’est par une réflexion difficile et longue et si l’on veut poser le problème en géographie par exemple, il sera très différent. Néanmoins je dirais que les lignes de force sont relativement claires et je crois qu’à peu près tout le monde est convaincu qu’il est dérisoire de considérer aujourd’hui l’enseignement de la géographie comme on pouvait le considérer, il y a 20, 30 ou 40 ans, quand il consistait à faire apprendre par les élèves des millions de tonnes de charbon, de blé, des mètres de hauteur de montagne, des profondeurs de mer, des longueurs de fleuves, toutes choses qui n’ont avec la géographie, telle que la pratique le géographe, qu’un rapport assez lointain. Bien plus que ces données brutes qu’on nous demandait de régurgiter le jour du baccalauréat, il est infiniment plus intéressant d’enseigner la géographie telle qu’elle se fait : par exemple entraîner les élèves par la simulation sur ordinateur à voir ce qu’est un modèle de croissance urbaine, ce qu’est un équilibre entre une production agricole et une production industrielle, bref des problèmes qui sont de vrais problèmes de la géographie et qui font que la géographie est une science spécifique avec son objet, ses méthodes, et ceci, toute proportion gardée, est vrai pour toutes les sciences que ce soit en biologie ou en histoire. La partie la plus difficile est probablement l’ensemble des disciplines littéraires mais c’est sans doute, là aussi, s’il y a le plus gros effort à faire, qu’il y a les résultats les plus importants à attendre l’informatique dans ce domaine fait partie de cet environnement qui se crée lentement dans les disciplines littéraires et qui, basé sur le structuralisme en particulier, et sur les grammaires formelles, n’a certes pas réussi à expliquer le phénomène linguistique mais donne une attitude nouvelle vis à vis d’un certain nombre de problèmes qui jusqu’à présent étaient, il faut bien le reconnaître, traités de manière nébuleuse. Ne serait-il pas utile par exemple d’attirer l’attention des élèves sur le fait que dans un cours de français on fait deux choses simultanément : on utilise de la langue française pour parler de la langue française il y a la langue comme objet d’étude et la langue qui permet de parler de cet objet d’étude. Ce qui dans ce cas particulier introduit une confusion énorme puisqu’il s’agit naturellement de la même langue. L’introduction de langages formels où l’on distingue précisément les langages des méta-langages permet de mettre en évidence un certain nombre de faits importants qui étaient jusqu’à présent ressentis, mais difficilement formulables.

   D’autres approches peuvent apporter un éclairage intéressant et on se contentera de donner un exemple.

   En mathématiques, un ensemble est défini sans ambiguïté si pour tout objet on peut répondre par « oui » ou par « non » à la question « Cet objet appartient-il à l’ensemble ? ».

   Si l’ensemble comporte un nombre fini d’objets, la méthode de définition la plus simple de l’ensemble consiste à faire la liste des objets qui appartiennent à l’ensemble. Par comparaison d’un objet quelconque avec les objets de la liste, on peut répondre sans hésiter à la question précédente. C’est ainsi qu’est défini dans une grammaire l’ensemble formé par les conjonctions de coordination.

   Si, par contre, l’ensemble comporte un nombre très grand ou infini d’éléments, alors il n’est plus possible, humainement parlant, de comparer un objet à tous les objets d’une liste, car la liste serait beaucoup trop longue. Pour surmonter cette difficulté, on donne (en mathématiques) une règle qui, appliquée à un objet quelconque, permet de répondre par oui ou par non à la question ci-dessus. Il n’en va pas autrement en grammaire lorsqu’on définit les ensembles formés respectivement par les noms communs, les verbes, les adverbes etc.

   S’il est, par contre, impossible de trouver une telle règle, alors il n’y a pas d’autre solution que de revenir à la table, même si elle est relativement longue, comme c’est le cas pour les verbes irréguliers en anglais.

   Ce même mécanisme intellectuel, à savoir l’utilisation d’une table pour les ensembles finis et le passage à une règle lorsque le nombre d’éléments d’un ensemble devient trop grand ou infini, se retrouve dans de nombreux cas.

   Une fonction (en mathématiques) est un mécanisme qui, à un élément d’un ensemble fait correspondre un autre élément du même ensemble ou d’un autre ensemble. Si l’ensemble de départ est fini, la fonction est définie par une table dans laquelle figure la valeur de la fonction pour chaque valeur de la variable. Si l’ensemble de départ devient infini, il n’est plus possible de dresser une table car elle serait de taille infinie et l’on est obligé de recourir à un mécanisme simple qui est la notation fonctionnelle (y = 3x par exemple) qui permet, moyennant un nombre fini d’opérations, de trouver la valeur de la fonction (y) pour n’importe quelle valeur de la variable (x) prise dans un ensemble fini.

   Il n’en va pas autrement en linguistique. Si une langue comporte un nombre fini de phrases, il suffit de faire la liste de ces phrases pour déterminer, par comparaison, si une phrase proposée est, ou non, une phrase correcte, c’est-à-dire une phrase du langage. Si, par contre, le nombre de phrases d’un langage devient très grand, il faut, pour déterminer si une phrase proposée est ou non une phrase correcte, disposer d’un mécanisme qui permet, en un nombre fini d’opérations, d’aboutir au résultat. Un tel mécanisme existe et s’appelle une grammaire.

   Je voudrais terminer en disant qu’une manière, souvent évoquée, d’introduire l’informatique dans l’enseignement consiste à privilégier les organigrammes à condition de bien faire attention à ce dont on parle. Une recette de cuisine n’est pas un organigramme, pas plus que la manière de se rendre d’un point à un autre. Un organigramme est une représentation à 2 dimensions d’un algorithme et il n’y a d’algorithme que sur des symboles. En effet, qui dit algorithme dit processeur et les processeurs que l’on utilise sont fondamentalement des dispositifs physiques qui ne sont pas capables de faire autre chose que de manipuler des symboles indépendamment de leur signification. Autrement dit on ne peut faire d’algorithmes que sur des ensembles de symboles bien spécifiés où les règles du jeu sont parfaitement spécifiées. L’algorithme n’a de sens que s’il décrit une suite d’opérations qu’un processeur, dispositif physique, sait effectuer. L’organigramme n’a donc lui-même de sens que s’il explique un algorithme c’est-à-dire une suite d’opérations effectuée par un processeur parfaitement défini sur une suite de symboles parfaitement définis. Ceci ne pose pas de problèmes particuliers en mathématique qui est un peu un domaine privilégié dans la mesure où ce qu’on y manipule ce sont justement des symboles sans signification selon des règles parfaitement définies. Cela revient à dire que les activités de calcul, en particulier, sont au niveau des ordinateurs, des applications plus ou moins triviales, voire même dangereuses dans un certain sens, si l’on se reporte à l’expérience. Si vous proposez à des élèves de 14 ou 15 ans de chercher la solution d’un système de 2 équations à 2 inconnues, à moins de prendre des coefficients particulièrement aberrants pour ces équations, le calcul à la main sera terminé avant que le programme ait été écrit. Ceci est une règle générale en informatique, d’où le danger de commencer par un langage de programmation. Il est presque toujours plus long, pour un problème simple, d’écrire un programme et de le mettre au point que de résoudre le problème à la main, sauf cas particulier où le problème est d’une taille telle qu’il faudrait passer des mois de calcul pour le résoudre (par exemple d’une matrice 10 x 10). Mais on rencontre rarement dans l’enseignement secondaire des problèmes d’une telle taille.

   Les applications des ordinateurs, en calcul ou en gestion, coûtent très cher et l’ordinateur n’y prend tout son intérêt que parce que son utilisation est répétitive, l’investissement que l’on fait dans le programme étant alors amorti par le nombre de fois qu’on l’utilise. Il est très difficile de faire passer ce genre d’idées dans l’enseignement secondaire parce que, par exemple, on a rarement 100 équations du 2e degré à résoudre. L’emploi de la règle à calcul donne alors plus rapidement le résultat que l’écriture et l’utilisation du programme. Ce résultat a été observé un peu partout.

   Lorsqu’on enseigne un langage de programmation à des élèves, ceux-ci, après la phase d’utilisation du « gadget », se découragent parce qu’au fond ils n’ont pas de problèmes dont la taille justifie l’effort à investir dans les programmes pour les résoudre.

   Il semble donc que la bonne approche ne soit pas de commencer par l’apprentissage d’un langage de programmation et de faire programmer les élèves mais plutôt, encore qu’il n’y ait pas de règles absolues dans ce domaine :

  • de faire écrire des programmes par le professeur avec les objectifs pédagogiques bien précis en termes de comportement de l’élève et de faire travailler les élèves en mode interactif.

  • dans un deuxième stade, d’écrire un programme où l’élève est invité, au cours de la tâche qu’on lui propose à écrire 3 ou 4 lignes de programmes qui viendront s’insérer dans celui écrit par le professeur et qui lui donneront les résultats dans un temps très bref, ceci de façon à lui donner le sentiment qu’il suffit d’écrire peu de choses pour avoir des résultats importants.

   Ce n’est finalement que dans une phase finale où les taches qu’on propose à l’élève sont d’une réelle complexité, et où la solution à la main serait plus longue qu’une solution sur ordinateur, que l’utilisation de celui-ci doit être introduit comme outil que l’on manipule à l’aide d’un langage de programmation.

   J’ai peur qu’en ne suivant pas cette voie, on ait très rapidement un phénomène de rejet devant le temps nécessaire à l’écriture d’un programme et que l’installation des ordinateurs dans les lycées ne se solde par un échec.

Jacques Hebenstreit

in addition

QUELQUES JALONS POUR
UN HISTORIQUE DE L’INFORMATIQUE
DANS LE SYSTÈME ÉDUCATIF FRANÇAIS

1970-2018

Nous recevons périodiquement des demandes de précisions concernant l’histoire du déploiement de l’informatique et des TIC dans le système éducatif. Nous répondons en envoyant les textes que nous possédons dans les archives de l’association. Il nous paraît opportun de mettre progressivement ces textes sur le site EPI à la disposition de tous.


*    Un historique écrit par Émilien Pélisset, alors président de l’EPI, « Pour une histoire de l’informatique dans l’enseignement français, premiers jalons » publié dans Système éducatif et révolution informatique (Cahiers de la FEN). Il va des débuts, dans les années 50, jusqu’au plan Informatique Pour Tous (IPT) si souvent décrié par celles et ceux qui ne l’ont pas connu.

*    Les dossiers de l’EPI Informatique à l’école et Informatique au collège ont présenté aussi, chacun dans son domaine, un historique détaillé de l’informatique pédagogique.

*    Un « survol rapide » des débuts aux développements actuels « Bref historique de l’informatique dans le système éducatif ».

*    À l’occasion des 40 ans de l’EPI, le Secrétariat national a demandé à Jacques Baudé, adhérent de la première heure, Secrétaire général de 1981 à 1994, Président en 1994 et 1995, de retracer les grandes lignes de l’histoire de l’association. « Quelques points de repère dans une histoire de 40 ans : l’EPI, 1971-2011 ».

*    Éléments pour une histoire de l’enseignement de l’informatique dans l’enseignement général en France :
Première partie (1970-2000), deuxième partie (2000-2017).

*    Le 31 mai 2018, à la journée SIF-EPI « Enseignement de l’informatique au lycée – nouveau paysage », Jacques Baudé a retracé à grands traits l’histoire de l’enseignement de l’informatique au lycée sur un demi-siècle.


*    Nous reproduisons ici, l’éditorial du numéro 1 du Bulletin de l’EPI. Rappelons que l’association a été fondée en février 1971 par les premiers stagiaires en formation « lourde » d’un an chez trois constructeurs : IBM, CII et Honeywell-Bull. (voir l’article d’Émilien Pélisset plus haut dans cette rubrique).

*     Le Séminaire de Sèvres pour « L’enseignement de l’informatique à l’école secondaire » organisé par l’OCDE (OCDE-Centre pour la Recherche et l’Innovation dans l’enseignement) avec la collaboration de la Direction de la coopération du Ministère de l’Éducation nationale. Ce séminaire s’est déroulé au Centre International d’Études Pédagogiques de Sèvres, du 9 au 14 mars 1970. Les actes ont été publiés par l’OCDE en 1971 (268 pages) : la table de matières des Actes et les allocutions d’ouverture, les groupes de travail 1,2 et 3, les « conclusions » des Actes du Séminaire.
Il est communément admis que l’introduction de l’informatique dans l’enseignement général français trouve son origine dans ce séminaire. La circulaire ministérielle 0-232 du 21 mai 1970 (BOEN n° 22 du 28 mai) précisera les objectifs.

*    En 1970, se fondant sur les conclusions du séminaire de l’OCDE (ci-dessus), le Ministère de l’Éducation nationale lance l’expérience française d’introduction de l’informatique dans l’enseignement secondaire, dite maintenant « Expérience des 58 lycées ». Elle est née de la prise de conscience d’un phénomène de société : « L’informatique est un phénomène qui est en train de bouleverser profondément les pays industrialisés et le monde moderne en général. (…) L’enseignement secondaire tout entier et dès la classe de 4e ne peut rester à l’écart de cette révolution. Il doit préparer au monde de demain dans lequel ceux qui ignoreront tout de l’informatique seront infirmes… ». (Circulaire ministérielle n° 70-232 du 21 mai 1970).
Il s’agissait donc de faire entrer une science et une technologie nouvelles dans la culture générale de l’homme du XXe siècle.
On trouvera les premières études, commandées de M. Mercouroff, Chargé de mission à l’Informatique : Quéniart et Yolin (1970-1971), Pitié et Scherer (1971-1972). Dix ans plus tard, une évaluation de cette « expérience d’introduction de l’informatique dans l’enseignement secondaire » sera publiée par l’INRP, l’EPI en présentera une synthèse dans son Bulletin n° 23, p. 68-85, dès septembre 1981.

*    Depuis la création, en 1971, d’une section « Informatique et Enseignement » au sein de l’INRDP, l’INRP tient un rôle majeur pour le développement de l’informatique pédagogique en France.
L’EPI a toujours insisté sur l’importance de la recherche pédagogique pour ce qui concerne l’utilisation pertinente des technologies nouvelles dans l’enseignement. Ainsi, elle a depuis sa création entretenu des liens étroits avec l’INRP (participation à des actions communes, coéditions…) ouvrant largement ses colonnes aux travaux de recherche en liaison avec le terrain et faisant régulièrement le point sur les différentes recherches menées par l’Institut : 1981 « dix ans après (où en est l’INRP ?) », 1982 « Où en est la recherche à l’INRP ? », 1983 « Participation de l’INRP en vue de l’élaboration d’un schéma directeur pour l’informatique », 1986 « INRP, recherches en cours. Situation et prévisions pour 1987 », 1991 « Quelques points de repère sur la recherche en informatique pédagogique », 2000 « Vingt ans plus dix ans après… Quel rôle pour la recherche en éducation ? ».

*    Dans le cadre de l’expérience des « 58 lycées » la Délégation à l’informatique passe contrat avec l’École Supérieure d’Électricité pour la définition d’un langage adapté aux besoins de l’enseignement secondaire. Ce sera le Langage Symbolique d’Enseignement (LSE).
D’usage simple et de syntaxe française, il permet de larges échanges autour de la conception, de la mise au point et de la diffusion de logiciels pédagogiques créés de toutes pièces par une communauté active d’enseignants. Les textes présentés, « Un langage symbolique destiné à l’enseignement : LSE », « Pour LSE… », « Sur le système LSE » et « La Saga du LSE et de sa famille », ont été rédigés par des « pères » du langage LSE.

*    « Apport spécifique de l’informatique et de l’ordinateur à l’enseignement secondaire », conférence de M. le Professeur Jacques Hebenstreit, Grenoble, juin 1973. Texte rédigé d’après un enregistrement au magnétophone et publié dans le numéro spécial (décembre 1976) du Bulletin de liaison de la Section « Informatique et enseignement » de l’INRDP (Service des études et recherches pédagogiques).

*    « Clefs pour l’introduction de l’informatique dans l’enseignement secondaire », de Jacques Arsac, Directeur de l’Institut de Programmation de Paris, est paru dans le numéro spécial de décembre 1976 du Bulletin de liaison de la section « Informatique et enseignement » de l’INRDP (Service des études et recherches pédagogiques). Que pouvait-on attendre de l’informatique dans l’enseignement, compte tenu du fait qu’il n’était pas question – à cette date – de l’enseigner pour elle-même ?

*    En novembre 1978 (le rapport Nora-Minc date de janvier 78), le Président de la République, Valéry Giscard d’Estaingt, demande au gouvernement d’élaborer un nouveau plan informatique pour accroître l’efficacité et la compétitivité du système économique. Tous les ministres sont sur le pont notamment Christian Beullac. En février 1979, 10 000 micro-ordinateurs sont annoncés. Voici le plan pour l’Éducation présenté par le Ministre, en novembre 1980, lors du « Mariage du siècle » Éducation et Informatique, suivi de « Les ordinateurs à l’école pourquoi ? », par Jacques Hebenstreit, et son « Intervention au colloque Le mariage du siècle : éducation et informatique ».

*    Le rapport Simon, L’éducation et l’informatisation de la société, présenté au Président en août 1980, a fait date dans l’histoire de l’informatique pédagogique. Un des premiers plaidoyers pour un enseignement de l’informatique pour tous « parce que l’informatique est un phénomène important dans l’ordre de la connaissance, que ses idées vont se diffuser dans les autres disciplines, qui ont besoin de ses méthodes et de son langage, et que ses conséquences seront essentielles pour nos sociétés. Il faut donc l’enseigner à tous les jeunes Français ».
Nous en présentons ici deux extraits, la « Conception d’ensemble » et le « Récapitulatif des propositions », ainsi que dans l’annexe 1 : « Informatique et enseignement général » de Jacques Arsac et « Les ordinateurs à l’école pourquoi ? » de Jacques Hebenstreit. Dans sa collection Études et Recherches, le SNES publie la brochure L’informatique dans l’enseignement (1980), on y trouve une note de 2 pages intitulée « À propos du rapport du professeur Jean-Claude Simon au président de la République sur L’éducation et l’informatisation de la société ». Dans la revue n° 3 d’Éducation et Informatique il signe l’éditorial.

*    L’option informatique des lycées. Première partie : La naissance d’une option. Jacques Baudé retrace l’émergence et la mise en place de l’option informatique des lycées (1980-1984) dans son contexte « politique », ainsi que la création du Comité Scientifique National (CSN), où il représentait l’EPI qui joua un rôle si important dans la naissance et le développement de cette option. Il s’appuie sur les informations et articles publiés dans le Bulletin de l’EPI et autres documents de l’époque.

*    Comme le rappelle le Président de l’EPI, dans l’éditorial du Bulletin n° 48 de décembre 1987, l’expression INFORMATIQUE PÉDAGOGIQUE, couramment utilisée par l’association et largement reprise, a été lancée par l’EPI dès le début des années 80. Elle englobe à la fois – dans l’esprit de ses créateurs – l’informatique « outil » pour les différentes disciplines et l’informatique « objet » d’enseignement.

*    En 1980 la revue Éducation et informatique consacrait son n° 37 de septembre-octobre au dossier : « Avantages (inconvénients ?) pédagogiques de la simulation sur ordinateur ». Cette revue pédagogique des éditions Nathan était exclusivement consacrée à l’EAO. Elle avait comme rédacteur en chef Wladimir Mercouroff et comme rédacteur en chef adjoint Christian Lafond. Voici la « présentation du dossier » par Jacques Hebenstreit et l’article « Simulation et enseignement des Sciences naturelles » de Jacques Baudé, Christian Bravard, Jean Yves Dupont.

*    À la suite du changement de gouvernement, le SGEN demande au nouveau Ministre de l’Éducation nationale, Alain Savary, le « gel » du plan informatique. Aussitôt, l’EPI soutenue par les syndicats de la FEN intervient directement auprès du ministre. La réaction de ce dernier est rapide : le 3 juillet 1981, une mission est confiée à Claude Pair et Yves Le Corre. Le 23 juillet, une note annonce pour la rentrée l’accroissement des formations et des équipements, la mise en place expérimentale de l’option informatique en classe de seconde et une importante phase de concertation. Le rapport Pair-Le Corre (auquel l’EPI a activement participé), remis le 15 octobre 1981, va accélérer encore le processus. Nous en publiions une analyse détaillée dans de Bulletin de l’EPI de mars 1982.

*    En juin 1982, la MITIF (Mission des techniques nouvelles, de l’innovation pédagogique et de la formation), annonçait l’élaboration du schéma directeur pour l’informatique, la télématiquue et l’audiovisuel. Le texte de l’EPI, remis au cabinet du ministre de l’Éducation nationale, a été publié dans le Bulletin EPI n° 28 de décembre 1982. Dans l’éditorial de ce numéro on peut lire : « Actuellement, le dispositif d’introduction de l’informatique dans l’Éducation nationale se déploie et s’enrichit mais l’effort de recherche et de formation reste très insuffisant et le pragmatisme l’emporte là où il faudrait un grand dessein. La priorité donnée à la dimension technologique et aux équipements risque de nous engager dans une impasse. Il est de la mission de l’Éducation nationale d’exiger une définition claire des objectifs et des contenus culturels. » C’était une première contribution de l’EPI à la définition d’un schéma directeur. L’EPI a également publié, dans son Bulletin n° 29, un résumé qu’a fait pour elle le Groupe Informatique de l’INRP des propositions que l’Institut a présentées.

*    Les 21 et 22 novembre 1983 a lieu, sur proposition de l’EPI au ministre Alain Savary et avec la participation active de l’Association, un grand colloque « Informatique et enseignement ». Ce colloque a connu une affluence record et a permis aux très nombreux visiteurs de participer à de nombreuses tables rondes et à des démonstrations très variées souvent proposées par les adhérents de l’EPI. Nous reproduisons le discours d’ouverture du ministre de l’Éducation nationale et celui de clôture de François Mitterrand, Président de la République, ainsi que l’intervention de Émilien Pélisset, Président de l’EPI. Les deux discours ont été publiés dans le numéro 32 (décembre 83) du bulletin de l’EPI. Les actes du colloque ont fait l’objet d’une publication CNDP-La Documentation française (Paris 1984), voici l’intervertion de Maurice Nivat à ce Colloque et le rapport remis en avril 1983 à Laurent Fabius et Alain Savary.

*    Introduction du Dossier « Les ordinateur à l’école » dans la revue Terminal 19/1984. La revue du Centre d’Information et d’Initiative sur l’Informatisation (CIII) s’est régulièrement intéressée au développement de l’informatique dans le système éducatif. Dans ce dossier elle a notamment longuement interrogé un acteur du terrain, Émilien Pélisset, formé « lourd » dès 1971, fondateur de l’atelier informatique du lycée Gabriel Fauré (Paris) et président de l’EPI.

*    Le 25 janvier 1985 Monsieur Laurent Fabius, Premier Ministre, présentait à la presse Le Plan « Informatique Pour Tous ». Voici la brochure de 144 pages parue en 1985 décrivant les finalités, enjeux, et mise en œuvre de l’opération « Informatique Pour Tous » (voir aussi dans le Bulletin de l’EPI n° 37 : « L’informatique pour tous »). Nous reproduisons également : « Un exemple d’activité de programmation en classe de cours moyen 2e année », « Les stages Informatique pour tous », « Au terme de deux enquêtes », « Le plan Informatique pour tous dans l’académie de Créteil : une enquête d’évaluation » et « La télématique d’informatique pour tous ». Cette opération souvent décriée, surtout par celles et ceux qui ne l’ont pas connue, a eu le mérite de faire prendre conscience de l’importance de l’informatique pour le système éducatif et au delà pour l’ensemble de la société. Ce plan conçu dans la durée a été malheureusement interrompu pour l’essentiel par un changement de gouvernement.

*    L’option informatique des lycées. Deuxième partie : Le développement de l’option. Vers une généralisation. À la rentrée 1985 l’option informatique est sur le chemin de la généralisation. En cinq ans cet enseignement optionnel passera de 74 lycées et 7 000 élèves à environ 550 lycées et 50 000 élèves dans le secteur public.

*    L’EPI ne se préoccupe pas uniquement du lycée, elle publie toujours, dans son Bulletin, de nombreux articles sur l’informatique à l’école et au collège, tant sur son utilisation en classe que pour son apprentissage. À titre d’exemple, en 1985-1986, « Un exemple d’activité de programmation en classe de cours moyen 2e année » de Y. Laurette, J. Marchal et M. Touyarot, « Programmer en logique au cycle moyen » de Michel Perraudeau., ou, pour le collège, « Apprentissage et pédagogie » d’Agnès Cousin dont la publication s’étalera sur trois bulletins. « L’informatique dans les écoles et les collèges (Arrêtés du 15 mai et du 14 novembre 1985). Un épisode oublié » de Jacques Baudé.

Plus tard, en 1996 et 1997, elle publie Matériaux pour l’option informatique n° 1 et n° 2, avec notamment les articles suivants : « Réaliser un projet informatique », « Des pistes pour les projets en classe de Terminale », « Réalisation d’un cédérom dans un atelier de pratique ».

*    La lettre du Ministre Jean-Pierre Chevènement du 29 octobre 1985, adressée aux recteurs, inspecteurs d’académie, chefs d’établissements et directeurs d’écoles, a été publiée dans la Revue EPI de décembre 1985. L’association soulignait à l’époque que « malgré ses imperfections et ses lacunes ce texte répond à des attentes de l’EPI. Ainsi il rend caducs les textes antérieurs des directions pédagogiques. Il est dommage qu’il soit si elliptique sur les formations, qu’il n’envisage pour les logiciels que la procédure d’évaluation et qu’il oublie la recherche pédagogique ». Néanmoins, les lettres ministérielles des successeurs de J.-P. Chevènement atteignirent rarement la qualité de celle-ci.

*    Ce texte a été publié dans la brochure Enseignement et technologies nouvelles, supplément à l’US n° 110 du 26 avril 1985, Bibliothèque du SNES, Positions et Recherches, 142 pages.
Il reprend pour l’essentiel les éléments du discours prononcé par Monique Vuaillat à l’issue du colloque « Enseignement et nouvelles technologies », le 9 décembre 1984, et essaie d’intégrer les derniers éléments de réflexion que l’actualité nous suggère.

*    Le 28 mars 1987, Claude Pair, lors de l’assemblée générale de la régionale EPI-Alsace, fait le point sur « Informatique et Enseignement : hier, aujourd’hui et demain ». Après un voyage dans le temps, sur l’histoire de la rencontre de l’informatique avec l’enseignement, et dans l’espace, pour voir ce qu’il en est dans des autres pays, il nous donne quelques éléments de réflexion sur ce qu’on peut espérer de l’informatique en réponse aux besoins de l’école et aux besoins des élèves. En effet, trop souvent on s’interroge sur le mode « qu’est-ce que l’informatique peut apporter à l’enseignement ? ». Or, il faut plutôt se demander « quels sont les besoins de l’enseignement ? » et, à partir de là, « qu’est-ce que l’informatique peut faire pour satisfaire ces besoins ? ».

*    L’Association Francophone pour la Didactique de l’Informatique (AFDI) a été fondée, de fait, à la suite du premier « colloque francophone sur la didactique de l’informatique », organisé par l’association Enseignement Public et Informatique (EPI), qui s’est tenu à l’Université Paris Descartes les 1er, 2 et 3 septembre 1988. L’AFDI a été active dans la décennie 90, prenant l’initiative des colloques suivants : Namur les 30, 31 août et 1er septembre 1990, Sion du 6 au 11 juillet 1992, Québec les 6, 7 et 8 avril 1994 et Monastir les 10, 11 et 12 avril 1996. Par la suite, avec la disparition progressive, pas seulement en France, des enseignements de niveau scolaire directement liés à l’informatique, elle est entrée en sommeil. Voici une réaction de Jacques Arsac à la suite du colloque de 1992 à Sion.

*    Les nouvelles technologies dans l’enseignement général et technique dit « Rapport Grandbastien » du nom de son auteur Monique Grandbastien, alors professeur d’informatique à l’Université Nancy I.
Ce rapport établi à la demande du secrétaire d’État chargé de l’enseignement technique (mais au contenu beaucoup plus général) est paru à la Documentation française en février 1990. L’EPI, qui s’y reconnaissait dans l’essentiel des l’analyses et des propositions faites, en a publié de larges extraits dans son Bulletin n° 56 de décembre 1989.

*    L’option informatique des lycées. Troisième partie : Suppression, rétablissement et nouvelle suppression. Une politique en dents de scie. Fin de cet historique réalisé à la lumière des éditoriaux, documents, informations et témoignages parus dans la Revue de l’EPI.
Il est trop tôt pour écrire la suite. Mais les actions de l’EPI se poursuivent pour un enseignement de l’Informatique et des TIC en tant que tel au lycée.

*    En 1990 Lionel Jospin, Ministre de l’Éducation nationale, confie à Didier Dacunha-Castelle la création d’un Conseil National des Programmes (CNP). Pour préparer ses avis le CNP s’appuie, entre autres, sur des Groupes Techniques Disciplinaires (GTD). Le GTD informatique, à vocation transdisciplinaire, est constitué en octobre sous la présidence de Michel Lucas. Son rôle sera de définir, au sortir de la suppression de l’option informatique, la part de l’informatique à introduire dans les programmes des autres disciplines et éventuellement d’évaluer les Ateliers de pratiques (APTIC). Dès 1991, une première série de notes, cadreront le travail à faire dont la note 8 pour Un plan de formation à l’informatique de tous les élèves, de l’école primaire au lycée, les notes 11, 14 et 15 donnerons des propositions de programmes d’informatique à l’école (1992), au collège et au lycée (1993).
En 1993 François Bayrou redéfinit, pour le lycée, l’objectif d’un enseignement de l’informatique pour tous les élèves de 2de et la constitution d’une nouvelle option en 1re et terminale, le GTD publiera une nouvelle série dont la note 16 pour l’Enseignement d’un ensemble de notions et savoir-faire informatiques à l’école primaire, au collège et au lycée.
Les années suivantes seront consacrées, entre autre, à l’élaboration et au suivi de ces programmes (voir « Naissance d’un enseignement » de Chris Boissin), jusqu’à la suppression définitive en 1997, par Claude Allègre, d’un enseignement raisonné de l’informatique au lycée.
L’annexe de la note 16 reprend la liste des notes de réflexion produites par le GTD Informatique de 1990 à 1993. Suivront les programmes de l’option informatique en seconde (1995), puis en première et terminale (1996).
C’est encore M. Lucas qui résume le mieux, dès 1991, le rôle de ce GTD : « les avis du GTD Informatique sont consultatifs : le CNP et la Direction des Lycées et Collèges ne sont en aucun cas tenus de les suivre. Le ministre n’est pas non plus obligé de suivre les avis du CNP. Les connaisseurs pourront ainsi apprécier l’écart entre les propositions du GTD Informatique, celles du CNP, celles de la DLC, celles du Ministre… et les réalités sur le terrain. Le GTD Informatique considère cependant qu’il doit continuer à travailler, et espère bien que les propositions qu’il fait seront prises en compte… un jour. »

*    15 octobre 1998 : parution du premier numéro d’EPInet, à l’initiative de François Jarraud entouré rapidement d’un groupe de collègues. Ce magasine électronique de l’EPI, EPInet, complète la Revue de l’EPI et les dossiers thématiques édités par l’association, en diffusant une information immédiate. [EPInet > Epi.net > Epinet > EpiNet]
Pour le numéro 200 nous avons publié un historique d’EpiNet.

*    Depuis le début des années 90, lors de ses congrès, le SNES aborde de façon récurrente le problème de l’enseignement de l’informatique. Au congrès de Bourg-en-Bresse (1993), celui de Reims (1995), de Nice (1997), de Strasbourg (2001), de Toulouse (2003). Il semblerait qu’en 2014 à Marseille, deux ans après la création de l’enseignement de spécialité ISN, le SNES se repose à nouveau la question et toujours à Grenoble en 2016.

*    À l’occasion du discours prononcé devant l’université d’été d’Hourtin (août 1997), le Premier Ministre Lionel Jospin déclarait notamment : « Nombreux sont les enseignants qui utilisent, depuis longtemps déjà, les technologies de l’information. Il faut à présent, en s’appuyant sur ces compétences multiples, généraliser cette pratique… ». Ce discours, au-delà d’un écho médiatique important, avait suscité beaucoup d’espoirs et, pour ce qui concerne l’EPI, la satisfaction de voir les idées défendues depuis plus de 25 ans enfin prises en compte au plus haut niveau. Nul doute que ce discours et les actions qui ont suivi ont marqué un tournant dans le déploiement des NTIC au sein du système éducatif. On trouvera également la conférence de presse de Monsieur Claude Allègre et Madame Ségolène Royal du 17 novembre, le programme d’action gouvernemental, sa lecture EPI et un article du Secrétaire général de l’association paru quelque temps après dans le Monde Informatique.

*    Les personnes qui s’intéressent au déploiement de l’informatique pédagogique entendent régulièrement parler du « groupe ITIC ». Que savent-elles au juste de ce groupe ? Quelle est son origine ? Ses finalités ? Quel rôle a-t-il joué et continue de jouer ? Quelle est sa composition ? Nous allons essayer de répondre à ces questions. Voir égaletment une webographie détaillée.

More info :

http://www.ict-21.ch/l4d/pg/bookmarks/read/882287/apport-spcifique-de-linformatique-et-de-lordinateur–lenseignement-secondaire-jacques-hebenstreit

___________________
Association EPI

Accueil Historique des TICE Articles

 

 

About Raymond Morel (2427 Articles)
Raymond Morel is a member of the Board of Directors at SI and is President of Social-IN3, a cooperative of a researchers’ convinced of the need to address new challenges of today's Information Age, which is slowly and surely modify the entire society.

Laisser un commentaire