Méthodes pédagogiques



  • Auteur :


  • Introduction

    Cet article vise à mettre en relation, in fine, l’évolution des technologies (l’ordinateur, les réseaux, les applications, les interfaces, les algorithmes…) et les théories de l’apprentissage qu’elles ont portées (Marquet, 2005). Évoluant au fil du temps et des travaux de recherche, les performances des premières ont autorisées la mise en œuvre des dernières[1].

    La question de base est : comment un adulte peut-il apprendre, retenir et appliquer ce qu’il apprend ? En sciences de l’éducation, un modèle décrit l’interprétation de phénomènes dans un système structuré de connaissances. C’est une construction intellectuelle qui vise à expliquer la réalité, lui donner du sens, en un mot la rendre intelligible. Un modèle met en relation des éléments qui, lorsqu’ils sont connectés, dégagent un sens général alors que d’ordinaire isolés ou disséminés, ils paraissent appartenir à des mondes différents.

    Ces modèles ont évolué, les temps, les mentalités et les connaissances, le développement des sciences humaines, de nouveaux points de vue, de nouveaux moyens d’investigations, de nouvelles ambitions politiques… ont conduit à l’émergence de différents modèles. Ainsi donc, concernant l’apprentissage, différents modèles ont été proposés pour expliquer la manière dont un individu acquiert des connaissances. Nous utiliserons le terme de modèle d’apprentissage (et non de théories de l’apprentissage[2]) pour marquer sa dépendance à l’environnement, à l’époque, aux dogmes en vigueur. Par exemple, puisque qu’un modèle est un système d’explication d’une réalité qui repose sur certains présupposés, certaines hypothèses, comme par exemple l’idée que l’apprentissage implique une construction active de la part de l’apprenant, alors cela a donné lieu à une appréhension radicalement différente des phénomènes d’apprentissage et a engendré la naissance de nouveaux modèles qui tranchaient radicalement par rapport à la manière dont l’apprentissage était compris jusqu’alors.

    Plus que la compréhension sur l’acte d’apprendre, les modèles doivent nous aider à concevoir des dispositifs de formation mieux adaptés, plus performants. Cet enjeu prend tout son sens lorsqu’il s’agit d’introduire une nouvelle modalité pédagogique, comme le e-learning. Il se révèle encore davantage lorsqu’il s’agit de traduire en e-learning une formation éprouvée en face à face synchrone : ses activités (apports notionnels, interactions, jeux, évaluations…) s’appuient sans doute sur des modèles exploitant les conditions matérielles du présentiel. S’ils sont simplement dupliqués numériquement, il y a fort à parier que les nouvelles conditions matérielles (isolement, interactivité plutôt qu’interaction, médiatisation plutôt que médiation…) ne rendent inopérants les mécanismes initiaux. Cela tombe mal pour les développeurs de matériels ou de logiciels qui pensent que la pédagogie n’est pas le cœur du problème, mais c’est une excellente nouvelle pour les pédagogues !

    Hélas, aucun modèle ne permet définitivement de définir comment l’on apprend. Et il n’existe pas plus de consignes ou recettes stabilisées permettant « à coup sûr » d’assurer l’apprentissage. C’est sans doute l’intégration de différents modèles, en fonction des objectifs d’apprentissage visés, des cibles à atteindre (de leur profil, leur histoire, leurs propres motivations), des environnements individuels et collectifs… qui permettra la mise en œuvre d’un dispositif de formation capitalisant les chances de réussite.

    Enfin, notons, comme le souligne Davidenkoff (2014), que les termes changent, mais pas les ressorts de la pédagogie[3] : ce n’est pas parce qu’un modèle est ancien qu’il ne peut être réactualisé. Joël de Rosnay (2012) souligne le recyclage des modèles par des chercheurs qui « adaptent, améliorent en fonction de nouvelles découvertes[4] ».

    Une vieille histoire

    Cet article s’inscrit dans le champ de la formation pour adulte. Celle-ci connait une histoire à la fois très ancienne, mais aussi relativement récente :

    * Fort ancienne, car elle commence dès le 6ème siècle avant Jésus-Christ, avec Confucius et se poursuit avec Socrate, Platon, Aristote et Cicéron… L’enseignement ne s’adressait pas aux enfants, mais à des adultes. Notons que fondée sur l’observation des adultes, elle a permis de forger un concept de processus d’apprentissage fort différent de celui qui devait par la suite dominer l’éducation traditionnelle. Pour eux, l’apprentissage était un processus d’investigation active, au lieu d’être un processus de réception passive d’un contenu. Ainsi, chacun mit au point des dispositifs pédagogiques pour faire participer activement les apprenants :

    • Les chinois et les hébreux inventèrent la méthode des cas, consistant à faire décrire une situation insatisfaisante et dégager par l’analyse des solutions d’amélioration,
    • Les grecs inventèrent des dialogues socratiques, à partir d’une question, pour faire dégager une réflexion puis une solution,
    • Les romains prônèrent la méthode du défi, en affirmant une position et en la défendant.

    * Bien plus tard, au 7ème siècle, la volonté d’inculquer une foi, pour préparer des enfants à un sacerdoce, à une mission religieuse, impliqua la naissance de la « pédagogie » (du grec PAID – enfant, et AGOGUS – guide). Le modèle pédagogique mis en place a continué à s’imposer, notamment lors de la création des premières écoles publiques au 19ème siècle : l’enseignant est le « maître », celui qui décide et valide, les autres sont soumis. Il détermine le besoin de savoir de l’apprenant, sait ce qu’il faut pour réussir, en négligeant son expérience. Ce dernier est dépendant, et sa motivation est développée par des signes extérieurs, comme la notation, l’approbation ou la désapprobation.

    L’adulte[5] n’est pas un enfant plus âgé. Roger Mucchielli (2006[6]) propose de définir l’adulte comme :

    « les hommes et les femmes entrés dans la vie professionnelle, assumant des rôles sociaux actifs et des responsabilités familiales, ayant déjà une expérience directe avec l’existence. Il considère qu’ils sont sortis du type de relation de dépendance et de mentalité caractéristique de l’enfance et de l’adolescence, qu’ils ont accédé à un autre type de relation de relations sociales d’interdépendance, qu’ils se sont pris en charge eux-mêmes dans l’organisation de leur vie et de leur horizon temporel (leurs projets personnels et sociaux) et qu’ils sont, avec un réalisme et un pragmatisme efficients, une conscience suffisante de leur insertion sociale, de leur situation, de leurs potentialités et de leurs aspirations[7] ».

    Des méthodes sans modèle… un itinéraire sans carte ?[8]

    Bien que très ancienne, si on considère les travaux des Antiques, de Comenius dès 1632 (la transformation de l’école en « ateliers d’humanité » où il était question de laisser l’enfant découvrir, discuter et faire par lui-même), ceux de Jean-Jacques Rousseau (L’Émile ou de l’éducation, 1762) comme le fondateur de la pensée éducative actuelle, la pédagogie nait au début du 20ème siècle, concomitamment à la psychologie. C’est l’heure où se développent la plupart des sciences humaines, et où les idées, théories et travaux neufs s’expérimentent : le pragmatisme de Dewey, le béhaviorisme de Watson et Skinner, les travaux liés à l’intelligence de Binet et Simon puis de Termann, Wechsler et Stern, mais aussi l’intérêt porté à la mémoire, à la motivation… À l’instar de l’appellation « Web 2.0 », dans les années 2000[9], qui s’est imposée sans en remplacer une autre (on n’a jamais parlé de Web 1.0), la pédagogie qui se met en place se dit « nouvelle », en s’opposant à la pédagogie traditionnelle…

    Différents travaux au début du 20ème siècle, ont donc tenté d’expliquer l’apprentissage selon deux concepts opposés :

    • L’apprentissage est conditionné par des éléments externes à l’apprenant (son environnement, son milieu) ; les travaux et modèles associés porteront sur le comportement de l’apprenant, en réaction à des stimuli extérieurs.
    • L’apprentissage est conditionné par des éléments internes à l’apprenant ; cette fois les travaux et modèles porteront sur l’interprétation et la perception personnelles de l’individu.

    Ces deux concepts traduisent des conceptions et des postulats différents, et généreront des courants et des évolutions spécifiques.

    Une autre entrée, chronologique, peut permettre de suivre chaque modèle et de l’inscrire dans ce concept extensif qu’est la pédagogie.

    S’interroger sur les fondamentaux pour l’apprentissage, c’est visiter l’histoire de la psychologie, du travail et de la pédagogie contemporaine. Car s’il est possible d’être (parfois) un bon formateur sans une bonne connaissance des concepts et du vocabulaire – à l’instar de Monsieur Jourdain – il est certainement plus confortable et efficient de conduire une action de formation en s’appuyant sur les travaux qui ont interrogé la manière d’apprendre chez l’adulte. Si l’histoire de la pédagogie n’est pas construite d’épisodes successifs, de façon linéaire (en fait les courants ont souvent cohabité, s’installant plus fortement selon l’époque et l’environnement sociétal et économique, s’enrichissant souvent respectivement), on peut néanmoins tenter de la décrire chronologiquement.

    Avant de décrire plus précisément chacun de ces travaux(voir autres articles du WIKI : empirisme, béhaviorisme, constructivisme…), il est utile de se remémorer les grands bouleversements qui ont conduit à développer et mettre en place des pratiques pédagogiques fort différentes, à des moments et dans des circonstances contraints par l’actualité politique, économique, sociétale. Cette description permet aussi de relativiser la notion d’innovation pédagogique  : en effet, chaque courant s’inspire ou inspire son voisin.

    Les courants, études et recherches sur l’enseignement et l’apprentissage sont fort nombreux. Certains formateurs louent telle méthode, vilipendent telle autre, d’autres encore sélectionnent quelques concepts çà et là, mais tous recherchent une pédagogie efficace. Cette notion d’efficacité recherchée peut être très différente selon qu’on mise sur un courant pédagogique ou un autre (réflexes conditionnés, métacognition autonomie…).

    Si les formateurs et les apprenants manquent parfois de recul sur leurs pratiques, parce qu’ils ignorent les grands principes qui régissent l’enseignement et l’apprentissage, leurs choix pédagogiques relèvent de l’intuition et des représentations, générant des insatisfactions ou des déceptions pour chacun. On observe même parfois pour un choix proclamé – par exemple le socioconstructivisme –  que l’on soumet finalement les apprenants à une pédagogie de transmission. De la connaissance des courants de l’apprentissage et du choix de l’un d’eux, on pourra définir un scénario pédagogique qui fait sens avec les objectifs visés, les bénéficiaires et leurs caractéristiques. Mais chaque courant dispose de forces et de limites. Aussi comporte-t-il des pistes d’exploitation plus ou moins précises, plus ou moins pertinentes en e-learning (exemples : cibles visées, temps alloué, hétérogénéité des apprenants…).

    Si dans le sens commun la pédagogie consiste à faciliter l’apprentissage d’un individu, alors la question relative à la connaissance du processus d’apprentissage apporte un éclairage utile : comment l’adulte apprend, pour comment l’aider efficacement à apprendre. Cet adage implique l’approche philosophique et psychologique. Car si la psychologie interroge l’homme et ses comportements, c’est bien la philosophie qui a tenté d’y répondre depuis toujours. De l’Antiquité à aujourd’hui, les explications peuvent être classées selon deux courants :

    • Le courant réaliste, doctrine selon laquelle il n’existe d’autre substance que la matière. Il s’oppose donc au dualisme qui admet l’existence de deux substances distinctes : l’esprit et la matière.
    • Le courant idéaliste, théorie philosophique qui considère que la nature ultime de la réalité repose sur l’esprit, sur des formes abstraites ou sur des représentations mentales.

    Figure 1 : Les deux grandes doctrines, d’après Françoise Raynal et Alain Rieunier (1981)

    Au 19ème siècle, la psychologie se heurte au seul moyen d’investigation pour étudier la vie mentale, l’introspection, ou analyse de ses propres pensées. En effet, exiger d’un individu qu’il relate ce qui se passe dans son cerveau lorsqu’il résout un problème semble très difficile. Aussi, les béhavioristes préfèrent considérer l’apprenant comme une boîte noire, dont on ne pouvait observer le « mécanisme », et se centrent sur ce qui est observable, à savoir les stimuli d’entrée, et les comportements en sortie. Pour eux, l’étude du comportement se traduit en étude des observables, et ils qualifient l’apprentissage en vérifiant la reproduction d’une bonne réponse face au bon stimulus. Certains ont voulu démontrer qu’une récompense, attribuée au bon comportement attendu, encourageait sa reproduction (c’est la loi de l’effet). Ce postulat a animé de nombreuses recherches pour confirmer ou attaquer cet effet. Dès lors, certains ont commencé à considérer l’intérieur de la boîte noire en y cherchant des explications aux comportements produits : Piaget et l’épistémologie génétique, Freud et les psychologues cliniciens, et encore d’autres recourant à la psychologie de la forme. Un clivage sépare donc les comportementalistes, partisans du comportement observable, induit par l’environnement – les renforcements, et les partisans du rôle essentiel du cerveau, précurseurs du cognitivisme.

    Figure 2 : Évolution des courants maîtres au XXème siècle, d’après Raynal et Rieunier

    Une démonstration de cette opposition s’exprime dans deux expériences fort célèbres : Frederick Taylor, en observant le travail d’un « bon » ouvrier, décrit et rationalise sa production en atomisant les tâches, et en distribuant chacune d’entre elles à un acteur différent : moins de mouvements inutiles, moins de temps perdus, davantage de productivité… De son côté, Georges Elton Mayo, pensant pointer par ses expériences l’importance des conditions d’exécution des tâches, comme l’éclairage, démontre en fait l’importance et la complexité du psychisme humain, les bénéfices constatés en terme de productivité n’étant pas liés aux conditions de réalisation – éclairage plus ou moins fort – mais au fait que les acteurs se sentaient observés, considérés. En simplifiant, à Taylor l’expression béhavioriste (seuls les comportements comptent), et à Mayo le cognitivisme (en déléguant au cerveau la responsabilité des actes).

    Les recherches des psychologues ne sont pas les seuls influant ; les évolutions sociétales et industrielles, les conflits jouent eux aussi un rôle, comme les scientifiques des autres disciplines :

    • À la fin du 19ème siècle, le mathématicien Georges Boole décrit dans son ouvrage[10] que les démarches de la pensée peuvent être traduites avec trois seules propositions (ET, OU, NON) à partir d’unité à deux états (0 ou 1, vrai ou faux). Ses travaux sur la logique conduiront à modéliser toute équation, même philosophique[11], sous forme d’algorithmes. Des machines viendront bientôt réaliser des opérations complexes à partir de ces algorithmes, donnant progressivement naissance à l’ordinateur.
    • Les besoins de transformation de l’industrie civile en industrie militaire, en période de guerre, bouleversent à leur tour les méthodes de professionnalisation des acteurs : de nouveaux défis pour convertir des professionnels dans de nouveaux métiers, en un temps très court, mobilisent les psychologues qui mettent au point un nouvel outil, le référentiel, qui liste les comportements à adopter pour toutes les tâches visées. Cette méthode très pragmatique ne s’encombre pas de biais et vise des objectifs de production, en installant des boucles de rétroaction lorsque l’effet recherché n’est pas parfaitement atteint. En ce sens, elle préfigure la pédagogie par objectifs, dont l’évaluation des résultats a pour but de réguler l’action (tenir compte de l’effet pour jouer sur la cause).
    • Plus tard, les rapprochements entre la mécanique de traitement des transistors et celle des neurones (Pitts et McCullogh, 1943), introduiront le concept d’intelligence artificielle, créant une révolution philosophique aujourd’hui encore largement débattue. Mais incontestablement, l’ordinateur sera l’expression des tests d’hypothèses sur le fonctionnement du cerveau, donnant lieu à la cybernétique[12] (Norbert Wiener, 1948). Trois concepts organisateurs sous-tendent cette discipline :
      • La simulation, c’est-à-dire la compréhension du comportement intelligent pour sa traduction artificielle en logico-mathématique ;
      • La rétroaction ou feed-back, c’est-à-dire l’effet de la régulation d’un comportement par modification d’un signal d’entrée, en fonction de l’état du signal de sortie ;
      • Le codage de l’information, c’est-à-dire l’écriture codée d’un calcul logique
    • Très féconde, la cybernétique originelle donnera lieu dès le milieu du 20ème siècle à de nouvelles disciplines : intelligence artificielle, psychologie cognitive, télématique, robotique, théorie des systèmes, sciences cognitives… ces disciplines sont rangées sous le nom de connexionnisme.
    • La théorie des systèmes va se traduire dès les années 60 par le concept d’analyse des systèmes, définie par le fait qu’un système est un ensemble d’éléments organisés en fonction d’un but, totalement indépendants (Joël de Rosnay, 1975). Partant du principe qu’une intervention sur l’un de ces éléments a des répercussions sur les autres, cette approche systémique complexifie la boucle du feed-back, puisque chaque élément peut subir l’effet de la modification d’un autre. La boucle de rétroaction doit donc intégrer une analyse fine du signal de sortie, et une bonne connaissance des influences de chaque élément sur les autres. En formation, cette nouvelle approche définit l’évaluation formative[13] (savoir interpréter un dysfonctionnement en sortie pour le corriger en entrée) et les objectifs opérationnels (savoir quoi modifier pour quel résultat). Et en toute logique, pour que le feed-back soit possible et facile, la fréquence de l’évaluation est importante, tout comme son interprétation : ce qui importe, ce n’est pas le bon résultat (une bonne note…) mais bien le fléchage de ce qui dysfonctionne, pour le corriger (éventuellement les consignes ou conseils pour y parvenir).
    • La neuropédagogie[14] (issues des travaux en neurosciences[15]), a pour ambition de mieux comprendre ce qui se joue dans le cerveau d’un enfant qui apprend, et d’améliorer ainsi les méthodes d’apprentissage. Grâce aux neurosciences, en particulier l’imagerie cérébrale, il existe aujourd’hui une véritable science des apprentissages. Elle aide à expliquer pourquoi certaines situations d’apprentissage sont efficaces, alors que d’autres ne le sont pas. En retour, le monde de l’éducation, informé qu’il est de la pratique quotidienne – l’actualité de la pédagogie –, peut suggérer des idées originales d’expérimentation. Ainsi, se développe aujourd’hui un aller-retour du labo à l’école. Ces découvertes commencent aussi à être enseignées aux étudiants des nouvelles Écoles supérieures du professorat et de l’éducation (ESPE). L’imagerie cérébrale a ainsi permis de démontrer l’existence, chez l’enfant comme chez l’adulte, de deux formes complémentaires d’apprentissage neurocognitif : l’automatisation par la pratique et le contrôle par l’inhibition[16].

    Mais les courants pédagogiques se caractérisent aussi selon la liberté qui leur est accordée : les pédagogies libertaires[17] représentent la forme la moins coercitive : il n’est pas question de forcer quiconque à apprendre quoi que ce soit. La formation nécessite une nouvelle relation entre le formateur et l’apprenant, basée sur la confiance. Loin d’effacer le rôle du sachant, cette pédagogie place le formateur comme un facilitateur, disponible pour répondre aux besoins ou désirs des apprenants, et en capacité d’y répondre de façon adaptée[18]. Ces courants se caractérisent également par l’implication plus ou moins importante de l’apprenant dans le processus d’apprentissage, en le rendant plus ou moins acteur de son parcours. Lorsque cette action est centrale dans la stratégie pédagogique, la pédagogie est alors qualifiée d’active. L’activité se comprend alors comme un acte volontaire de l’apprenant, spontanément guidé par sa motivation à apprendre ; il ne s’agit pas simplement pour le formateur d’inciter l’apprenant à répondre, ou favoriser sa participation… De très nombreuses expériences[19] constituent au début du siècle dernier le courant de la pédagogie nouvelle.

    Ces pédagogies actives et libertaires ne représentent cependant qu’une toute petite part des pratiques pédagogiques : la grande majorité des actions restent traditionnelles, c’est-à-dire construite autour du schéma sachant/non sachant, principalement expositif et transmissif. Dans les années 60, toutefois, les pédagogies de groupe apparaissent, en attribuant aux pairs la médiation jusqu’alors réservée exclusivement à l’enseignant[20]. Travailler en groupe, confronter des avis ou des hypothèses, résoudre ensemble des problèmes, collaborer et coopérer pour y parvenir définissent la pédagogie par projet. Se mêlent alors aux ambitions de développement cognitif individuel, des pratiques marquées par des relations affectives et socio-affectives.

    Avec le projet, se distingue l’objectif de formation, dont on doit pouvoir apprécier l’atteinte, notamment par l’expression de comportements observables. Divers niveaux d’exigences peuvent être recherchés : pour cela, des taxonomies d’objectifs permettent de qualifier l’ambition de l’apprentissage : de la connaissance jusqu’à l’expertise. La notion d’objectif (et notamment d’objectifs intermédiaires) a permis de mettre en place une pédagogie de la maîtrise[21], dispositif mécaniste basé sur le feed-back et la remédiation (régulations). L’organisation de l’environnement de l’apprentissage et les évaluations formatives[22] de son produit, la liberté accordée à l’apprenant de suivre selon son rythme personnel caractérisent ce courant. Dans une certaine mesure, il préfigure d’autres évolutions et d’autres appellations, comme la pédagogie différenciée qui prend en compte les profils d’apprentissage et les difficultés spécifiques des apprenants.

    Ces évolutions coïncident avec la massification de la formation pour adultes, notamment inscrite dans la loi de 1971[23] : dès lors, un financement considérable va permettre le développement du marché de la formation continue, traduit par la naissance de nombreux organismes de formation, la création d’ingénieurs spécialisés dont l’une des missions consiste à rechercher l’efficacité de la formation (au sens de la production dans le contexte professionnel). Ces nouveaux acteurs vont mettre en relief :

    • L’analyse des besoins: en amont de l’action de formation, il est primordial de comprendre le sens de la demande « le problème est-il soluble dans la formation ?[24]» et de viser des objectifs (gains) afin de viser l’efficacité de l’action.

    Figure 3 : Les champs de compétence, d’après Martin et Savary[25] (1999)

    • L’ingénierie[26] de formation: pour concevoir l’action de formation, il faut intégrer un ensemble complexe de variables. Parmi celles-ci, l’analyse des besoins et la définition précise des objectifs, la mécanique de vérification de l’atteinte de ces objectifs (évaluation), le pilotage de l’action : organisation logistique, acteurs, moyens et financements, programmation…. Toutes ces préoccupations mobilisent de nouvelles compétences, et un nouveau métier.
    • L’ingénierie pédagogique: cette fois on s’intéresse à la définition des objectifs pédagogiques, à la conception des outils d’apprentissage et d’évaluation, le choix des stratégies pédagogiques (méthode permettant d’atteindre les objectifs, en fonction des atouts et contraintes de l’environnement). En France, c’est particulièrement Bertrand Schwarz qui expérimente ce concept venu des États-Unis. Il aura notamment une influence toute particulière pour l’Éducation nationale, et le réseau des GRETA, exprimée par la création de référentiels dans les années 80. Cette période s’inscrit dans le courant psychologique cognitiviste et constructiviste : chacun apprend à son rythme, à sa manière et la redécouverte des œuvres de Vygotski mettent l’accent sur le conflit sociocognitif dans le développement de l’individu. L’ingénierie pédagogique regroupe l’ensemble des fonctions et opérations utiles à la conception et à l’animation d’une formation, y compris les ressources. Le design pédagogique est quant à lui la traduction de instructionnal design dans son sens rudimentaire (sans génie), concentré davantage sur le lien entre forme et fonction pédagogique. Si les anglophones privilégient le terme de design pédagogique, les francophones lui préfèrent celui d’ingénierie pédagogique.

    Les enjeux de la formation des salariés et des demandeurs d’emploi dans le cadre législatif instauré dès le début des années 1970, et l’obligation de contribution financière des entreprises ont donné une nouvelle impulsion à la formation d’adultes. Forte des expériences et courants passés, le contexte se voit doté de moyens et d’ambitions inédits. Le système même de gouvernance (le paritarisme), permet l’expression d’objectifs visant d’un côté une vision radicale de l’éducation à finalité sociale, communautaire[27], de l’autre un projet managérial de la formation à finalité économique, tourné vers l’efficacité et la technicité[28]. Aussi, en 1971, les 2 projets (radical et managérial) sont présents, mais la dominante reste une conception mitoyenne, un peu réformiste du co-investissement en formation. La formation des adultes est de fait reconnue comme un terrain de consensus social[29].

    Ce développement historique fait naître des besoins et des compétences (les métiers d’ingénieurs de formation et d’ingénieur pédagogiques s’imposent) en « industrialisant », c’est-à-dire en massifiant les actions de formation des actifs[30]. Et l’époque coïncide avec la prise de conscience que l’acte d’apprendre se joue dans le cerveau (le cognitivisme), davantage que dans l’environnement. Surtout, on admet que chacun dispose d’un profil singulier, et donc que chacun réagit spécifiquement aux exemples, arguments, cas d’école rencontrés : chacun apprend à son rythme, à sa manière, et possède une histoire de vie particulière influant sur cet apprentissage.

    En 1973, Barber Inhelder[31] nous précise :

    « Apprendre signifie avant tout comprendre. Or, comprendre ne consiste pas à accumuler des connaissances toutes faites, mais à savoir les découvrir, voire au besoin les inventer ou les réinventer. Dans cette perspective constructiviste, l’école genevoise conçoit l’apprentissage comme le résultat d’une activité cognitiviste de l’apprenant qui l’amène à transformer ses représentations, parce qu’il constate qu’elles sont en contradiction avec la réalité. Guider l’apprentissage, dans cette optique, n’est pas présenter graduellement la suite des connaissances que l’élève doit acquérir. À chaque moment, les observables ne s’impriment comme tels dans la connaissance du sujet ; ils n’agissent sur lui que par le moyen du processus d’assimilation, c’est-à-dire que l’élève ne reçoit l’information qu’en l’intégrant dans ses cadres de pensées antérieurs. Ce sont ces cadres qu’il faut faire évoluer en obligeant l’élève à une accommodation. On y parvient lorsqu’on peut créer une situation où l’élève observe l’apparition d’une contradiction entre ce qu’il prévoyait et ce qu’il constate. Guider l’apprentissage revient ainsi à proposer à chaque étape l’antithèse, c’est-à-dire la contradiction qui suscitera le dépassement ».

    Associée à la relation aux autres (les pairs, les collègues, la famille, les amis…), et aux conflits sociocognitifs qu’elle provoque, la vision constructiviste de l’apprentissage s’impose. Dès lors, apprendre (accumuler des savoirs) se conjugue avec comprendre, même et surtout si cela bouleverse la représentation initiale. Et pour bouleverser spécifiquement des situations pour chacun différentes, il faut s’adresser à chaque individu de façon différenciée : adapter le traitement pédagogique selon les individus, selon leurs différences. Pour ces raisons, le modèle transmissif magistral ne répond pas à ces exigences ; et si le formateur tente d’adapter le parcours et sa médiation à chacun, il ne peut pas matériellement répondre à toutes les sollicitations. Aussi devra-t-il recourir à des « aides », comme le travail entre pairs (interaction), et/ou des outils et supports (interactivité) pour satisfaire chaque progression. En ce sens, l’usage de la technologie et la possibilité qu’elle propose quant à la richesse de ressources diverses et leur accessibilité constituent un argument sérieux pour rendre possible cette approche pédagogique individualisée. À condition bien entendu que ces ressources soient attribuées à bon escient, au bon moment, à la bonne personne. Le formateur sera sans doute l’organisateur et le contrôleur de cette distribution.

    Avant de décrire systématiquement chaque modèle, chronologiquement, nous proposons un tableau inspiré des écrits d’André Giordan (1998), qui observe l’enseignement – mais l’auteur souligne que ce n’est pas différent quand il s’agit d’un savoir hors l’école – et le classe en trois grandes traditions :

    Figure 4 : trois grandes traditions de l’apprendre, d’après Giordan (1998)

    Chacune de ces trois « écoles » renvoie à une philosophie emblématique : la pédagogie empirique de John Locke (1963) réside sur l’idée que les images, les pensées sont le produit des diverses expériences. À l’opposé des rationalistes, pour qui la mémoire des élèves est aussi vide que le tableau noir avant le cours. L’enseignement « classique » (monopolisant pratiquement toute forme de médiation) suppose que les sens de l’apprenant soient en éveil ; au sachant d’exposer clairement et progressivement les savoirs. S’il y a échec, c’est que l’élève est sans doute paresseux. Trois postulats lui confèrent tous son poids :

    • L’élève est neutre, sans conviction initiale que le maître ne puisse corriger, il peut enregistrer sous réserve de produite l’attention et le travail requis (les sanctions y aident…).
    • L’enchaînement des savoirs est pensé par le sachant, les difficultés graduées (au regard de l’élève moyen).
    • Chaque information sera enregistrée, mémorisée afin de les organiser in fine un tout cohérent. Le sachant imprime ses idées à l’apprenant, en s’aidant d’exercices de mémorisation et de séances pratiques.

    Cette conception peut s’avérer efficace, mais son succès dépend du partage du même cadre de référence entre l’émetteur et le récepteur : « le message n’est entendu que s’il est attendu[32] ». Envies, vocabulaire, références… doivent être partagés.

    Apprendre est donc un processus complexe. C’est pourquoi on a cherché une modélisation qui passe par l’identification et la conceptualisation des paramètres les plus significatifs de l’élaboration de la pensée. La description qui suit présente les modèles de l’apprentissage les plus pertinents qui ont été élaborés jusqu’à nos jours, en détaillant pour chacun d’eux les pédagogies qui en ont découlé.

    Sans qu’ils ne se remplacent, leurs limites respectives ont déterminé les paramètres qu’il convient de prendre en compte pour pouvoir les dépasser, et nous observerons leurs influences dans la cadre du e-learning.

    Nous proposons ci-après une représentation chronologique des courants de pensée de l’apprentissage, et les liens qui les unissent. En effet, chaque modèle apporte des contributions spécifiques pour rendre compte des apprentissages. Il met en œuvre des méthodes d’investigations différentes, marquées par l’époque, les auteurs, les conditions environnementales sociétales et économiques. Enfin, chacun de ces modèles ne permet pas nécessairement de rendre compte de tous les types d’apprentissage.

    Figure 5 : l’ancrage historique et le développement des courants de pensée de l’apprentissage

    Au sein des différents modèles, Philippe Jonnaert[33] (2002) propose de distinguer deux paradigmes épistémologiques, mutuellement opposables :

    • Le paradigme ontologique, qui postule le primat de l’objet de la connaissance sur le sujet connaissant (les connaissances sont transmises à l’individu, la connaissance est une copie conforme de la réalité extérieure à l’individu : la réalité ontologique).
    • Le paradigme constructiviste, qui postule le primat du sujet connaissant sur l’objet de la connaissance (l’individu construit lui-même ses connaissances, nécessairement par ses propres expériences).

    [1] Cette introduction s’inspire fortement d’un article de Pascal Marquet : « lorsque le développement des TIC et l’évolution des théories de l’apprentissage se croisent » – Savoirs 2005/3 (n°9), L’Harmattan.

    [2] Les théories de l’apprentissage désignent un ensemble de lois et de principes qui décrivent la manière dont l’apprentissage se déroule. La définition du modèle se démarque par la référence à la relativité des actes (Christian Depover et Bruno De Lièvre, Département des Sciences et de la Technologie de l’Éducation et Faculté de Psychologie et des Sciences de l’Éducation de l’Université de Mons-Hainaut).

    [3] Emmanuel Davidenkoff, le tsunami numérique – Stock (2014)

    [4] Joël de Rosnay, surfer la vie – Mayenne (2012)

    [5] Qu’est-ce qu’un adulte ? Parmi ces quatre définitions du concept d’adulte, nous retiendrons la dernière :

    • Biologiquement, celui qui est en âge de se reproduire
    • Juridiquement, celui qui peut voter, passer son permis, se marier…
    • Socialement, celui qui remplit une fonction dans la société (travail, mariage, vote…)
    • Psychologiquement, celui qui a conscience de sa responsabilité.

    [6] Les méthodes actives dans la pédagogie des adultes, 8e éd., Les Éditions E.S.F

    [7] L’auteur fixe cet âge de la raison pratique à 23 ans.

    [8] Introduction de Marcel Lebrun, journées du e-learning – GIFOD Bourgogne, 2014

    [9] L’expression « Web 2.0 » utilisée en 2003 par Dale Dougherty, un cadre de la société O’Reilly Media, et diffusée par Tim O’Reilly en 2004 puis consolidée en 2005 avec l’exposé de position « What Is Web 2.0 » s’est imposée à partir de 2007. En simplifiant, on peut dire que le Web 2.0 permet aux utilisateurs d’aller à la fois « chercher » des informations et « contribuer » pour augmenter l’interactivité, l’interconnexion et donner une plus-value à l’intelligence collective.

    [10] Les lois fondamentales de la pensée – 1854.

    [11] Les questions philosophiques échappant à cette règle seront classées dans le domaine de la métaphysique.

    [12] Discipline étudiant les processus de commande et de communication chez les êtres vivants, dans les machines et les systèmes sociologiques et économiques (le Petit Larousse).

    [13] Que l’on pourrait qualifier ici d’informative.

    [14] Néologisme introduit en 2006 par Olivier Houdé, Professeur à l’Université Sorbonne Paris Cité où il dirige le Laboratoire de psychologie du développement et de l’éducation de l’enfant du CNRS.

    [15] Les neurosciences provoquent des polémiques. Pour certains, elles représentent une menace pour une vision humaniste de la pédagogie. Pour d’autres, elles produisent des résultats évaluables qui feraient office de preuves.

    [16] Source : les grands dossiers des Sciences Humaines « la psychologie d’aujourd’hui », n°42 mars 2016.

    [17] Inspirées de la pensée de Tolstoï en 1860.

    [18] Idées développées notamment par Carl Rogers (1902-1987), psychothérapeute, humaniste et optimiste de l’être humain. Pour lui, l’individu est d’abord une personne, orientée en permanence vers le développement de son potentiel intérieur et l’amélioration du concept de soi. Trois concepts associés à l’humanisme de Rogers fondent l’attitude rogerienne : la congruence (ou l’authenticité de la personne), l’empathie (ou la capacité à se mettre à la place de l’autre, à comprendre son point de vue), et la considération inconditionnelle positive (l’acceptation sans réserve d’autrui, tel qu’il est). C. Rogers, le développement de la personne, DUNOD, Paris, 1977.

    [19] Citons les expériences de Dewey, ou plan Dalton aux États-Unis, de Claparède en Suisse, de Freinet en France, de Décroly en Belgique, de Montessori en Italie…

    [20] Philippe Meirieu, apprendre en groupe – tome 1 – « itinéraire des pédagogies de groupe » – chroniques sociales, Lyon 1984

    21] Dans un article de 1963 (a model of school learning), Caroll écrit que d’un point de vue pédagogique, il n’y avait selon lui, aucun sens à penser que tous les étudiants mettraient le même temps pour atteindre les mêmes objectifs. II y avait des différences entre les individus et l’important était d’en tenir compte afin de stimuler l’apprentissage plutôt que de prévoir la même durée pour tous et d’anticiper l’échec de certains. L’éducation n’avait rien d’une course. De plus, il fallait autoriser et même encourager les étudiants à s’aider les uns les autres. Bloom s’est basé sur les travaux de Caroll pour proposer un enseignement qui permette à chacun de disposer d’un temps variable afin d’atteindre les objectifs fixés.

    [22] L’évaluation formative a pour but d’informer l’apprenant (et le formateur) sur le degré d’atteinte d’un objectif. Elle n’aboutit pas à une note, une sanction mais permet de pointer le besoin de remédiation pour parvenir à la réussite du projet pédagogique.

    [23] Loi n° 71-575 du 16 juillet 1971 portant organisation de la formation professionnelle continue dans le cadre de l’éducation permanente

    [24] Autrement dit, ne s’agit-il pas d’un problème d’organisation, de ressources humaines, de climat social… dans ce cas, la formation ne pourrait venir apporter de vraies solutions et tout le monde serait perdant : le financeur, parce que l’opération est vaine, l’organisme de formation, dont on comprendra qu’il est inefficace, l’entreprise, qui aura perdu du temps et sans doute de l’argent.

    [25] Formateur d’adultes (éditions Chronique sociale).

    [26] Le mot ingénierie vient du terme génie. Le Larousse le définie comme l’ensemble des connaissances et des techniques concernant la conception, la mise en œuvre et les applications de procédés, de dispositifs, de machines propres à un domaine particulier.

    [27] Cette vision, proche des idéaux fondateurs de l’éducation permanente des années 60, est fortement ancrée dans des courants de réflexion et d’action sociale et politique radicaux, tiers-mondistes et souvent révolutionnaires : Il s’agit ici d’utiliser la formation des adultes pour changer la société, voire le monde, par la lutte intellectuelle et l’émancipation des plus déshérités grâce à l’alphabétisation en particulier.

    [28] Inspirée des analyses et interventions des consultants et managers de la formation en entreprise, cette deuxième vision considère la formation comme un outil au service du développement des organisations. La formation devient alors l’une des fonctions du développement des Ressources Humaines.

    [29] Certains voient dans le sujet de la formation continue le seul sujet sur lequel toutes les sensibilités politiques s’accordent.

    [30] La population active se définit comme l’ensemble des personnes en âge de travailler qui sont disponibles sur le marché du travail, qu’elles aient un emploi (population active occupée) ou qu’elles soient au chômage (population active inoccupée) à l’exclusion de celles ne cherchant pas d’emploi, comme les personnes au foyer, étudiants, personnes en incapacité de travailler, rentiers (Wikipédia).

    [31] Née le 15 avril 1913 à Saint-Gall (Suisse), Bärbel Inhelder a fait ses études à la faculté des lettres et à l’institut des sciences de l’éducation de l’université de Genève. Elle fut l’élève puis la principale collaboratrice de Piaget, avec lequel elle a publié de nombreux ouvrages sur la genèse de la pensée et de l’intelligence chez l’enfant.

    [32] André Giordan dit : La pédagogie magistrale prend appui sur les travaux du philosophe anglais John Locke. Dans son livre Essai sur l’entendement humain (1693), il présente l’idée révolutionnaire pour l’époque que nos images, nos pensées sont le fruit de notre seule expérience. Contrairement aux Rationalistes, qui ne jurent que par la croyance en une raison innée, le cerveau est pour lui une tabula rasa, c’est-à-dire un « tableau vierge » ou « une pièce sans meubles ». Le rôle du maître est d’exposer clairement, de montrer avec conviction, éventuellement de répéter. Ce modèle a obtenu un quasi-monopole à l’école, à l’université et dans toutes les formes de médiation. Il est vrai que cette conception de l’apprendre peut être très efficace… Cependant, le résultat de son emploi s’avère féroce : le message n’est entendu que s’il est attendu ! En d’autres termes, l’apprenant et le médiateur doivent se poser le même type de question, avoir le même cadre de référence (vocabulaire compris) et une façon identique de raisonner. Encore faut-il qu’ils aient en plus le même projet et qu’ils donnent le même sens aux choses. Quand tous ces ingrédients sont réunis, un exposé, une présentation (article, exposition…) est le meilleur moyen de faire passer le maximum d’informations dans le minimum de temps. Source : (re)construire les connaissances, interview de Sciences Humaines, à propos du livre « Apprendre ! ».

    [33] Philipe Jonnaert (Université du Québec à Montréal), Compétences et socioconstructivisme : un cadre théorique, Bruxelles, Éditions de Boeck 2002.

     


    le 17/11/17


  • Tags :