Innovation Pédagogique et transition
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Les Learning Analytics en question

Un article repris de http://journals.openedition.org/dms/3485

Merci à L. Massou, P. Moeglin, C. Peltier et N. Roy : leurs ressources, leur écoute et leurs avis ont contribué à l’élaboration de ce texte.

Un article de Daniel Peraya repris de la revue Distances et Médiations des Savoirs publiée sous licence CC by sa

Prologue

Aujourd’hui, de très nombreuses recherches en sciences de l’éducation recourent à ce qu’il est convenu d’appeler les Learning Analytics (LA) [1] ou l’« analytique des apprentissages numériques » (Labarthe et Luengo, 2016). Cette approche est mise en œuvre lorsqu’il s’agit d’étudier, dans des environnements informatiques pour l’apprentissage humain (EIAH) [2] comme dans les dispositifs de formation partiellement ou entièrement distance, les processus d’apprentissage, les modèles ou les profils d’étudiants, de faciliter le travail d’encadrement des enseignants et des tuteurs, de soutenir les processus de métacognition et d’autorégulation des étudiants eux-mêmes, de prédire la persistance de ceux-ci et leurs chances de réussite dans la formation. Plusieurs facteurs ont contribué à renforcer ce courant : le succès rencontré par les plateformes numériques d’apprentissage et leur large diffusion depuis les années 2000 suivies quelque dix années plus tard par l’explosion des Mooc. Ce contexte a généré des masses importantes de traces relatives à des apprenants toujours plus nombreux. Poellhuber, Roy et Moukhachen (2017), citant Shah (2015), avancent à propos des Mooc, au niveau mondial, les chiffres de 35 millions d’apprenants pour cinq cents universités. Il s’agit donc bien d’une masse de données, un « gisement », terme consacré qui s’inscrit en droite ligne dans la métaphore « minière » du Data Mining (Labarthe et Luengo, 2016). De plus, ces traces, de nature multimodale [3] (logs, textes, images, vidéos, etc.), sont recueillies automatiquement par des dispositifs embraqués dans les plateformes et, de plus en plus fréquemment, ces données sont interopérables.

De façon très générale, il s’agit d’utiliser l’importante quantité de traces – on parlera de Big Data4 [4]– laissées par les très nombreux utilisateurs – ils se comptent en dizaines, en centaines de milliers selon les cours – des plateformes virtuelles d’enseignement et de mise à disposition de ressources en ligne pour produire, grâce à des méthodes et à des traitements statistiques plus ou moins sophistiqués (la fouille des données ou Data Mining), des connaissances sur les comportements de leurs utilisateurs. Les premières définitions qui semblent faire référence sont celles de Siemens : « Learning analytics is the use of intelligent data, learner-produced data, and analysis models to discover information and social connections, and to predict and advise on learning » (Siemens, 2010, cité par Dioudi, 2018). Un an plus tard, Siemens reformule sa définition en ces termes : « Learning analytics is the measurement, collection, analysis and reporting of data about learners and their contexts, for purposes of understanding and optimising learning and the environments in which it occurs ». (Siemens, 2011, cité par Dioudi, op. cit.). La différence est d’importance : l’auteur introduit deux nouveaux objectifs : d’une part, la compréhension des processus d’apprentissage et du contexte à côté des fonctions de découverte et de prédiction et, d’autre part, l’amélioration de ces processus ainsi que des environnements d’apprentissage. Enfin, la référence aux modèles d’analyse semble moins prégnante. Cette seconde définition semble réintroduire une dimension humaniste dans la conception des LA.

Depuis, les définitions ont évolué et se sont complexifiées, comme l’atteste la définition de Pardo, Poquet, Martinez-Maldonado et Dawson :

« The areas of learning analytics (LA) and educational data mining (EDM) explore the use of data to increase insight about learning environments and improve the overall quality of experience for students. The focus of both disciplines covers a wide spectrum related to instructional design, tutoring, student engagement, student success, emotional well-being, and so on. » (2017, p. 163).

Dans le domaine francophone, les traductions de l’expression anglaise, comme d’ailleurs les définitions, sont nombreuses et il n’y a pas de consensus parmi les chercheurs (Dioudi, 2018). Seclier (2017) par exemple en propose la définition suivante : « L’analyse de l’apprentissage (Learning Analytics) est une tendance émergente en France, surtout dans l’enseignement supérieur. Le but des Learning Analytics est d’analyser les traces numériques laissées par les apprenants afin de mieux les comprendre et d’optimiser l’apprentissage » [5]. Cette définition paraît cependant limitative, car l’approche, nous l’avons vu, vise aussi l’amélioration des environnements dans lesquels prennent place les processus d’apprentissage. Ce dernier aspect est rappelé par Venant (2017 et 2018), soulignant ainsi le lien entre les LA et un courant important en France, celui des recherches portant sur le design des EIAH. Seclier reviendra d’ailleurs en peu plus tard, en mars 2017, sur sa définition, introduisant alors l’optimisation des environnements comme un des objectifs des LA (2017).

Notons à ce propos que les traductions françaises du terme Learning Analytics, comme d’ailleurs le terme anglais original, méritent d’être interrogées. La traduction que proposent Labarthe et Luengo, « analytique des apprentissages numériques » ou encore l’expression « numérisation des activités d’apprentissage » (2016, p. 14) semblent impliquer que l’apprentissage soit ontologiquement numérique, ce qui n’est pas admissible dans la mesure où il s’agit toujours des processus d’apprentissages cognitifs, comportementaux, socio-affectifs humains. Certes, ces processus se déroulent dans un environnement partiellement numérique [6] et c’est dans celui-ci uniquement que l’apprenant laisse des traces numériques de son activité. Les fondements de cette métonymie fondatrice posent donc questions. Elles sont identiques à celles qui ont généré la discussion menée notamment par Cerisier (2011) à propos du terme de « culture numérique » auquel cet auteur propose de substituer celui de « culture à l’heure du numérique ». Une seconde traduction, largement partagée par les chercheurs francophones, « analyse de l’apprentissage » (voir ci-dessus, Seclier, 2017) contient un implicite assurément contestable : l’analyse de l’apprentissage s’identifierait au champ de l’analyse de l’apprentissage, qui serait par voie de conséquence née avec les environnements et les traces numériques. L’origine disciplinaire des LA (informatique, mathématiques, statistiques), en dehors du champ de l’éducation, peut expliquer, partiellement en tous cas, ces dénominations et les implicites qu’elles contiennent.

Labarthe et Luengo (2016) parlent aussi de « la science des données de l’apprentissage » qui renvoie sans doute aux expressions de langue anglaise « Data Sciences » et « Educational Data Mining ». Pour ma part, j’adopterai l’une des trois définitions proposées, en France, par le groupe de travail de la Direction du Numérique pour l’école (DNE) (Dioudi, 2018, p. 7) : « Analytique des activités d’apprentissage instrumentées » [7], dans la mesure où elle rend mieux compte des caractéristiques majeures des processus analysés. Cependant, pour alléger la lecture du texte, j’utiliserai aussi souvent l’acronyme LA.

L’analytique des activités d’apprentissage instrumentées – basée sur des techniques informatiques, mathématiques et statistiques – est souvent critiquée par les chercheurs en sciences humaines et, sociales, parmi lesquelles les humanités numériques et les sciences de l’éducation, pour des raisons épistémologiques et éthiques, dans la mesure où « le principe même du Data Mining est étranger aux théories sur le comportement humain comme la linguistique, la psychologie ou la sociologie » (Labarthe et Luengo, 2016, p. 6). Néanmoins, les LA suscitent un intérêt croissant depuis les années 1990 et de nombreuses applications sont aujourd’hui implémentées dans les EIAH, dans les LMS comme dans les ENT, tandis que des chercheurs de plus en plus nombreux y ont recours pour atteindre des objectifs parfois très différents.

Les EIAH, les dispositifs de formation partiellement ou entièrement à distance constituent un terrain empirique privilégié pour les approches qui relèvent de l’analytique des activités d’apprentissage instrumentées : énormes gisements de données numériques, massification des apprenants et des usages (songeons aux Mooc). Dans ce contexte se sont renforcées des problématiques propres à la distance : importance du soutien aux apprenants, nécessité de maintenir leur engagement et leur persistance dans la formation, adaptation et personnalisation de leur parcours d’apprentissage, etc. Toute la littérature s’accorde donc sur ce point : « Open and distance learning (ODL) institutions present an ideal context for the use of LA as, with their large student numbers and the increasing use of the internet and mobile technologies, they already have a very substantial amount of data available for analysis with analytics. » (Tak Ming Wong, 2017, p. 21).

Au fil des numéros de cette année, la rubrique abordera, dans une perspective globale et critique, cette approche émergente dans le cadre de la formation entièrement ou entièrement à distance : quels en sont les principaux domaines de recherche ? Quels en sont les avantages, mais aussi les limites ? Quels en sont les enjeux, des points de vue de l’épistémologie, de la pédagogie, de la méthodologie de la recherche, de l’ingénierie des dispositifs de formation et/ou des EIAH, mais aussi de celui des institutions ? De quelle(s) vision(s) d’avenir l’analytique des activités d’apprentissage instrumentées est-elle porteuse pour les différents acteurs (enseignants-chercheurs, apprenants, gestionnaires) ?

Un peu d’histoire, pour y voir plus clair

En 2016, Labarthe et Luengo ont publié un rapport8 très complet sur la généalogie, les objectifs, les approches et les méthodes, enfin les domaines des recherches caractéristiques de ce courant. Les auteurs remontent son origine aux méthodes de recherche nées dans années 60 à la rencontre de l’informatique et de la statistique. Les travaux donnèrent progressivement naissance à une discipline particulière, en 1989 d’abord sous le nom de Knowledge Discovery in Databases (KDD) – en français, « Extraction de Connaissances à partir des Données » (ECD) (Decourt, 2018) –, puis, dans les écrits de Hyashi (1996) sous l’appellation de « sciences des données » (Data Sciences). En 2003 est créé le Journal of Data Science (Labarthe et Luengo, op. cit.). Les auteurs rappellent la création de la revue « pionnière » Computers in Biology AMD Medicine en 1970 (Baker et Siemens, 2014, cités par Labarthe et Luengo, 2016, p. 6).

À ce sujet, on doit rappeler l’existence du courant de l’Evidence-Based Medicine (EBM), né dans les années 1980 et défini comme « l’utilisation consciencieuse, explicite et judicieuse des meilleures données disponibles pour la prise de décisions concernant les soins à prodiguer à chaque patient [...] une pratique d’intégration de chaque expertise clinique aux meilleures données cliniques externes issues de recherches systématiques » (Rey, 2005). En Angleterre, dans les années 1990, est née une approche pédagogique inspirée de l’EBM, l’Evidence-Based Education, dans un contexte d’un large mouvement de critique de la recherche traditionnelle en sciences de l’éducation considérée comme trop éloignée du terrain et de ses acteurs (Hargreaves, 1996). Mœglin qualifie cette approche de néo-industrielle dans la mesure où :

« Dans cette perspective, s’impose le recours aux techniques de profilage des étudiants couplant intelligence artificielle et traitement statistique ; y contribuent des technologies logicielles aptes à – ou, plus exactement, censées être aptes – à analyser quasiment en temps réel et à l’insu des individus concernés des masses importantes de données hétérogènes et complexes, désignées par le terme « Big Data. » (Mœglin, 2016, p. 30).

Cette approche sous-estime la complexité des processus sociaux et utilise des méthodes quantitatives et le recours à des indicateurs standardisés. Et c’est pour ces raisons qu’à l’époque déjà elle a fait l’objet de nombreuses critiques (Hargreaves, 1996).

Néanmoins, dès 1994, les méthodes issues du Data Mining sont popularisées dans le monde de la recherche en éducation notamment à cause de leur développement et de leurs succès dans le marketing et le monde de l’entreprise. Dans le premier cas, il s’agit de mieux connaître les habitudes, les goûts des consommateurs afin de personnaliser l’offre de vente qui leur est destinée (one-to-one relationship) tandis que dans le second, les Business Analytics [8] ont pour objectif de fournir des connaissances utiles à la prise des décisions relatives à la gestion de l’entreprise. On retrouve d’ailleurs cette tendance aujourd’hui sous le terme d’Academic Analytics, défini comme « the process of evaluating and analysing organisational data received from university systems for reporting and decision-making reasons » (Campbell et Oblinger, 2007).

Ces approches formelles, qui permettent d’entrevoir une nouvelle approche de l’analyse des processus d’apprentissage, suscitent donc l’intérêt croissant de chercheurs dans la continuité des travaux relatifs à l’intelligence artificielle, aux tuteurs intelligents et à la modélisation de l’usager dans la perspective d’un apprentissage adaptatif (Atkinson, 2015). Progressivement la discipline émerge en 2007 « sous le nom d’Educational Data Mining » à la conférence ITS (Intelligent Tutor Systems) de Montréal en 2000 (Gauthier, Frasson et VanLehn, 2000). Depuis 2008, EDM désigne une conférence internationale annuelle. » (Labarthe et Luengo, 2016, p. 8). En 2009 naît la première revue consacrée à ce champ. Le Journal of Educational Data Mining (JEDM) puis, en 2011, sont créés la Society for Learning Analytics Research (SoLAR) et le Journal of Learning Analytics (JLA) ainsi que leur propre conférence internationale Learning Analytic for Knowledge (LAK).

Ainsi se sont constituées deux communautés internationales, majoritairement anglophones, qui, bien qu’elles partagent de nombreux objectifs communs, développent des approches différentes (Labarthe et Luengo, 2016). Pour les membres d’EDM, la conception d’algorithmes vise ainsi à donner au logiciel la capacité de prédire les résultats d’un apprenant et de personnaliser sa stratégie d’apprentissage. Dans le sillon de SoLAR en revanche, modélisation et visualisation des données sont transmises aux acteurs de l’apprentissage (apprenant, personnels d’éducation, enseignants, etc.). Dans le premier cas, il s’agit donc « de réduire progressivement le système d’apprentissage à ses composantes principales, en modélisant séparément les apprenants, les tuteurs, les domaines enseignés » (p. 9), tandis que les chercheurs de la communauté SoLAR privilégieraient une approche systémique qui viserait à rendre les acteurs plus autonomes. En d’autres termes, concluent les auteurs : les résultats des recherches se trouvent réinvestis dans la machine, tandis que ceux de SoLAR sont restitués aux acteurs, notamment sous la forme de visualisation, de tableaux de bord, etc.

Les LA pourquoi faire ?

Quels sont alors les thèmes de recherche, les domaines d’application des LA ? En quelques années, le domaine s’est assez fortement structuré autour d’objets de recherche et d’approches clairement identifiés comme le montrent les contributions rassemblées dans le Handbook of Learning Analytics (Lang, Siemens, Wise et Gasevic, 2017), l’ouvrage Learning Analytic (Peña-Ayala, 2017) ou encore dans le rapport de Labarthe et Luengo déjà cité (2016). Les deux premiers de ces textes visent – c’est la règle du genre– une présentation aussi complète que possible du domaine ; le troisième s’appuie, quant à lui, sur un état de l’art et une métarecherche sélective, basée sur des articles récents issus des organes de publication des deux communautés scientifiques identifiées ci-dessus, EDM et SoLAR. Malgré leurs différences, celles-ci partagent en effets de nombreux objectifs comme un grand nombre de méthodes.

Il existe d’autres classifications encore, issues de méta-analyses, par exemple celle de Tak Ming Wong (2017) qui propose de regrouper les recherches selon six thématiques principales : « qualitative evaluation ; quantitative measures of use and attendance ; differentiation between groups of students ; differentiation between learning offerings ; data consolidation ; and effectiveness ». Cependant, l’objectif de ce texte de cadrage n’est pas d’offrir aux lecteurs un tableau détaillé et exhaustif des domaines d’application et des recherches de ces courants. Il ne s’agit pas non plus de mener une analyse comparée des différentes catégorisations proposées. Le lecteur intéressé se référera aux ouvrages cités.

Notons cependant que ces différentes classifications utilisent des critères qui, terme à terme, ne se correspondent pas entièrement. Par exemple, les recherches regroupées sous le label Learning Analytics Dashboards (Lang et al., 2017) pourraient trouver une place au sein des recherches se basant sur les données d’apprentissage et qui ont pour objet l’analyse des parcours – la première catégorie de recherches identifiée par Labarthe et Luengo (2016). En effet, l’une des applications de ces recherches consiste en la réalisation de tableaux de bord, renvoyant aux apprenants une visualisation de leur parcours d’apprentissage permettant de leur donner des informations pour qu’ils puissent développer leur métaréflexion et autoréguler leurs apprentissages. On pourrait faire le même raisonnement avec les recherches regroupées sous le nom de Personalization of Student Learning Support in Higher Education (Peña-Ayala, 2017) qui renvoient à la notion d’apprentissage adaptatif et aux travaux qui s’appuient sur des données similaires.

Prenons un autre exemple. Les recherches rassemblées par Labarthe et Luengo sous l’étiquette « Analyser le discours » (2016, p. 18) correspondent assez bien à celles identifiées par Lang et al. (2017) comme relevant des Natural Language Processing AMD Learning Analytics (p. 93-104) ou des Discourse Analytics (p. 105-114). Bonnin et Boyer (2015), quant à eux, proposent quelques exemples particuliers afin d’illustrer les apports des LA au processus d’apprentissage et aux dispositifs de formation (notamment, pour la personnalisation des ressources pédagogiques, l’identification des apprenants à risque, la prédiction des abandons dans les MOOC, les effets des tableaux de bord sur les résultats des apprenants, etc.). Mais tous ces exemples rentrent bien évidemment dans les catégories précédentes qui sont nées d’états de l’art exhaustifs ou de méta-analyses basées sur une sélection significative d’articles de recherche.

Par contre, les questions et les résultats des recherches catégorisées comme Multimodal Learning Analytics (Lang et al., 2017, p. 129-141) ou Emotional Learning Analytics (Lang et al., 2017, p. 115-127), s’ils relèvent bien de catégories particulières, peuvent contribuer aux recherches des autres catégories. Par exemple, la nature des données à traiter est, dans de très nombreux cas, multimodale et ce quelle que soit la problématique ou la perspective de recherche adoptée.

Il serait aussi possible de classer l’ensemble de ces recherches selon la visée, selon les objectifs qu’elles poursuivent. Certaines se veulent descriptives et cherchent à décrire des modèles ou des profils d’apprenants, les modèles d’interactions entre les apprenants, leurs tuteurs et enseignants. D’autres déploient une approche compréhensive et visent à améliorer les modèles théoriques du processus d’apprentissage, à mieux comprendre les effets de quels feedbacks sur quels apprentissages, etc. Certaines se centrent sur le diagnostic et la prédiction, afin d’identifier les apprenants à risque et de renforcer la persistance des apprenants dans le système de formation (dans les MOOC notamment). D’autres se définissent comme remédiatives ; elles cherchent adapter, éventuellement automatiquement, les parcours d’apprentissage, renvoyer aux apprenants, grâce aux tableaux de bord, une représentation de leurs parcours, de leur force et de leurs faiblesses, leur donner des informations leur permettant de développer leur métaréflexion et d’autoréguler leurs apprentissages. D’autres encore répondent au besoin de prescription, visant à définir des normes et des standards.

Les résultats de ces recherches s’adressent également aux enseignants et aux tuteurs dont l’activité de suivi des apprenants se trouve ainsi mieux documentée et par là même grandement facilitée. Nous connaissons tous les outils de tracking, des modules de statistiques embarqués dans les LMS que nous utilisons peu ou prou. Enfin, les institutions de formations sont elles aussi intéressées par des modèles leur permettant de prévenir l’abandon et les échecs des apprenants d’une part et, d’autre part, l’amélioration de performances des apprenants. À ces demandes, répondent aujourd’hui les nombreuses applications commerciales que l’on peut intégrer dans les plateformes.

Regards critiques sur les LA

Épistémologie et méthodologie

L’analyse des activités d’apprentissage instrumentées ne fait pas l’unanimité parmi les chercheurs parce que, Labarthe et Luengo l’ont rappelé (voir ci-dessus), cette approche exploratoire qui propose une modélisation a posteriori ne correspond pas aux approches classiques des sciences humaines et sociales (SHS) qui cherchent à valider des hypothèses fondées sur un modèle théorique a priori. Ce débat touche donc toutes les sciences humaines et doit être envisagé dans le contexte global de l’analyse des données massives, de la Machine Learning et de l’importance croissante des algorithmes.

Les Big Data constituent « une véritable mutation de notre potentiel d’analyse » dans la mesure où elles permettent de faire émerger de nouvelles données, de nouvelles hypothèses, de « nouvelles façons de penser des problèmes jusque là inaccessibles à notre entendement ». (Azemar, Ben Henda et Hudrisier, 2015, p. 3). Pour ces auteurs, il s’agit d’un changement technoculturel majeur, d’un « retournement copernicien de l’intelligence d’analyse » (p. 8) : ils rappellent en effet que l’imprimerie, grâce à ses progrès techniques (standardisation de la mise en page comme de l’écriture grecque) a rendu possible l’élaboration d’une connaissance et d’une intelligence collectives sans lesquelles jamais Copernic n’aurait pu faire ses propres découvertes et construire le modèle astronomique héliocentrique.

Avec l’analyse des données massives, les modèles sont issus de l’exploration des données et non de théories préalablement construites par les disciplines des SHS. Les techniques statistiques utilisées, qui trouvent leur origine dans les méthodes d’analyse factorielle et de classification hiérarchisée de Benzekri [9] (1973) comme dans leurs développements ultérieurs, permettent en effet « la découverte de modèles à l’aide d’un processus algorithmique d’exploration de modèles » (Saporta, s.d.). Il ne s’agit donc plus d’estimer ou de tester la validité de modèles construits a priori, mais de mettre en œuvre une « heuristique de la pertinence des relations liant des ensembles d’items automatiquement proposée par l’outil d’analyse » (Azemar et al., 2015, p. 8).

Ces auteurs, qui situent la problématique des données massives dans le contexte général des humanités numériques, affirment, suivant en cela Homi Bhabha, que « les sciences humaines sont les sciences princeps de l’interprétation » (p. 2). L’interprétation serait certes la base de la démarche scientifique, mais en même temps, elle générerait aussi, « à travers l’exercice du jugement d’importants travaux (d’art, de littérature, de musique, de sculpture, d’architecture, etc.) […] de la valeur ajoutée conceptuelle, sociale et culturelle. » (p. 2). Or, le risque principal que l’analyse des données massives ferait courir à nos fondements épistémologiques serait de substituer à l’apport épistémique de l’humain, à son esprit critique d’analyse, la puissance de calcul d’algorithmes automatiques. S’il est vrai que la puissance de calcul et de traitement des données de l’ordinateur est supérieure celle de l’humain, elle n’en bouscule pas moins nos habitudes épistémiques : il faudra apprendre à composer, à apprivoiser, avec cette nouvelle force interprétative de l’algorithme.

Azemar et al., citant Björn-Olav Dozo (2008), rappellent cependant, dans leur article l’usage que fit de l’analyse factorielle de correspondances pour la description de l’espace social, dans « La distinction » (1979). Modèles a priori et a posteriori peuvent être complémentaires et contribuer à une analyse globale qui ne fait fi ni de la science ni de la « force interprétative des sciences humaines de l’humain » (Azemar, 2015, p. 2).

Dans leur présentation du numéro de la Revue française de sociologie, « Big data, sociétés et sciences sociales », Bastin et Tubaro (2018, p. 375, citant Anderson, 2008) estiment que des raisons épistémologiques que l’on peut considérer comme semblables à celles évoquées ici fondent l’opposition à l’utilisation des ces données et à ses méthodes. Les tenants de ce courant redoutent « l’obsolescence et la méthode scientifique d’analyse des données, appelées à être remplacées par des méthodes algorithmiques sans lien fort avec les théories sociales » (ibid.).

Signe de cette évolution, les gisements de données remplaceraient progressivement les données d’enquêtes, questionnaires et entretiens qui ont constitué longtemps sa « juridiction » sur tout un pan de la connaissance de la société (Bastin et Tubaro, 2018, p. 376). Il en va sans doute de même pour les psychologues et les pédagogues. Ces derniers, qui ont beaucoup œuvré à systématiser leurs approches empiriques notamment en développant des approches mixtes et en construisant des dispositifs de recherche semi-expérimentaux afin d’accéder à plus de crédit, à plus de « scientificité », se verraient-ils ainsi privés de leurs acquis récents par un « déluge de données » (Anderson, 2018) et des méthodes quantitatives par trop formelles ?

Une deuxième interrogation surgit alors dans ce débat, celle de la nature même des données, leur caractère formel, leur validité, autrement dit leur capacité à mesurer « exactement se qu’elles sont censées mesurer » (Jones, 2000, p. 29). Le danger ne serait-il pas de voir un champ de recherche dans lequel les hypothèses seraient tributaires de la nature des données disponibles » (Plantin et Monnoyer-Smith, 2013, p. 61, cités par Ouakrat et Mesangeau, 2016, paragr. 7)  ? Les données disponibles dans les plateformes de distribution de Mooc ou d’un LMS sont en effet celles que l’environnement rend disponibles et le chercheur n’a sans doute aucune marge de négociation pour en obtenir d’autres, plus adaptées aux recherches particulières. Bastin et Tuparo (2018) soulignent enfin un autre écueil : les données pourraient être biaisées par les API (Application Programming Interfaces) embarquées dans les plateformes et, sur lesquelles bien évidemment le chercheur n’a aucun contrôle possible.

Les traces brutes telles qu’elles sont captées par les environnements, les « inscriptions » (Settouti, Prié, Marty et Mille, 2007) d’activités, constituent rarement des données immédiatement utiles pour les chercheurs. La nécessité d’une reconstruction des traces brutes, voire de leur modélisation, à différents niveaux de recherche, est d’ailleurs bien identifiée dans la littérature (notamment Settouti et al., 2007 ; Peraya, Batier, Paquelin, Rizza et Vieira, 2009 ; Rogers, 2015 ; Champain, Mille et Prié, 2013 ; Ouakrat et Mesangeau, 2016 ; Pierrot, 2018).

De plus, si les données numériques peuvent contribuer à la compréhension et à la modélisation des activités et de comportements de sujets humains dans les environnements numériques et les plateformes, ces données « demeurent une traduction très partielle et limitée des pratiques. Elles décrivent des liens sociaux de façon restreinte et circonstanciée et ne représentent qu’un pan de l’activité des individus. De plus, elles ont tendance à effacer le contexte social et biographique dans lequel s’inscrivent les individus pour se concentrer sur une forme particulière de l’activité, celle qui peut être enregistrée. Les traces captées et rendues disponibles aux chercheurs en sciences de l’information et de la communication (SIC) sont construites et redéfinies par les modalités de prélèvement et de mise en forme de l’information ». Il faut donc « re-socialiser » les données numériques ainsi que les indicateurs construits à base de traces par une approche qualitative plus classique et en exploitant « la réflexivité que peuvent produire les visualisations de ces données pour l’enquêteur comme pour l’enquêté » (Ouakrat et Mesangeau, 2016, § 2).

Ce qui est vrai pour les chercheurs en sciences de l’information et de la communication l’est tout autant pour ceux des sciences de l’éducation, en technologies éducatives et en ingénierie. Dans cette perspective, la mise en œuvre, de plus en plus courante d’une méthodologie mixte [10], qui triangule les méthodes quantitatives et qualitatives – on songe, par exemple, aux entretiens d’explicitation (Vermersch, 1994) – doit être considérée comme la piste la plus prometteuse.

Les effets positifs des LA sur l’apprentissage et sur la gestion des institutions de formation

Les nombreux articles scientifiques, publications de vulgarisation et contributions à des conférences consultés [11] lors de l’élaboration de ce texte de cadrage font état dans leur revue de la littérature des multiples avantages de l’analyse des activités d’apprentissage instrumentées pour l’apprenant, les enseignants et les institutions. Dans cette perspective, la méta-analyse de Tak Ming Wong (2017) recense, à partir de 43 articles, les nombreux bénéfices qu’apportent l’analytique des activités d’apprentissage instrumentées ainsi que les problèmes que rencontrent les instituions de formation ouverte et à distance auxquels les LA sont supposés apporter des solutions efficaces. L’auteur montre que les LA ont pu identifier de façon précoce les apprenants à risque, ceux qui risquent de décrocher. Les équipes pédagogiques ont pu ainsi proposer plus rapidement des mesures de remédiation et de soutien personnalisées (« providing personalized assistance for students » et « timely feedback and intervention ». Dans ces cas, le taux d’abandon a baissé tandis que les résultats académiques des apprenants (notes, scores, etc.) ont augmenté significativement. En ce qui concerne directement la gestion des institutions, l’analyse des données massives a permis aussi de documenter et de mieux informer les responsables dans la prise de leurs décisions (voir ci-dessus, Academic Analytics). L’analyse des activités d’apprentissage instrumentées particulièrement du comportement des apprenants et de leurs parcours a aussi permis d’accroître le rapport entre le coût et l’efficacité de la formation, notamment par la génération automatique de messages de soutien. Enfin, grâce aux LA, les institutions comme le personnel académique ont pu évaluer l’efficacité des pédagogies mises en œuvre d’une part et, d’autre part, des environnements afin de les améliorer.

Dans sa conclusion, l’auteur réaffirme que les résultats des recherches étudiées montrent que l’utilisation des LA peut produire des effets favorables tant pour les apprenants que pour les institutions de formations ouvertes et à distance. Néanmoins, il nuance son jugement avançant plusieurs arguments dont j’en retiendrai un ici. À propos des tableaux de bord par exemple, on aurait tort de croire que les visualisations du comportement de l’apprenant qui lui sont présentées suffisent à changer son comportement. Citant les travaux de Gasevic, Dawson et Pardo (2016), Tak Ming Wong défend l’idée selon laquelle un apprentissage de la lecture de ces représentations complexes est absolument nécessaire à leur compréhension et à leur appropriation. En conséquence, les effets de l’analytique des activités d’apprentissage instrumentées renforceraient dans ce cas le poids du facteur humain et sans doute le rôle du tutorat dans le processus d’apprentissage. Tak Mig Wong explique aussi que l’évaluation des effets de la mise en œuvre d’une approche basée sur l’analyse « data-driven » est difficile, même si l’analyse compare groupe expérimental et groupe témoin, car les causes des effets observés sont vraisemblablement multiples : il est donc fort difficile d’identifier le rôle et la part réelle des LA dans les effets constatés. Ce type de critique n’est pas neuf. La première rappelle que les représentations graphiques ne sont pas immédiatement lisibles et compréhensibles par tout un chacun, ce qu’ont confirmé plus de soixante ans de recherches en sémiotique visuelle et en littéracie médiatique et audiovisuelle. Quant aux tentatives d’évaluation de l’impact de dispositifs technopédagogiques dans un dispositif de formation, elles ont prêté le flanc à de semblables critiques dès lors que l’on considérait le dispositif de formation dans son ensemble, comme un tout indistinct (notamment, Peraya, 2010).

Les points de vue de l’éthique et la déontologie

Du point de vue éthique, les critiques les plus courantes dont fait l’objet l’analytique des activités d’apprentissage instrumentées relèvent de celles, plus générales, portées à l’encontre de l’analyse des données massives. La première concerne une forme d’algorithmisation de la société au risque d’une quantification aveugle de l’humain : « l’apparition d’une nouvelle forme de société « dirigée par les données » (Pentland, 2012), bouleversant nos façons de vivre, de travailler et de dépenser (Mayer-Schönberger et Cukier, 2013), soulevant des questions éthiques inédites (Boyd et Crawford 2012) et annonçant l’avènement d’une nouvelle « gouvernementalité du social (Rouvroy et Berns, 2013) » (Bastin et Tubaro, 2018, p. 375). Le second type de résistances relève des craintes des usagers comme de celles des chercheurs relativement à l’usage qui est fait des données : à quoi et à qui servent-elles ? Comment en est garanti l’anonymat ? Comment sont-elles protégées de toute utilisation commerciale ? La typification des apprenants, comme par exemple l’identification de profils d’étudiants à risque pourrait être utilisée, plutôt que pour favoriser l’apprentissage adaptatif, pour contribuer au renforcement et à la reproduction des discriminations. Si les données de la plateforme FUN (France université numérique), par exemple, sont protégées contre toute commercialisation, d’autres acteurs moins scrupuleux pourraient être tentés de revendre les données recueillies aux fins de marketing (Chatellier, 2017).

À ce propos, Bastin et Tubaro (2018) soulignent une dissymétrie, tant dans la distribution des données que dans la production de celles-ci qui « est le résultat d’un système complexe de rapports socio-économiques fortement asymétriques » (p. 379). L’éducation constitue d’ailleurs un marché potentiellement très important [12] et porteur où s’affrontent les logiques des acteurs des secteurs non marchand et marchand, sachant que le domaine académique échappe de moins en moins aux logiques de ce dernier notamment à cause des dépôts de brevets industriels issus de la recherche universitaire.

Au cœur de ces débats, la question de la protection des données personnelles est toujours présente. En effet, les données récoltées renseignent sur toutes les activités privées des individus – quel que soit le niveau d’enseignement dans lequel ils s’insèrent, qu’ils soient mineurs ou majeurs – dans et hors du lieu de formation, à travers les objets connectés (téléphones, montres, systèmes de géolocalisation), réseaux sociaux, les ENT ou les LMS, des plateformes de ressources éducatives ou encore toute activité sur le Web.

De nombreux pays ont adopté des législations afin de protéger les données personnelles : aux États unis en 1974 le FERPA (Family Educational Rights and Privacy Act ), en France la Loi informatique et libertés en 1978, au Royaume-Uni le data Protection Act en 1998 (Labarthe et Luengo, 2016). En Belgique, la loi relative à la protection de la vie privée (1992) a été modifiée plusieurs fois, d’abord en 1998 pour se mettre en conformité avec les directives européennes de 1995, puis en 2001. En France, en 2017, la Commission Nationale de l’Informatique et des Libertés (CNIL) plaidait, dans sa Charte de confiance relative à l’encadrement des services numériques dans l’école, pour un « encadrement juridique contraignant » en ce qui concerne la non-utilisation des données scolaires à des fins commerciales, à leur récolte, leur traitement et leur stockage. Elle recommande le respect de normes et règlements en la matière (Chatellier, 2017, p. 2).

Mais en même temps, Labarthe Luengo (2016) et dénoncent les pressions des lobbies qui souhaitent, dans « une perspective néo-libérale d’autonomisation […] une émancipation des consommateurs », autrement dit, chacun déciderait seul de l’usage qu’il autorise ou non de ses propres données personnelles en lieu et place du législateur ou de la CNIL. La Loi française sur la République numérique du 7 novembre 2016 affirmait clairement le principe de « la maîtrise par l’individu de ses données » (CNIL, 2016). On peut se demander ce qu’apportera concrètement le Règlement général sur la protection des données (RGPD) qui a été adopté par tous les pays européens en mai 2018.

De leur côté, Labarthe et Luengo (2016) signalent plusieurs initiatives comme le projet français HUBBLE qui a pour objectif « d’établir des contextes d’observation, des indicateurs, des processus d’analyses ouverts et discutables » (p. 22). En Europe, la CNIL et ses homologues européennes regroupées dans le G29 (Article 29 Working Party [13]) œuvrent dans la même direction et ont proposé des recommandations que chaque institution porteuse d’un projet LA devrait s’engager à respecter. Ces recommandations s’organisent autour de quatre axes : le niveau de responsabilité dans l’accès et le traitement des données ; une accessibilité différenciée aux données selon le statut et le rôle de chaque acteur du système éducatif ; une étanchéité tant horizontale que verticale du système informatique ; l’impossibilité de détourner l’usage des données recueillies sans le consentement de leurs propriétaires (Labarthe et Luengo, 2016, p. 26-27).

Dans ce contexte, la protection des données des mineurs est devenue un enjeu de politique nationale tandis que la littéracie numérique, la compréhension et l’évaluation des risques de perdre la maîtrise de ses données personnelles devraient être une priorité surtout pour les mineurs (Labarthe et Luengo, 2016).

Les exigences de l’éthique et de la déontologie impliquent de nouvelles modalités de conception des applications embarquées destinées à récolter à traiter et à diffuser ces données. Dans cette perspective, Mille et Pérès-Labourdette Lembé (2016) proposent de concevoir des dispositifs qui intègrent « une dimension éthique par construction » (p. 2). Il s’agirait d’instrumenter la démarche éthique elle-même ; il faudrait « que ce soient les instruments de collecte, de traitement et de diffusion des données personnelles d’apprentissage qui doivent être à leur tour instrumentés pour qu’il soit possible des les suivre, les comprendre, les adapter et d’une certaine façon les concevoir en coopération entre apprenants, parents, formateurs, responsables de formations, chercheurs… » (ibid.). Dans le domaine de la recherche, « la notion d’accès ouvert » doit s’imposer tandis que « la capacité à accéder de manière intelligible aux données et à leur exploitation doit être donnée » (Orphée, sous 4.1.2). Cette nécessité de transparence revient comme un leitmotiv dans la littérature (notamment Labarthe et Luengo, 2016 ; récemment Romero, 2019).

Si les protocoles de recherche sont relativement bien encadrés par les commissions d’éthique facultaires ou universitaires, le respect de ces exigences peut placer le chercheur dans une situation paradoxale. Le droit qu’ont les apprenants à disposer de leurs propres données peut entrer en contradiction avec la nécessité de recueillir des données. L’observation des usages du smartphone par exemple, est extrêmement difficile à réaliser parce que le téléphone appartient fondamentalement à la sphère individuelle et privée, même s’il sert effectivement aussi à des fins scolaires, académiques ou professionnelles. Dans sa thèse récente consacrée aux pratiques numériques juvéniles, Pierrot (2018) a souhaité installer un logiciel de traçage sur le téléphone des élèves participant à la recherche. Cette implémentation était bien évidemment soumise à leur acceptation préalable : en 2015, 47 élèves sur 161 se sont portés volontaires et, en 2016, 65 élèves sur 184 ont accepté. Certes, dans cette recherche portant sur des classes de lycée, l’effectif des élèves est loin d’atteindre celui des Mooc. Bien qu’il ne concerne pas directement les formations à distance, cet exemple illustre bien le conflit d’intérêts que peut rencontrer tout chercheur quand il désire respecter les données personnelles des participants à ses recherches alors que celles-ci portent, justement, sur leurs comportements à la limite de leur sphère privée, sinon confondue avec celle-ci.

Enfin, pour clôturer cet aspect de la discussion, disons que la question principale porte sur l’usage des LA plus que sur leur caractère intrinsèque. Autrement dit, ce qui est en débat est de savoir et de pouvoir contrôler qui en fait quoi. Les LA comme les Academic Analytics, peuvent fort bien être utilisées, si elles ne le sont pas déjà, comme le support d’un processus de rationalisation et d’industrialisation de la formation (Moeglin, 2016). Dans ce cas, elles ne favoriseraient ni les apprenants ni les enseignants.

Quel(s) futur(s) pour les LA ?

Le projet Learning Analytics Community Exchange (LACE) s’est donné pour tâche de mener une consultation sur l’évolution des Learnings Analytics à l’horizon 2025 (Ferguson, Brasher, Low, Griffiths et Dracher, 2016). Cette enquête de prospective a été menée en 2015 auprès de 103 experts internationaux sur la base de la méthode Delphi qui, selon Ferguson et al. (2016, sous 3), présente les avantages suivants : « Delphi does not seek consensus, but rather to understand diverse views of the preferred future ». Dans un premier temps, les membres du consortium LACE ont été amenés à définir des scénarios décrivant le futur des LA. Parmi ceux-ci, huit scénarios, considérés comme pertinents par rapport aux acteurs concernés et aux thématiques de la communauté (technologie, vie privée éthique et pédagogie) ont été sélectionnés pour la suite de l’étude. La deuxième phase a consisté en un sondage en ligne d’experts et de volontaires des enseignements secondaire et supérieur ainsi que du monde du travail ayant répondu à un appel lancé par LACE. La troisième étape a concerné les décideurs et s’est orientée vers l’évaluation de la faisabilité et de la désirabilité ainsi qu’aux conditions indispensables à leur réalisation. L’étape finale a consisté en une analyse stratégique des résultats.

Les huit scénarios retenus pour l’année 2025 étaient les suivants : 1) classrooms monitor the physical environment to support learning and teaching ; 2) personal data tracking supports learning ; 3) analytics is rarely used in education : 4) individuals control their own data ; 5) open systems for learning analytics are widely adopted : 6) learning analytics systems are essential tools of educational management ; 7) analytics support self-directed autonomous learning ; 8) most teaching is delegated to computers (Ferguson et al., 2016 sous 4). Sans entrer dans les détails de cette analyse, épinglons quelques résultats synthétisés par Labarthe et Luengo (2016) : les décideurs devraient soutenir une recherche ouverte, ancrée sur des modèles pédagogiques humanistes ; il faudrait dissocier l’analytique des activités d’apprentissage instrumentées de l’automatisation de l’apprentissage ; une régulation de l’usage des données personnelles est nécessaire, mais cela suppose la possibilité des gouvernements d’imposer de telles mesures ; le contrôle des données par les individus eux-mêmes est un scénario perçu à la fois comme très désirable et, pour la majorité, largement faisable ; les préoccupations éthiques à propos des LA sont importantes au point que certains craignent que leur application puisse être entravée par un rejet de toute collecte intrusive de données personnelles ; il semblerait exister de grandes différences entre les perceptions des experts et des praticiens ; dans tous les cas, développer la recherche-action autour des LA est une priorité comme le rapprochement entre les professionnels de l’éducation et les informaticiens (p. 28-29).

Quelques questions pour ouvrir le débat

De nombreuses questions ont été abordées dans cette (trop) brève présentation de la thématique de l’analytique des activités d’apprentissage instrumentées et de ses enjeux en particulier pour les acteurs de dispositifs et d’institutions de formation entièrement ou partiellement à distance. Dans les trois prochains numéros de la revue, des collègues seront invité(e)s à développer certains aspects évoqués ici, à croiser leur regard et à confronter leur point de vue adossé à des cadres disciplinaires différents (psychopédagogie, informatique, statistique, sociologie). Dans une perspective la plus ouverte possible, il leur sera demandé de répondre aux questions suivantes que j’emprunte aux différents auteurs cités parce qu’elles résument assez bien, sans aucune prétention à l’exhaustivité, mon propos et l’objectif de cette rubrique.

Tout d’abord, « quelles méthodes de collecte massive de données personnelles respectent une démarche éthique, alors qu’il n’existe que peu de moyens d’en contrôler l’usage ? Comment les acteurs de l’apprentissage peuvent-ils s’approprier, comprendre, contrôler, adapter les algorithmes de calcul pour en juger la valeur ? L’usage des indicateurs peut exclure, discriminer, juger, etc. Comment anticiper ces usages ? Est-ce que l’on peut étudier, concevoir puis calculer un indicateur sur n’importe quoi sous prétexte que c’est possible ? D’une manière générale, comment faire en sorte qu’une démarche éthique soit garante d’une formation et d’une recherche de qualité ? » (Mille et Pérès-Labourdette Lembé, 2016, p. 1). Dans cette optique et faisant écho à la question posée par G. Bastin et P. Tubero (2018) à propos des sociologues, il leur est aussi suggéré de répondre à la question de savoir en quoi les LA ont affecté la pratique de la recherche, leurs environnements numériques de travail ainsi que leurs métiers d’enseignant et celui de leurs apprenants.

Enfin, dans quelle mesure l’analytique des activités d’apprentissage instrumentées ne concourent-elles pas aussi à l’accélération de l’industrialisation et marchandisation de la formation ? Tous les « ingrédients » nécessaires – rationalisation, technologisation et idéologisation (Mœglin, 2016) – paraissent en effet bien présents. Au-delà de la question du respect des données personnelles se profile celle des rapports entre les secteurs marchand et non marchand, privé et public. Mais aussi entre les entreprises, les géants de l’économie numériques, le marché, les académiques et les décideurs politiques. Ces derniers « prendront-ils la mesure des financements et des projets encore nécessaires à l’adaptation de la recherche aux pratiques de terrain et à la dissémination d’une culture de l’analytique des données au sein du corps enseignant ? Ensuite, ces décideurs parviendront-ils à élaborer un cadre législatif viable, souple, mais équitable, respectant le droit des usagers à suspendre la collecte des données et préservant leur confidentialité ? Enfin, ces décideurs parviendront-ils, au-delà d’une logique mercantile et de technologies propriétaires, à promouvoir des standards, des projets ouverts ? » (Labarthe et Luengo, 2016, p. 31).

Bibliographie

Anderson, C. (2008). The End of Theory : The Data Deluge Makes the Scientific Method Obsolete. Récupéré le 13 décembre 2018 de : https://www.wired.com/2008/06/pb-theory/

Atkinson, S. P. (2015). Adaptive Learning and Learning Analytics : a New Learning Missing Paradigm. BPP Working Paper, 1-9. Récupéré le 11 février 2019 de : https://i.unisa.edu.au/siteassets/staff/tiu/documents/adaptive-learning-and-learning-analytics---a-new-learning-design-paradigm.pdf

Azemard, G., Ben Henda, M. et Hudrisier, H. (2015, octobre). Les Big Data : pistes de réflexion historiques, éthiques et épistémologiques pour l’appropriation sociale ; retours et attentes d’expérimentations en Learning Analytics. Conférence ORBICOM : Données ouvertes, Media et citoyenneté. Mexico : Universidad Iberoamericana. Récupéré le 12 décembre 2018 de : https://archivesic.ccsd.cnrs.fr/sic_01321534/document

Bastin, G. et Tubaro, P. (2018). Le moment BIG DATA des sciences sociales. Revue française de sociologie, 3(59), 375-394. Récupéré le 11 février 2019 de : https://www.cairn.info/revue-francaise-de-sociologie-2018-3-page-375.htm

Benzekri, J.-P. (1973). L’analyse des données. Paris : Dunod

Bonnin, G. et Boyer, A. (2015). Apport des Learnings Analytics. Administration & Éducation, 2(146), 125-130. Récupéré le 11 février 2019 de : https://www.cairn.info/revue-administration-et-education-2015-2-page-125.htm

Campbell, J.-P. et Oblinger, D.G. (2007). Academic Analytics : A New Tool for a New Era. EDUCATE Review, 42(4), 40-57. Récupéré le 10 février 2019 de : https://er.educause.edu/articles/2007/7/academic-analytics-a-new-tool-for-a-new-era

Cerisier, J.-F. (2011). Acculturation numérique et médiation instrumentale. Le cas des adolescents français. Poitiers : Université de Poitiers. Récupéré le 20 décembre 2018 de : https://tel.archives-ouvertes.fr/tel-00922778/document

Champion, P.A., Mille, A. et Prié, Y. (2013). Vers des traces numériques comme objets informatiques de premier niveau : une approche par les traces modélisées. Intellectica, 1(59), 1-33. Récupéré le 13 février 2019 de : https://liris.cnrs.fr/Documents/Liris-5998.pdf

Chatelier, R. (2017). Learning Analytics : quelles sont les données du problème ? CNIL. Récupéré le 25 janvier 2019 de : https://linc.cnil.fr/fr/learning-analytics-quelles-sont-les-donnees-du-probleme

Commission Nationale de l’Informatique et des Libertés (2016, 17 novembre). Ce que change la loi pour une République numérique pour la protection des donnes personnelles. Récupéré le 11 février 2019 de : https://www.cnil.fr/fr/ce-que-change-la-loi-pour-une-republique-numerique-pour-la-protection-des-donnees-personnelles

Decourt, O. (2018). Le data mining, qu’est-ce que c’est et comment l’appréhender ? Récupéré le 13 décembre 2018 de : https://od-datamining.com/knwbase/le-datamining-quest-ce-que-cest-et-comment-lapprehender/

Dioudi, M. (dir.) (2018). Learning Analytics : terminologie du Learning Analytics. Direction du Numérique pour l’Éducation, ministère de l’Enseignement supérieur de la Recherche et de l’Innovation (France). Récupéré le 13 décembre 2018 à : http://techne.labo.univ-poitiers.fr/gtnum2/file/axe6/DNE-LA-GTnum2_Axe6-Livrable pour les DANs-Mars 2018.pdf

Ferguson, R., Brasher, A., Low, D., Griffiths, D. et Dracher, H. (2016). Learning Analytics : Visions of the Future. Récupéré le 15 janvier 2019 de : https://oro.open.ac.uk/45312/1/LAK16 %20LACE %20panel %20final.pdf

G29 (2017). Guidelines on Data Protection Impact Assessment (DPIA) and determining whether processing is “likely to result in a high risk” for the purposes of Regulation 2016/679. Récupéré le 15 janvier 2019 de : https://ec.europa.eu/newsroom/document.cfm ?doc_id =44137

Gasevic, D., Dawson, S. et Pardo, A. (2016). How do we start ? State and directions of learning analytics adoption. International Council for Open and Distance Education. Récupéré le 21 février 2019 de : https://icde.memberclicks.net/assets/RESOURCES/dragan_la_report %20cc %20licence.pdf

Gauthier, G., Frasson, C. et VanLehn, K. (dir.) (2000), Intelligent Tutoring Systems. Berlin : Springer.

Hargreaves, H.D. (1996). Teaching as a Research-Based Profession. Possibilities and Prospects. London : Teacher Training Agency. Récupéré le 7 février 2019 de : https://eppi.ioe.ac.uk/cms/Portals/0/PDF %20reviews %20and %20summaries/TTA %20Hargreaves %20lecture.pdf

Jones, R. A. (2000). Méthodes de recherches en sciences humaines. Bruxelles : De Boeck.

Labarthe, H. et Luengo, V. (2016). L’analytique des apprentissages numériques. Université de Paris 6, Laboratoire d’Informatique de Paris 6 (LIP6). Récupéré le 18 décembre 2018 de : https://hal.archives-ouvertes.fr/hal-01714229/document

Lang, C., Siemens, Wise, D. et Gasevic, D. (dir.) (2017). Handbook of Learning Analytics. Society for Learning Analytics Research. Récupéré le 13 décembre 2018 de : https://solaresearch.org/hla-17/

Mille, A. et Pérès-Labourdette Lembé, V. (2016). Learning Analytics : vers une toque par construction des EIAH. Récupéré le 18 décembre 2018 de : https://analysedestraces.files.wordpress.com/2016/06/mille_et_al-orphee-rdv.pdf

Mœglin, P. (dir.) (2016). Industrialiser l’éducation. Textes historiques commentés. Saint-Denis : Presses universitaires de Vincennes.

Orphée (2018). Rapport final du Projet de réseau ANR Orphée. Récupéré le 11 février 2019 de : http://atief.fr/DOCS/Rapport_Final_Orphee_Juin_2018.pdf.

Ouakrat, A. et Mésangeau, J. (2016). Resocialiser les traces d’activités numériques : une proposition qualitative pour les SIC. Revue française des Sciences de l’information et de la communication, 8. Récupéré le 14 février 2019 de : https://journals.openedition.org/rfsic/1795

Pardo, A., Poquet, A., Martinez-Maldonado, R. et Dawson, S. (2017). Provision of Data-Driven Student Feedback in LA & EDM. Dans C. Lang, G. Siemens, D. Wise et D. Gasevic (dir.), Handbook of Learning Analytics (p. 163-174). Society for Learning Analytics Research. Récupéré de : https://solaresearch.org/hla-17/

Peña-Ayala, A. (2017). Learning Analytics : Fundaments, Applications, and Trends. A view of the Current State of the Art to Enhance e-learning. New York : Springer.

Peraya, D., Batier, C., Paquelin, D., Rizza, C. et Vieira, M. (2009). Les traces d’usage et l’usage des traces : le rôle des traces dans l’orientation stratégique des unités de développement du cyber apprentissage et des dispositifs hybrides dans l’enseignement supérieur. Dans : F. Larose et A. Jaillet (dir.). Le numérique dans l’enseignement et la formation. Analyses, traces et usages (p. 37-80). Paris : L’Harmattan.

Peraya, D. (2010). Médias et technologies dans l’apprentissage : apports et conflits. Dans : Charlier, B. et Henri, F. (dir.). Apprendre avec les technologies (p. 23 49). Paris : Presses universitaires de France.

Peraya, D. et Bonfils, P. (2014). Détournements d’usages et nouvelles pratiques numériques : l’expérience des étudiants d’Ingémédia à l’Université de Toulon. Revue des sciences et techniques de l’information et de la communication pour l’éducation et la formation, 21. Récupéré le 15 décembre 2018 de : http://sticef.univ-lemans.fr/num/vol2014/19-peraya-epa/sticef_2014_NS_peraya_19.htm

Pierrot, L. (2018). Circulation sociale des pratiques numériques juvéniles et genèse instrumentale (thèse de doctorat non publiée, Université de Poitiers, Poitiers, France).

Poellhuber, B., Roy, N. et Moukhachen, M. (2017). Les stratégies d’apprentissage et de collaboration déployées par des utilisateurs-clés dans le MOOC « Innovations technopédagogiques en enseignement supérieur (ITES), Raisons éducatives, 1(21), 209-228. Récupéré le 4 janvier 2019 de : https://www.cairn.info/revue-raisons-educatives-2017-1-page-209.htm

Prieto, L.P., Sharma, K., Dillenbourg, P. et Jesús (2016). Teaching analytics : towards automatic extraction of orchestration graphs using wearable sensors. Dans : Proceeding of LAK ’16 Proceedings of the Sixth International Conference on Learning Analytics & Knowledge (p. 148-157). ACM : New York. Récupéré le 27 février 2019 de : http://delivery.acm.org/10.1145/2890000/2883927/p148-prieto.pdf?ip=129.194.216.159&id=2883927&acc=ACTIVE%20SERVICE&key=FC66C24E42F07228%2E1F81E5291441A4B9%2E4D4702B0C3E38B35%2E4D4702B0C3E38B35&__acm__=1551712664_bf2436c5103f90f48678a61ab92ef11a

Rey, O. (205). Autour de l’Evidence-based Education, Eduveille. Récupéré le 16 décembre 2018 de : https://eduveille.hypotheses.org/ ?s =evidence+based+ %C3 %A9ducation

Romero, M. (2019, janvier). Enjeux d’apprentissage, d’enseignement et d’organisation des formations hybrides et à distance. De l’engagement cognitif à l’engagement citoyen (socio)créatif. Conférence inaugurale prononcée lors du colloque Éducation 4.1  ! CNED, DMS, Poitiers, France.

Rogers, T. (2015). Critical realism and learning analytics research : epistemological implications of an ontological foundation. Dans : LAK ’15 Proceedings of the Fifth International Conference on Learning Analytics and Knowledge (p. 223-230). Récupéré le 25 janvier 2019 de : https://dl.acm.org/citation.cfm ?id =2723631

Saporta, G. (s.d.). Introduction au data Mining à l’apprentissage statistique. Récupéré le 12dcembre 2018 de : cedric.cnam.fr/ saporta/DM.pdf

Seclier, B. (2017a). Learning Analytics, une tendance émergente dans l’éducation. Récupéré le 18 décembre 2018 de : http://www.sup-numerique.gouv.fr/cid113065/learning-analytics-une-tendance-emergente-dans-l-education.html

Seclier, B. (2017b, 3 juillet). Learning Analytics : le Big data au service de l’apprentissage [vidéo]. Récupéré le 18 décembre 2018 de : https://webtv.univ-lyon3.fr/channels/moodlemoot/media/MEDIA170703113731818 ?server =1

Settouti, L., prié, Y., Marty, J. et Mille, A. (2007).Vers des Systèmes à Base de Traces modélisées pour les EIAH. Rapport de recherche RR-LIRIS-2007. Récupéré de : http://liris.cnrs.fr/publis/?id=2882.

Tak Ming Wong, B. (2017). Learning Analytics in Higher Education : an Analysis of Case Studies. Asian Association of Open University’s Journal, 12(1), 21-40. Récupéré le 10 décembre 2018 de : https://www.emeraldinsight.com/doi/full/10.1108/AAOUJ-01-2017-0009

Venant, R. (2017). Les learning analytiques pour promouvoir l’engagement et la réflexion des apprenants en situation d’apprentissage pratique (thèse de doctorat, Université Paul Sabatier, Toulouse, France). Récupéré le 15 janvier 2019 à : http://thesesups.ups-tlse.fr/3697/1/2017TOU30164.pdf

Venant, R. (2018). Les Learning Analytics. De la conception à l’exploitation [vidéo]. Récupéré le 25 janvier 2019 de : https://umotion.univ-lemans.fr/video/3612-seminaire-lium-remi-venant-les-learning-analytics-de-la-conception-a-lexploitation/ ?is_iframe =true&size =240

Vermersch, P. (1994). L’entretien d’explicitation en formation continue et initiale. Paris : ESF.

Référence électronique

Daniel Peraya, « Les Learning Analytics en question », Distances et médiations des savoirs [En ligne], 25 | 2019, mis en ligne le 24 mars 2019, consulté le 29 mars 2019. URL : http://journals.openedition.org/dms/3485

Licence : CC by-sa

Notes

[1Pour être complet, il aurait fallu traiter aussi le développement des Teaching Analytics définis par Prieto, Sharma, Dillenbourg et Jesús (2016) comme : « the application of learning analytics techniques to understand teaching and learning processes, and eventually enable supportive interventions ». Cet aspect fera sans doute l’objet d’une prochaine contribution.

[2Peraya et Bonfils (2014) ont proposé de faire la distinction entre les dispositifs de formation et de communication médiatisées, des dispositifs complexes et multifonctionnels comme les environnements virtuels d’apprentissage ou les LMS d’une part et d’autre part, les dispositifs particuliers, spécialisés et monofonctionnels (un forum, un chat, etc.). Les EIAH, qui sont à l’origine des situations d’apprentissage instrumentée (SAI), se rattachent plutôt à cette seconde catégorie.

[3Cette diversité des traces renvoie au deuxième « V » de la définition de Big Data, proposée par Laney en 2001, dite des « 3V » pour volume, variété et vitesse. D’autres chercheurs ont progressivement rajouté d’autres lettres : un V pour véracité, un autre pour valeur ou un K pour exhaustivité (cité par Bastin et Tubario, 2018, p. 378).

[4La traduction française officielle de cette expression est « méga-données » et celle alternative, qui semble s’être imposée, est « données massives » (Bastin et Tubario, 2018, p. 377).

[5Portail du numérique dans l’enseignement supérieur, rubrique « Enseigner avec le numérique » (http://www.sup-numerique.gouv.fr/)

[6L’environnement personnel d’apprentissage (EPA) des apprenants n’est pas exclusivement constitué par des environnements numériques. Ils possèdent encore un espace physique dans leur lieu d’habitation (d’une part, bureau, table de travail, canapé, lit et d’autre part des documents imprimés, articles, livres, notes manuscrites, etc.) (Peraya et Bonfils, 2014).

[7Dans un premier temps, j’avais pensé à « Analytique de données relatives à l’apprentissage humain dans un environnement numérique de travail et/ou d’apprentissage ». Mais cette définition du groupe de travail français de la DNE me paraît bien plus synthétique et la référence aux activités instrumentées semble suffisamment explicite.

[8« Business Intelligence (BI) comprises the strategies and technologies used by enterprises for the data analysis of business information. » (Dedić et Stanier, 2016 cité dans Dioudi, 2018 p. 3).

[9De nombreux auteurs se réfèrent à la métaphore utilisée par cet auteur, celle de la « pépite » enfouie dans un amas de données et qu’il faut faire émerger avec des outils statistiques adaptés.

[10Il paraît cependant important de distinguer la nature des données et celle de leur traitement. Les données textuelles peuvent en effet faire l’objet d’analyses quantitatives (statistique lexicale) autant que qualitatives (approche compréhensive et herméneutique).

[11Les recherches basées sur les mots clés Learning Analytics, analytique de l’apprentissage, Data Mining, fouille des données, etc. renvoient à des millions de documents qui constituent à leur tour un impressionnant gisement des données : 668.000.000 documents constituent la réponse à la requête fondée sur le mot clé Learning Analytics et 427.000.000 pour Data Mining (Requête sur Google le 20 février 2019).

[12Par exemple, le marché des tableaux de bord se chiffrait selon des chiffres publiés en 2013 à 2 milliards de dollars (Roberge, cité par Labarthe et Luengo, 2016, p. 21).

Répondre à cet article

Qui êtes-vous ?
[Se connecter]
Ajoutez votre commentaire ici

Ce champ accepte les raccourcis SPIP {{gras}} {italique} -*liste [texte->url] <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom