Innovation Pédagogique
Institut Mines-Telecom

Une initiative de l'Institut Mines-Télécom avec un réseau de partenaires

Traces, données, big data, vous avez dit éduquer ?

5 juin 2017 par admin Fiches pédagogiques 310 visites 0 commentaire

Un article repris de http://www.brunodevauchelle.com/blo...

Jacques Ellul, philosophe, nous a mis en garde sur l’aveuglement technologique dans l’ensemble de ses écrits. Les questions autour des traces, des données, des big datas, des algorithmes, de l’intelligence artificielle ou encore des capacités d’apprentissage des machine (deep learning – Yan LeCun, machine learning etc..) sont de plus en plus fréquentes. Afin de clarifier ces questions et surtout de se mettre en projet « d’éduquer avec le numérique » à propos de cette thématique, nous proposons un cheminement pédagogique et réflexif.

Un articlerepris du Blog de Bruno Devauchelle

Notions et concepts

Un premier rappel concerne les notions et les mots qui y sont associés (en lien avec ce que E Bruillard a présenté lors de la journée académique des documentalistes Poitou Charentes le 30 mai 2017).

Les faits, les activités, les évènements sont les matières premières de l’humain et du vivant en général. C’est sur ces faits que vont se construire les éléments qui vont permettre d’en extraire une mise en langage.

Les traces : Lorsque nous marchons sur le sable mouillé, nos pieds laissent une trace qui s’effacera progressivement au gré des marées. Lorsque nous utilisons notre ordinateur connecté à Internet nous laissons aussi des traces. Il y a de bonnes chances que nous ne sachions pas ce que sont ces traces. Elles sont de deux natures, implicites et explicites. Les traces explicites ce sont nos contributions volontaires dans des forums, des messages et autres participations actives. Les traces implicites ce sont les enregistrement techniques faits par différents moyens et qui gardent la trace de toutes les formes d’activité : ouverture, fermeture de page, clic de souris

Les données (obtenues) : elles sont la traduction structurée ou non des traces de l’activité, dont les discours, les actions captées. Les données peuvent être construite (invoquées) ou récupérées (évoquées). La traduction est désormais principalement fondée sur la numérisation. Le principal problème des données est leur qualité. Entre une donnée qui reflète une action (clic de souris) et une donnée qui reflète un témoignage (couleur d’une voiture qui passe), les variations peuvent être très grandes. Les données sont donc fragiles et nécessitent une critique méthodologique a priori amenant à envisager ce que l’on nomme un « biais ».

Les informations : En rassemblant les données pour en exprimer le sens et leur donner forme, on produit une information. C’est souvent le matériau de départ dont on dispose, ignorant souvent l’amont de cette information et donc les possibles approximations qu’elles contiennent. Cependant c’est souvent la base à partir de laquelle nous travaillons dans l’enseignement et la formation. L’arrivée des médias nouveaux a modifié principalement la fabrication et la diffusion de l’information en la rendant accessible à tous.

Les connaissances  : elles sont avant tout ce que chacun fait des données, des informations et des savoirs qu’il côtoie. Face au savoir, aux informations, aux situations, chacun « incorpore » une partie de ce à quoi il a accès. Ce faisant il transforme pour lui ce qu’il capte et en construit une représentation qu’il rend plus ou moins durable (disponible en mémoire) selon l’importance d’usage qu’il lui accorde.

Les savoirs : Ils sont des informations qui ont un degré de validation suffisant pour être reconnus temporairement comme valides. Il s’agit principalement d’une validation par les pairs et sont basés sur la preuve méthodologique. Tous les savoirs ne sont pas de même teneur, de même nature, mais tous reposent sur l’idée d’un consensus à défaut d’une vérification. Attention, les savoirs sont toujours provisoires, comme le monte l’histoire des sciences.

La mémoire défaillante ? : La tradition orale des sociétés primitives était fondée sur la mémoire de chaque individu. Les travaux menés depuis de nombreuses années montrent que la mémoire est défaillante dans de nombreux cas. Approximative, inexacte, fausse même, la « mémoire des faits » reste quelque chose de fragile. L’humain a très tôt « externalisé » la mémoire en peignant sur la pierre et même sur le verre, gravant et taillant dans la pierre, en inventant l’écriture sur le papier d’abord et désormais sur les écrans. Cette externalisation est une forme d’objectivation d’un instant. Les archéologues sont confrontés à ces objets de mémoire dont ils connaissent la qualité, mais aussi la fragilité. Face à de grandes quantités de données, l’humain n’est pas capable de les mémoriser et il va utiliser la technique pour l’aider à traiter ces données. Ce phénomène est désormais ordinaire, mais peu connu de chacun de nous. De la trace aux savoirs, il y a un chemin complexe et parfois hasardeux dont il est souhaitable que chacun prenne conscience. L’éducateur est donc invité à développer des stratégies et des dispositifs pour permettre aux jeunes de rentrer dans ces questionnements.

Former les jeunes

Il a été fait un large écho de la médiatisation, voir de la spectacularisation de la question des big datas dans notre société. Chacun a pu prendre conscience de l’ampleur du phénomène dont il faut rappeler que la question centrale qu’il pose n’est pas nouvelle : collecter des données sur l’humain pour mieux le surveiller, le contrôler, le diriger et désormais de plus en plus le faire « acheter ». Entre l’indifférence du « on n’y peut rien » et le catastrophisme du « je n’avais imaginé ça, on me l’a caché », il y a une exigence éthique et professionnelle (les 2 V) de vigilance et de vérification qui doit mettre en interrogation les fameux (?) 4V des big datas (volume, variété, vitesse, vélocité). Pour cela il est nécessaire de tenter de comprendre ces évolutions qui sont surtout technologiques.

Dans une visée éducative il y a un ensemble d’impératifs de formation des jeunes qu’il semble important de tenter de mettre en œuvre dans les domaines suivant :

1 – L’accès aux informations, aux données

La recherche d’information ne suffit pas, il faut remonter à la source (au sens large du terme). C’est à dire identifier les données à l’origines de l’information et le chemin de ces données. Ce ne sont parfois même pas des données, mais de simples traces auxquelles il va parfois être donné du sens, les transformer en données (ou en obtenues pour reprendre le propos de Bruno Latour)

2 – Le recueil des données

Les travaux sur les datas de toutes sortes mettent évidence la nécessité de questionner la qualité des données et ainsi d’éviter des biais liés à la collecte des données. Ainsi en est-il d’une note donnée à un travail différente d’un enseignant à l’autre. De même en est-il lorsque l’on enquête auprès de gens qui témoignent : l’erreur de témoignage est aussi connue des enquêteurs de police que des historiens. Le biais déclaratif par exemple (lors des sondages) est la mise en évidence du fait que l’on ne répond pas forcément la réalité de ce que l’on croit, mais parfois ce que l’on pense que l’autre attend comme réponse. Les données sont des objets très fragiles…

3 – Le traitement des données

C’est la partie la plus obscure et magique. Souvent rappelée par le terme d’algorithme, le traitement des données c’est une série d’étapes qui sépare la donnée brute de sa mise en forme. L’exemple le plus connu est celui du redressement des sondages. Mais nombre de traitements sont inconnus et invisibles pour l’utilisateur. Or ces traitements parfois automatisés vont du nettoyage des données à leur mise en image. Chaque étape fait l’objet d’un travail réel qui doit être fait avec maîtrise. Mais il est souvent difficile, voire impossible de faire émerger ces processus

4 – La visualisation des données

La caractéristique de la mise en scène des données est la mise en spectacle au travers de différents moyens de visualisation. Apprendre à faire le lien entre une représentation des données et les données d’origine est une nécessité. En effet la traduction graphique peut créer un effet de présentation qui modifie le sens que l’on peut trouver aux données traitées.

5 – L’interprétation des données

Jacques Ellul, philosophe, nous a mis en garde sur l’aveuglement technologique dans l’ensemble de ses écrits. Les questions autour des traces, des données, des big datas, des algorithmes, de l’intelligence artificielle ou encore des capacités d’apprentissage des machine (deep learning – Yan LeCun, machine learning etc..) sont de plus en plus fréquentes. Afin de clarifier ces questions et surtout de se mettre en projet « d’éduquer avec le numérique » à propos de cette thématique, nous proposons un cheminement pédagogique et réflexif

Lorsque l’on est en fin de travail sur des données, on donne une lecture de ces données. Corrélation n’est pas causalité a-t-on l’habitude de dire en recherche. Mais cela n’est pas le seul questionnement que l’on peut faire aux rapports d’interprétation des données. Généraliser sur quelques cas, faire des statistiques prédictives en mettant de côté certains facteurs explicatifs etc.… sont des erreurs courantes. Celui ou celle qui interprète les données, en exprime le sens doit s’interroger sur sa rigueur d’analyse

6 – L’intention

Lorsque l’on travaille sur les données, et que l’on tente d’en extraire le sens, il faut s’interroger sur l’intention de celui qui construit ce discours, mais aussi sur l’intention de celui qui accueille, lit, regarde ces données. L’un des biais connus de la psychologie sociale et bien repéré par de nombreux spécialistes du traitement des données est que nous sommes d’abord à la recherche de ce qui nous ressemble, ce qui nous rassure. Nous allons donc aller plutôt vers ce que l’on connaît et éviter, par exemple, les opinions contraires à nos idées. Cette intention en réception se trouve doublée de l’intention en émission : celui qui met en spectacle des données et leur interprétation tente de « manipuler » de manière consciente ou inconsciente. Les technologies informatiques n’ont eu de cesse de s’effacer face à l’utilisateur pour ne lui donner que le résultat (exemple de la programmation informatique par rapport à l’écran du smartphone). Aussi l’intention en émission est-elle toujours à interroger dans une démarche d’éducation

Le retour de l’intelligence artificielle

Quand l’intelligence artificielle revient à la surface des débats médiatiques en 2010 après les avoir quittés dans les années 1990, on a semble-t-il oublié les leçons de la première époque. Non, il n’y a d’intelligence artificielle ! Il n’y a que des tentatives plus ou moins abouties de concurrencer les performances exceptionnelles du cerveau humain. L’émergence des notions de « machine learning », « deep learning » etc.… montrent bien que le chemin pris par l’informatique dans le domaine n’est pas, quoiqu’ils s’en réclament, de l’intelligence artificielle. D’ailleurs les spécialistes scientifiques du domaine expliquent bien cela (cf. Gérard Berry, Yann leCun). Ce qui émerge désormais c’est que l’on a réussi à augmenter les puissances de calcul et de traitement des données, on a aussi amélioré la manière d’étudier les problèmes (algorithmique, mathématique…). C’est cette combinatoire qui amène parfois à des déclarations qui méritent d’être interrogées dès lors qu’elles sont mises volontairement sur la place publique :

Ainsi, à l’adresse : http://lesclesdedemain.lemonde.fr/dossiers/titre-edu_f-178.html on peut lire le passage suivant (dans la troisième partie de la page web)

En 2012, un site américain listait déjà les 10 manières dont l’intelligence artificielle pourrait réinventer l’éducation (http://www.onlineuniversities.com/blog/2012/10/10-ways-artificial-intelligence-can-reinvent-education/) :

1. Automatiser les activités de base dans l’éducation comme les évaluations

2. S’adapter aux besoins des élèves

3. Aider les enseignants à améliorer leurs cours

4. Créer des tuteurs virtuels pour les élèves

5. Faire un retour utile aux enseignants et aux élèves

6. Changer notre rapport à l’information et notre façon d’interagir avec elle

7. Modifier le rôle des enseignants8. Rendre l’apprentissage par essai et erreur moins intimidant

9. Changer la façon dont les écoles trouvent, forment et aident les étudiants

10. Transformer les lieux d’apprentissage et la manière d’apprendre

L’ensemble des articles de cette page proposé par IBM visent à faire le lien entre les évolutions du traitement des données, les sciences cognitives et l’éducation et en montrer que des changements, des évolutions peuvent être attendus… Le point de vue est, logiquement celui d’une entreprise qui se positionne sur ce chantier et qui a pour habitude (cf. leurs autres publicités) d’articuler questions humaines et questions techniques, informatiques. Les analyses prospectives qui sous-tendent les propositions doivent nous alerter. On peut y retrouver la chaîne de traitement qui va de la trace à l’information puis au savoir. Mais cette fois-ci le savoir est incarné par des actions ou des cadres d’actions que l’on nous invite à envisager pour les années à venir.

Les développements informatiques et algorithmiques (cf. Dominique Cardon) ont été importants au cours des dernières années. Souvent invisibles pour l’usager ils se caractérisent par une sorte de couche souterraine qui associe captation de données et exploitation de ces données en vue de les rendre utiles. Comme d’habitude, lorsqu’une technique se développe, la recherche de son utilité est associée souvent pour en prouver le bienfondé (l’histoire des technologies en témoigne). Cependant il faut garder du recul par rapport à ces hypothèses d’usage et encore plus aux hypothèses d’utilité et d’utilisation. Or ce sont souvent ces hypothèses qui sont médiatisées et qui font du bruit auprès du public. C’est pourquoi il convient d’être prudent et critique, aussi bien sur le catastrophisme que sur l’enthousiasme que peuvent susciter de tels travaux.

En conclusion

Il semble nécessaire, dans l’espace éducatif, d’agir dans le cadre d’une philosophie de l’école fondée sur « l’apprendre à faire société ». Cela signifie que face à l’apparition de la question des données (qu’il faut situer en amont des informations), un champ de travail, d’analyse et de réflexion s’ouvre pour chacun de nous enseignant documentaliste mais plus largement éducateur. Le devoir d’humanisation est un devoir éducatif qui vise à faire en sorte que les fruits de la technologie ne soient pas prescripteurs, conducteurs de nos vies, comme elles peuvent être tentées de le faire sous l’impulsion des pouvoirs marchands et politiques. Il est souhaitable que pour chacun des jeunes et des adultes qui nous entourent nous encouragions les facultés de curiosité et de sérendipité et la « capacité d’étonnement ».

A suivre et à débattre
BD

PS : cet article a été écrit suite à la journée académique des enseignants documentalistes de l’académie de Nouvelle Aquitaine, Poitou Charentes qui a eu lieu le 30 mai 2017 à Poitiers

Répondre à cet article

Qui êtes-vous ?
Ajoutez votre commentaire ici
  • Ce formulaire accepte les raccourcis SPIP [->url] {{gras}} {italique} <quote> <code> et le code HTML <q> <del> <ins>. Pour créer des paragraphes, laissez simplement des lignes vides.

Suivre les commentaires : RSS 2.0 | Atom