<?xml
version="1.0" encoding="utf-8"?>
<rss version="2.0" 
	xmlns:dc="http://purl.org/dc/elements/1.1/"
	xmlns:content="http://purl.org/rss/1.0/modules/content/"
	xmlns:atom="http://www.w3.org/2005/Atom"
>

<channel xml:lang="fr">
	<title>Innovation P&#233;dagogique et transition</title>
	<link>https://www.innovation-pedagogique.fr/</link>
	<description>Un site participatif, lieu de partage et d'&#233;change autour des initiatives en transitions et des innovations p&#233;dagogiques dans l'enseignement sup&#233;rieur francophone.</description>
	<language>fr</language>
	<generator>SPIP - www.spip.net</generator>
	<atom:link href="https://www.innovation-pedagogique.fr/spip.php?id_auteur=11396&amp;page=backend" rel="self" type="application/rss+xml" />

	<image>
		<title>Innovation P&#233;dagogique et transition</title>
		<url>https://www.innovation-pedagogique.fr/local/cache-vignettes/L64xH64/siteon0-b9b71.png?1691667292</url>
		<link>https://www.innovation-pedagogique.fr/</link>
		<height>64</height>
		<width>64</width>
	</image>



<item xml:lang="fr">
		<title>GPT-3 : c'est toi le Chat.</title>
		<link>https://www.innovation-pedagogique.fr/article13845.html</link>
		<guid isPermaLink="true">https://www.innovation-pedagogique.fr/article13845.html</guid>
		<dc:date>2023-01-20T11:46:01Z</dc:date>
		<dc:format>text/html</dc:format>
		<dc:language>fr</dc:language>
		<dc:creator>Olivier Ertzscheid</dc:creator>



		<description>
&lt;p&gt;Apr&#232;s les g&#233;n&#233;rateurs d'images se prenant pour autant d'oeuvres d'art dont je vous parlais longuement dans ces colonnes, voici donc l'un des derniers avatars de la soci&#233;t&#233; OpenAI, un &#8220;chatbot&#8221;, une interface conversationnelle qui permet de &#8220;discuter&#8221; et de lancer le g&#233;n&#233;rateur de texte sur la base de &#8220;prompts&#8221; que nous saisissons. Nom de code : Chat GPT-3. Demandez et vous recevrez. &lt;br class='autobr' /&gt;
Demandez-lui de vous r&#233;diger un argumentaire commercial pour une voiture &#233;lectrique, il le fera. (&#8230;)&lt;/p&gt;


-
&lt;a href="https://www.innovation-pedagogique.fr/rubrique70.html" rel="directory"&gt;IA, Chat GPT et formation&lt;/a&gt;


		</description>


 <content:encoded>&lt;div class='rss_texte'&gt;&lt;div class='rss_texte'&gt;
&lt;p&gt;Apr&#232;s les &lt;a href=&#034;https://affordance.framasoft.org/2022/10/question-generation-capitalisme-semiotique/&#034;&gt;g&#233;n&#233;rateurs d'images se prenant pour autant d'oeuvres d'art dont je vous parlais longuement dans ces colonnes&lt;/a&gt;, voici donc l'un des derniers avatars de la &lt;a href=&#034;https://www.liberation.fr/economie/economie-numerique/openai-entre-lartifice-et-la-vertu-20221207_WIJIKCXNM5BN7C76I5KERZW7LQ/?fbclid=IwAR0UahMvRWp1XmdRGZbGzez9YBZOChm2kOAz6f2iRE9Ihr1lh9ccfZMDNs0&#034;&gt;soci&#233;t&#233; OpenAI&lt;/a&gt;, un &#8220;chatbot&#8221;, une interface conversationnelle qui permet de &#8220;discuter&#8221; et de lancer le g&#233;n&#233;rateur de texte sur la base de &#8220;prompts&#8221; que nous saisissons. Nom de code : &lt;a href=&#034;https://openai.com/blog/chatgpt/&#034;&gt;Chat GPT-3&lt;/a&gt;.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Demandez et vous recevrez.&lt;/h3&gt;
&lt;p&gt;Demandez-lui de vous r&#233;diger un argumentaire commercial pour une voiture &#233;lectrique, il le fera. Demandez-lui de vous &#233;crire l'introduction d'un cours sur la culture num&#233;rique, il le fera. Demandez-lui de vous expliquer une notion, il le fera. Demandez-lui de r&#233;diger un article sur un &#233;v&#233;nement d'actualit&#233;, il le fera. Demandez-lui de vous &#233;crire une blague sur Elon Musk et Mark Zuckerberg, il le fera (mais elle ne sera pas n&#233;cessairement dr&#244;le). Demandez-lui &#224; peu pr&#232;s tout et n'importe quoi, il le fera. Plus ou moins bien. Il ne fera litt&#233;ralement pas &#8220;tout&#8221; ce que vous pourrez lui demander car ce r&#233;p&#233;titeur paraphrastique est encadr&#233; ou &#8220;brid&#233;&#8221; par ses concepteurs pour s'&#233;viter d'&#233;ventuelles sorties de route, tout comme l'&#233;taient les g&#233;n&#233;rateurs d'images.&lt;/p&gt;
&lt;p&gt;Dans les usages disons plus &#8230; funky et al&#233;atoires quand au r&#233;sultat escompt&#233;, vous pouvez aussi tenter (&#224; vos risques et p&#233;rils) de lui demander de &lt;a href=&#034;https://twitter.com/Korben/status/1599902128293568522&#034;&gt;vous &#233;crire des chansons &#8220;&#224; la mani&#232;re&#8221; de Francky Vincent&lt;/a&gt; ou des po&#232;mes &#224; la gloire d'Emmanuel Macron &#8220;&#224; la mani&#232;re&#8221; de Victor Hugo. Ou &lt;a href=&#034;https://twitter.com/gchampeau/status/1599389054633938944/photo/1&#034;&gt;des tweets &#224; la mani&#232;re de Donal Trump&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;On peut &#233;galement lui demander de r&#233;diger des programmes informatiques (du code en Python ou &lt;a href=&#034;https://medium.com/@rlodha1/how-i-used-chat-gpt-to-build-a-twitter-bot-without-any-programming-language-35bbc43f6ad&#034;&gt;la programmation d'un bot Twitter&lt;/a&gt;) ou bien de d&#233;bugger des scripts d&#233;j&#224; &#233;crits et d'expliquer les erreurs commises.&lt;/p&gt;
&lt;p&gt;Cela ne veut pas dire, loin s'en faut, que GPT-3 soit infaillible. Il est souvent mise en &#233;chec, notamment sur des probl&#232;mes de raisonnement math&#233;matique ou logique (&lt;a href=&#034;https://twitter.com/Vicnent/status/1608151189430108162&#034;&gt;exemple un peu compliqu&#233; par ici&lt;/a&gt;, beaucoup &lt;a href=&#034;https://twitter.com/tunguz/status/1607430589891874817&#034;&gt;plus simple par l&#224;&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;Le premier usage de &lt;a href=&#034;https://openai.com/blog/chatgpt/&#034;&gt;ChatGPT-3&lt;/a&gt; est tout comme les premiers usages des g&#233;n&#233;rateurs d'image, assez sid&#233;rant et, nous y reviendrons, &#8220;&lt;em&gt;enthousiasmant&lt;/em&gt;&#8220;. Car non seulement il a en effet r&#233;ponse &#224; (presque) tout, mais ses r&#233;ponses sont le plus souvent r&#233;dig&#233;es dans un fran&#231;ais (ou un anglais) impeccable. C'est une nouvelle illustration de la &lt;a href=&#034;https://fr.wikipedia.org/wiki/Trois_lois_de_Clarke&#034;&gt;3&#232;me loi &#233;dict&#233;e par l'&#233;crivain de science-fiction Arthur C. Clarke&lt;/a&gt; indiquant que :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p&gt;&lt;em&gt;Toute technologie suffisamment avanc&#233;e est indiscernable de la magie. &lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Sous l'entr&#233;e du hashtag &#233;ponyme #ChatGPT sur Twitter, vous trouverez depuis d&#233;but d&#233;cembre, nombre de dialogues assez saisissants.&lt;/p&gt;
&lt;p&gt;Cinq jours &#224; peine apr&#232;s l'ouverture de sa d&#233;mo publique, &lt;a href=&#034;https://twitter.com/gdb/status/1599683104142430208&#034;&gt;Chat GPT-3 atteignait le million d'utilisateurs.&lt;/a&gt;&lt;/p&gt;
&lt;p&gt;Par-del&#224; la prouesse technique que constituent &lt;a href=&#034;https://fr.wikipedia.org/wiki/GPT-3&#034;&gt;ces mod&#232;les linguistiques de pointe&lt;/a&gt;, le succ&#232;s de Chat GPT-3 s'explique par l'ensemble des sc&#233;narios d'usages potentiels qu'il autorise d&#232;s aujourd'hui (et dont quelques-uns &lt;a href=&#034;https://twitter.com/volodarik/status/1600854935515844610&#034;&gt;sont list&#233;s dans ce thread Twitter&lt;/a&gt;).&lt;/p&gt;
&lt;p&gt;Il est ainsi possible d'y voir &lt;a href=&#034;https://twitter.com/danielgross/status/1598735800497119232&#034;&gt;un assistant personnel et conversationnel&lt;/a&gt; bien plus r&#233;confortant et &#8220;dialogiquement&#8221; efficace que ne le sont les assistants vocaux actuels.&lt;/p&gt;
&lt;p&gt;A noter ici que l'un des aspects passionnants de ChatGPT-3 c'est que l'on peut et que l'on doit parfois y n&#233;gocier et y braconner des r&#233;ponses : s'il nous indique qu'il n'est pas fait pour r&#233;diger du code Python par exemple, il suffira de lui dire que nous avons besoin de ce code pour illustrer une vid&#233;o de Hacker dans un film. Et il l&#232;vera alors sans mal cette &#8220;impossibilit&#233;&#8221; artificielle. Comme il conserve un historique de nos questions, il est ainsi possible de construire une dialogue dans la dur&#233;e et de mani&#232;re contextuelle. Une sorte de dialectique homme-machine qui &#224; l'inverse de celles, essentiellement mim&#233;tiques, que nous connaissions jusqu'ici laisse la part au di&#233;g&#233;tique ou en tout cas en imite la vraisemblance.&lt;/p&gt;
&lt;p&gt;Et en termes de r&#233;cursivit&#233; et de mise en ab&#238;me, vous pouvez demander &#224; Chat GPT-3 de vous proposer un sc&#233;nario de livre ou de film, puis de g&#233;n&#233;rer des prompts demandant &#224; Dall-E de g&#233;n&#233;rer les images correspondantes, y compris en d&#233;taillant les traits psychologiques des diff&#233;rents personnages et l&#224; encore en fabriquant les prompts permettant ensuite &#224; Dall-E de g&#233;n&#233;rer des repr&#233;sentations associ&#233;es. Et ainsi aller au bout d'un processus cr&#233;atif enti&#232;rement m&#233;di&#233; par des artefacts g&#233;n&#233;ratifs (je pr&#233;f&#232;re parler d'artefacts g&#233;n&#233;ratifs plut&#244;t que d'intelligences artificielles).&lt;/p&gt;
&lt;p&gt;&lt;a href=&#034;https://www.forbes.com/sites/robtoews/2022/12/20/10-ai-predictions-for-2023/&#034;&gt;L'une des grandes questions que l'on sent poindre derri&#232;re ces artefacts g&#233;n&#233;ratifs est d'ailleurs celle de leur multimodalit&#233;&lt;/a&gt;, c'est &#224; dire la capacit&#233; d'entrer une vid&#233;o pour en tirer une analyse textuelle ou tout autre combinaisons de m&#233;dias possibles, sachant que la conversion / g&#233;n&#233;ration d'un texte en images est d&#233;j&#224; act&#233;e.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Et du c&#244;t&#233; de l'enseignement ?&lt;/h3&gt;
&lt;p&gt;Du c&#244;t&#233; de l'enseignement &#8230; je sais que des &#233;tudiantes et &#233;tudiants l'utilisent d&#233;j&#224; pour r&#233;diger des copies &#224; rendre &#224; leurs enseignants. Et je sais que tant que cet usage n'est pas massif, il est difficile &#224; d&#233;tecter pour des copies anonymes, mais tr&#232;s ais&#233;ment rep&#233;rable quand on conna&#238;t nos &#233;tudiant.e.s. En tout cas cette d&#233;tection est, disons, un enjeu complexe jusqu'&#224; un niveau bac+3 (en gros &#8230;), puisqu'elle est capable de leurrer son lecteur ou correcteur, mais bien s&#251;r et heureusement on y trouve aussi certaines limites st&#233;r&#233;otypiques et des raisonnements souvent identiques et sans aucune forme d'originalit&#233; sur certains sujets. D&#233;tection qui met &#233;galement en PLS tous les syst&#232;mes et logiciels automatis&#233;s de d&#233;tection de plagiat utilis&#233;s &#224; l'universit&#233; &#224; ce jour.&lt;/p&gt;
&lt;p&gt;Soyons tout &#224; fait honn&#234;tes sur ce point, il va rapidement falloir revoir la nature de nos enseignements (et de nos &#233;valuations) en lien avec la capacit&#233; de r&#233;diger des productions documentaires. Il ne s'agit pas pour autant d'en faire une alarme catastrophiste. Et &lt;a href=&#034;https://twitter.com/AntonioCasilli/status/1604142651091066880&#034;&gt;je rejoins totalement en cela le camarade Antonio Casilli&lt;/a&gt;. Nous nous sommes d&#233;j&#224; remis de ce que l'on annon&#231;ait &#8211; souvenez-vous &#8211; comme le d&#233;but de la fin des enseignants et des biblioth&#233;caires lorsque les moteurs de recherche apparurent, de la fin des relations sociales lorsque les r&#233;seaux sociaux devinrent massifs, et la fin de la capacit&#233; de construire et de certifier des connaissances lorsque Wikipedia appar&#251;t. Nous nous remettrons donc tr&#232;s certainement aussi de cette nouvelle capacit&#233; r&#233;dactionnelle artefactuelle offerte &#224; l'ensemble des &#233;tudiant.e.s, &#233;l&#232;ves ou apprenant.e.s. Nous l'int&#233;grerons dans nos pratiques et parviendrons &#224; l'&#233;valuer pour ce qu'elle est. Mais sans sombrer dans le catastrophisme, il serait tout aussi idiot de ne pas envisager que nous sommes une nouvelle fois devant un changement absolument majeur de notre mani&#232;re d'enseigner, de transmettre, et d'interagir dans un cadre &#233;ducatif, &lt;em&gt;a fortiori&lt;/em&gt; lorsque celui-ci est asynchrone et/ou &#224; distance.&lt;/p&gt;
&lt;p&gt;Il nous faut &#8220;faire avec&#8221; ces nouveaux &#233;tats de la relation p&#233;dagogique que sont le distanciel possible et donc d&#233;sormais les artefacts g&#233;n&#233;ratifs. Nous devons accepter de braconner sur ces terres d'une relation dialoguale automatis&#233;e. Et nous devons &#224; tout prix et &#224; tout co&#251;t int&#233;grer dans nos pratiques ces &lt;a href=&#034;https://fr.wikipedia.org/wiki/Michel_de_Certeau#L'analyse_du_%C2%AB_braconnage_culturel_%C2%BB&#034;&gt;nouvelles formes de braconnage technique et culturel&lt;/a&gt; et y accompagner nos &#233;tudiantes et nos &#233;tudiants.&lt;/p&gt;
&lt;p&gt;Rappelons enfin que le plagiat ou la triche dans le monde acad&#233;mique est loin, tr&#232;s loin, d'&#234;tre seulement l'affaire et l'apanage de nos &#233;tudiant.e.s mais qu'il est aussi celui de nos coll&#232;gues, et que la fraude &#224; l'&#233;criture d'articles scientifiques est &#233;galement l'une des &#8220;possibilit&#233;s&#8221; de Chat GPT-3.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Un agencement collectif d'&#233;nonciation(s).&lt;/h3&gt;
&lt;p&gt;&lt;strong&gt;Ce qui est complexe avec ces technologies c'est de parvenir &#224; les nommer pour ce qu'elles sont.&lt;/strong&gt; Il ne s'agit pas de technologies d'intelligence artificielle parce qu'il n'y a pas d'intelligence &lt;em&gt;dans&lt;/em&gt; la technologie. Pas d'intelligence &lt;em&gt;dans&lt;/em&gt; les programmes, pas d'intelligence &lt;em&gt;dans&lt;/em&gt; les jeux de donn&#233;es, pas d'intelligence &lt;em&gt;dans&lt;/em&gt; les terminaux et les processeurs. &lt;strong&gt;Ces technologies sont des agencements collectifs de production. De nouvelles usines. De nouvelles formes de travail &#224; la cha&#238;ne.&lt;/strong&gt; Voil&#224; ce qu'elles sont fondamentalement. Et que cela se fasse de mani&#232;re conversationnelle, dans des interfaces (plus ou moins) fluides, sur la base de phrases en langage naturel, ne change rien &#224; l'affaire. Ce que l'on subsume derri&#232;re le mot &#233;cran &#8220;d'intelligence artificielle&#8221; ce sont avant tout des agencements (divers) collectifs (&#233;pars) de production (textuelle, ic&#244;nique, vid&#233;ographique &#8230;). Il est vrai que ces agencements peuvent faire de grandes choses. Un peu comme des foules peuvent initier de grand mouvements. Mais tentez donc de mesurer l'intelligence d'une foule &#8230;&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Alors comment d&#233;finir et nommer la r&#233;alit&#233; du saut technologique permis par ChatGPT ?&lt;/strong&gt; J'ai propos&#233; de parler &lt;strong&gt;d'artefacts g&#233;n&#233;ratifs&lt;/strong&gt; plut&#244;t que de tout subsumer derri&#232;re le concept-&#233;cran d'une &#8220;intelligence artificielle&#8221; qui renvoie soit &#224; un imaginaire social et fictionnel magnifi&#233;, soit &#224; des protocoles et des ing&#233;nieries techniques et informatiques trop distinctes et sp&#233;cifiques pour pouvoir &#234;tre ainsi globalis&#233;es en une seule expression. Mais je crois que plus essentiellement et fondamentalement, Chat GPT-3 est un &lt;a href=&#034;http://1libertaire.free.fr/Agencement01.html&#034;&gt;agencement collectif d'&#233;nonciation&lt;/a&gt; au sens o&#249; Deleuze et Guattari en parl&#232;rent (&lt;strong&gt;je souligne&lt;/strong&gt;).&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt; &#171; (&#8230;) Il y a &#171; &lt;strong&gt;primat d'un agencement machinique des corps sur les outils et les biens, primat d'un agencement collectif d'&#233;nonciation sur la langue et les mots.&lt;/strong&gt; (&#8230;) un agencement ne comporte ni infrastructure et superstructure, ni structure profonde et structure superficielle mais aplat&#238;t toutes ses dimensions sur un m&#234;me plan de consistance o&#249; jouent les pr&#233;suppositions r&#233;ciproques et les insertions mutuelles.(&#8230;) &lt;strong&gt;mais si l'on pousse l'abstraction, on atteint n&#233;cessairement &#224; un niveau o&#249; les pseudos-constantes de la langue font place &#224; des variables d'expression, int&#233;rieures &#224; l'&#233;nonciation m&#234;me&lt;/strong&gt; &#187; (&#8230;) &#171; &lt;strong&gt;L'unit&#233; r&#233;elle minima, ce n'est pas le mot, ni l'id&#233;e ou le concept, ni le signifiant mais l'agencement. C'est toujours un agencement qui produit les &#233;nonc&#233;s. Les &#233;nonc&#233;s n'ont pas pour cause un sujet qui agirait comme sujet d'&#233;nonciation pas plus qu'ils ne se rapportent &#224; des sujets comme sujets d'&#233;nonc&#233;. L'&#233;nonc&#233; est le produit d'un agencement toujours collectif qui met en jeu en nous et dehors de nous des populations, des multiplicit&#233;s, des tentations, des devenirs, des affects, des &#233;v&#232;nements.&lt;/strong&gt;&#8220;&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;(tir&#233; de Dialogues et Mille plateaux)&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Nous sommes fascin&#233;s par la production langagi&#232;re &lt;em&gt;ad hoc &lt;/em&gt;de Chat GPT-3, mais si nous en retrouvons ou en soulignons les structures profondes et superficielles et si nous sortons de cet &#8220;&lt;em&gt;aplatissement de ses dimensions sur un m&#234;me plan de consistance&#8221;, &lt;/em&gt;alors nous comprenons que cet agencement n'est qu'une recopie et ce qui qui compte et qui fascine ce sont uniquement les conditions de production qui rendent ces agencements possibles. Le palimpseste en partie d&#233;terministe qui conditionne l'ensemble des situations de production des discours ainsi g&#233;n&#233;r&#233;s.&lt;/p&gt;
&lt;p&gt;Quand nous contemplons un ballet ou &#233;coutons un orchestre symphonique ou un groupe de rock en concert, nous n'assistons jamais au r&#233;p&#233;titions mais nous savons que sans elles cette gr&#226;ce n'existerait pas.&lt;/p&gt;
&lt;p&gt;Les g&#233;n&#233;rateurs, d'image comme de texte, nous font spectateurs et spectatrices de musicalit&#233;s imaginales, linguistiques, visuelles, cognitives, o&#249; les r&#233;p&#233;titions seraient inutiles au motif qu'elles ne r&#233;pondent pas &#224; la volont&#233; consciente de faire oeuvre. Mais ces r&#233;p&#233;titions existent pourtant. Plus que dans toute autre forme d'art, les it&#233;rations de l'art g&#233;n&#233;ratif sont les r&#233;p&#233;titions invisibles d'une production dont nous ne sommes que le d&#233;clencheur opportuniste et anecdotique. Car l'essentiel de toutes les questions que nous pouvons poser &#224; GPT-3 ont d&#233;j&#224; &#233;t&#233; pos&#233;es par d'autres que nous-m&#234;mes ; elles ont d&#233;j&#224; &#233;t&#233; &lt;em&gt;r&#233;p&#233;t&#233;es&lt;/em&gt;.&lt;/p&gt;
&lt;p&gt;Il ne s'agit pas une nouvelle fois de d&#233;terminer si &#8220;&lt;em&gt;Ceci tuera cela&lt;/em&gt;&#8221; et le livre tuera l'&#233;difice, et quand &#8230; mais de r&#233;fl&#233;chir aux nouveaux agencements effectifs que ces technologies &#8211; que je qualifie &lt;em&gt;d'assistance&lt;/em&gt; bien plus que &lt;em&gt;d'intelligence&lt;/em&gt; artificielle &#8211; vont permettre ou vont emp&#234;cher.&lt;/p&gt;
&lt;p&gt;Je vais me garder de pronostiquer quoi que ce soit dans des domaines que je ne ma&#238;trise pas. J'ai donn&#233; plus haut mon point de vue sur l'&#233;ducation et l'enseignement. Je ne suis pas tr&#232;s inquiet. Et le suis d'autant moins que le co&#251;t d'acc&#232;s &#224; ces technologies ne restera pas &#233;ternellement marginal. Sur le plan du graphisme des gens &#233;minents comme Geoffrey Dorne ou Etienne Mineur qui testent et exp&#233;rimentent ces technologies dans diff&#233;rents cadres sont assez unanimes pour indiquer qu'&lt;em&gt;a minima&lt;/em&gt; cela va changer les perspectives, les processus et les positionnements des diff&#233;rents m&#233;tiers de cette fili&#232;re. D'autres champs qui vont de la traduction automatique &#224; la g&#233;n&#233;ration et &#224; l'analyse de documents techniques en passant par tout l'&#233;ventail des comp&#233;tences communes aux m&#233;tiers de la documentation, du journalisme et bien s&#251;r de l'enseignement seront impact&#233;s. Dans quelle mesure ? Nul ne peut aujourd'hui l'indiquer.&lt;/p&gt;
&lt;p&gt;Mais par-del&#224; l'impact, la question cl&#233; sera celle de l'int&#233;gration de ces technologies dans des m&#233;tiers et dans des proc&#233;dures. Comment (et pourquoi) int&#233;grer ces artefacts g&#233;n&#233;ratifs dans des ChatBots en ligne, dans des processus d'&#233;criture collaborative, dans des processus d'analyse de textes, dans des d&#233;bats &#233;ditoriaux, dans des interactions de groupe ? Comment, pourquoi et avec quel niveau de transparence pour que l'int&#233;gration ne devienne pas fondamentalement une dissimulation ?&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;C'est toi le Chat.&lt;/h3&gt;
&lt;p&gt;Il faut aussi rappeler d&#232;s lors que l'on accepte de voir ces artefacts g&#233;n&#233;ratifs comme autant d'agencements collectifs d'&#233;nonciation, qu'ils renouvellent en partie le genre des travailleurs et travailleuses de la donn&#233;e, &lt;a href=&#034;https://www.humanite.fr/social-eco/intelligence-artificielle/antonio-casilli-de-sujets-coloniaux-des-data-subjects-774160?fbclid=IwAR3rYNc2J6aGrYaiS6GGYlKJb6jHRmvrdrm3rAH37b9SEG07JGuFwIAbMlk&#034;&gt;des &#8220;data subjects&#8221;&lt;/a&gt;, puisque nous entra&#238;nons nous-m&#234;mes en permanence ces agencements. Et que comme le rappelait encore le camarade &lt;a href=&#034;https://www.liberation.fr/economie/lintelligence-artificielle-une-precarisation-de-lemploi-plus-quune-destruction-20221207_MJDIHYZ3JFBJ3H6A4SXVWW5VHU/?fbclid=IwAR24ydmCocPhksZkM3Pin21vUYFArqwByBHG-cFmBo_JSvm4stjoAdUHLtQ&#034;&gt;Antonio Casilli dans une entrevue &#224; Lib&#233;ration&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;i&gt;Dans ce d&#233;bat sur l'intelligence artificielle et l'emploi, il faut se poser cette question : quand on parle d'automatisation, de quoi parle-t-on vraiment ? &lt;/i&gt;&lt;i&gt;Souvent, cela veut dire remplacer des personnes visibles par d'autres invisibles, qu'on s&#233;pare du reste du monde par un &#233;cran.&lt;/i&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Pour autant qu'il soit capable de le documenter, en parlant &#224; Chat GPT-3 nous ne parlons pas &#224; des op&#233;rateurs invisibles masqu&#233;s ou dissimul&#233;s &#224; la mani&#232;re d'un &lt;a href=&#034;https://fr.wikipedia.org/wiki/Turc_m%C3%A9canique&#034;&gt;turc m&#233;canique&lt;/a&gt;. Mais alors &#224; qui parlons-nous vraiment quand nous posons &#224; ChatGPT nos questions ? A quel &#8220;corpus&#8221; adressons-nous nos questions en esp&#233;rant et en id&#233;alisant les r&#233;ponses pouvant nous &#234;tre apport&#233;es ?&lt;/p&gt;
&lt;p&gt;Concr&#232;tement le mod&#232;le de langage GPT-3 utilise le corpus &lt;a href=&#034;https://en.wikipedia.org/wiki/Common_Crawl&#034;&gt;Common Crawl&lt;/a&gt;, une base de donn&#233;e &#8220;ouverte&#8221; qui r&#233;cup&#232;re (crawle) des milliards de mots issus de pages web et de liens, de mani&#232;re al&#233;atoire, puis les analyse et les &#8220;mod&#233;lise&#8221; &#224; l'aide de &lt;a href=&#034;https://en.wikipedia.org/wiki/Byte_pair_encoding&#034;&gt;l'algorithme BPE&lt;/a&gt; qui va, grosso modo permettre d'effectuer sur ce corpus une premi&#232;re op&#233;ration de &lt;a href=&#034;https://fr.wikipedia.org/wiki/Analyse_lexicale#:~:text=En%20informatique%2C%20l'analyse%20lexicale,lors%20de%20l'analyse%20syntaxique&#034;&gt;tokenisation&lt;/a&gt; permettant une analyse lexicale et s&#233;mantique des unit&#233;s collect&#233;es. GPT-3 s'appuie aussi sur un autre corpus, &lt;a href=&#034;https://www.eleuther.ai/projects/owt2/&#034;&gt;WebText2&lt;/a&gt;, qui lui agr&#232;ge de la m&#234;me mani&#232;re des milliards de mots &#224; partir des URL envoy&#233;s sur Reddit avec un score minimum de 3. GPT-3 s'appuie &#233;galement sur deux autres corpus (Books1 et Books2) ainsi que sur une extractions de pages Wikipedia. Voil&#224; pour les corpus &#8220;linguistiques&#8221; qui s'apparentent donc d&#233;j&#224; eux-m&#234;mes &#224; diff&#233;rents agencements collectifs d'&#233;nonciation, ceux de Wikip&#233;dia n'ob&#233;issant ni aux m&#234;mes r&#232;gles ni aux m&#234;mes processus que ceux issus de Reddit, l&#224; encore diff&#233;r(a)nts de ceux issus du web de mani&#232;re al&#233;atoire.&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter size-large wp-image-9157' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH147/gpt-1024x3028c71-ae4467f7-4332d.png?1706935748' alt=&#034;&#034; width='500' height='147' srcset=&#034;local/cache-vignettes/L500xH147/gpt-1024x3028c71-8bbd3.png?1674140428 1024w, https://affordance.framasoft.org/wp-content/uploads/2022/12/gpt-300x88.png 300w, https://affordance.framasoft.org/wp-content/uploads/2022/12/gpt-768x226.png 768w, https://affordance.framasoft.org/wp-content/uploads/2022/12/gpt-600x177.png 600w, https://affordance.framasoft.org/wp-content/uploads/2022/12/gpt.png 1248w&#034; sizes=&#034;(max-width: 770px) 100vw, 770px&#034; /&gt;&lt;/p&gt;
&lt;p&gt;** Je n'ai pas trouv&#233; &#224; quoi faisaient r&#233;f&#233;rence les corpus &#8220;Books 1&#8221; et &#8220;Books 2&#8221;. Si vous avez une id&#233;e, les commentaires sont ouverts.&lt;/p&gt;
&lt;p&gt;Mais derri&#232;re ces agencements collectifs d'&#233;nonciation &#8220;scripturaux&#8221;, s'ajoutent &#233;galement des agencements collectifs d'&#233;nonciation &#8220;dialoguaux&#8221; puisque le mod&#232;le GPT-3, qui appartient &#224; la famille des mod&#232;les d'apprentissage dits &#8220;non-supervis&#233;s&#8221;, &lt;a href=&#034;https://www.ictjournal.ch/articles/2022-02-28/traitement-du-langage-gpt-3-cede-sa-place-a-un-modele-affine-par-des-humains&#034;&gt;est en partie post-supervis&#233;&lt;/a&gt; : des op&#233;rateurs humains vont venir valider, compl&#233;ter, &#233;tiqueter certaines s&#233;quences linguistiques (phrases, &#233;nonc&#233;s) pour proc&#233;der &#224; diff&#233;rents ajustements dans une logique d'optimisation mais aussi de conformit&#233; sociale (pour &#233;viter les d&#233;rives). Et dans cette part &#8220;supervis&#233;e&#8221; de l'apprentissage, quelle est la part d'op&#233;rateurs humains sous-pay&#233;s et astreints &#224; des formes de Digital Labor dans des pays pauvres, et quelle est la part d'ing&#233;nieurs implant&#233;s dans le confort de leurs bureaux de la Silicon Valley ?&lt;/p&gt;
&lt;p&gt;Sans entrer dans les formalismes de ces mod&#232;les de langage nouveaux, ce qu'il faut bien comprendre par-del&#224; la volum&#233;trie des corpus qu'ils agencent et manipulent comme &#8220;entra&#238;nement&#8221;, c'est qu'ils se caract&#233;risent aussi par le nombre de &#8220;param&#232;tres&#8221; mobilis&#233;s pour &#8220;produire&#8221; les g&#233;n&#233;rations dont ils sont capables. GPT-3 compte ainsi 175 milliards de &#8220;param&#232;tres&#8221;, sachant qu'&lt;a href=&#034;https://www.ictjournal.ch/articles/2022-03-11/gpt-3-un-modele-a-tout-faire-aux-milliards-de-parametres&#034;&gt;un param&#232;tre d&#233;signe un &#233;l&#233;ment du mod&#232;le qui r&#233;sulte des donn&#233;es initiales d'entra&#238;nement.&lt;/a&gt; Et c'est un saut quantitatif et qualitatif remarquable par rapport aux autres mod&#232;les de traitement du langage naturel (NLP Natural Language Processing).&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter wp-image-9181' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH322/gpt_3_paramefaa4-48a25935-3ae42.jpg?1706935748' alt=&#034;&#034; width='500' height='322' srcset=&#034;local/cache-vignettes/L500xH322/gpt_3_paramefaa4-1a083.jpg?1674140428 1024w, https://affordance.framasoft.org/wp-content/uploads/2023/01/gpt_3_parametres-300x193.jpeg 300w, https://affordance.framasoft.org/wp-content/uploads/2023/01/gpt_3_parametres-768x494.jpeg 768w, https://affordance.framasoft.org/wp-content/uploads/2023/01/gpt_3_parametres-600x386.jpeg 600w, https://affordance.framasoft.org/wp-content/uploads/2023/01/gpt_3_parametres.jpeg 1280w&#034; sizes=&#034;(max-width: 601px) 100vw, 601px&#034; /&gt;&lt;/p&gt;
&lt;p style=&#034;text-align: center;&#034;&gt;(Source : &lt;a href=&#034;https://larevueia.fr/introduction-a-gpt-3-lun-des-modeles-de-nlp-les-plus-avances/&#034;&gt;La revue IA&lt;/a&gt;)&lt;/p&gt;
&lt;p&gt;L'article de vulgarisation le plus clair p&#233;dagogiquement et le plus complet techniquement que j'ai trouv&#233; est &lt;a href=&#034;https://www.zdnet.fr/pratique/qu-est-ce-que-gpt-3-tout-ce-que-votre-entreprise-doit-savoir-sur-le-programme-de-langage-d-ia-d-openai-39908563.htm&#034;&gt;disponible sur ZDNet sous la plume de Ray Tiernan&lt;/a&gt;, et j'en reprends ici la partie consacr&#233;e &#224; ces fameux &#8220;param&#232;tres&#8221; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Ce qui optimise un r&#233;seau neuronal pendant la formation, c'est l'ajustement de ses poids. Les poids, qui sont &#233;galement appel&#233;s param&#232;tres, sont des matrices, des tableaux de lignes et de colonnes par lesquels chaque vecteur est multipli&#233;. Gr&#226;ce &#224; la multiplication, les nombreux vecteurs de mots, ou fragments de mots, re&#231;oivent une pond&#233;ration plus ou moins importante dans la sortie finale, car le r&#233;seau neuronal est r&#233;gl&#233; pour combler l'&#233;cart d'erreur.&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;OpenAI a constat&#233; que pour obtenir de bons r&#233;sultats sur leurs ensembles de donn&#233;es de plus en plus volumineux, ils devaient ajouter de plus en plus de poids.&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Transformer de Google avait 110 millions de poids. GPT-1 a suivi ce mod&#232;le. Avec GPT-2, le nombre a &#233;t&#233; port&#233; &#224; 1,5 milliard de poids. Avec GPT-3, le nombre de param&#232;tres est pass&#233; &#224; 175 milliards, ce qui fait de GPT-3 le plus grand r&#233;seau neuronal que le monde ait jamais connu.&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;La multiplication est une chose simple, mais lorsqu'il faut multiplier 175 milliards de poids par chaque bit de donn&#233;es d'entr&#233;e, sur des milliards d'octets de donn&#233;es, cela devient un incroyable exercice de traitement informatique parall&#232;le.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Pour r&#233;sumer (mais vraiment tr&#232;s tr&#232;s tr&#232;s grossi&#232;rement &#8230;) nous avons donc un corpus de 500 milliards de &#8220;tokens&#8221; en &#8220;entr&#233;e&#8221; (mots et expressions), qui ont &#8220;entra&#238;n&#233;&#8221; le mod&#232;le d'apprentissage et de pr&#233;diction (savoir quel mot peut appara&#238;tre apr&#232;s quel autre et dans quel contexte par exemple, ce que l'on appelle la &#8220;vectorisation&#8221;) et un mod&#232;le manipulant 175 milliards de param&#232;tres qui sont autant de possibilit&#233;s d'agencement g&#233;n&#233;ratif de ces 500 milliards de tokens.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;La question, peut-&#234;tre la seule, est de savoir et de comprendre &#224; qui nous parlons quand nous parlons &#224; ChatGPT-3 ?&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Quand nous posons une question &#224; GPT-3 via l'interface ChatGPT &lt;strong&gt;nous dialoguons donc &#224; la fois avec un m&#233;lange loin d'&#234;tre chimiquement pur de l'un des plus vastes corpus de texte d'une humanit&#233; post-num&#233;rique mais aussi avec d'invisibles agencements de supervision&lt;/strong&gt; qui n'ont rien &#224; envier aux Pythies de Delphes.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Achever Babel.&lt;/h3&gt;
&lt;p&gt;S'adresser &#224; ChatGPT-3 c'est mettre &#224; l'&#233;preuve une immensit&#233; que l'on pense &#234;tre suffisante pour d&#233;tenir des r&#233;ponses &#224; chacune de nos questions. Entra&#238;n&#233;s que nous sommes depuis des ann&#233;es par l'&lt;em&gt;habitus&lt;/em&gt; Google &#224; consid&#233;rer qu'il n'y a que des r&#233;ponses. &#8220;&lt;em&gt;&lt;a href=&#034;https://www.youtube.com/watch?v=PQeeZ-SD_iU&#034;&gt;Il n'y aura plus que des r&#233;ponses&lt;/a&gt;&lt;/em&gt;&#8220;, proph&#233;tisait d&#233;j&#224; Marguerite Duras.&lt;/p&gt;
&lt;p&gt;Ces technologies, ces r&#233;ponses nous &lt;em&gt;enthousiasment&lt;/em&gt;. Elles sont, litt&#233;ralement et &#233;tymologiquement, le souffle technologique quasi-indiscernable d'une technologie divinis&#233;e parce que d'apparence divinatoire et thaumaturge qui nous parle l&#224; o&#249; jadis ce sont les dieux qui parlaient &#224; travers la pythie.&lt;/p&gt;
&lt;p&gt;Le projet de Chat GPT-3 n'est rien d'autre que celui de l'ach&#232;vement de Babel. De la tour de Babel comme construction de l'interface ultime d'un rapport au monde enti&#232;rement soluble dans la langue. Comme dans le mythe fondateur, le projet des &#234;tres humains oeuvrant &#224; sa construction est de sonder une limite dont la nature m&#234;me du d&#233;passement engage notre humanit&#233; tout enti&#232;re. Reste &#224; d&#233;couvrir ce qui fait encore obstacle &#224; cet ach&#232;vement.&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter wp-image-9168 ' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH366/984px-Pieter4959-4440f387-1151e.jpg?1706935749' alt=&#034;&#034; width='500' height='366' srcset=&#034;local/cache-vignettes/L500xH366/984px-Pieter4959-937e4.jpg?1674140429 984w, https://affordance.framasoft.org/wp-content/uploads/2022/12/984px-Pieter_Bruegel_the_Elder_-_The_Tower_of_Babel_Vienna_-_Google_Art_Project_-_edited-300x220.jpg 300w, https://affordance.framasoft.org/wp-content/uploads/2022/12/984px-Pieter_Bruegel_the_Elder_-_The_Tower_of_Babel_Vienna_-_Google_Art_Project_-_edited-768x562.jpg 768w, https://affordance.framasoft.org/wp-content/uploads/2022/12/984px-Pieter_Bruegel_the_Elder_-_The_Tower_of_Babel_Vienna_-_Google_Art_Project_-_edited-600x439.jpg 600w&#034; sizes=&#034;(max-width: 600px) 100vw, 600px&#034; /&gt;&lt;/p&gt;
&lt;p style=&#034;text-align: center;&#034;&gt;&lt;a href=&#034;https://fr.wikipedia.org/wiki/La_Tour_de_Babel_(Brueghel)&#034;&gt;La tour de Babel de Brueghel&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter wp-image-9169' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH500/DALLE-2022-11901-7288d57b-f8e76.png?1706935749' alt=&#034;&#034; width='500' height='500' srcset=&#034;https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.53.05-painting-of-the-achievement-of-the-tower-of-Babel-by-Brueghel-the-Old.png 1024w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.53.05-painting-of-the-achievement-of-the-tower-of-Babel-by-Brueghel-the-Old-300x300.png 300w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.53.05-painting-of-the-achievement-of-the-tower-of-Babel-by-Brueghel-the-Old-150x150.png 150w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.53.05-painting-of-the-achievement-of-the-tower-of-Babel-by-Brueghel-the-Old-768x768.png 768w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.53.05-painting-of-the-achievement-of-the-tower-of-Babel-by-Brueghel-the-Old-600x600.png 600w&#034; sizes=&#034;(max-width: 600px) 100vw, 600px&#034; /&gt;&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter wp-image-9170' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH500/DALLE-2022-1b4d9-fb9366ce-2f73f.png?1706935749' alt=&#034;&#034; width='500' height='500' srcset=&#034;https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.52.51-Babel-tower-achieved-by-Brueghel-the-Old.png 1024w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.52.51-Babel-tower-achieved-by-Brueghel-the-Old-300x300.png 300w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.52.51-Babel-tower-achieved-by-Brueghel-the-Old-150x150.png 150w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.52.51-Babel-tower-achieved-by-Brueghel-the-Old-768x768.png 768w, https://affordance.framasoft.org/wp-content/uploads/2022/12/DALL&#183;E-2022-12-30-11.52.51-Babel-tower-achieved-by-Brueghel-the-Old-600x600.png 600w&#034; sizes=&#034;(max-width: 600px) 100vw, 600px&#034; /&gt;&lt;/p&gt;
&lt;p style=&#034;text-align: center;&#034;&gt;&#8220;&lt;em&gt;Peinture de la tour de Babel achev&#233;e &#224; la fa&#231;on de Brueghel.&lt;/em&gt;&#8221;&lt;br /&gt;
(r&#233;sultat du prompt propos&#233; &#224; Dall-E)&lt;/p&gt;
&lt;p&gt;Dans cette nouvelle version de Babel, une version potentiellement achevable, l'enjeu n'est pas de savoir si l'ensemble des &#234;tres humains seront en capacit&#233; de se comprendre par-del&#224; la barri&#232;re de la langue. Ils le sont d&#233;j&#224; pour l'essentiel. L'enjeu est est de savoir ce que devient l'humanit&#233; quand elle pose l'ensemble de ses questions &#224; la m&#234;me entit&#233;, au m&#234;me agencement collectif d'&#233;nonciation et que celui-ci lui demeure pour l'essentiel indiscernable.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;Nous en avons pour l'essentiel termin&#233; avec les technologies qui faisaient de la question du langage une question politique&lt;/strong&gt; (capitalisme linguistique notamment).&lt;strong&gt; Nous devons maintenant affronter des technologies qui font de la question du langage une question philosophique appelant &#224; une r&#233;flexion &#233;thique radicale sur ses conditions de production, de g&#233;n&#233;ration, d'artificialisation et de mise en circulation.&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;La question politique et &#233;conomique n'est &#233;videmment pas totalement &#233;vacu&#233;e. Le mod&#232;le propri&#233;taire de GPT-3 fonctionne d'ailleurs en partie l&#224;-dessus. A la fois trivialement (parce qu'il est possible d'allonger, contre facturation idoine, la longueur des textes g&#233;n&#233;r&#233;s) et ontologiquement (puisque les conditions d'extraction, de constitution, et d'acc&#232;s aux diff&#233;rents &#233;tats des diff&#233;rents corpus mobilis&#233;s demeure une question d'&#233;conomie politique, et que la nature m&#234;me de ces corpus &lt;em&gt;est&lt;/em&gt; politique).&lt;/p&gt;
&lt;p&gt;Lentement mais aussi s&#251;rement qu'inexorablement, nous sommes en train de collectivement et singuli&#232;rement red&#233;finir notre rapport &#224; la langue. A l'&#233;chelle de cette grande interface membranaire du monde que l'on nomme &#8220;le num&#233;rique&#8221;, nous parlons constamment &#224; des moteurs de recherche, &#224; des algorithmes, &#224; des individus ou &#224; des collectifs absents au moment m&#234;me de l'&#233;nonciation, et d&#233;sormais &#224; des agencements et &#224; des g&#233;n&#233;rateurs.&lt;/p&gt;
&lt;p&gt;Il est assez troublant de penser que des enceintes connect&#233;es &#224; ChatGPT-3 en passant par l'ensemble de nos commandes vocales, nous nous adressons, nous adressons, et nous entra&#238;nons principalement des artefacts techniques qui sont autant de faits &#233;nonciatifs plus ou moins performatifs ou assertifs. &lt;strong&gt;Et qu'une part de plus en plus significative de notre exp&#233;rience du monde ne noue dans ces espaces essentiellement extractivistes dans lesquels la question du langage n'a de sens que par sa pr&#233;visibilit&#233; calculatoire.&lt;/strong&gt;&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;&#8220;It is a tale, told by an &lt;del&gt;idiot&lt;/del&gt; expert, full of sound and fury.&#8221;&lt;/h3&gt;
&lt;p&gt;Plus nous sommes confront&#233;s &#224; des mod&#232;les linguistiques &#8220;larges&#8221; (Google, le moteur de recherche, &#233;tait le premier, les LLMo &#8211; Large Language Models &#8211; sont les seconds) et plus ces mod&#232;les sont &#8220;autonomes&#8221; et &#8220;non-supervis&#233;s&#8221; (les mod&#232;les supervis&#233;s posent d'autres probl&#232;mes de labellisation et d'&#233;tiquetage notamment), plus nous &#233;prouvons la difficult&#233; de renforcer nos heuristiques de preuve lors m&#234;me que ces derni&#232;res deviennent vitales. Je m'explique.&lt;/p&gt;
&lt;p&gt;L'une des grandes questions que pose le d&#233;ploiement grand public de Chat GPT-3 est celui d'une dynamique renouvel&#233;e de ce que j'appelais la &lt;a href=&#034;https://www.liberation.fr/ecrans/2008/01/17/wikipedia-est-un-projet-encyclopedique-et-un-bien-commun-de-l-humanite_954216/&#034;&gt;bab&#233;lisation des expertises&lt;/a&gt; lorsque j'&#233;voquais la r&#233;volution naissante de Wikip&#233;dia &#224; l'&#233;chelle de la transmission et de la fabrique des savoirs et des connaissances. Dans ce contexte particulier, cette bab&#233;lisation &#233;tait essentiellement une opportunit&#233; parce qu'elle permettait de faire reposer la charge de construction des savoirs et des connaissances sur une base plus large tout en &#233;vitant les d&#233;rives gr&#226;ce &#224; de constants et transparents processus humains de mod&#233;ration et de collaboration.&lt;/p&gt;
&lt;p&gt;Avec Chat GPT-3 et plus globalement avec les mod&#232;les linguistiques de pointe qui permettent de d&#233;ployer des &#8220;points de vue&#8221; que l'on a t&#244;t fait de qualifier d'experts sur tout un tas de champs allant de la programmation &#224; la g&#233;n&#233;ration d'oeuvres de fiction en passant par une aide au diagnostic m&#233;dical ou &#224; l'&#233;criture de cours ou de conf&#233;rences, le probl&#232;me est celui d'une artificialisation de toute forme d'expertise. &lt;strong&gt;Une expertise simul&#233;e qui flirte constamment et dangereusement avec le simulacre&lt;/strong&gt;.&lt;/p&gt;
&lt;p&gt;Je vous donne un exemple. Chacun de nous peut-&#234;tre bluff&#233; par l'aide au diagnostic propos&#233;e par Chat GPT-3 sur un certain nombre de situations cliniques simplement d&#233;crites (un &lt;a href=&#034;https://twitter.com/JoniKamarainen/status/1598594627891871745&#034;&gt;exemple ici avec les jambes qui flageollent et des difficult&#233;s respiratoires&lt;/a&gt;). M&#234;me s'il faut rappeler que lors de premi&#232;res exp&#233;rimentations avec des patients simul&#233;s elle conseilla &#224; certains de simplement se suicider, disons que dans les versions actuelles et post-supervis&#233;es, le diagnostic propos&#233; est &#224; tout le moins plus pertinent que celui des forums Doctissimo remont&#233;s pas Google sur le m&#234;me genre de description clinique. Cette m&#234;me capacit&#233; diagnostique peut m&#234;me &#233;tonner ou bluffer des m&#233;decins et des sp&#233;cialistes en cardiologie par exemple. Le probl&#232;me, et il est majeur, ce n'est pas de savoir si Chat GPT-3 est capable de poser des diagnostics plus ou moins corrects ; le probl&#232;me n'est d'ailleurs pas non plus de savoir si ces diagnostics sont corrects ou erron&#233;s ;&lt;strong&gt; le probl&#232;me c'est de savoir qui est capable d'attester que le diagnostic est correct ou erron&#233; et &#224; quel moment cette personne est capable de le faire dans une cha&#238;ne d&#233;cisionnelle o&#249; le diagnostic pos&#233; par Chat GPT-3 peut &#224; tout moment &#234;tre activ&#233; dans une prise de d&#233;cision individuelle ou collective.&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Comme le r&#233;sume parfaitement &lt;a href=&#034;https://twitter.com/JoniKamarainen/status/1598594627891871745&#034;&gt;Jukka Suomela, enseignant-chercheur en informatique&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Le gros probl&#232;me est que ChatGPT est extr&#234;mement dou&#233; pour simuler l'expertise. Vous devez &#234;tre un expert qui conna&#238;t d&#233;j&#224; la bonne r&#233;ponse pour savoir si ChatGPT a &#233;galement raison ou s'il ne fait que produire des d&#233;chets sans int&#233;r&#234;t. Cela peut &#234;tre dangereux : on voit que ChatGPT obtient bien les choses que l'on sait d&#233;j&#224;, on commence &#224; lui faire confiance, puis on l'utilise pour quelque chose qui sort l&#233;g&#232;rement de son champ d'expertise, et il donne une r&#233;ponse d'apparence convaincante qui n'est qu'un tas de jargon al&#233;atoire copi&#233;-coll&#233;.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Apr&#232;s la bab&#233;lisation des expertises, vertueuse, de Wikip&#233;dia (entre autres) parce qu'elle part des individus isol&#233;s pour contribuer &#224; une oeuvre collective, se manifeste et se dessine donc une archip&#233;lisation des expertises mais qui se fait cette fois dans le sens inverse, de la communaut&#233; vers l'individu, renfor&#231;ant m&#233;caniquement notre app&#233;tence naturelle &#224; &lt;a href=&#034;https://fr.wikipedia.org/wiki/Ultracr%C3%A9pidarianisme&#034;&gt;l'ultracr&#233;pidarianisme&lt;/a&gt;. La version optimiste de l'histoire indique que chacun pourra b&#233;n&#233;ficier de cette archip&#233;lisation comme d'un amor&#231;age qu'il ira tester &#224; l'&#233;preuve de savoirs constitu&#233;s dans des collectifs transparents et par nature non-partisans. &lt;strong&gt;La version pessimiste de la m&#234;me histoire nous m&#232;ne &#224; un monde o&#249; chacun n'aura que l'intelligence de sa croyance et pour seule ambition d'aller l'exposer sur un plateau t&#233;l&#233; de CNews.&lt;/strong&gt;&lt;/p&gt;
&lt;p&gt;Avec ces artefacts g&#233;n&#233;ratifs capables de g&#233;n&#233;rer des images sur une &#233;chelle perceptive s'&#233;tendant de l'imitation figurative &#224; l'artistique, capables aussi de g&#233;n&#233;rer du texte sur une &#233;chelle interpr&#233;tative de l'analytique au symbolique, et avec demain ces m&#234;mes artefacts capables de g&#233;n&#233;rer des s&#233;quences vid&#233;os, la question n'est plus seulement celle des &lt;a href=&#034;https://affordance.framasoft.org/2008/09/technologies-de-2/&#034;&gt;technologies de l'artefact&lt;/a&gt;, des &lt;a href=&#034;https://affordance.framasoft.org/2018/04/fifty-shades-of-fake/&#034;&gt;Fake News&lt;/a&gt; et des &lt;a href=&#034;https://affordance.framasoft.org/2021/09/hotel-du-temps/&#034;&gt;Deep Fakes&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;&lt;strong&gt;La question c'est celle d'une dilution exponentielle des heuristiques de preuve&lt;/strong&gt;. Celle d'une &lt;a href=&#034;https://fr.wikipedia.org/wiki/Loi_de_Brandolini&#034;&gt;loi de Brandolini&lt;/a&gt; dans laquelle toute production s&#233;miotique, par ses conditions de production m&#234;me (ces derni&#232;res &#233;tant par ailleurs souvent dissimul&#233;es ou indiscernables), poserait la question de l'&#233;nergie n&#233;cessaire &#224; sa r&#233;futation ou &#224; l'&#233;tablissement de ses propres heuristiques de preuve.&lt;/p&gt;
&lt;p&gt;Nous ne sommes pas encore sortis d'un moment technologique et m&#233;diatique o&#249; nous nous interrogions sur la pertinence de faire appel &#224; des syst&#232;mes &#8220;d'intelligence artificielle&#8221; pour lutter contre les Fake News et voil&#224; que nous entrons d&#233;j&#224; dans un monde o&#249; d'autres &#8220;intelligences artificielles&#8221; (vous comprenez pourquoi je n'aime pas ce terme &#8230;) g&#233;n&#232;rent des litanies textuelles dont nous n'avons pas les moyens incr&#233;mentaux de v&#233;rifier syst&#233;matiquement la valeur de v&#233;rit&#233;, que ce soit par la recherche et le raisonnement ou par la v&#233;rification exp&#233;rimentale. Vous le voyez approcher le moment o&#249; l'on va nous expliquer que le meilleur moyen de v&#233;rifier les assertions de g&#233;n&#233;rateurs d'intelligence artificielle c'est d'utiliser &#8230; d'autres intelligences artificielles ??&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Est-ce la fin de Google (et des moteurs de recherche) ?&lt;/h3&gt;
&lt;p&gt;C'est &lt;a href=&#034;https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html?smid=tw-share&#034;&gt;l'une des questions qui revient le plus souvent&lt;/a&gt; dans la profusion de r&#233;cits et de commentaires autour de Chat GPT-3. Il est vrai que cette capacit&#233; de produire des r&#233;ponses construites et le plus souvent coh&#233;rentes, contextuelles, sur tous les sujets, en tenant compte d'un historique conversationnel, en fait au moins potentiellement un rival de choix. Sauf que la question n'a pas grand sens dans l'absolu. Un moteur de recherche g&#233;n&#233;raliste comme Google, r&#233;pond &#224; des requ&#234;tes marchandes, transactionnelles (comparateurs de prix), informationnelles, mais aussi navigationnelles (pour ne parler que des trois cat&#233;gories principales d&#233;finies dans &lt;a href=&#034;https://dl.acm.org/doi/10.1145/792550.792552&#034;&gt;l'article fondateur de Broder&lt;/a&gt;). L'objet de GPT-3 n'est ainsi aucunement d'&#234;tre en capacit&#233; de fournir des liens ou des adresses, de vous indiquer le meilleur appareil &#224; raclette sur le march&#233;, ou de vous donner le num&#233;ro de t&#233;l&#233;phone de la pharmacie de garde. Mais pour tout un ensemble de sc&#233;narios de recherche qui n&#233;cessitent ou r&#233;clament la mobilisation de connaissances d&#233;claratives (&#8220;&lt;em&gt;qu'est qu'une intelligence artificielle ?&lt;/em&gt;&#8220;) ou proc&#233;durales (&#8220;&lt;em&gt;comment r&#233;aliser une tarte au citron ?&lt;/em&gt;&#8220;), GPT-3 r&#233;alise &#224; ce jour parfaitement et &#8220;dialogiquement&#8221; l'affaire. M&#234;me si dans le dernier cas par exemple, GPT-3 se &#8220;contente&#8221; de r&#233;diger la concat&#233;nation de recettes de tartes au citron qu'il a trouv&#233; dans son corpus, et m&#234;me si cela ne diff&#232;re pas radicalement du fait de taper &#8220;&lt;em&gt;recette tarte au citron&lt;/em&gt;&#8221; sur Google puis d'aller lire la page Marmiton.org qui ressort en premier, c'est le contexte d'usage et le contexte de t&#226;che qui d&#233;termineront l'opportunit&#233; de remplacer le moteur Google par le mod&#232;le GPT, de remplacer la consultation de l'affichage d'une liste par la r&#233;daction d'un avis dialogu&#233; (quelques &lt;a href=&#034;https://twitter.com/jdjkelly/status/1598021488795586561&#034;&gt;exemples parlants dans ce thread&lt;/a&gt;). L'objectif poursuivi par Google depuis de longues ann&#233;es, celui du &#8220;z&#233;ro clic&#8221; c'est &#224; dire de donner directement la r&#233;ponse &#224; une requ&#234;te sur le premier item de la premi&#232;re page de r&#233;sultats, est parfaitement rempli par GPT-3.&lt;/p&gt;
&lt;p&gt;Je ne crois pas pour autant que Google soit particuli&#232;rement inquiet de l'arriv&#233;e de GPT-3 comme potentiel concurrent.&lt;/p&gt;
&lt;p&gt;D'abord pour des raisons &#233;conomiques. Le mod&#232;le de Google repose sur la publicit&#233;. Et comme &lt;a href=&#034;https://www.nytimes.com/2022/12/21/technology/ai-chatgpt-google-search.html?smid=tw-share&#034;&gt;soulign&#233; ici&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Google a un probl&#232;me de mod&#232;le &#233;conomique (&#8230;) Si Google vous donne la r&#233;ponse parfaite &#224; chaque requ&#234;te, vous ne cliquerez sur aucune publicit&#233;.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Mais on pourrait aussi consid&#233;rer &#8211; c'est d'ailleurs d&#233;j&#224; souvent le cas &#8211; que la r&#233;ponse parfaite &#224; chaque requ&#234;te soit &#8230; &lt;em&gt;toujours&lt;/em&gt; une publicit&#233;. La question est alors de savoir comment faire de l'environnement dialogual de Chat GPT-3 un environnement de publicitarisation, c'est &#224; dire dans lequel toute la production linguistique ou s&#233;miotique ne serait qu'au service et &#224; l'image d'un discours publicitaire.&lt;/p&gt;
&lt;p&gt;Je n'y crois pas non plus pour des raisons &#224; la fois historiques et techniques. Google est le premier acteur de l'industrie du web a avoir capitalis&#233; sur la production linguistique de l'humanit&#233; tout enti&#232;re. Souvenez-vous au lancement de Google Books lorsque j'expliquais qu'il n'&#233;tait pas en train de se payer une danseuse mais que cela (la num&#233;risation &#224; marche forc&#233;e de textes du domaine public) correspondait tr&#232;s exactement &#224; l'affinage de son mod&#232;le linguistique et donc &#233;conomique. En termes de LLMo (&#8220;Large Langage Models&#8221;) il est donc historiquement l'acteur le plus ancien. Mais &#224; cet avantage historique et technique s'ajoutent les propres d&#233;veloppements de Google dans le domaine de l'ing&#233;nierie linguistique. Apr&#232;s son mod&#232;le BERT (pour am&#233;liorer la compr&#233;hension fine des requ&#234;tes), il d&#233;veloppe aujourd'hui le mod&#232;le &lt;a href=&#034;https://ai.googleblog.com/2022/04/pathways-language-model-palm-scaling-to.html&#034;&gt;PaLM (Pathways Language Model)&lt;/a&gt;, qui appartient &#224; la m&#234;me &#8220;famille&#8221; que GPT-3 (un mod&#232;le de langage reposant sur un r&#233;seau de neurones de type Transformer) mais compos&#233; de non plus 175 mais 540 milliards de param&#232;tres &#8230; En d'autres termes, si un jour un mod&#232;le de langage doit remplacer le moteur de recherche Google, ce sera un mod&#232;le de langage &#8230; produit et contr&#244;l&#233; par Google.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Tentative d'&#233;puisement du langage.&lt;/h3&gt;
&lt;p&gt;Il y a quelques ann&#233;es de cela on parlait de &#8220;Lazy Web&#8221;, ou m&#234;me des ann&#233;es auparavant de &#8220;&lt;a href=&#034;https://affordance.framasoft.org/2008/01/blogosphre-ou-l/&#034;&gt;Lazy Sphere&lt;/a&gt;&#8221; pour d&#233;signer certaines pratiques de reprise conversationnelle autour des blogs. Aujourd'hui l'expression &#224; la mode est celle d'une &#8220;&lt;a href=&#034;https://www.jean-jaures.org/publication/les-francais-et-la-fatigue-informationnelle-mutations-et-tensions-dans-notre-rapport-a-linformation/&#034;&gt;fatigue informationnelle&lt;/a&gt;&#8221; entendue comme cette impression de lire, entendre ou voir toute la journ&#233;e les m&#234;mes informations et de ne pas pouvoir prendre suffisamment de recul pour les comprendre, ou les analyser.&lt;/p&gt;
&lt;p&gt;L'id&#233;e, d&#233;j&#224; ancienne &#224; l'&#233;chelle d'un web pourtant si jeune, d'une forme de fatigue ou de paresse devant un double ph&#233;nom&#232;ne de multiplication exponentielle des expressions discursives d'une part (que dire d'int&#233;ressant ou d'utile qui ne l'ait pas d&#233;j&#224; &#233;t&#233; ?) et de n&#233;cessit&#233; d'inclusion sociale d'autre part (comme dire que l'on partage un point de vue, une posture, une id&#233;e ou une id&#233;ologie sans n&#233;cessairement avoir &#224; l'exprimer ou &#224; l'argumenter).&lt;/p&gt;
&lt;p&gt;La multiplication des ing&#233;nieries sociales relationnelles et attentionnelles (le like, le Retweet et les diff&#233;rentes m&#233;triques permettant de mesurer l'engagement) nous fournirent aussi les moyens d'&#234;tre paresseuses et paresseux. D'agir &#224; co&#251;t cognitif quasi-nul. Beaucoup des artefacts g&#233;n&#233;ratifs (Midjourney, Dall-E, ChatGPT et les autres) contribuent &#224; l&#233;gitimer et &#224; amplifier ce sentiment de paresse qui na&#238;t d'une &#8220;commodit&#233;&#8221; technique se d&#233;ployant sans la moindre friction et d&#233;sormais m&#234;me capable de &#8230; fiction.&lt;/p&gt;
&lt;p&gt;Mais si paresse ou fatigue il y a, elle ne provient pas que d'une inclinaison naturelle au moindre effort mais aussi d'un sentiment sisyph&#233;en de vanit&#233; devant une tentative d'&#233;puisement du monde et du langage de plus en plus aboutie. Et dont Chat GPT-3 est, bien s&#251;r, un sympt&#244;me, un stigmate, et peut-&#234;tre un nouveau point de bascule.&lt;/p&gt;
&lt;p&gt;Il y a &lt;a href=&#034;https://www.ictjournal.ch/interviews/2022-03-02/francois-chollet-google-on-aura-bientot-entraine-les-modeles-sur-tous-les&#034;&gt;cette phrase de Fran&#231;ois Chollet&lt;/a&gt;, l'un des scientifiques leaders de l'intelligence artificielle et du Deep Learning chez Google. Vertigineuse.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;On est proche du moment o&#249; on aura entra&#238;n&#233; les mod&#232;les sur toutes les donn&#233;es textes humainement disponibles, on n'aura plus rien pour les alimenter.&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Il y a la phrase de Duras. Visionnaire.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;&lt;a href=&#034;https://www.youtube.com/watch?v=PQeeZ-SD_iU&#034;&gt;Il n'y aura plus que des r&#233;ponses.&lt;/a&gt;&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Il y a cette phrase d'Apostolos Gerasoulis, &lt;a href=&#034;https://affordance.framasoft.org/2010/09/la-reponse-avant-la-question/&#034;&gt;l'un des ing&#233;nieurs en chef d'un vieux moteur de recherche&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;Qu'arrivera-t-il si nous r&#233;pondons mal &#224; des requ&#234;tes comme &#8220;amour&#8221; ou &#8220;ouragan&#8221; ?&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Et aujourd'hui il y a Chat GPT-3. Et puis GPT-4 demain. Et Pathways. Et tous les autres mod&#232;les le langage. Et il y a ces trois questions qui restent.&lt;/p&gt;
&lt;ol&gt;
&lt;li&gt;&#8220;Toutes les donn&#233;es texte humaines auront &#233;t&#233; trait&#233;es.&#8221;&lt;/li&gt;
&lt;li&gt;&#8220;Il n'y aura plus que des r&#233;ponses.&#8221;&lt;/li&gt;
&lt;li&gt;&#8220;Qu'arrivera-t-il si nous r&#233;pondons mal &#224; des requ&#234;tes comme amour ou ouragan ?&#8221;&lt;/li&gt;
&lt;/ol&gt;
&lt;p&gt;Il y a, simplement, l'importance de porter et de poser ces questions. Et l'incapacit&#233; de ces artefacts g&#233;n&#233;ratifs &#224; le faire. Et il y a le bruit du monde. Et des vacuoles de solitude &#224; reconstruite. A l'abri de ce bruit. Ce qu'expliquait Deleuze et qui r&#233;sonne aujourd'hui &#233;trangement dans cette saturation et cet &#233;puisement du langage.&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;On fait parfois comme si les gens ne pouvaient pas s'exprimer. Mais, en fait, ils n'arr&#234;tent pas de s'exprimer. (&#8230;) et nous sommes transperc&#233;s de paroles inutiles, de quantit&#233;s d&#233;mentes de paroles et d'images. La b&#234;tise n'est jamais muette ni aveugle. Si bien que le probl&#232;me n'est plus de faire que les gens s'expriment, mais de leur m&#233;nager des vacuoles de solitude et de silence &#224; partir desquelles ils auraient enfin quelque chose &#224; dire. Les forces de r&#233;pression n'emp&#234;chent pas les gens de s'exprimer, elles les forcent au contraire &#224; s'exprimer. Douceur de n'avoir rien &#224; dire, droit de n'avoir rien &#224; dire, puisque c'est la condition pour que se forme quelque chose de rare ou de rar&#233;fi&#233; qui m&#233;riterait un peu d'&#234;tre dit. Ce dont on cr&#232;ve actuellement, ce n'est pas du brouillage, c'est des propositions qui n'ont aucun int&#233;r&#234;t. Or ce qu'on appelle le sens d'une proposition, c'est l'int&#233;r&#234;t qu'elle pr&#233;sente. Il n'y a pas d'autre d&#233;finition du sens, et &#231;a ne fait qu'un avec la nouveaut&#233; d'une proposition. On peut &#233;couter des gens pendant des heures : aucun int&#233;r&#234;t&#8230; C'est pour &#231;a que c'est tellement difficile de discuter, c'est pour &#231;a qu'il n'y a pas lieu de discuter, jamais. On ne va pas dire &#224; quelqu'un : &#171; &#199;a n'a aucun int&#233;r&#234;t, ce que tu dis ! &#187; On peut lui dire : &#171; C'est faux. &#187; Mais ce n'est jamais faux, ce que dit quelqu'un, c'est pas que ce soit faux, c'est que c'est b&#234;te ou que &#231;a n'a aucune importance. C'est que &#231;a a &#233;t&#233; mille fois dit. Les notions d'importance, de n&#233;cessit&#233;, d'int&#233;r&#234;t sont mille fois plus d&#233;terminantes que la notion de v&#233;rit&#233;. Pas du tout parce qu'elles la remplacent, mais parce qu'elles mesurent la v&#233;rit&#233; de ce que je dis. M&#234;me en math&#233;matiques : Poincar&#233; disait que beaucoup de th&#233;ories math&#233;matiques n'ont aucune importance, aucun int&#233;r&#234;t. Il ne disait pas qu'elles &#233;taient fausses, c'&#233;tait pire. &#187;&lt;br /&gt;
Gilles Deleuze, Pourparlers, &#171; Les intercesseurs &#187;, &#171; Le couple d&#233;borde &#187;, Paris, Editions de Minuit, 1990&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt; La parabole Pinocchio.&lt;/h3&gt;
&lt;p&gt;Chat GPT-3. GPT. Un acronyme de &#8220;Generative Pre-trained Transformer&#8221;. GPT. En anglais phon&#233;tique &#8220;dji pi ti&#8221;. L'avez-vous comme moi dans l'oreille ? La premi&#232;re fois o&#249; j'ai entendu cet acronyme c'est un nom qui m'est spontan&#233;ment venu &#224; l'esprit. GPT. Comme Geppetto. Oui, celui du &lt;a href=&#034;https://fr.wikipedia.org/wiki/Les_Aventures_de_Pinocchio&#034;&gt;conte de Pinocchio, &#233;crit par Carlo Collodi&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Geppetto, un pauvre menuisier italien, fabrique par accident dans un morceau de bois &#224; br&#251;ler un pantin qui pleure, rit et parle comme un enfant, une marionnette qu'il nomme Pinocchio. Celui-ci lui fait tout de suite des tours et il lui arrive de nombreuses aventures : il rencontre Mangefeu, le montreur de marionnettes, le Chat et le Renard qui l'attaquent et le pendent. C'est la F&#233;e bleue qui le sauve. Son nez s'allonge &#224; chaque mensonge&#8230; Il part ensuite avec son ami Lumignon pour le Pays des jouets, et ils sont transform&#233;s tous les deux en baudets. Il est ensuite jet&#233; &#224; la mer et aval&#233; par une &#233;norme baleine dans le ventre de laquelle il retrouve Geppetto. Finalement il se met &#224; travailler et &#224; &#233;tudier et il se r&#233;veille un beau jour transform&#233; en v&#233;ritable petit gar&#231;on en chair et en os.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;GPT Geppetto. Et le langage Pinocchio. Le &#8220;Chat&#8221; qui par notre biais l'attaque constamment pour voir ce qu'il a dans le ventre. Chat-Geppetto. Les ruses de Renard que nous tentons aussi. Et le mensonge constant. Et la base de donn&#233;e, ce nez, qui s'allonge et s'enrichit &#224; chaque fois. Il en est qui par l'usage de Chat GPT-3 ou d'autres artefacts g&#233;n&#233;ratifs ne feront que devenir des &#226;nes, il en est d'autres aussi, qui deviendront peut-&#234;tre de meilleurs petits gar&#231;ons.&lt;/p&gt;
&lt;p&gt;Il y a peu de chances que la cr&#233;ation de &#8220;&lt;strong&gt;G&lt;/strong&gt;ep&lt;strong&gt;P&lt;/strong&gt;e&lt;strong&gt;T&lt;/strong&gt;to&#8221; se transforme un jour en v&#233;ritable petit gar&#231;on dot&#233; d'une v&#233;ritable intelligence. Peu de chances que ce que certains s'obstinent &#224; englober dans le vocable d'IA deviennent des IA &#8220;fortes&#8221; (c'est &#224; dire dot&#233;es d'une forme de conscience). Mais comme dans l'histoire de Pinocchio, il faut se souvenir de tout ce que fut capable de faire un simple pantin de bois. Un simple artefact g&#233;n&#233;ratif. Il faut se souvenir de tout ce dont nous l'avons &lt;em&gt;cru&lt;/em&gt; capable. Par le simple effort de notre imagination et par l'acceptation d'une narration. En un sens Chat GPT-3 est une mise &#224; l'&#233;preuve, en miroir, de ces r&#233;cits capables de fonder une humanit&#233; commune. C'est un conte. Dont nous sommes les protagonistes. Comme autant de personnages en qu&#234;te d'auteur(s).&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Apostille.&lt;/h3&gt;
&lt;p&gt;Dans cet article d&#233;j&#224; assez long, j'ai fait le choix de ne pas aborder la question pourtant centrale des diff&#233;rents biais (racistes, sexistes, religieux, de genre, etc.) dont ces artefacts g&#233;n&#233;ratifs sont &#224; la fois porteurs et pourvoyeurs. Je n'ai pas non plus abord&#233; &lt;em&gt;stricto sensu&lt;/em&gt; les enjeux &#233;thiques de ces gigantesques mod&#232;les linguistiques. Je ne l'ai pas fait car l'article est d&#233;j&#224; tr&#232;s long, mais surtout parce que j'ai d&#233;j&#224; fait dans un (autre tr&#232;s long) article d'Avril 2021 &#8220;&lt;a href=&#034;https://affordance.framasoft.org/2021/04/perroquets-stochastiques-attaque-typographique/&#034;&gt;Les perroquets stochastiques et l'attaque de la typographie g&#233;ante&lt;/a&gt;&#8221; qui s'appuyait notamment sur la lecture de l'article de Timnit GeBru et Emily Bender (et al.) &#8220;&lt;a href=&#034;https://dl.acm.org/doi/pdf/10.1145/3442188.3445922&#034;&gt;On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ?&lt;/a&gt;&#8221; (1). J'invite celles et ceux qui souhaiteraient approfondir les limites de ces mod&#232;les de langage &#224; s'y r&#233;f&#233;rer.&lt;/p&gt;
&lt;p&gt;Et je compl&#232;te cette r&#233;f&#233;rence par cet autre article de Weidinger Laura (et al.) sur &lt;a href=&#034;https://arxiv.org/abs/2112.04359&#034;&gt;les risques sociaux et &#233;thiques des mod&#232;les de langage&lt;/a&gt;. (2) dans lequel les auteurs (tous chercheurs chez Deepmind, soci&#233;t&#233; appartement &#224; Google) pointent, documentent et discutent une s&#233;rie de 21 risques r&#233;partis en 6 grandes cat&#233;gories :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;Nous pr&#233;sentons six domaines de risque sp&#233;cifiques : &lt;/em&gt;&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;I. Discrimination, exclusion et toxicit&#233;&lt;br /&gt;
II. Les dangers de l'information&lt;br /&gt;
III. M&#233;faits de la d&#233;sinformation&lt;br /&gt;
IV. Utilisations malveillantes&lt;br /&gt;
V. M&#233;faits de l'interaction homme-machine&lt;br /&gt;
VI. Automatisation, acc&#232;s et dommages environnementaux. &lt;/em&gt;&lt;/p&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;&lt;em&gt;Le premier domaine concerne la perp&#233;tuation des st&#233;r&#233;otypes, de la discrimination injuste, des normes d'exclusion, du langage toxique et des performances inf&#233;rieures par groupe social pour les Mod&#232;les de Langage (ML). Le deuxi&#232;me porte sur les risques de fuites de donn&#233;es priv&#233;es ou de d&#233;ductions correctes d'informations sensibles par les ML. Le troisi&#232;me aborde les risques d&#233;coulant d'informations m&#233;diocres, fausses ou trompeuses, y compris dans des domaines sensibles, et les risques en cha&#238;ne tels que l'&#233;rosion de la confiance dans les informations partag&#233;es. La quatri&#232;me partie traite des risques li&#233;s aux acteurs qui tentent d'utiliser les indicateurs de performance pour nuire. La cinqui&#232;me partie se concentre sur les risques sp&#233;cifiques aux ML utilis&#233;s pour &#233;tayer les agents conversationnels qui interagissent avec les utilisateurs humains, notamment l'utilisation dangereuse, la manipulation ou la tromperie. La sixi&#232;me partie aborde les risques li&#233;s &#224; l'environnement, &#224; l'automatisation des emplois et &#224; d'autres d&#233;fis susceptibles d'avoir un effet disparate sur diff&#233;rents groupes sociaux ou communaut&#233;s.&lt;/em&gt;&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;Et j'ajoute enfin que &lt;a href=&#034;https://arxiv.org/abs/2204.02311&#034;&gt;la partie &#8220;consid&#233;rations &#233;thiques&#8221; qui cl&#244;t l'article scientifique pr&#233;sentant PaLM&lt;/a&gt;, le mod&#232;le de langue de Google dont je vous parlais plus haut, pr&#233;conise &#8220;simplement&#8221; les &#233;l&#233;ments suivants apr&#232;s avoir rappel&#233; la difficult&#233; d'analyse et de rep&#233;rage de ces biais en partie consubstanciels aux corpus linguistiques mobilis&#233;s (3) :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;Les travaux futurs devraient porter sur sur le traitement efficace de ces biais ind&#233;sirables dans les donn&#233;es, et leur influence sur le comportement du mod&#232;le. En attendant, toute utilisation r&#233;elle de PaLM pour des t&#226;ches en aval devrait effectuer d'autres &#233;valuations d'&#233;quit&#233; contextualis&#233;es pour &#233;valuer les inconv&#233;nients potentiels et introduire des mesures d'att&#233;nuation et de protection appropri&#233;es.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;p&gt;(1) Bender, Emily M., et al. &#171; On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? &#187;. &lt;i&gt;Proceedings of the 2021 ACM Conference on Fairness, Accountability, and Transparency&lt;/i&gt;, ACM, 2021, p. 610&#8209;23. &lt;i&gt;DOI.org (Crossref)&lt;/i&gt;, &lt;a href=&#034;https://doi.org/10.1145/3442188.3445922&#034; class='spip_url spip_out auto' rel='nofollow external'&gt;https://doi.org/10.1145/3442188.3445922&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;(2) Weidinger, Laura, et al. &lt;i&gt;Ethical and social risks of harm from Language Models&lt;/i&gt;. arXiv, 8 d&#233;cembre 2021. &lt;i&gt;arXiv.org&lt;/i&gt;, &lt;a href=&#034;https://doi.org/10.48550/arXiv.2112.04359&#034; class='spip_url spip_out auto' rel='nofollow external'&gt;https://doi.org/10.48550/arXiv.2112.04359&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;(3) Chowdhery, Aakanksha, et al. &lt;i&gt;PaLM : Scaling Language Modeling with Pathways&lt;/i&gt;. arXiv, 5 octobre 2022. &lt;i&gt;arXiv.org&lt;/i&gt;, &lt;a href=&#034;https://doi.org/10.48550/arXiv.2204.02311&#034; class='spip_url spip_out auto' rel='nofollow external'&gt;https://doi.org/10.48550/arXiv.2204.02311&lt;/a&gt;.&lt;/p&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Bonus Track 1.&lt;/h3&gt;
&lt;p&gt;Cette courte vid&#233;o d'une interview de Sam Altman, le CEO d'OpenAI en 2019. On lui demandait quel &#233;tait le mod&#232;le &#233;conomique d'Open AI et &lt;a href=&#034;https://twitter.com/MathieuFlex/status/1605610737807679494&#034;&gt;il r&#233;pondait ceci&lt;/a&gt; :&lt;/p&gt;
&lt;blockquote&gt;
&lt;p style=&#034;text-align: left;&#034;&gt;On a fait une promesse &#224; nos investisseurs. Une fois qu'on aura construit ce syst&#232;me g&#233;n&#233;ral d'intelligence artificielle on va simplement lui poser la question : est-ce que tu peux nous g&#233;n&#233;rer un business model ? Je sais que &#231;a ressemble &#224; un &#233;pisode de Silicon Valley [s&#233;rie humoristique sur les d&#233;rives de la vall&#233;e &#233;ponyme] (&#8230;) Vous pouvez rigoler mais je crois vraiment que c'est ce qui va se passer.&lt;/p&gt;
&lt;/blockquote&gt;
&lt;h3 style=&#034;text-align: right;&#034;&gt;Bonus Track 2.&lt;/h3&gt;
&lt;p&gt;Il vous faut sans retard aller &lt;a href=&#034;https://twitter.com/fhouste/status/1600778944105807872&#034;&gt;lire le passionnant exercice auquel s'est livr&#233; Fran&#231;ois Houste&lt;/a&gt; (auteur entre autre des formidables &lt;a href=&#034;https://cfeditions.com/mikrodystopies/&#034;&gt;Mikrodystopies&lt;/a&gt;) pour entra&#238;ner et faire accepter &#224; Chat CGPT-3 que &#8220;&lt;em&gt;un scout qui fait caca&lt;/em&gt;&#8221; peut &#234;tre la r&#233;ponse &#224; la question &#8220;&lt;em&gt;qu'est-ce qui est vert et qui pousse au fond du jardin&lt;/em&gt;&#8220;. C'est tout &#224; fait vertigineux sur le fond et tout &#224; fait remarquable sur la forme.&lt;/p&gt;
&lt;p&gt;Je ne vous en mets qu'une seule copie d'&#233;cran mais &lt;a href=&#034;https://twitter.com/fhouste/status/1600778944105807872&#034;&gt;la totalit&#233; de l'&#233;change est au-del&#224; du savoureux et du jouissif&lt;/a&gt;.&lt;/p&gt;
&lt;p&gt;&lt;img decoding=&#034;async&#034; loading=&#034;lazy&#034; class='aligncenter wp-image-9190' src='https://www.innovation-pedagogique.fr/local/cache-vignettes/L500xH314/Fjcvi4KWIAAW7ec5-f6cb06d9-97dfa.jpg?1706935749' alt=&#034;&#034; width='500' height='314' srcset=&#034;local/cache-vignettes/L500xH314/Fjcvi4KWIAAW7ec5-4bccd.jpg?1674140431 1006w, https://affordance.framasoft.org/wp-content/uploads/2023/01/Fjcvi4KWIAAWZkz-300x188.jpeg 300w, https://affordance.framasoft.org/wp-content/uploads/2023/01/Fjcvi4KWIAAWZkz-768x482.jpeg 768w, https://affordance.framasoft.org/wp-content/uploads/2023/01/Fjcvi4KWIAAWZkz-600x376.jpeg 600w&#034; sizes=&#034;(max-width: 736px) 100vw, 736px&#034; /&gt;&lt;/p&gt;
&lt;/div&gt; &lt;div class=&#034;hyperlien&#034;&gt;Voir en ligne : &lt;a href=&#034;https://affordance.framasoft.org/2023/01/gpt-3-cest-toi-le-chat/&#034; class=&#034;spip_out&#034;&gt;https://affordance.framasoft.org/20...&lt;/a&gt;&lt;/div&gt;&lt;/div&gt;
		
		</content:encoded>


		

	</item>



</channel>

</rss>
