Mythologies Web de Jean-Marie Schaeffer
Généalogie du Net
Le point de départ de Jean-Marie Schaeffer pour ce très intéressant "tract", c'est l'idée de Marshall McLuhan suivant laquelle "il n'existe pas de médias neutres" (page 4) – ou pour le dire avec les mots de Günther Anders (qui pousse il est vrai l'idée un cran un peu plus loin) que "tout moyen est davantage qu'un moyen" (L'Obsolescence de l'homme, page 117).
Plus précisément, tout média génère fatalement, en raison de ses caractéristiques intrinsèques, "de puissantes illusions cognitives" (page 6) – des mythologies au sens de Roland Barthes, c'est-à-dire des "représentations socialement partagées qui fonctionnent sur le mode du vraisemblable ou de l'évidence" (page 3).
Il est d'autant plus important de recenser, comme le fait ici Jean-Marie Schaeffer, ces biais cognitifs (analogues à ceux que la zététique entend dénoncer, nous le verrons) qu'ils impactent fortement "la dynamique même de la formation et de la cristallisation des identités humaines" (page 5).
Dit autrement, en passant en revue chacune des strates sur lesquelles s'est sédimenté le Web actuel (les moteurs de recherche, les réseaux sociaux, les IA dites génératives), Jean-Marie Schaeffer procède à une "généalogie" du Net, au sens que Nietzsche puis Foucault donnaient à ce terme – et avec potentiellement la même velléité iconoclaste de détruire les fausses valeurs ainsi mises au jour.
Une des leçons qu'un commentateur maniaque tel que moi peut en effet tirer de ce parcours critique, c'est l'idée qu'à partir d'un certain point les fausses croyances pointées par Jean-Marie Schaeffer vont s'amalgamer au point de former une véritable religion numérique – cette religion du pire dont je vous parlais à propos des Angles morts du numérique ubiquitaire.
Il est en tout cas clair que le Web actuel, celui des IA, induit une véritable aliénation au sens de Feuerbach, puisque au lieu d'accepter les (éventuelles) difficultés d'une "rencontre" (page 38 ou 44) avec la réalité, autrement dit d'une expérience (Jean-Marie Schaeffer n'emploie guère ce terme qu'à propos du "spectateur" d'une oeuvre d'art, page 36, mais c'est bien ce dont il est question ici), nous nous en remettons à des IA pour traiter autant des questions simples que "nos problèmes psychiques, moraux ou existentiels" (page 33).
Cette éviction de toute expérience de nos vies, que Gûnther Anders (encore lui) dénonçait déjà, sous le nom de "distanciation" (non brechtienne), à propos de la télévision (toujours dans L'Obsolescence de l'homme, page 145 entre autres), n'est pas liée à un quelconque mésusage du Web des IA, qui serait potentiellement corrigeable ; elle est inscrite au coeur même de sa structure technologique, nous le verrons (enfin, j'espère).
C'est d'ailleurs la raison pour laquelle je suis si sceptique devant la branche japonaise du multiversalisme quand elle réclame la "démocratisation" de l'IA, et se fait ainsi (involontairement ?) complice de l'évangélisme technologique : à mon sens, il n'y a pas plus d'usage démocratique de l'IA (dans sa version actuelle, je précise) qu'il n'y a d'usage écologique d'un avion à réaction ou d'usage éthique d'une bombe atomique...
Le Web des moteurs de recherche
L'intérêt de remonter à cette première strate du Web que sont les moteurs de recherche est de démontrer, comme le fait Jean-Marie Schaeffer, que leurs deux principaux biais cognitifs vont se trouver amplifiés, plutôt que corrigés, par les strates suivantes.
Le premier biais est lié à l'indexation du contenu du Net par tous les mots – ou presque – présents sur une page (plutôt que par quelques mots-clés choisis par des bibliothécaires, pour utiliser la comparaison que fait Jean-Marie Schaeffer avec un catalogue) ; il en résulte une impression fallacieuse d'accès direct et immédiat à l'information, une "familiarisation" dirait Günther Anders (je cite ici la page 10 de Mythologies Web) :
"La croyance en un accès direct, transparent, à l'information est donc une mythologie directement produite par l'architecture même des moteurs de recherche. A mesure que cette architecture se complexifie, notamment du fait de l'utilisation de plus en plus massive d'algorithmes IA, il est de plus en plus difficile pour l'utilisateur de remonter à la source attestée de l'information."
Le deuxième biais tient précisément à ce qu'il peut n'y avoir aucune source fiable pour l'information fournie, qui est dans ce cas fallacieuse, mais qui n'en demeure pas moins référencée par le moteur de recherches ; or nous traitons à tort ce dernier comme un collègue qui aurait l'information nous faisant défaut (pages 11-12) :
"En effet, l'utilisateur qui interroge un moteur de recherche tend à le considérer non pas comme un automate d'indexation mais comme un expert. Cette idéalisation animiste, démultipliée par l'intégration des chatbots dans les moteurs de recherche, est une illusion : le moteur de recherche n'est pas une mémoire cognitive et, a fortiori, pas un expert."
Si le Web s'en était tenu à cette première strate, on pourrait se dire qu'il n'y a là rien qui ne puisse être compensé par un soupçon d'esprit critique (difficile à acquérir il est vrai), donc que c'est simplement une question d'éducation à un outil fondamentalement imparfait (et en prime possédé par des multinationales n'étant pas animées par des buts philanthropiques) – après tout, c'est peu ou prou la même problématique qu'un indicateur statistique, dont il vaut mieux savoir comment au juste il a été formé.
Le Web des réseaux sociaux
Même si Jean-Marie Schaeffer ne le dit jamais explicitement (il se contente de souligner les liens entre les deux strates page 16, et c'est bien suffisant), ces deux biais des moteurs de recherche sont clairement le terreau sur lequel va s'épanouir la fleur qui fait des ravages sur les réseaux sociaux (après avoir sévi sur les forums et les messageries) : "l'illusion d'expertise universelle" ou "ultracrépidarianisme" (page 15, d'après une célèbre anecdote de Pline) – la voie royale vers le complotisme.
Là encore, au vu de la description que fait Jean-Marie Schaeffer (page 19) des accumulations de coïncidences mises en avant par une républicaine américaine pour justifier une "construction complotiste particulièrement délirante" (page 20), on pourrait considérer qu'il s'agit fondamentalement d'un problème de sensibilisation à ce biais cognitif majeur qu'est l'effet cigogne, celui qui consiste à prendre une corrélation (il y a plus de naissances dans les communes abritant des cigognes) pour une causalité (ce sont les cigognes qui apportent les bébés).
Le problème, c'est que les multinationales qui possèdent les réseaux sociaux (je mets à part le cas Mastodon, que Jean-Marie Schaeffer n'examine pas, mais sur lequel je reviendrai brièvement) ont tout intérêt, pour de basses raisons commerciales, à encourager les travers des internautes plutôt qu'à les combattre (page 30) :
"En effet, la façon la plus efficace pour générer des flux consiste à booster les posts clivants ou à mèmes, parce que ce sont ces deux types de posts qui sont les plus lus, les plus forwardés et qui provoquent le plus de réponses. Du côté de ceux qui possèdent les réseaux sociaux, il s'agit là d'une invitation à biaiser les algorithmes afin qu'ils mettent en avant ces posts."
La justesse de cette analyse ressort d'autant plus si l'on compare ces réseaux lucratifs avec Mastodon, qui ne comprend aucune publicité (donc n'a a priori aucun intérêt à multiplier les flux pour appâter des annonceurs) : comme l'a fait remarquer Plume D. Serves, avec ce système personne ne va obtenir des nombres de vues comparables à ceux des autres réseaux sociaux, d'où une starification moindre de ses membres – et sans doute un effet répulsif pour celles et ceux en quête de gloire plutôt que de conversations.
C'est sans doute là un point que Jean-Marie Schaeffer aurait dû aborder (mais il n'en avait peut-être pas la place) : les internautes ne font pas que travailler gratuitement "comme producteurs de trafic et donc comme appâts pour les publicités, tout ceci pour le bénéfice des actionnaires du réseau social" (page 30), ils sont "rémunérés" de ce travail zombie (suivant la terminologie de Pierre Cassou-Noguès) par une certaine forme de prestige social, certes illusoire.
Comme le remarque par ailleurs Jean-Marie Schaeffer, pas de vraie "démocratie directe" ni même de "communication interhumaine" (page 30) sur les réseaux sociaux lucratifs, juste "des marchés d'opinions" (page 31) – la bourse des apparences dont s'est dotée la société du spectacle, pourrait-on dire (car au final, ça sera clair avec les IA, il s'agit bel et bien d'absenter toute expérience directe du monde de nos vies).
Le Web des IA (dé)génératives
Ici Jean-Marie Schaeffer se concentre (non sans raison car c'est un des points les plus mis en avant par les géants du numérique) sur les "imaginaires eschatologiques archaïques" (page 54) associées à l'IA, à savoir "la fin de l'art" (page 33), la fin de la science et donc, plus généralement, "la fin de l'homme" (page 48) – mais l'IA nous est tout autant vendue, en raison précisément de ce soi-disant potentiel de remplacement, comme un remède miracle à, par exemple, la crise écologique, qu'elle ne fait en fait qu'aggraver (Grise Bouille l'expliquait ici en images).
Le premier intérêt, majeur, de l'analyse de Jean-Marie Schaeffer est de souligner que, côté art comme côté science (ou côté image comme côté texte), l'IA (dite improprement "générative") est par nature incapable de vivre l'expérience nécessaire pour produire une oeuvre ou une connaissance vraiment nouvelle (et elle n'a pas non plus la moindre "intention en acte", voir page 39) :
– "Or l'art humain naît toujours de la rencontre de l'artiste non seulement avec les oeuvres de la tradition (donc avec un corpus) mais aussi avec le monde dans lequel il vit. L'algorithme en revanche este enfermé dans un tête-à-tête avec sa banque de données." (page 38)
– "Tous les éléments que le générateur de textes utilise pour produire ces textes proviennent de sa base de données. ils ne sont pas créés par lui après une enquête portant sur les réalités dont il "parle". Comme il n'a lui-même aucun accès au monde, il ne saurait produire de nouvelles connaissances, puisqu'une connaissance naît toujours d'une rencontre avec la réalité." (page 44)
En fait, selon moi (et selon Nick Cave je pense), c'est précisément la trace de cette expérience, possiblement douloureuse, et de cette "intention susceptible d'évoluer, de se transformer durant le processus lui-même et en réponse à ce processus" (page 39), que nous recherchons (sans le savoir ?) dans une oeuvre d'art (y compris dans sa "matérialité" telle que décrite page 35 par Jean-Marie Schaeffer).
De ce point de vue-là, il y a de l'indiciel (au sens de Peirce, voir page 37) dans tout art authentique, même non photographique, alors qu'il n'y en a strictement aucun dans les productions d'une IA – donc plutôt que de nous demander si nous sommes capables d'identifier la nature du producteur d'une oeuvre (humain ou IA, comme dans le pseudo-test de Turing critiqué page 36 par Jean-Marie Schaeffer), on ferait mieux de nous demander si l'oeuvre en question nous touche ou non...
L'éviction de l'expérience étant dans la nature de l'IA, on ne s'étonnera pas qu'elle soit utilisée précisément pour s'économiser cet effort qui, selon le Bergson de L'Energie spirituelle, faisait le prix de l'oeuvre d'art, afin de ne retenir du processus que son étape la moins essentielle : le prestige social (encore lui) qu'on retire éventuellement d'avoir signé une oeuvre d'art – en ce sens, je serai plus pessimiste que Jean-Marie Schaeffer sur "le danger pour l'art et les artistes" représenté par les IA (page 40), j'en parlais déjà à propos du multiversalisme.
Un telle utilisation de l'IA (comme esclave technique dirait Virgil Georghiu) contribue fortement à ce que Günther Anders appelle (dans Nous, fils d'Eichmann, page 54) "l'obcurcissement de notre monde", à savoir l'ignorance (coupable ?) d'à quoi sert au bout du compte notre travail (ou notre loisir) – une condition nécessaire à toute extermination qui se respecte (d'ailleurs les fanatiques de l'IA ignorent sa consommation démesurée de nos ressources naturelles, donc la catastrophe qu'elle précipite inexorablement).
Le deuxième intérêt, tout aussi majeur, de l'analyse menée ici par Jean-Marie Schaeffer, c'est de souligner (indirectement) que l'effet cigogne (la fausse identification entre corrélation et causalité, donc entre observation superficielle et compréhension profonde d'un phénomène) est au coeur même des réseaux de neurones artificiels qui sont la base de l'IA ; et il le fait en rappelant une célèbre "expérience de pensée" de John Searle, sur laquelle je vais un peu m'attarder (page 50) :
"Dans une chambre, on enferme quelqu'un qui ignore la langue chinoise mais qui doit donner des réponses écrites aux questions écrites que lui fait parvenir un locuteur chinois qui est à l'extérieur de la chambre. Pour donner la bonne réponse, celui qui est enfermé dans la chambre dispose comme seul outil d'un catalogue constitué de règles de correspondance associant chacune une phrase écrite en caractères chinois avec une autre phrase elle aussi écrite en chinois."
A l'évidence, le prisonnier dans cette "chambre chinoise" (page 50) ne peut être crédité d'une réelle compréhension du chinois, puisqu'il "se borne à appliquer une règle formelle" (page 51) – et c'est à mon avis là que l'explication de Searle mérite d'être enrichie, parce que s'il existait un tel catalogue de règles formelles (ou son équivalent) au coeur d'une IA, elle ferait toujours la même réponse à une même demande (elle serait déterministe au sens de Turing), or ce n'est pas le cas.
Historiquement parlant, il y a eu (il y a encore) des usages déterministes des réseaux de neurones (par exemple comme fonction d'évaluation d'une position de backgammon dans des logiciels de jeux), généralement associés à la résolution d'un problème de type mathématique ayant une solution justifiable d'une façon ou d'une autre (comme trouver le meilleur coup dans une position de backgammon donnée) – mais ce n'est pas cet usage qui prévaut dans la conception des IA actuelles (auxquelles on pourrait donc légitimement lancer "Sutor, ne supra crepidam", voir page 15).
A partir du moment où l'on s'écarte de ce type de problèmes "mathématiques" (au sens large) et qu'on utilise les réseaux de neurones pour résoudre des "problèmes" qui n'en sont pas mathématiquement parlant (par exemple, comment vais-je choisir mon prochain livre à lire), on obtient des "algorithmes" qui n'en sont plus stricto sensu (car non simulables par une machine de Turing), et des "programmes" dans lequel l'effet cigogne ressort d'autant plus fortement qu'il est appliqué à "des besoins, des désirs, des détestations, des réactions émotives, des valeurs multiples et parfois contradictoires" (page 53).
C'est là où je m'écarte de la conclusion de Jean-Marie Schaeffer : ce qui est en jeu avec l'IA (dé)générative, c'est bel et bien le remplacement de nos processus de décisions personnels par une manière d'oracle ou de directeur de conscience moderne, parachevant ainsi le dispositif social décrit par Michel Foucault dans La Volonté de savoir (où l'on voit que la "démocratisation" de l'IA serait plus une catastrophe libertaire – et écologique – qu'une victoire sociale).
Jusque dans la manière dont je me suis emparé des observations de Jean-Marie Schaeffer pour les pousser plus loin sans doute qu'il n'en avait l'intention, on aura compris que ce "tract" portant sur les Mythologies Web est un texte précieux pour ce que les zététiciens appellent, dans la ligne de Chomsky, l'autodéfense intellectuelle – un début d'antidote aux poisons que les géants du numérique instillent dans notre esprit.
Aucun commentaire:
Enregistrer un commentaire