— Actualité

— Macroéconomie & Politiques publiques

— Actes

Algorithmes et libre-arbitre, quel avenir pour notre liberté ?

Propos introductif de Cécile Godé, membre invitée du Cercle des économistes

La question du rôle grandissant joué par les algorithmes, en particulier par les algorithmes d’intelligence artificielle, occupe le devant de la scène. C’est particulièrement le cas depuis le lancement, fin novembre 2022, de l’intelligence artificielle générative Chat GPT. On peut définir un algorithme comme une suite finie et ordonnée d’instructions destinées à résoudre un problème. Les algorithmes sont omniprésents dans notre quotidien, à la fois dans la sphère professionnelle et domestique : par exemple, la recette de cuisine qui est décrite sur l’écran du robot cuiseur multifonction, une trajectoire proposée dans la voiture ou encore le passage des ordres de marché par négociation haute fréquence.

Les algorithmes d’intelligence artificielle vont beaucoup plus loin. Comme le précise Yann Le Cun, ils vont permettre à des machines d’accomplir des tâches et de résoudre des problèmes normalement réservés aux humains. Dans ce cas-là, les algorithmes d’intelligence artificielle développent des capacités d’apprentissage qui vont leur permettre d’automatiser de nombreux processus comme ceux des services après-vente dans les entreprises ou dévolus à la conduite d’une voiture, par exemple. Ces capacités d’apprentissage peuvent être poussées beaucoup plus avant pour mener à bien les tâches complexes qui étaient jusqu’alors dévolues aux seuls experts. On peut alors penser aux intelligences artificielles qui préconisent un traitement médical, qui prédisent les crimes ou encore qui produisent des recommandations de justice.

Si l’efficacité exécutoire des algorithmes d’intelligence artificielle n’est plus à démontrer, ces derniers soulèvent cependant un certain nombre d’inquiétudes, liées aux biais qui peuvent rejaillir sur les préconisations et aux risques de dépendance et d’irrespect de la vie privée. D’autres interrogations vont porter sur les cadres de gouvernance à mettre en œuvre pour réguler les potentielles menaces de « l’algocratie », ou encore sur le type de société démocratique à construire et promouvoir avec les algorithmes d’intelligence artificielle. C’est donc la question générale de l’exercice de notre libre-arbitre que nous posons aujourd’hui et dont nous allons débattre.

Synthèse

Il paraît nécessaire de réduire le risque de dépendance à l’égard des algorithmes et de l’intelligence artificielle, remarque Ismail Fahmi. Même si ceux-ci peuvent avoir des formes d’utilité très concrètes comme lors d’un déplacement pour présenter un lieu que l’on visite. Il existe désormais de réels usagers de l’intelligence artificielle notamment dans le domaine de l’éducation par exemple, où l’intelligence artificielle peut constituer un tuteur pour les élèves de manière beaucoup plus rapide. Les big data peuvent par ailleurs permettre d’analyser la manière dont l’intelligence artificielle peut être utilisée dans le cadre des réseaux sociaux pour manipuler l’opinion publique.

La dialectique entre les algorithmes et le libre-arbitre semble constituer une problématique localisée géographiquement, explique Gianmarco Monsellato. Elle renvoie à l’algèbre des Grecs et à la philosophie dictatoriale de Pythagore pour appliquer les règles prédéterminées, avant que Saint Augustin explique que les humains doivent sortir du cadre prédéfini. Le fait que les algorithmes soient désormais associés à des puissances de calcul phénoménales renforce l’acuité de cet enjeu, comme l’illustre le lancement d’un ordinateur optique par Microsoft récemment. Ce qui pose des risques sur la confiance, comme avec les hallucinations de Chat GPT qui va jusqu’à la septième ou huitième occurrence de corrélation, ce qui peut conduire à des résultats complètement absurdes et impossibles à recomposer pour l’humain, avec des réponses qui n’ont aucun sens. Un point positif semble être la capacité des algorithmes de permettre de remplacer la simple maîtrise technique par l’art de la décision, en étant capable de juger de la fiabilité des informations à disposition et de prendre des décisions qui sont en rupture. C’est la seule manière de permettre, par exemple, les progrès sociaux, puisqu’un algorithme ne fait que répliquer le passé. Cela obligera à recréer une éthique de la décision. C’est ce qu’illustre la révolution des échecs. L’actuel champion du monde s’est entraîné avec des machines à mémoriser les parties. Dans une vraie partie, face à un humain, il produit volontairement un mauvais coup, à un moment donné, pour sortir du cadre et créer le chaos. C’est à ce moment qu’il gagne la partie. Être humain, c’est décider, à un moment donné, de sortir du scripte. L’algorithme nous apprend ce qu’est la responsabilité du libre-arbitre, avec ses risques et ses innombrables opportunités.

Les données sont à la base de tous les algorithmes, rappelle Kay Firth-Butterfield. L’intelligence artificielle utilise aujourd’hui l’ensemble des données récupérées sur internet, ce qui permet des avancées dans le domaine médical notamment puisque les algorithmes ont des capacités de lecture des informations plus grandes que l’humain. L’enjeu de la vérification de l’information devient crucial, comme l’a montré un procès récent contre Chat GPT aux États-Unis, démontrant les erreurs qu’il avait produites. Ce qui induit donc des enjeux éthiques, y compris concernant la représentation des pays moins développés dans les données puisqu’ils alimentent moins ces algorithmes, en veillant à ne pas induire une forme de recolonisation en la matière.

L’acuité de la problématique de la liberté par rapport aux prescriptions des algorithmes a été intensifiée avec Chat GPT, affirme Éric Salobir. Il s’agit d’une machine qui s’exprime extrêmement bien mais qui n’est pas intelligente, alors que l’on considère habituellement que la parole est le propre de l’homme. On anthropomorphise beaucoup Chat GPT alors qu’il ne s’agit que d’un générateur de texte, ce qui pourrait lui faire quitter son statut d’objet, comme avec les enceintes connectées, s’apparentant aux statuettes de dieux Lares censées protéger les foyers romains, moquées par la tradition juive expliquant qu’elles avaient des bouches mais ne parlaient pas. Un risque de dépendance semble pouvoir exister, même s’il ne correspond pas à la domination de la matrice dans le film Matrix. La pensée magique, chamanique, avec son besoin de fétiches et de totems, semble encore agir dans ce cadre, au regard de ce que les humains investissent dans ces objets. Ils attendent en retour une forme de protection ou de secours, en se plaçant sous l’autorité de ces totems. Dans le mythe du veau d’or, Moïse échange avec Dieu depuis la montagne pour recueillir les dix commandements et c’est la croyance du peuple dans l’idole en or qui est fabriqué qui lui confère sa puissance.

Concernant l’influence des réseaux sociaux, le recueil des données en Indonésie montre que les médias traditionnels reprennent le narratif des réseaux sociaux, qui est parfois produit à des fins de manipulation, explique Ismail Fahmi. Comme dans le cadre des cybertroupes notamment.

Dans ce contexte, la démocratie fait face à une nouvelle menace spécifique qui oblige à adapter et à faire progresser l’art de la décision pour les décideurs politiques également, remarque Gianmarco Monsellato. Cela nécessite des efforts significatifs sur le plan de l’éducation à l’esprit critique, ce qui va à l’encontre du modèle traditionnel basé sur le diplôme, sachant que la manipulation menaçant la démocratie existait déjà au sein de l’agora. En effet, Tocqueville insistait déjà sur la nécessité pour la démocratie d’être indirecte, car la démocratie directe finit toujours en dictature, favorisée par le culte du sondage ou du référendum permanent.

Les gouvernements doivent être suffisamment forts pour faire respecter un cadre aux acteurs du secteur afin d’éviter les deep fakes, insiste Kay Firth-Butterfield. Tout en sachant que la société elle-même doit les y inciter, pour mettre en place cette régulation.

La révolution photographique a conduit la peinture à se réinventer plutôt qu’à disparaître, ce qui a nourri la créativité, remarque Éric Salobir. Il est donc possible de sortir par le haut de ce type de crises. Les limites de la démocratie participative, qui est peu représentative puisque ce sont toujours les mêmes qui votent, est peu contraignante pour le pouvoir exécutif et donc délégitimante. Il existe une forme d’optimisme dans le fait que des expériences ont montré les capacités de co-construction de nouveaux modèles dans le cadre de la source ouverte. Par exemple, Chat GPT peut jouer un rôle de démocratisation par le nombre de personnes impliquées.

Il faut veiller à encadrer ces avancées technologiques pour éviter des dérives et tirer le meilleur de leur usage, confirme Ismail Fahmi.

L’intelligence artificielle va contribuer à la recherche de sens puisqu’elle va permettre d’automatiser une grande part des tâches rébarbatives qui doivent être faites, observe Gianmarco Monsellato. Cela permet de dégager du temps pour la réflexion et la valeur ajoutée. L’intelligence artificielle va ainsi permettre une exécution beaucoup plus rapide, des coûts moindres, ce qui intéresse fortement les clients. En même temps, cela oblige les entreprises à des programmes de formation significatifs pour développer de nouveaux talents afin de travailler avec ces outils, ce qui risque de tétaniser les décideurs politiques du fait du risque de chômage. Avec, également, des impacts géopolitiques puisqu’avec l’intelligence artificielle, le travail est dans le capital et les premiers à en souffrir seront l’Inde ou d’autres pays. Cette évolution constitue une occasion extraordinaire et passionnante pour créer un nouveau monde. Il ne faut donc pas s’en priver, mais s’en donner les moyens.

Kay Firth-Butterfield confirme les risques qui pèsent sur l’emploi avec le développement de l’intelligence artificielle comme le cas des États-Unis l’illustre déjà, ce qui oblige les gouvernements à jouer leur rôle de régulation.

Il y a une forme d’aspiration prométhéenne dans la réflexion selon laquelle, avec Chat GPT, il y aurait une forme de démocratisation des algorithmes qui permettent de les utiliser plutôt que d’être utilisés par eux, relève Éric Salobir. Cela paraît très intéressant mais pose néanmoins la question de l’usage. Car il y a un risque de céder à l’hubris avec les intelligences artificielles générales qui pourraient prendre le pouvoir en se mettant d’un certain point de vue à la place de Dieu. Il faudrait plutôt être pleinement à la place de l’humain en étant très inventif et doué pour poursuivre l’œuvre de création, sans évacuer la dimension spirituelle qui constitue un invariant anthropologique, qui reviendra de toute façon. Il s’agit donc, plutôt, d’assumer pour en tirer le meilleur parti.

Cécile Godé identifie trois grands enjeux à l’issue de ce débat. En premier lieu, il y a urgence à tirer parti de cette évolution algorithmique si rapide, notamment en termes d’acquisition et de développement des compétences ; dans ce cadre, il faut penser au-delà des compétences techniques, et prendre en considération l’importance de la compétence décisionnelle et du « savoir quoi faire ». Ces objectifs sont prioritaires pour former la jeunesse. Se pose aussi le défi de l’origine, du traitement et de l’utilisation des données au regard du rôle de l’État, pour trouver le bon équilibre entre les opportunités de cette intelligence artificielle et ses dangers. Le troisième défi, au regard du risque de dépendance à l’autorité du totem de l’intelligence artificielle, oblige à développer la compétence de l’esprit critique pour tirer parti de l’intelligence artificielle sans être manipulé par elle. Enfin, le défi démocratique oblige à la co-construction de nouveaux modèles démocratiques de gouvernance.

Propositions

  • Utiliser le potentiel de l’intelligence artificielle dans le domaine de la formation, notamment pour le tutorat (Ismail Fahmi).
  • Analyser par les big data les risques de manipulation par les réseaux sociaux pour les prévenir (Ismail Fahmi).
  • Développer les capacités de décision, de sens critique et de créativité, et l’éthique qui doit les accompagner (Gianmarco Monsellato).
  • Développer la vérification de l’information et favoriser une meilleure représentation des pays développés dans les données (Kay Firth-Butterfield).
  • Les gouvernements doivent mettre en place des mesures de régulation dans le domaine des données et de leur gestion (Kay Firth-Butterfield).
  • Les gouvernements doivent accompagner les conséquences en termes d’emploi de ces évolutions (Kay Firth-Butterfield).
  • Inciter les entreprises à mettre en place des programmes de formation significatifs afin de développer de nouveaux talents pour travailler avec ces nouveaux outils (Gianmarco Monsellato).

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

— Pour aller plus loin