Les algorithmes rêvent, l’humain s’endort

Dans son nouvel essai, À quoi rêvent les algorithmes, le sociologue Dominique Cardon décrypte minutieusement l’influence de ces programmes informatiques sur nos vies de plus en plus enchevêtrées avec Internet. Il met en lumière l’ambition titanesque de ces calculateurs : mesurer le réel et en dessiner la carte, rêvant qu’un jour cette carte se confonde avec le réel.

Vers un monde post-statistique. Cette société vue et mue par les chiffres et les formules mathématiques s’est popularisée dans les années 1980, dans le sillage des politiques néolibérales qui ont façonné un système où règnent la compétition débridée et la croissance infinie. Un déluge de chiffres a progressivement recouvert notre quotidien, dans les médias, dans les entreprises, dans les politiques publiques afin de tout mesurer et tout comparer : indicateurs, baromètres, indices, chiffres du jour, sondages. En fin de compte, analyse Dominique Cardon, l’objectif de ce chiffrage systématique n’a pas été de connaître le réel, mais d’influencer les comportements afin de transformer celui-ci : « Les chercheurs les plus cités deviennent les “meilleurs”, les lycées qui ont le meilleur résultat au bac sont les “meilleures écoles”, etc.». Les chiffres sont ainsi devenus la clé de lecture quasi unique de la réussite ou de l’échec d’une action ou d’un acteur. Cette mesure permanente du réel a été techniquement rendue possible par la numérisation progressive de notre monde et par la profusion de données qu’elle génère, le tout associé à la puissance de calcul toujours accrue des machines. « Si l’on numérisait toutes les communications et les écrits depuis l’aube de l’humanité jusqu’en 2003, il faudrait 5 milliards de gigabits pour les mettre en mémoire. Aujourd’hui, nous générons ce volume d’informations numériques en deux jours ! », rapporte le sociologue.

L’idéologie du tout-mesurable et les innovations en matière d’intelligence artificielle nous propulsent aujourd’hui dans un monde post-statistique, un monde du calcul exhaustif sans modèle référent, conceptuel ou explicatif, un monde sans moyenne, sans CSP et autres segmentations standardisées de la population. Il s’agit d’un monde probabiliste qui serait calculé sans hypothèse, sans prisme idéologique, un monde objectif, épuré de toute influence subjective car issu d’un calcul automatique et invisible de nous, les sujets. Chris Anderson, un des gourous de la Silicon Valley, annonçait, en 2008, dans le magazine Wired, l’imminence d’une révolution scientifique provoquée par la fin de la théorie : « Qui sait pourquoi les gens font ce qu’ils font ? Le fait est qu’ils le font et on peut l’enregistrer avec une fidélité sans précédent. Avec assez de données, les chiffres parlent d’eux-mêmes ». Les algorithmes se contentent de chercher la répétition de motifs, les liens durables entre plusieurs données, afin d’anticiper les comportements les plus probables, sans chercher un modèle de causalité qui les expliquerait. Pourtant, ironisait, le mathématicien, Giuseppe Longo, aux Entretiens du nouveau monde industriel, en décembre 2015 : « cela fait longtemps que l’âge de Miss America est égale au nombre de kilos de pommes de terre au Delaware… », soulignant ainsi l’absurdité d’une société qui serait uniquement pensée par le biais de corrélations. Ce monde du calcul algorithmique opèrerait donc un renversement de causalité, cherchant à « redonner un cadre à la société, mais en quelque sorte, à l’envers et par le bas, en partant des comportements individuels », précise Dominique Cardon, « et les logiques de personnalisation s’installent aujourd’hui dans nos vies, parce qu’elles calculent une forme nouvelle du social, la société des comportements où se recompose la relation entre le centre de la société et des individus de plus en plus autonomes ». Un tel changement de paradigme mérite, a minima, un débat de société, mais la complexité des modèles algorithmiques désarme ceux qui cherchent à les critiquer et génère la plupart du temps une opposition caricaturale entre humains et machines. Certains, néanmoins, réussissent à produire une critique éclairante, comme le philosophe Bernard Stiegler, qui dénonce la dérive d’une société automatique qui, sous couvert de personnalisation et d’optimisation, réduit la singularité humaine, incomparable, en une somme de particularités, calculables. Dominique Cardon nous incite à « entrer dans les calculs et auditer les algorithmes » pour comprendre « à quoi » et « qui » ils servent et ne pas laisser se construire une société uniquement fondée sur les comportements des individus qui la composent, indépendamment de toutes structures sociales. Contrairement à ce qu’imaginait Adam Smith, la somme des intérêts individuels n’a jamais permis l’émergence d’un intérêt général,  (le réchauffement climatique le confirme tragiquement) ; de même la somme des comportements individuels ne créera pas une société.

Comment les algorithmes organisent nos vies numériques ? D’où parlent-ils ? Cette question surprenante se révèle pourtant essentielle dans la compréhension de la logique des algorithmes et de ce qu’ils calculent. Dominique Cardon a conceptualisé quatre positions. Sans trop entrer dans les détails, il y a d’abord les calculateurs qui se situent « à côté » de ce qu’ils sondent et qui enregistrent le nombre de clics, les articles les plus vues, etc. L’objectif est de mesurer la popularité d’un contenu, à l’image des Audimat, de Médiamétrie ou des statistiques de Google analytics. Ensuite, il y a ceux qui se situent « au-dessus » d’Internet et qui cherchent à mesurer l’autorité, la reconnaissance entre pairs sur le modèle des publications scientifiques, comme l’algorithme PageRank qui gère l’affichage des résultats du moteur de recherche de Google. Puis, avec les réseaux sociaux, sont apparues de nouvelles métriques qui se situent, elles, « dans » le Web même, et qui ont pour objet de mesurer la réputation des individus. Il ne s’agit plus d’évaluer les contenus mais les personnes et leur capacité d’influence. Enfin, plus récemment, le calcul prédictif matérialisé par le Big Data se place « en-dessous » d’Internet, captant dans l’ombre les traces numériques de notre activité sur le réseau (navigation, géolocalisation, achat…). N’ayant aucun équivalent dans nos organisations sociales, ces algorithmes prédictifs possèdent le plus grand potentiel de transformation de notre société. Comment, alors, anticiper un phénomène inconnu sans verser dans la spéculation ? Nous pourrions déjà nous concentrer sur les intentions qui motivent en premier lieu l’existence de ces algorithmes.

Quel monde rêvent donc de nous fabriquer les algorithmes du Big Data ? Ils rêvent de nous libérer de tout ce qu’il y a de mécanique et de répétitif dans nos vies, à l’image d’un assistant personnel, d’un double numérique invisible. Ils rêvent qu’ainsi libérés de ce fardeau, les humains puissent se concentrer sur des questions à plus forte valeur ajoutée cognitive. Ils rêvent d’un monde sur mesure pour chaque individu, devenu déjà plus autonome grâce à eux avec des outils comme les moteurs de recherches ou le GPS, ces instruments qui nous permettent de voguer plus librement sur la carte des possibles, hors des voyages organisés et des passages obligés. Néanmoins souligne le sociologue, nous sommes, en contrepartie, devenus dépendants de la route tracée automatiquement pour nous, une route optimisée, efficace, qui tient secrètement compte du déplacement des autres. Une nouvelle autonomie qui crée de nouvelles dépendances, voilà le problème posé par le rêve des algorithmes. À trop vouloir nous servir et anticiper nos désirs, les algorithmes risquent d’endormir notre vigilance, notre capacité critique et notre imagination. En nous laissant guider par ces itinéraires automatiques, nous alerte, en effet, le sociologue, nous risquons de perdre de vue la diversité des alternatives et la richesse des paysages.

Peut-on faire confiance aux algorithmes ? Le monde, même partiel, que nous fabriquent les algorithmes ne peut pas soustraire les humains à leurs responsabilités collectives et individuelles vis-à-vis du résultat produit. Les algorithmes sont peut-être devenus des instruments de gouvernance, mais pas la gouvernance elle-même. Il en va donc de notre responsabilité de comprendre la logique algorithmique et d’ouvrir la boite noire de ces intelligences artificielles. Ces dernières ne cherchent pas à raisonner à partir de concepts mais procèdent par calcul probabiliste. Elles comparent des situations similaires survenues dans le passé afin de déterminer l’option la plus probable. Ainsi, l’outil de traduction automatique de Google n’utilise plus les règles de grammaire et les dictionnaires, mais un gigantesque corpus de traductions existantes, comme celui des innombrables textes générés en plusieurs langues par l’Union européenne, pour déterminer la meilleure traduction d’un mot ou d’un groupe de mots. Ces algorithmes fonctionnent par imitation et par accumulation des savoirs produits, sans se soucier du sens de ce qu’ils traduisent. Dans cette logique, si les traducteurs humains venaient à être entièrement remplacés par des machines, comment ces dernières réussiraient-elles à traduire de nouvelles expressions ? Ce fonctionnement en vase clos du Big Data est une des critiques principales de Dominique Cardon. En effet, les algorithmes se fondent sur nos habitus, c’est-à-dire nos comportements sociaux routiniers et prévisibles, et donc sur la réalité de nos actes et non sur nos intentions : « La logique algorithmique colle à ce que font les individus en considérant, de façon très conservatrice, qu’ils sont rarement à la hauteur de leurs désirs ». Si une personne a, par exemple, pris l’habitude de regarder des blockbusters américains, peu de chance qu’elle se voit proposer le dernier film d’André Téchiné, qu’elle avait peut-être la louable intention de regarder. « En préférant les conduites aux aspirations, les algorithmes (…) nous emprisonnent dans notre conformisme, (…) et font constamment l’hypothèse que notre futur ne sera qu’une reproduction de notre passé », conclut le sociologue. Alors que nous nous pensions libres, ils nous dépeignent comme des « petites souris mécaniques dans les griffes des calculateurs ». En réduisant notre champ des possibles à un champ des probables, ils reproduisent, à l’échelle d’une société, l’ordre social existant et donc son lot d’inégalités et de discriminations.

Autre point sensible, les algorithmes ne sont pas dénués de finalité, ceux qui les fabriquent ayant des objectifs précis qui influent sur le résultat et qui peuvent être contradictoires avec l’intérêt des utilisateurs. Par exemple, EdgeRand, l’algorithme qui gère le fil d’information des pages Facebook a pour objectif de nous faire passer le plus de temps possible sur le service ; PageRank, celui de Google, de nous faire cliquer plus fréquemment sur les liens sponsorisés en début de liste, etc. Les algorithmes choisissent alors parmi toutes les possibilités, les options maximisant la mission qui leur a été « codée ». Cette opacité en regard des objectifs visés ouvrent la porte à de nombreuses autres dérives, comme celles de Google privilégiant ses propres services dans son classement alors que ceux-ci réalisent des scores d’autorité inférieurs à d’autres ou d’Amazon ajoutant dans sa liste des recommandations des livres qui ne correspondent pas à des profils similaires à l’utilisateur. Le sociologue rappelle à juste titre que « les données ne parlent qu’en fonction des questionnements et des intérêts de ceux qui les interrogent. Et s’il n’est guère possible d’enquêter dans les variables versatiles des algorithmes, il est en revanche décisif de demander à ceux qui les fabriquent de rendre publics les objectifs qu’ils leurs donnent ». Dans cette même idée, le Conseil national du numérique défend l’adoption d’un principe de loyauté des plates-formes envers leurs utilisateurs. Autre idée, considérant que le combat pour le contrôle des données personnelles est perdu, le chercheur belge, Thomas Berns, proposait aux derniers Entretiens du nouveau monde industriel de se concentrer, non pas sur la protection de la vie privée, mais sur les préjudices éventuels de sa divulgation. Par extension, les recommandations ou les choix automatiques opérés par les algorithmes pourraient être contestés a posteriori et la responsabilité des calculateurs engagée, tout au moins celle de leurs concepteurs.

Enfin, les algorithmes de prédiction sont, pour le moment, efficaces sur des cycles très courts : se voir recommander des livres et les acheter immédiatement ; se voir proposer un parcours en temps réel et le suivre. Lorsque le délai entre le calcul et le choix est plus long, il donne plus de place à la réflexion de l’utilisateur et la pertinence du calcul est bien moindre. Nous sommes encore loin d’une société algorithmique généralisée qui serait construite à partir de l’analyse et de la reproduction des comportements individuels en s’affranchissant des structures sociales existantes, comme les médias, les états, les textes fondateurs, etc. Le rêve chéri des libertariens de la Silicon Valley reste encore largement cantonné au secteur du commerce et des services, les algorithmes même reliés entre eux ne font pas (encore) système.

« Est-ce que les algorithmes « marchent » parce que les individus sont réguliers ou les prescriptions des algorithmes les rendent-ils réguliers ? », interroge finalement Dominique Cardon. « Qui de l’œuf ou de la poule… ? », cette question de l’influence de la technique sur nos comportements n’est pas nouvelle. Si l’étau de la technologie se ressert indéniablement sur nous, les rêves des algorithmes sont encore loin de la réalité que nous vivons. En replaçant l’emprise des algorithmes dans la vie d’un humain dans son ensemble, elle apparaît beaucoup moins prégnante, parfois même anecdotique ou fausse. Par exemple, la plupart des internautes trouvent la publicité personnalisée à côté de la plaque et 60 % des clics sur les publicités mobiles sont des erreurs de manipulation. En outre, affirme Dominique Cardon, « il n’y a pas de raison de penser que les utilisateurs ne parviennent pas à socialiser les calculateurs, à déployer des stratégies pour les domestiquer et à leur opposer des contre-calculs ». Il faudrait, alors, considérer l’humain et la machine comme un couple qui s’influencerait mutuellement plutôt que comme une source d’opposition et de conflit. Néanmoins, étant donné notre immaturité face aux nouvelles technologies et l’accélération des avancées en matière d’intelligence artificielle, il serait judicieux de suivre la préconisation de Bernard Stiegler et de favoriser des espaces de désautomatisation, non calculables et donc hors de portée des algorithmes, des espaces où nous pourrions rêver le monde de demain, en toute irréalité.

Publié dans Office et Culture #40, juin 2016

 

Pour en savoir plus

Dominique Cardon, À quoi rêvent les algorithmes, Seuil, La République des Idées, 2015.

Chris Anderson, The End of Theory: The Data Deluge Makes the Scientific Method Obsolete, Wired, 2008.

Bernard Stiegler, La société automatique, tome 1er: l’avenir du travail, Fayard, 2015.