LES HUMAINS DERRIÈRE L’IA : l’ethnographe et l’algorithme / Angèle Christin.

L’ethnographe Angèle Christin observe depuis une dizaine d’années les humains par le prisme des algorithmes : des journalistes d’abord, puis des magistrats et à présent des influenceurs. Qui mieux qu’une ethnographe pour esquisser un premier portrait de ces humains dans le miroir des algorithmes ?

Angèle Christin tient particulièrement à sa posture d’ethnographe, car, selon elle, les bonnes vieilles méthodes des sciences sociales appliquées aux algorithmes viennent bousculer le discours dominant, plutôt anxiogène, de l’opacité des algorithmes et de l’intelligence artificielle. « Il est, en fait, absurde de considérer les algorithmes comme opérant dans un vide social. Les technologies n’existent pas de façon autonome, ce sont les humains qui les conçoivent et les manient. Il s’agit donc d’observer ces humains médiés par les algorithmes », pose-t-elle en fil rouge de l’entretien qu’elle a accepté de donner au Digital Society Forum et que nous vous retranscrivons ici dans son intégralité.

Maître de conférence au département de Communication et professeure affiliée au département de Sociologie de l’Université de Stanford, Angèle Christin publie fin juin « Metrics at Work: Journalism and the Contested Meaning of Algorithms » (Princeton University Press, 2020), un travail d’observation sur les façons dont les rédactions françaises et américaines interagissent avec les métriques d’audience en ligne. Poursuivant sa réflexion sur le rapport aux données dans le milieu du travail, elle s’est ensuite immergée dans les tribunaux américains afin d’étudier les algorithmes de prédiction de la récidive, publiant deux articles sur le sujet : « What data can do: a typology of Mechanisms » et « Technologies of Crime Prediction: The Reception of Algorithms in Policing and Criminal Courts ». A présent, elle s’attaque à un nouveau projet de recherche : l’étude des influenceurs et leurs interactions avec les algorithmes régissant les différentes plateformes en ligne où ils publient leurs contenus. Angèle Christin est titulaire de la Chaire Sorbonne Université – IEA de Paris « Changements majeurs » au titre de l’année 2019-2020.

Quelle est votre histoire personnelle avec les algorithmes ?

C’est de façon indirecte que j’ai commencé à m’y intéresser. En 2012, au moment de ma thèse, je me dirigeais plutôt du côté de la sociologie économique, regardant avec attention le bouleversement économique que vivaient les médias du fait d’Internet et des modèles de publicité en ligne. Je suis ethnographe, ce qui veut dire que je m’appuie sur une méthode inductive qui laisse les acteurs que l’on observe parler de ce qui leur importent. Ainsi, en m’immergeant dans les rédactions françaises et américaines de la presse écrite et en ligne, j’ai remarqué assez vite que les journalistes parlaient beaucoup des chiffres d’audience sur les réseaux (buzz, nombre de clics, de likes, etc.) et que le logiciel Chartbeat était massivement utilisé dans les salles de rédaction. Il s’agit d’une plateforme en ligne qui comptabilise et présente de façon graphique les statistiques de fréquentation en temps réel et de façon très détaillée. J’ai observé un phénomène de fixation et de fascination de certains journalistes autour de cet outil. Ces logiciels individualisent la mesure (détail par auteur, par article) et livrent un retour immédiat sur le travail produit, cela transforme la représentation que les journalistes se font de la hiérarchie et de la légitimité au sein des rédactions. Le nombre de followers d’un journaliste sur Twitter compte aujourd’hui tout autant, voire parfois plus, que son carnet d’adresse. L’évaluation éditoriale classique (angle original, données solides, structure de l’article, etc.) se confronte à une logique du clic qui se focalise sur l’adéquation entre un contenu et les publics médiés par les clics et les plateformes numériques.

La visibilité des articles et des personnes sur les plateformes ayant beaucoup à voir avec les algorithmes qui les régissent, le sujet des algorithmes s’est donc imposé à moi, notamment, à travers cette idée de publics algorithmiques, c’est-à-dire des publics construits et médiés par les plateformes et les algorithmes des réseaux sociaux. Ces publics font désormais intégralement partie de la production intellectuelle et culturelle, dépassant le seul secteur de la Presse.

Qu’entendez par approche ethnographique des algorithmes ?

En l’état, la littérature et le traitement médiatique des algorithmes me semble souffrir d’une sorte de « surtechnicisation ». Le terme d’intelligence artificielle évoque une entité qui est autre, qui résonne autrement, sur laquelle on n’a pas de prise. Cela donne lieu à la construction de scénarios catastrophes à la Matrix, à un imaginaire qui oscille entre altérité et adversité.

L’approche ethnographique s’inspire des sciences and technologies studies (Latour, Knorr-Cetina, etc.). C’est un champ transdisciplinaire qui étudie les technologies depuis 50 ans et qui démontre qu’elles n’existent jamais de façon autonome. Ainsi, les humains sont imbriqués tout au long de la vie sociale d’un algorithme. Ce sont des ingénieurs qui l’ont créé, puis ils ont travaillé avec des designers, ils ont fait des versions beta, ils ont modifié l’algorithme en fonction du feedback des utilisateurs, ils l’ont rendu public. S’il s’agit d’un algorithme d’apprentissage automatique, ce sont les données des humains qui le façonne dans le temps, etc. En somme, ne regarder que les algorithmes revient à faire preuve de myopie. En étudiant les humains médiés par les algorithmes, ces derniers deviennent plus accessibles, moins opaques, sans pour autant avoir besoin d’accéder au code et aux données qui les alimentent.

Comment faites-vous pour observer ces humains médiés par les algorithmes ?


©Binary Koala, PRISM: The Beacon Frame. Transmediale, Berlin, 2014.

J’ai recours à ce que j’appelle la réfraction algorithmique. J’aime bien cette métaphore de l’algorithme comme un prisme qui dévie la lumière. Ainsi l’algorithme ne serait pas une boite noire qui agirait dans un vide social, mais un prisme qui nous éclairerait sur les changements de direction qu’il induit dans nos rapports sociaux, dans nos interactions sociales.

Un des prismes algorithmiques serait par exemple la quantification. Les algorithmes sont, par essence, un calcul. Etre médié par des algorithmes revient donc à dire qu’on est quantifié, caractérisé par des chiffres, des métriques, des données numériques. Certaines de ces données sont visibles, comme le nombre de likes, de followers, etc., d’autres, à l’image des données personnelles, sont captées sans qu’on en ait conscience. Que provoque cette quantification sur les individus, les collectifs, les organisations et les champs d’activité ? Dans le cas de ma thèse, cela se traduisait ainsi : que provoque cette quantification sur les journalistes, les rédactions, les entreprises de presse et le secteur de l’information ?

La seconde méthode que j’utilise est celle de la comparaison algorithmique, en d’autres termes j’essaie de déterminer les similarités et les différences entre deux systèmes algorithmiques. Avec la sociologue Sarah Braynes, nous avons ainsi comparé les algorithmes de prédiction des crimes utilisés par la police américaine (PredPol et Palantir) et les algorithmes de prédiction de la récidive utilisés dans les tribunaux correctionnels américains. Ces algorithmes ont en commun la quantification du risque, la réduction des coûts humains, la crainte des travailleurs d’être surveillés et de voir leur valeur professionnelle décliner, la machine venant remplacer leur expertise et leur ôter une partie de leur responsabilité. Ces algorithmes présentent aussi des différences importantes. Il s’avère que les algorithmes prédictifs de la justice pénale sont beaucoup plus opaques que ceux de la police. PredPol ou Palantir se fondent, en effet, sur l’historique des crimes avec des critères finalement assez basiques pour prévoir les zones à risque : lieux, dates, types de crime. Les policiers comprennent comment l’algorithme calcule sa prédiction et n’ont d’ailleurs pas le sentiment qu’il leur apporte beaucoup de choses. En revanche, les magistrats, les avocats et les prévenus ne comprennent pas comment les algorithmes de prédiction du risque de récidive arrivent à tel ou tel score. Les prévenus répondent à un ensemble de questions constitué de telle sorte qu’on ne peut pas se figurer la structure causale du score, ce qui limite les stratégies d’optimisation. Cela s’explique par la culture technique des sociétés qui conçoivent ces outils : elles ont recours à des modèles similaires à ceux des calculs de risque dans l’assurance (actuariat). Le résultat est un ressenti très fort d’opacité, opacité d’autant plus décriée que ces algorithmes sont accusés de discriminer certaines communautés. Autre différence, la finalité. Dans la police les outils prédictifs ont pour objectif d’accumuler le plus de données possibles pour fournir au besoin un motif légitime en cas d’arrestation future. On est dans une logique de surveillance (tracking). Dans le cas des tribunaux, il s’agit d’une logique de tri (triaging) afin de classer les prévenus de manière à pouvoir décider de leur parcours judiciaire (type d’incarcération, parcours de réinsertion, etc.). Enfin, l’application de ces algorithmes se réalisent dans des cadres très différents. La police est une entité structurée et hiérarchique, l’usage des algorithmes de prédiction y est donc très encadré et homogène. Dans les tribunaux, les magistrats étant élus, on est face à des cadres d’usage fragmentés et soumis aux enjeux électoraux. Finalement, je me suis rendu compte que la question des algorithmes prédictifs dans la justice pénale n’est pas si centrale que dans la police, puisqu’elle ne fait pas « système ». Il apparaît que c’est la numérisation en cours de toute la chaîne pénale qu’il conviendrait de questionner. Elle permet le rendu des décisions en ligne, l’accès aux données sensibles à de nombreux acteurs et le suivi de la performance des procureurs, des avocats, etc.

Jusqu’à présent, j’ai utilisé les algorithmes comme des révélateurs de changements dans des milieux qui existaient avant les algorithmes. J’ai eu envie pour mon prochain projet de recherche de m’intéresser non plus à cette transition algorithmique, mais directement aux personnes et aux formes de travail, d’expression, de discours de ceux qui n’ont pas d’autres points de référence que les algorithmes.

Qui sont « ces natifs algorithmiques », se révèlent-ils différents des journalistes et des magistrats que vous avez observés ?

Je me suis intéressée aux influenceurs sur les réseaux sociaux. J’ai cherché des « niches » bien définies où ils se connaissent les uns les autres et font référence les uns aux autres dans leurs vidéos et photos. J’ai souhaité également couvrir des sujets et des dynamiques différentes. J’ai ciblé trois communautés : les influenceurs « drama », cela se rapproche d’un journalisme « tabloïd » centrée sur la vie des influenceurs eux-mêmes ; les « vegan » en lien avec des problématiques connexes comme la cruauté envers les animaux, le réchauffement climatique, etc. ; et les « dad blogs » qui ont à voir avec le développement de nouvelles formes de masculinité. Je pense compléter ces études avec deux autres communautés, une autour des questions raciales et une autre autour d’un sujet plus politique, encore à définir. En parallèle de ces communautés, j’ai aussi observé les agences marketing qui représentent l’infrastructure économique permettant le développement de carrières d’influenceurs à plein temps.

J’en suis encore à des pistes préliminaires mais j’observe que les influenceurs ont tous moins de 35-40 ans et qu’ils sont tous actifs depuis longtemps sur les réseaux sociaux. Avant YouTube, ils étaient par exemple sur MySpace, Tumblr, etc. Une autre caractéristique frappante : ils vivent tous profondément dans les communautés numériques. La vie sociale, culturelle et intellectuelle des journalistes et des magistrats que j’ai étudiés se faisait essentiellement en face à face, alors que les influenceurs sont des personnes pour qui la vie en ligne est devenue au moins aussi importante que celle en face à face. Et c’est arrivé très tôt dans leur vie. La plupart d’entre eux ont connu une période d’isolement chez eux, pour des motifs variés. Certains vivaient dans un milieu qui ne leur ressemblait pas et étaient, de fait, très solitaires. Ils se sont mis en ligne pour trouver des personnes qui avaient les mêmes centres d’intérêts qu’eux. D’autres étaient des mères d’enfants en bas âge dont elles s’occupaient 24h/24. Elles avaient peu de possibilité de sortir et peu de temps, alors elles se sont mises à aller sur YouTube par passages de 10 minutes. D’autres encore souffrent de maladies chroniques ou ont été en arrêt maladie longue durée. Autre caractéristique commune, tous ceux que j’interroge ont une passion qu’ils veulent transmettre, ils sont motivés par le fait d’échanger avec des pairs à l’autre bout du monde, de s’entraider, de partager des astuces.

En outre, ils sont tous extrêmement conscients de la précarité de leur position. Ils vivent dans un monde où tout est médié par les plateformes et les algorithmes et ils savent que ces algorithmes peuvent changer du jour au lendemain : « YouTube, on ne sait pas combien de temps cela va durer », « mes chiffres d’audience peuvent chuter si l’algorithme change et ne remonte plus mes contenus sur la page d’accueil et dans les algorithmes de personnalisation des usagers », etc. Ils adoptent alors des logiques de portfolio afin de diversifier leurs sources de revenus : publicité YouTube, contrats publicitaires avec des marques, publication de e-book, dont certains peuvent être très rémunérateurs. Ils ont aussi des blogs sur Patreon , une plateforme qui propose de s’abonner à des créateurs de contenu et qui en échange leur laisse accéder en exclusivité au travail en cours et avant publication.

Il y a aussi un élément qui revient souvent dans les entretiens : le harcèlement en ligne. Ils le ressentent comme faisant partie du métier, comme étant la contrepartie de leur exposition sur les réseaux. Toutefois, il est difficile d’avoir un discours de vérité sur ce sujet. Ils me disent souvent : « les premières fois c’est très dur et puis on s’habitue. On développe des défenses ». Le doxxing – une pratique consistant à divulguer sur Internet des informations sur l’identité et la vie privée d’un individu dans le dessein de lui nuire – et les menaces de mort matérialisent, cependant, une limite. A ce moment-là, ils mettent souvent leur activité en ligne en sommeil, le temps que cela retombe. Mais ils n’arrêtent pas pour autant, ils en ressortent même plus motivés. En fait, le harcèlement crée de l’ambivalence, car il fait grimper leurs chiffres d’audience et leur communauté de soutien.

Ces influenceurs sont, donc, des personnes pour qui le sens de la vie s’est fait en ligne à partir d’un très jeune âge et de façon très intense. Ils ont grandi et se sont construits avec ces publics algorithmiques que je mentionnais auparavant. Pour eux, le nombre de vues, de visiteurs, les différentes métriques en ligne font intrinsèquement partie du monde dans lequel ils ont leurs références. Ils n’ont pas eu à faire cette transition que les journalistes que j’ai étudiés ont vécu qui a consisté à passer de « untel a lu ton article, il a beaucoup aimé » à « tu es en trending topics sur Twitter ». Ils ont complètement intégré l’individualisation de la mesure et par conséquent, les significations et le rôle des collectifs sont très différents pour eux. Par exemple, quand l’algorithme de YouTube décide automatiquement de retirer les revenus publicitaires liés à leurs publications parce que l’algorithme a estimé qu’il y avait un infraction aux règles d’utilisation de la plateforme, ils n’ont personne à qui parler. Ils contestent la décision en ligne et n’obtiennent une réaction que trois jours plus tard, sans jamais avoir connaissance de la raison de leur démonétisation. L’algorithme est volontairement très opaque pour éviter que les influencueurs puissent le biaiser. On retrouve la même stratégie chez Uber. Il est difficile pour les chauffeurs de faire appel d’une décision de l’algorithme. Que ce soient Uber ou YouTube, ils estiment que s’ils commencent à se justifier, ils seraient contraints de mettre des ressources humaines entre les chauffeurs et les algorithmes. En outre, s’ils ouvrent leur boite noire, ils devront reconnaître que la règle n’est pas la même pour tout le monde. Aussi, les collectifs se reconfigurent ailleurs et autrement. Par exemple, il existe de nombreux forums consacrés à la compréhension des algorithmes dans le but d’optimiser l’impact et les revenus de ceux qui dépendent financièrement des plateformes. Les informations et les astuces échangées sur les algorithmes des plateformes des réseaux sociaux sont même devenues une source très importante de création de communautés sur YouTube. L’opacité a créé des communautés d’intérêt et donné de la place à de nouvelles expertises.

N’y a-t-il pas une forme d’instrumentalisation réciproque entre les algorithmes et les influenceurs ?

Les algorithmes sont imbriqués dans des relations d’intérêt et des collectifs sociaux, donc en un sens oui. Moi-même, pour recruter les influenceurs, j’ai utilisé de façon instrumentale les algorithmes de recommandation des plateformes. Il y a eu une relation d’instrumentalisation réciproque entre les algorithmes et moi. Ils essayaient d’en savoir plus sur moi et j’essayais d’en savoir plus sur eux. C’était une sorte d’alliance temporaire. En suivant de plus en plus d’influenceurs, les influenceurs se sont mis à me suivre. J’ai alors enclenché les mécanismes de recommandation des algorithmes et ils ont fini par m’inclure dans la communauté algorithmique des influenceurs, je figurais, en effet, parmi leurs suggestions de contacts.

N’avez-vous pas ressenti dans cette relation avec les algorithmes, le rêve de tout ethnographe, celui de trouver un nouvel horizon d’exotisme ?

Dans son livre intitulé « Le Journaliste et l’assassin », Janet Malcolm a mis en lumière la façon dont les journalistes « exoticisaient » les meurtriers pour écrire une bonne histoire et se faire un nom. De l’autre côté, les criminels avaient intérêt à exagérer leur histoire pour faire le buzz et espérer la réouverture de leur dossier judiciaire. Ils étaient, en fait, dans une relation d’utilisation réciproque, dans une trahison tacite de la réalité. Est-ce qu’on pourrait écrire aujourd’hui « L’Ethnographe et l’algorithme » ? Disons que cette référence pourrait surtout souligner le fait qu’en tant qu’ethnographe nous sommes imbriqués dans les dynamiques qu’on étudie, on noue une alliance temporaire avec les algorithmes. Il est, alors, important de rendre compte de notre position en tant qu’observateur-utilisateur de ces technologies. Cela signifie qu’il faut faire preuve de réflexivité, tenter d’expliciter l’implicite, de déceler sa propre influence, les petites trahisons, les angles morts. Mais encore une fois, à travers l’instrumentalisation d’un algorithme, ce sont les personnes médiées par les algorithmes qui sont l’objet de l’étude, et non la relation algorithmique en tant que telle.

TRIPTYQUE LES HUMAINS DERRIÈRE L’IA
A quoi rêvent ceux qui rêvent des algorithmes ?
des concepteurs influents et influencés / Jean-Sébastien Vayre

(initialement publié sur le Digital Society Forum)