LES HUMAINS DERRIERE L’IA : des concepteurs influents et influencés / Jean-Sébastien Vayre

Le sociologue Jean-Sébastien Vayre s’intéresse depuis une petite dizaine d’années aux cadres socioculturels et socioéconomiques dans lesquels s’insère l’IA, ainsi qu’aux normativités sociales qui l’imprègne. Il a, alors, suivi de près des concepteurs d’IA, nous livrant le second portrait de ce cycle sur les humains dans le miroir des algorithmes.

En 2012, dans le cadre de sa thèse de sociologie à l’université de Toulouse, Jean-Sébastien Vayre a observé pendant 18 mois une quinzaine de concepteurs d’IA, en France, dans le domaine de l’automatisation de la relation client et notamment des algorithmes de recommandation (« Des machines à produire des futurs économiques: sociologie des intelligences artificielles marchandes à l’ère du big data »). A ce moment-là, en France, on parlait beaucoup de données et peu de l’IA, les data scientists restaient encore peu nombreux, mais le sujet devenait prégnant outre-Atlantique. C’était le début des apprentissages profonds et des premières études d’impact de McKinsey sur les emplois. Jean-Sébastien Vayre a ensuite poursuivi son observation des concepteurs et des contextes de conception de l’IA dans le milieu de l’industrie 4.0 en tant que post-doctorant à l’institut Mines Télécom. « On parle beaucoup de l’IA comme d’une rupture alors qu’en fait si on observe le phénomène historiquement, il y a une grande continuité technologique. La rupture tient plutôt à la démocratisation de l’IA. Certains acteurs comme IBM ou Microsoft créent des outils qui permettent de développer plus facilement et plus rapidement de l’IA, en limitant les compétences nécessaires et donc aussi la connaissance et la compréhension des systèmes utilisés. Aujourd’hui, l’IA irrigue progressivement tous les secteurs d’activité et s’éloigne de son objet scientifique de départ qui était de chercher à comprendre et à reproduire l’intelligence humaine. Dans le domaine marchand, l’IA répond essentiellement à des enjeux de gestion d’entreprise et non de production de connaissances », rapporte le sociologue. Comment les data scientists concilient-ils, alors, leur approche scientifique et les logiques d’affaire ? Que peut-on finalement apprendre de l’IA en observant ceux qui la programment ?

Digital Society Forum : Comment décririez-vous les concepteurs d’IA que vous avez observés, se ressemblent-ils ?


Jean-Sébastien Vayre :
Parmi les concepteurs français avec qui j’ai échangés, il régnait indéniablement, un esprit Silicon Valley, un côté « geek un peu génial ». Toutefois, j’ai aussi noté une volonté de se dégager de l’influence américaine. En effet, plusieurs d’entre eux se raccrochent à la dimension artistique, presque poétique des mathématiques, en ce sens qu’elles permettent de saisir, de décrire le monde sensible. C’est une approche contemplative qui se distingue de la rationalisation et de l’esprit pragmatique des américains. Ils ont développé une sorte de culture de l’IA à la française avec des références aux sciences sociales, à la philosophie, à des auteurs comme Foucault, Kant, etc. Ce n’est, cependant, pas tout à fait honnête intellectuellement parlant puisque les algorithmes qu’ils conçoivent contiennent des logiques de rationalisation. Certains travaillaient à l’époque pour des sites de e-commerce.

Ensuite, j’ai pu constaté que leurs parcours sociodémographiques sont assez similaires. Ils ont tous fait preuve d’une certaine précocité, nourrissant très jeunes une passion pour la programmation informatique. Cela rejoint un peu ce que le sociologue Pierre-Michel Menger a observé à propos de la musique classique. A 25 ans, ils ont déjà une expérience de travail de 3 ou 4 ans, à 30 ans, ils sont consultant sénior. Ils ont souvent commencé tout seul, en autodidacte, puis sont ensuite entrés dans des grandes écoles d’ingénieurs ou dans des formations mathématiques supérieures. Ils ont parfois des double Masters, maîtrisent l’anglais, voire plusieurs langues. Ils intègrent souvent dans leur cursus des formations ou des stages à l’étranger. Nous sommes donc face à des personnes très formées, dotées d’une grande flexibilité intellectuelle, d’une culture générale importante et d’une grande ouverture d’esprit. Enfin, les data scientists viennent rarement de milieux défavorisés. Il faudrait regarder si à terme le développement d’écoles comme l’école 42 ou Simplon diversifie un peu les profils. De plus, il y a encore peu de femmes. Il y a une volonté pour que la situation change, mais cela reste un monde masculin.

Au moment où je les ai suivis, les concepteurs évoluaient dans des contextes hétérogènes : start-up, conseil, laboratoire de recherche dans le public, dans le privé. Certains ont travaillé dans l’assurance, d’autres dans le marketing. Même si chaque domaine d’exercice possède sa propre culture – ils n’utilisent pas les mêmes outils, ils ne pensent pas de la même façon, etc. – j’ai quand même observé quelques invariants dans leur façon de travailler. Ils s’inscrivent tous dans des formes de travail souple, en mode projet et en réseau. Les activités de conception sont des co-créations, il y a un côté expérimental, une culture du POC (prototypage rapide et collaboratif), de l’innovation ouverte avec beaucoup d’échanges et de tâtonnements. Ils ont un côté artisan et bricoleur qui rappelle le régime d’engagement exploratoire théorisé par le sociologue Nicolas Auray :

Une vigilance flottante (une espèce de « lâcher prise » de l’attention, une capacité à la dé-focalisation) ; une attention divisée (qui recouvre la tension entre les modalités de « l’alerte » – suscitée par l’insatisfaction face aux flux informationnels prescrits – et de « l’enquête » visant à résoudre l’énigme qui se présente) ; et la « difficulté à refréner l’excitabilité ». — Serge Proulx (Réseaux 2018/2-3, n°208-209).

Enfin, autre caractéristique commune, le travail de concepteur d’IA demande beaucoup de motivation, beaucoup d’investissement personnel. Ils passent énormément de temps sur les forums, à comprendre les métiers et les domaines sur lesquels ils travaillent, ils lisent beaucoup. Ce n’est pas toujours bien fait, mais cette dimension d’engagement existe.

Quelles incidences ont-ils sur les objets technologiques qu’ils conçoivent ?

Leur influence s’exerce au démarrage du projet de conception de l’IA, dans la façon dont ils structurent ce qu’on appelle le problème d’apprentissage. La façon dont ils vont poser ce problème va avoir une incidence sur les réponses qu’ils vont trouver. Leur but est ensuite d’automatiser la résolution du problème par l’intermédiaire d’une IA. La plupart des concepteurs que j’ai interviewés prennent le temps de visualiser les données et laissent agir leur intuition pour comprendre les variables qui influent sur le problème posé (par exemple : comment augmenter le panier moyen d’un consommateur ?). En fonction des outils de visualisation qu’ils utilisent et leur propre lecture du problème à résoudre, les indicateurs clés vont changer. En fait, tout le travail des concepteurs consiste à trouver le biais qui va faciliter l’apprentissage de la machine. Le biais, c’est le point de vue, l’angle de vue. Il s’agit en quelque sorte de biaiser la réalité pour que la machine puisse apprendre le mieux possible.
D’autres concepteurs sautent cette étape en utilisant des méthodes de régression mathématique pour identifier les variables clés sans réfléchir à la nature de ces variables ni aux conséquences de leur utilisation.

L’organisation qui va bénéficier de l’outil, que j’appelle l’implémenteur, joue aussi un rôle important. Elle donne des clés d’entrée sur le métier, sur les besoins, sur la perception du problème. En somme, les concepteurs partent des problématiques métiers pour développer une machine qui fasse des prédictions qui soient perçues comme pertinentes par l’implémenteur.

Que peut produire le développement de machines dont la pertinence n’est évaluée par le biais d’aucune réflexion d’ordre un peu général, mais uniquement par le biais des problématiques métiers et des intérêts des implémenteurs ?

La science cherche à comprendre le monde, à produire des connaissances, alors que les algorithmes de recommandation sont des outils développés pour organiser le monde et non pour le comprendre. Les concepteurs savent pertinemment qu’ils travaillent sur des technologies de gestion, donc des technologies qui ont une influence sur les comportements qu’ils prédisent, pourtant ils essaient quand même de donner un caractère fortement scientifique à leur travail. C’est une contradiction étonnante. Elle vient peut-être du fait qu’ils ont tendance à penser que les modèles mathématiques décrivent aussi bien le monde physique que le monde social. Ils parlent d’ailleurs souvent de physique sociale. C’est une conception du monde un peu naïve, car les sciences sociales ont largement montré depuis longtemps – on peut citer le démon de Laplace – que le monde social n’est pas déterministe et donc qu’il est très difficile d’y faire des prédictions. Il est, en revanche, tout à fait possible de faire de la manipulation en plaçant les consommateurs en situation d’asymétrie de calcul.

« Une intelligence qui, à un instant donné, connaîtrait toutes les forces dont la nature est animée et la situation respective des êtres qui la composent, si d’ailleurs elle était suffisamment vaste pour soumettre ces données à l’analyse, embrasserait dans la même formule les mouvements des plus grands corps de l’univers et ceux du plus léger atome ; rien ne serait incertain pour elle, et l’avenir, comme le passé, serait présent à ses yeux. » — Pierre-Simon Laplace, Essai philosophique sur les probabilités

A propos du site ThisPersonDoesNotExist, une IA qui génère des visages humains. Dans les explications données sur l’algorithme, on comprend qu’à un moment les concepteurs ont déterminé des critères de différenciation entre le masculin et le féminin afin que les résultats produits par l’algorithme correspondent à l’image que l’on se fait collectivement d’un homme ou d’une femme. Les concepteurs sont-ils conscients des stéréotypes sociaux qu’ils embarquent dans les machines ?

Difficile à dire, mais oui, les normativités sociales sont bien encapsulées dans les machines. Elles sont introduites à travers les corpus de données et les étiquetages des données qui constituent l’environnement d’apprentissage de la machine. En deep learning, la machine n’apprend que de son environnement d’apprentissage. Pierre Bourdieu définit la socialisation comme le processus à travers lequel les structures sociales sont implémentées dans les structures mentales. L’apprentissage des machines est, donc, une action de socialisation des machines. Cette socialisation passe par trois cadres : l’environnement d’apprentissage, l’environnement de traitement et l’environnement politique.

L’environnement d’apprentissage recouvre les problématiques qui tournent autour des données. Selon la base de données, la machine apprendra des choses complètement différentes. S’interroger sur ce que ces données traduisent, sur ce qu’elles permettent de comprendre du monde éclaire donc sur la connaissance que la machine acquiert. Ensuite, il y a l’environnement de traitement, il s’agit de l’architecture cognitive. Quelle technologie est-elle utilisée : du deep learning ou des moteurs d’inférence ? A ce sujet, on observe une forme de standardisation et de nombreux effets de mode. Les technologies sont disponibles en nombre mais tout le monde semble utiliser les mêmes. Beaucoup d’algorithmes se ressemblent. Enfin, dernier cadre, l’environnement politique. Il s’agit du choix des critères de d’optimisation sur lesquels la machine va se calibrer. Il existe des machines non supervisées, mais la plupart du temps, à un moment donné, il y a une supervision. Dans le cas de l’automatisation de la relation client et des algorithmes de recommandation, cette supervision vient par exemple garantir une maximisation du chiffre d’affaire.

Ces trois cadres forment le cadre socioculturel et socioéconomique de la machine. C’est à l’intérieur de ces trois cadres que la machine développe ses prédictions. La prédiction, en soit, n’est pas si importante, ce qui compte c’est de pouvoir l’automatiser et l’optimiser. Facebook, par exemple, ne s’intéresse pas aux contenus qui apparaissent dans votre fil de news, ce qui compte c’est que l’algorithme vous propose les contenus qui vous font rester le plus longtemps possible sur le réseau ou vous font cliquer le plus.

Je ne comprends pas pourquoi on ne travaille pas plus sur l’environnement socioculturel et socioéconomique de l’intelligence artificielle, sur la façon dont les machines encapsulent les normativités sociales. C’est pourtant la seule façon de pouvoir réguler l’intelligence artificielle. Ne s’intéresser qu’à la transparence du code, comme le fait transalgo , ne permet pas de percevoir l’influence que l’IA peut avoir sur la société et réciproquement.

Quelle influence sociale avez-vous identifié dans vos observations ?

Si on prend un peu de recul, le deep learning reflète la culture du moment, l’image que notre société se fait d’un bon travailleur. Un bon travailleur est une personne autonome, qui se débrouille. On s’intéresse plus aux résultats qu’il produit qu’à la façon dont il travaille. En revanche, on s’assure qu’il suit certains critères d’optimisation en jugeant sa performance à l’aune de ces indicateurs (ce qu’on appelle des KPI dans le jargon des entreprises). Les machines en deep learning renforcent donc les logiques actuelles alors qu’il serait possible d’imaginer une intelligence artificielle complètement différente. Je travaille actuellement sur l’histoire de l’intelligence artificielle en analysant les archives du magazine « AI » , créé en 1980 et présidé par Allen Newell, un important chercheur en IA (Rand Corporation, Université de Carnegie-Mellon). Et la lecture des grands spécialistes de l’IA fait prend conscience qu’il est possible de développer de l’intelligence artificielle d’innovation sociale. Il faudrait pour cela donner plus de place aux sciences humaines et sociales dans le développement de ces technologies et dans la formation des concepteurs d’IA. Dans le contexte actuel de démocratisation de l’IA, nous avons besoin de développer les relations entre science et société.

PORTRAIT CROISÉ

Le lendemain de l’entretien avec le sociologue Jean-Sebastien Vayre, nous avons pu échanger avec, Nicolas Boutry, un chercheur et concepteur d’IA qui travaille dans un tout autre domaine, celui de la santé. Une occasion de se prêter au jeu du portrait croisé.

Nicolas Boutry présente un parcours similaire aux observations de Jean-Sebastien Vayre. En effet, il a toujours eu un intérêt prononcé pour les mathématiques et l’informatique. Ingénieur de formation, il obtient en 2002 un master en traitement du signal à l’ESIEE de Marne La Vallée, la même école que Yann Le Cun, ce geek français un peu génial, pionnier du deep learning et lauréat du prix Turing en 2018. Il part ensuite en tant qu’assistant de recherche à l’École Polytechnique Fédérale de Lausanne. Après une période de questionnements, il devient, en 2012, ingénieur de recherche dans une petite start-up MyCo2 (aujourd’hui Carbone 4) qui travaille sur des outils individuels de calcul d’empreinte carbone. C’est à ce moment-là qu’il croise la route de l’intelligence artificielle. Il entreprend en 2013 une thèse en topologie discrète à l’EPITA et rejoint le Laboratoire de Recherche et Développement d’EPITA dans lequel il travaille actuellement sur l’intelligence artificielle appliquée à l’imagerie biomédicale.

En écoutant Nicolas Boutry, on retrouve le tâtonnement, le bricolage et la co-construction mentionnés par Jean-Sébastien Vayre : « L’IA c’est un peu de théorie et beaucoup de pratique. Je pensais savoir ce qu’était un réseau convolutionnel, mais la première fois que j’en ai utilisé un concrètement, je n’ai rien compris. Cela m’a demandé beaucoup de temps, de manipulations, de recherches sur les forums. La plupart des personnes qui travaillent avec de l’IA modifient, en fait, des architectures existantes pour les optimiser ou font de l’assemblage, un peu comme avec des Legos, à partir de bibliothèques de développement collaboratif telles que TensorFlow (Google) ou encore PyTorch (Facebook) », reconnaît-il.

A la question : « A quoi rêve un concepteur d’IA ? », il répond sans hésiter « à élaborer une nouvelle architecture », car ceux qui créent vraiment quelque chose de nouveau, à l’image de Yann Le Cun, sont, en fait, extrêmement rares. « Il faut des compétences très poussées et beaucoup d’intuition », explique-t-il. Il existe, ainsi, une élite des concepteurs d’IA, admirée ou enviée par une armée de développeurs qui s’affrontent au cours de challenges IA un peu partout dans le monde.

On retrouve aussi chez Nicolas Boutry, un peu de la naïveté et des contradictions observées par Jean-Sébastien Vayre. Outre son approche mathématique du monde, il est animé par un sentiment très altruiste qui explique, sans doute, son engagement spécifique dans l’IA en santé : « j’ai envie d’aider les gens à aller mieux, mais je ne suis pas capable d’être médecin, je ne suis pas capable d’affronter la maladie en face, de parler à quelqu’un de sa maladie. En revanche, faire des formules, des réseaux de neurones, là, j’ai l’impression de pouvoir me rendre utile ». Pourtant, il s’intéresse spontanément assez peu aux enjeux connexes à son activité de conception qui pourraient influer sur les finalités des programmes qu’il crée, que ce soient les logiques économiques dans le domaine de la santé, les stratégies des acteurs de l’IA, les dérives des outils, les inégalités d’accès aux technologies, etc. Il prend, cependant, en considération les peurs que suscitent, par exemple, la reconnaissance faciale et les risques de biais de l’IA en soutenant le développement des IA explicables, mais il reconnaît que globalement la communauté des développeurs d’IA adopte une posture très pragmatique. Les développeurs et ingénieurs s’intéressent surtout à résoudre des problèmes, sans beaucoup interroger les moyens d’y parvenir et les cadres socioéconomiques décrits par Jean-Sébastien Vayre.

Au cours de l’entretien, il emploie à plusieurs reprises cette idée de « faire le bien » et lorsqu’on lui demande de préciser ce qu’il entend par là, il précise spontanément « minimiser la souffrance ». Cette réponse fait écho à un des prismes algorithmiques mentionné par l’ethnographe Angèle Christin : la quantification du monde . Finalement, en appelant à un entrelacement plus fort entre science et société, Jean-Sébastien Vayre rejoint l’idée du besoin de réflexivité souligné par Angèle Christin. Il incite les concepteurs à déceler leur propre influence sur les algorithmes qu’ils développent et par ricochet mental à déceler ce qui les influencent eux-mêmes, notamment les normativités sociales qui les habitent.

TRIPTYQUE LES HUMAINS DERRIÈRE L’IA
A quoi rêvent ceux qui rêvent des algorithmes ?
l’ethnographe et l’algorithme / Angèle Christin.

(initialement publié sur le Digital Society Forum)