Revenir au site

// La Péniche // Chronique 3/4 - L’intelligence artificielle : démystifier, comprendre, politiser

« Artificial Intelligence is the new electricity »Andrew Ng, Co-Fondateur de Coursera

Changer le monde par la technologie, voilà le mantra de l’entrepreneur californien. Après une semaine passée à rencontrer des acteurs de la Silicon Valley, nous avons pu comprendre cela. Cette philosophie, analysée par Yaël et Thomas dans l’Episode 1, met hors du champ du politique tout sujet qui peut être réglé par une compagnie de la tech, par un nouvel algorithme, une nouvelle application.

Anti-démocratique, direz-vous ? Cette conception dérive surtout d’un partage dichotomique du peuple, entre les élus ingénieurs d’une part, et les profanes individus de l’autre : comment peut-on avoir un débat démocratique sur des sujets nécessitant un PhD en statistiques ? Que peut bien apporter la société civile à un complexe économico-universitaire développant et offrant, voire imposant, ses progrès au reste de la société ?

Il convient alors de démystifier et de comprendre le fonctionnement de ces technologies, afin d’en saisir les impacts futurs sur notre société et de leur offrir une place dans le débat public. Nous essaierons donc ici d’expliquer, à la lumière des rencontres effectuées lors de notre voyage, le fonctionnement et les enjeux de la technologie majeure qu’est le Machine Learning.

Machine Learning, Intelligence Artificielle ou Data Science ?

« Tu fais des maths ? Tu sais en data science ça embauche bien ! », « Bah, avec l’intelligence artificielle, ces boulots-là n’existeront plus », « On pourrait faire du machine learning pour prédire les cours de bourse ! ».

Utilisés indifféremment, ces trois termes désignent en général les pratiques du Machine Learning, c’est-à-dire l’utilisation de statistiques, de probabilités et d’informatique avancé pour construire des modèles de prédiction d’information. La data science est quant à elle une discipline plus large, incluant les problématiques de stockage et de traitement de données, tandis que l’intelligence artificielle est un terme totalement générique, incluant tout comportement d’un programme effectuant des tâches traditionnellement considérées comme propres à l’être humain. Le terme Machine Learning vient de la notion d’apprentissage statistique. Qu’est-ce que cela signifie réellement ?

L’apprentissage statistique : savoir classifier

Le but de l’apprentissage statistique est de construire un modèle permettant d’affecter de manière prédictive un individu statistique à une classe donnée : est-ce que tel étudiant est susceptible de valider son cours de microéconomie ? est-ce que telle personne fait partie des gens susceptibles de voter pour tel candidat ? De manière plus précise, quelle est la probabilité que cela arrive ?

Après avoir étudié des dizaines de milliers de cas, selon une méthode statistique choisie par le programmeur, le modèle « apprend » et ainsi « reconnaît » des cas similaires. Développée depuis les années 1980, cette pratique est donc loin des fantasmes générés par le terme intelligence artificielle, bien qu’elle représente la grande majorité des utilisations lucratives, à l’image de celles des sociétés que nous avons rencontrées.

Le risque de la sur-personnalisation

La plateforme d’e-learning Coursera s’en sert ainsi pour déterminer les cours les plus adaptés à votre profil (après vous avoir demandé diverses informations), tandis que Critéo détermine, par votre historique et vos cookies de navigation, quelles sont les publicités qui sont les plus susceptibles de vous plaire sur internet. Enfin, Facebook se sert naturellement de ces techniques pour déterminer le contenu de notre fil d‘actualité.

Cette pratique pose une question très sérieuse, celle de la sur-personnalisation : que dire d’une société où chaque individu a accès en écrasante majorité à des contenus susceptibles de lui plaire ? D’un point de vue culturel, le « flow » de Deezer ou Spotify nous offre la musique que l’on connaît et que l’on aime, sans nécessairement valoriser l’ouverture. D’un point de vue politique, cela revient à se nourrir essentiellement d’opinions similaires aux siennes, à tel point que l’existence d’opinions contraires aux siennes apparaisse comme irréelle : « Comment est-il réellement possible de voter Donald Trump ? » se demandent encore bon nombre de démocrates !

Finalement, on comprend que la sur-personnalisation est un danger moins relatif à la technologie elle-même qu’à l’utilisation qu’on en a. La diversification du contenu proposé à un lecteur est tout aussi programmable que son uniformité. Comment alors contraindre les entreprises dont l’approche reste d’abord commerciale à développer une “éthique technologique” ? Si la réponse ne vient pas du politique, alors elle réside certainement dans une veille et une vigilance quotidienne du consommateur vis-à-vis de ces sociétés.

Des membres de l'équipe devant les locaux de Coursera. Crédits photo Arlène Botokro
Une menace pour l’emploi et les intérêts publics ?  

La capacité qu’a cette technologie à provoquer une augmentation de la productivité est aujourd’hui débattue : Gregory Renard, fondateur de la société X-Brain, évoque par exemple une possibilité de multiplication par 10, voire 100, de la productivité moyenne des secteurs concernés – à remettre en perspective de la hausse de productivité moyenne de quelques pourcents par an dans les pays développés. Cette société développe par exemple une solution de reconnaissance vocale et de traitement automatisé des standards téléphoniques, en particulier à destination des hotlines après-ventes. L’objectif est clair : relocaliser les centrales téléphoniques, avec des employés qualifiés capables de gérer plusieurs dizaines d’appels en simultané grâce à la technologie.

Néanmoins, la vigilance n’est possible que si l’on a conscience d’être l’objet d’un programme d’intelligence artificielle. En particulier, qu’en est-il lorsque l’individu n’est plus ciblé en tant que consommateur mais en tant que citoyen ? Le machine learning peut en effet servir à des fins sociales à l’image du programme de Palantir permettant à partir de données collectées dans les centres hospitaliers d’optimiser, selon des critères sanitaires, le relogement des sans-abris sans que ces derniers n’en soient informés. On substitue donc ici un système de décision qui relève initialement du politique par un outil technologique que seules les entreprises ont la capacité de développer. Cela amène donc la question de la politisation de ces entreprises, et de la nature des partenariats qu’elles établissent avec le secteur public, dont le nombre va a priori croître considérablement dans les années à venir.

Loin d’offrir la conscience aux machines et de précipiter l’humanité vers sa fin, le Machine Learning vise à établir, par l’apprentissage statistique, des modèles utiles à notre société dans les domaines allant de la médecine à l’économie. Pour autant, son potentiel de disruption politique, économique et sociétal réclame notre vigilance et notre apport démocratique : ne laissons pas l’évolution de ces technologies entre les mains des seuls experts. Démystifions, étudions, comprenons les enjeux : seulement alors nous pourrons pleinement profiter des merveilles que la technologie nous réserve.