L’article d’Adrien Tallent explore les risques liés à la collecte massive de données et l’utilisation généralisée d’algorithmes dans différents domaines de la vie politique, sociale et économique. Ces outils sont souvent considérés comme des moyens précieux de déléguer certaines tâches ou responsabilités, et sont souvent assimilés à des mots magiques tels que “algorithmes”, “données” ou “intelligence artificielle”. Deux mots qui pose des questions : Algorithmes democratie.
Cependant, cette utilisation massive d’algorithmes peut constituer une menace pour la société, la démocratie et in fine le contrat social, qui est pourtant à la fondation de la conception moderne de l’État. En échange d’un service (le plus souvent gratuit), les utilisateurs délèguent alors consciemment ou inconsciemment une partie de leur pouvoir de décision ainsi que la possibilité d’agir sur leurs choix et leurs opinions.
Les systèmes d’IA sont construits de manière à pouvoir traiter d’immenses quantités de données. La finalité étant de faire les choix les plus avertis et objectifs possibles. Cependant, ce déploiement à grande échelle répond à des choix politiques et à la mise en avant de ce que la chercheuse en sciences juridiques Antoinette Rouvroy nomme une “rationalité algorithmique”.
Dans cette conception, l’être humain est vu comme faillible face à une IA infaillible car fondée sur des “données” considérées comme des objets mathématiques. L’avènement d’une “gouvernementalité algorithmique” – les décisions se fondent désormais sur le traitement des données plutôt que sur la politique, le droit ou les normes sociales – rendrait enfin possible le règne de la raison. Ainsi, toute décision deviendrait irréfutable car elle serait appuyée sur des arguments statistiques. Cependant, cela risque d’ignorer les biais dans la collecte de données et l’exploitation algorithmique.
Les individus sont donc susceptibles de déléguer une partie de leur pouvoir de décision, ce qui peut mettre en péril certaines libertés fondamentales garanties par les sociétés démocratiques. En fournissant nos données, nous transférons une partie de notre libre arbitre et la faculté d’agir sur nos opinions jusqu’à influencer des élections. Les géants du numérique connaissent nos préférences, nos opinions, nos envies et nous enferment dans une “bulle de filtre”. Le contenu en accord avec nos idées y est surreprésenté et les avis contradictoires y font défaut, augmentant alors la diffusion des fake news – à plus fort potentiel de réactions et donc de diffusion. Nous partageons dès lors de moins en moins de vérités et d’expériences communes, pourtant nécessaires au fonctionnement de la démocratie.
La technologie semble souvent se situer hors du débat politique et s’imposer aux sociétés qui n’ont d’autre choix que l’acceptation. Cependant, les parlements et les institutions internationales commencent à légiférer sur la question, à rédiger des chartes éthiques, des règlements. Pourtant, ces questions restent souvent très techniques et juridiques, excluant d’emblée les individus qui subissent les dommages causés par le traitement de leurs données.