The False Expertise of AI Algorithms in the Service of Disinformation La fausse expertise des algorithmes d’IA au service de la désinformation En Fr

Fiche du document

Date

1 août 2015

Périmètre
Langue
Identifiants
Collection

Archives ouvertes




Citer ce document

Horea Mihai Badau, « La fausse expertise des algorithmes d’IA au service de la désinformation », HAL-SHS : sciences de l'information, de la communication et des bibliothèques, ID : 10670/1.isvexi


Métriques


Partage / Export

Résumé En Fr

In a context where they aspire to become the new experts of the digital space by evaluating the information they display on users' accounts and guiding internet users, can algorithms be manipulated by false experts? The aim of this research is to determine if, by using the technique of the algorithmic mirror, human false experts can create so-called expert algorithms, which will spread false expertise on social networks and legitimize it. We will limit our investigation to the context of the Covid pandemic and the debate over vaccination against this disease. Have the repetitive messages published during the Covid pandemic by false experts, the anti-vaxxers, on social networks created, thanks to this effect of the algorithmic mirror, algorithms that 'thought' the anti-vax subjects were legitimate and real and spread them on other users' accounts? Have human anti-vaxxers created anti-vax algorithms, thus legitimizing their discourse in the eyes of social network users?The analyzed study examined 550 messages published by algorithms on TikTok, between June 27 and August 1, 2022, around hashtags related to the pandemic and vaccines. These messages were compared to the roles of false experts created by anti-vax users on Facebook. The research identifies several roles adopted by trolls, such as the doctor, the messenger of tragedy, the oracle expert, etc., used to sow disinformation and manipulate perceptions. The results show a creation of false algorithmic experts who contributed to an environment of uncertainty and mistrust around the COVID-19 pandemic. In the third phase of the study, the roles constructed by AI algorithms were compared with the 50 semantic worlds on Facebook, using Luc Boltanski's '7 cities of justification' research method. The study revealed that during the pandemic, algorithms abandoned 46 of the 50 semantic worlds, leaving an 'impoverished' world centered around four algorithmic mirrors. The roles of 'doctor,' 'politician,' 'Coryphaeus of misfortune,' and 'tragedian' were analyzed according to the cities of justification, revealing unexpected links and opening reflections on the interactions between algorithms and online users.This study, rooted in an expertise perspective, examines the specific role of artificial intelligence algorithms as false experts in the dissemination of information and disinformation during the COVID-19 pandemic. Firstly, we present the actions of AI algorithms as regulators of information, but also as false experts who bias this very information. The second part is devoted to the amplified role of false algorithmic experts during the pandemic, within 'trust networks,' including malicious techniques such as astroturfing. Thirdly, we analyze how algorithmic complexity, network topology, and engagement indicators contribute to the phenomenon of false experts. To deconstruct and identify the roles and representations of algorithms as false experts on different platforms, we use the 'cities of justification' method. The study follows a logical trajectory that begins with the identification of algorithms as false experts, then explores their exacerbated impact during the pandemic, analyzes the complexity of this phenomenon, and finally uses an expert methodology for its deconstruction. This journey develops an integrative model that helps to understand how various elements converge to create a misleading information environment. The aim of this study is to develop expertise in the specific field of algorithms as false experts. It aspires to contribute to collective expertise by offering mechanisms for detection and regulation based on a deep understanding of these algorithms.

Dans un contexte où ils aspirent à devenir les nouveaux experts de l'espace numérique enévaluant l'information qu'ils affichent dans les comptes des utilisateurs et en orientant lesinternautes, est-ce que les algorithmes peuvent être manipulés par de faux experts ? L'objectifde cette recherche est de savoir si, en utilisant la technique du miroir algorithmique, des fauxexperts humains peuvent créer des algorithmes soi-disant experts, qui vont répandre de faussesexpertises sur les réseaux sociaux et les légitimer. Nous limiterons notre enquête au contexte dela pandémie de Covid et du débat sur la vaccination contre cette maladie. Est-ce que lesmessages répétitifs publiés pendant la pandémie de Covid par de faux experts, les anti-vax, surles réseaux sociaux ont créé, grâce à cet effet du miroir algorithmique, des algorithmes qui ont"pensé" que les sujets anti-vax sont véritables et réels et les ont répandus sur les comptesd'autres utilisateurs ? Est-ce que les anti-vax humains ont créé des algorithmes anti-vax,légitimant ainsi leur discours devant les utilisateurs des réseaux sociaux ?L'étude analysée a examiné 550 messages publiés par des algorithmes sur TikTok, entre le 27juin et le 1er août 2022, autour des hashtags relatifs à la pandémie et aux vaccins. Ces messagesont été comparés aux rôles de faux-experts créés par les utilisateurs anti-vax sur Facebook. Larecherche identifie plusieurs rôles adoptés par les trolls, tels que le docteur, le messager de latragédie, l'expert oracle, etc., utilisés pour semer la désinformation et manipuler les perceptions.Les résultats montrent une création de faux experts algorithmiques qui ont contribué à unenvironnement d'incertitude et de méfiance autour de la pandémie de COVID-19. Dans latroisième phase de l'étude, les rôles construits par les algorithmes IA ont été comparés avec les50 mondes sémantiques sur Facebook, en utilisant la méthode de recherche des "7 cités dejustification" de Luc Boltanski. L'étude a révélé que pendant la pandémie, les algorithmes ontabandonné 46 des 50 mondes sémantiques, laissant un monde "appauvri" centré autour dequatre miroirs algorithmiques. Les rôles de "docteur", "politicien", "Coryphée du malheur", et"tragédien" ont été analysés selon les cités de justification, révélant des liens inattendus etouvrant des réflexions sur les interactions entre les algorithmes et les utilisateurs en ligne''.Cette étude, ancrée dans une perspective d'expertise, examine le rôle spécifique des algorithmesd'intelligence artificielle en tant que faux-experts dans la diffusion de l'information et de la161désinformation pendant la pandémie de COVID-19. En premier lieu, nous présentons lesactions des algorithmes d'IA en tant que régulateurs de l'information, mais aussi en tant quefaux-experts qui biaisent cette même information.La deuxième partie est consacrée au rôle amplifié des faux-experts algorithmiques durant lapandémie, au sein des "réseaux de confiance", incluant des techniques malveillantes telles quel'astroturfing. En troisième lieu, nous analysons comment la complexité algorithmique, latopologie des réseaux et les indicateurs d'engagement contribuent au phénomène des faux-experts. Pour déconstruire et identifier les rôles et représentations des algorithmes en tant quefaux-experts sur différentes plateformes, nous utilisons la méthode des "cités de justification".L'étude suit une trajectoire logique qui commence par l'identification des algorithmes en tantque faux-experts, explore ensuite leur impact exacerbé pendant la pandémie, analyse lacomplexité de ce phénomène, et enfin utilise une méthodologie experte pour sa déconstruction.Ce parcours élabore un modèle intégratif qui permet de comprendre comment des élémentsdivers convergent pour créer un environnement d'information trompeur. Le but de cette étudeest de développer une expertise dans le domaine spécifique des algorithmes en tant que faux-experts. Elle ambitionne de contribuer à l'expertise collective en offrant des mécanismes dedétection et de régulation basés sur une compréhension approfondie de ces algorithmes.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Exporter en