1 août 2015
Horea Mihai Badau, « La fausse expertise des algorithmes d’IA au service de la désinformation », HAL-SHS : sciences de l'information, de la communication et des bibliothèques, ID : 10670/1.isvexi
Dans un contexte où ils aspirent à devenir les nouveaux experts de l'espace numérique enévaluant l'information qu'ils affichent dans les comptes des utilisateurs et en orientant lesinternautes, est-ce que les algorithmes peuvent être manipulés par de faux experts ? L'objectifde cette recherche est de savoir si, en utilisant la technique du miroir algorithmique, des fauxexperts humains peuvent créer des algorithmes soi-disant experts, qui vont répandre de faussesexpertises sur les réseaux sociaux et les légitimer. Nous limiterons notre enquête au contexte dela pandémie de Covid et du débat sur la vaccination contre cette maladie. Est-ce que lesmessages répétitifs publiés pendant la pandémie de Covid par de faux experts, les anti-vax, surles réseaux sociaux ont créé, grâce à cet effet du miroir algorithmique, des algorithmes qui ont"pensé" que les sujets anti-vax sont véritables et réels et les ont répandus sur les comptesd'autres utilisateurs ? Est-ce que les anti-vax humains ont créé des algorithmes anti-vax,légitimant ainsi leur discours devant les utilisateurs des réseaux sociaux ?L'étude analysée a examiné 550 messages publiés par des algorithmes sur TikTok, entre le 27juin et le 1er août 2022, autour des hashtags relatifs à la pandémie et aux vaccins. Ces messagesont été comparés aux rôles de faux-experts créés par les utilisateurs anti-vax sur Facebook. Larecherche identifie plusieurs rôles adoptés par les trolls, tels que le docteur, le messager de latragédie, l'expert oracle, etc., utilisés pour semer la désinformation et manipuler les perceptions.Les résultats montrent une création de faux experts algorithmiques qui ont contribué à unenvironnement d'incertitude et de méfiance autour de la pandémie de COVID-19. Dans latroisième phase de l'étude, les rôles construits par les algorithmes IA ont été comparés avec les50 mondes sémantiques sur Facebook, en utilisant la méthode de recherche des "7 cités dejustification" de Luc Boltanski. L'étude a révélé que pendant la pandémie, les algorithmes ontabandonné 46 des 50 mondes sémantiques, laissant un monde "appauvri" centré autour dequatre miroirs algorithmiques. Les rôles de "docteur", "politicien", "Coryphée du malheur", et"tragédien" ont été analysés selon les cités de justification, révélant des liens inattendus etouvrant des réflexions sur les interactions entre les algorithmes et les utilisateurs en ligne''.Cette étude, ancrée dans une perspective d'expertise, examine le rôle spécifique des algorithmesd'intelligence artificielle en tant que faux-experts dans la diffusion de l'information et de la161désinformation pendant la pandémie de COVID-19. En premier lieu, nous présentons lesactions des algorithmes d'IA en tant que régulateurs de l'information, mais aussi en tant quefaux-experts qui biaisent cette même information.La deuxième partie est consacrée au rôle amplifié des faux-experts algorithmiques durant lapandémie, au sein des "réseaux de confiance", incluant des techniques malveillantes telles quel'astroturfing. En troisième lieu, nous analysons comment la complexité algorithmique, latopologie des réseaux et les indicateurs d'engagement contribuent au phénomène des faux-experts. Pour déconstruire et identifier les rôles et représentations des algorithmes en tant quefaux-experts sur différentes plateformes, nous utilisons la méthode des "cités de justification".L'étude suit une trajectoire logique qui commence par l'identification des algorithmes en tantque faux-experts, explore ensuite leur impact exacerbé pendant la pandémie, analyse lacomplexité de ce phénomène, et enfin utilise une méthodologie experte pour sa déconstruction.Ce parcours élabore un modèle intégratif qui permet de comprendre comment des élémentsdivers convergent pour créer un environnement d'information trompeur. Le but de cette étudeest de développer une expertise dans le domaine spécifique des algorithmes en tant que faux-experts. Elle ambitionne de contribuer à l'expertise collective en offrant des mécanismes dedétection et de régulation basés sur une compréhension approfondie de ces algorithmes.