Quatre nuances de régulation de l’intelligence artificielle : Une cartographie des conflits de définition

Fiche du document

Date

2022

Discipline
Type de document
Périmètre
Langue
Identifiant
Source

Réseaux

Collection

Cairn.info

Organisation

Cairn

Licence

Cairn




Citer ce document

Bilel Benbouzid et al., « Quatre nuances de régulation de l’intelligence artificielle : Une cartographie des conflits de définition », Réseaux, ID : 10670/1.5qh7m5


Métriques


Partage / Export

Résumé Fr En

En enquêtant sur les débats autour des enjeux de la régulation de l’IA, nous avons observé que les problèmes définitionnels étaient au cœur de conflits normatifs sur les moyens d’assujettir l’IA à un « contrôle social », qu’il soit technique, éthique, juridique ou politique. En prenant comme fil rouge de l’analyse les significations variées de l’IA, cet article vise à participer à la compréhension des tensions normatives sur son contrôle. Nous proposons une cartographie des lieux, des acteurs et des approches qui donne à voir comment les débats autour du contrôle de l’IA se structurent selon quatre arènes normatives différenciées, soit : les spéculations transhumanistes sur les dangers d’une superintelligence et le problème du contrôle de son alignement aux valeurs humaines ; l’auto-responsabilisation des chercheurs développant une science entièrement consacrée à la certification technique des machines ; les dénonciations des effets néfastes des systèmes d’IA sur les droits fondamentaux et le contrôle des rééquilibrages des pouvoirs ; enfin, la régulation européenne du marché par le contrôle de la sécurité du fait des produits et service de l’IA.

By investigating the debates around the issues of AI regulation, we found that definitional problems were at the heart of normative conflicts on the means of subjecting AI to “social control”, whether technical, ethical, legal, or political. By taking the varied significations of AI as a common thread of analysis, this article contributes to the understanding of normative tensions over its control. We propose a mapping of places, actors and approaches that shows how the debates around the control of AI are structured according to four differentiated normative arenas: transhumanist speculations on the dangers of superintelligence and the problem of controlling its alignment with human values; the self-accountability of researchers developing a science entirely devoted to the technical certification of machines; denunciations of the harmful effects of AI systems on fundamental rights and the control of power rebalancing; finally, European regulation of the market through the control of security in relation to AI products and services.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en