La Petite Fille au napalm et l’algorithme. Sur la réévaluation des images iconiques par les technologies de filtrage automatisé

Fiche du document

Type de document
Périmètre
Langue
Identifiant
  • 20.500.13089/13dx4
Source

Transbordeur

Relations

Ce document est lié à :
info:eu-repo/semantics/reference/issn/3073-5734

Ce document est lié à :
info:eu-repo/semantics/reference/issn/2552-9137

Ce document est lié à :
https://hdl.handle.net/20.500.13089/13dxk

Ce document est lié à :
https://doi.org/10.4000/13dxk

Organisation

OpenEdition

Licences

info:eu-repo/semantics/embargoedAccess , https://creativecommons.org/licenses/by-nc-nd/4.0/




Citer ce document

Katja Müller-Helle, « La Petite Fille au napalm et l’algorithme. Sur la réévaluation des images iconiques par les technologies de filtrage automatisé », Transbordeur


Partage / Export

Résumé Fr En

Avec la multiplication par un milliard de la quantité de données d’images enregistrées, indexées et transférées chaque jour au moyen de réseaux de neurones, le besoin en matière de technologies de filtrage et de modération de contenu sur les plateformes mondiales n’a cessé de croître depuis l’an 2000. Pour contenir le flot d’images « limites », les principaux fournisseurs de services tels que Google et Meta (Facebook, Instagram) font appel à des technologies de suppression automatique ainsi qu’à des systèmes de filtrage, notamment au filtrage des métadonnées, au hachage et aux empreintes numériques. En prenant pour référence une photographie de presse emblématique, La Terreur de la guerre (The Terror of War, 1972) de Nick Ut, cet article examine comment, depuis le tournant du millénaire, une fusion s’est opérée entre l’invisibilisation technologique du traitement des images (blackboxing) et l’invisibilisation institutionnelle des critères sur la base desquels les contenus visuels sont évalués, indexés et supprimés des principales plateformes en ligne. Les images ont également fait l’objet d’une microgestion algorithmique et ont pu être intégrées à de nouveaux modèles d’évaluation qui ont supplanté les responsables traditionnels du contrôle des images, tels que l’État, les musées et les rédacteurs en chef des journaux.

With the billionfold increase in the amount of image data that is now saved, indexed, and sent via neural networks every day, there has, since the year 2000, been an ever-increasing demand for filtering technologies and content moderation on global platforms. Major service providers such as Google and Meta (Facebook, Instagram) employ automatic deletion technologies in conjunction with filtering systems such as metadata filtering, hashing, and fingerprinting to stem the tide of borderline images. With reference to an iconic press photograph, Nick Ut’s Terror of War (1972), this text investigates how, since the turn of the millennium, there has been a merger of the technological invisibilization of image processing (blackboxing) and the institutional invisibilization of the criteria by which visual content is evaluated, indexed, and deleted from major online platforms. Iconic images have also been subject to algorithmic micromanagement and thus transposed into new evaluation scenarios that have replaced traditional gatekeepers such as the state, the museum, and newspaper editors. The two forms of invisibilization—of both technological production and institutional publication processes—converge in the discourse of operative imagery. Convolutional neural networks and the social media platforms that depend on them now do not simply produce new operative images, the filter architectures that control them actually have a retroactive effect on pre-existing visual traditions, which in some cases produces radical decontextualizations of historical images.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets