Epistémologie des modèles et demandes d’explicabilité de l’apprentissage machine

Fiche du document

Date

17 octobre 2019

Type de document
Périmètre
Langue
Identifiants
Collection

Archives ouvertes




Citer ce document

Franck Varenne, « Epistémologie des modèles et demandes d’explicabilité de l’apprentissage machine », HAL-SHS : philosophie, ID : 10670/1.fsjj10


Métriques


Partage / Export

Résumé Fr

Dans cet exposé, je présenterai cette partie du travail engagé avec Christophe Denis (Denis, Varenne, 2019) dans laquelle je recours à l’épistémologie comparative des fonctions de connaissance des modèles scientifiques (Varenne 2018). Cette épistémologie se révèle utile pour aborder, plus finement que certaines autres approches, les problèmes spécifiques à l’apprentissage machine (AM), en particulier le déficit d’explicabilité. Même si l’on considère parfois que les méthodes à AM ne sont pas des approches par modèles dans leur processus même, de fait, elles aboutissent, in fine, à produire d’authentiques modèles de décision ou de prédiction. À la lumière de l’épistémologie des modèles, je propose de montrer en quoi le déficit d’explicabilité des modèles prédictifs à base d’AM tient – comme on le dit souvent et à juste raison – à l’absence de représentation d’une causalité. Je commencerai en montrant que les distinctions et liens entre interprétation, explication et compréhension doivent d’abord être clarifiés. Ensuite, je montrerai que les modèles à base d’AM s’apparentent aux modèles prédictifs classiques fondés sur l’analyse des données considérées comme des signaux plutôt que comme des signes, mais que certains s’en distinguent (comme les techniques de deep learning) en ce que le pari « métaphysique » sur lequel leur réussite se fonde est loin d’être aussi clair. Je soulignerai enfin les différences entre explication par le modèle, explication du modèle et explication ex post du comportement du modèle à quoi on réduit souvent les recherches en « explainable AI » (Mittelstadt et al. 2019). Cette dernière distinction permet de comprendre pourquoi le fait de détenir un modèle expliquant un modèle à AM, c’est-à-dire un modèle explicatif approché de second degré, expliquant partiellement, de manière locale ou ad hoc le comportement d’un modèle à AM, ne peut pas nous assurer d’une complète confiance en ce modèle.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Exporter en