AI Bias in Healthcare: Using ImpactPro as a Case Study for Healthcare Practitioners’ Duties to Engage in Anti-Bias Measures

Fiche du document

Date

2021

Discipline
Type de document
Périmètre
Langue
Identifiant
Collection

Erudit

Organisation

Consortium Érudit

Licence

© SamanthaLynneSargent, 2021


Mots-clés

artificial intelligence machine learning bias implicit bias racism ImpactPro intelligence artificielle apprentissage automatique préjugés préjugés implicites racisme ImpactPro


Citer ce document

Samantha Lynne Sargent, « AI Bias in Healthcare: Using ImpactPro as a Case Study for Healthcare Practitioners’ Duties to Engage in Anti-Bias Measures », Canadian Journal of Bioethics / Revue canadienne de bioéthique, ID : 10.7202/1077639ar


Métriques


Partage / Export

Résumé En Fr

The introduction of ImpactPro to identify patients with complex health needs suggests that current bias and impacts of bias in healthcare AIs stem from historically biased practices leading to biased datasets, a lack of oversight, as well as bias in practitioners who are overseeing AIs. In order to improve these outcomes, healthcare practitioners need to engage in current best practices for anti-bias training.

L’introduction d’ImpactPro pour identifier les patients ayant des besoins de santé complexes suggère que les préjugés actuels et les impacts des préjugés dans les IA de soins de santé proviennent de pratiques historiquement biaisées menant à des ensembles de données biaisés, d’un manque de supervision, ainsi que de préjugés chez les praticiens qui supervisent les IA. Afin d’améliorer ces résultats, les praticiens de la santé doivent adopter les meilleures pratiques actuelles en matière de formation à la lutte contre les préjugés.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en