De la décentralisation à la vision collective : une architecture pour moderniser la gestion de la recherche, ses applications puis l’utilisation par l’écosystème scientifique

Fiche du document

Type de document
Périmètre
Langue
Identifiants
Collection

Archives ouvertes

Licences

http://creativecommons.org/licenses/by-nc/ , info:eu-repo/semantics/OpenAccess




Citer ce document

David Reymond, « De la décentralisation à la vision collective : une architecture pour moderniser la gestion de la recherche, ses applications puis l’utilisation par l’écosystème scientifique », HAL-SHS : sciences de l'information, de la communication et des bibliothèques, ID : 10670/1.u9vuee


Métriques


Partage / Export

Résumé 0

Les avancées indéniables du traitement de données textuelles ont ouvert de nombreux outils cartographiques fréquemment utilisés pour le pilotage, le suivi et l’évaluation de la Recherche. Les données étant manquantes, biaisées ou partielles, le plus souvent ces outils se révèlent inutiles et/ou de simples leurres, leur utilisation stigmatise l’écosystème, induit des clivages et conduit à des dérives de la pratique scientifique. La fiabilisation de la donnée est la première étape sine qua non à mettre en place et ne peut se solutionner par l’apposition de simples tuyaux informatiques connectés aux bases existantes qui embarquent, elles, un lourd historique emmêlé depuis les premiers pas de l’informatique documentaire. Sur un autre plan, le recours à la donnée issue des silos centralisés induit fatalement une obsolescence sans une action de maintenance permanente de la donnée. Reste un principe simple : la donnée est fiable seulement si elle a été vérifiée par son auteur. Elle restera fiable si elle est contrôlée, sécurisée ou mise à jour si nécessaire. Dès lors se pose la question de l’autorité : sur la partie production de la recherche qui d’autre que l’expert peut opérer la première étape de fiabilisation ? Des certificateurs peuvent de surcroît en attester. Un mécanisme qui peut a priori paraître inatteignable sauf à raisonner « décentralisé » et rendre utile à chacun de maintenir sa donnée tout en capitalisant ce même travail pour le collectif. Ce mode opératoire permet de surcroît d'abstraire la complexité du mille-feuilles institutionnel et d’adapter les principes de Leiden en repensant l'évaluation scientifique. Dans cet article, nous positionnons les limites des applications de bibliométrie sur des données non fiables (applications qui dépassent largement le cadre de l’évaluation auquel nous nous référons cependant), précisons le contexte national et soulignons la charge actuelle que fait peser son application in fine aveugle. L’objet est ensuite de développer les principes d’une architecture décentralisée simplifiant les processus de collaboration internes par des procédés automatisés et conduisant mécaniquement à une réduction de la charge de chacun et à la fiabilisation collective de la donnée. Celle-ci est alors formalisée en un graphe de connaissance institutionnel utilisable en conséquent pour des applications qui réduisent l’évaluation à un gadget amusant sans toutefois entraver son utilité et qui étendent significativement la portée de cette fiabilisation.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en