Complexité des systèmes naturels et sous-détermination des théories : une possible limite de la modélisation

Fiche du document

Auteur
Date

2009

Discipline
Type de document
Périmètre
Langue
Identifiant
Relations

Ce document est lié à :
Nouvelles perspectives en sciences sociales ; vol. 4 no. 2 (2009)

Collection

Erudit

Organisation

Consortium Érudit

Licence

Tous droits réservés © Prise de parole, 2009




Citer ce document

Henri Atlan, « Complexité des systèmes naturels et sous-détermination des théories : une possible limite de la modélisation », Nouvelles perspectives en sciences sociales: Revue internationale de systémique complexe et d'études relationnelles, ID : 10.7202/029890ar


Métriques


Partage / Export

Résumé Fr En

Dans la théorie de l’information probabiliste comme dans la théorie des algorithmes de programmation, l’on n’a pas à s’occuper de la question de savoir comment nous comprenons ni comment les significations sont créées. Dans ces deux cas de complexité, nous rencontrons le même paradoxe : une identité formelle entre complexité maximale et aléatoire (c’est-à-dire désordre avec homogé-néité statistique maximale). Et, dans les deux cas, la solution du paradoxe consiste à l’ignorer en supposant qu’un sens et une signification existent a priori, ce qui élimine de ce fait l’hypothèse de l’aléatoire. Ce n’est que très récemment qu’on a tenté de résoudre vraiment ce paradoxe par des travaux sur la complexité algorithmique tenant compte d’une définition de la complexité porteuse de signification. Une première approche concerne le principe de complexité par le bruit. Une seconde, plus récente, utilise des simulations de réseaux d’automates pour tenter de surprendre l’émergence de significations fonctionnelles dans les réseaux d’automates à propriétés auto-organisatrices. Parmi les résultats obtenus, on trouve une large sous-détermination des théories par les faits, et la petite taille de ces réseaux permet d’en analyser clairement l’origine et même de la quantifier. Cette sous-détermination des théories apparaît comme l’expression probablement la plus spectaculaire de ce qu’est la com-plexité naturelle.

In Probabilistic Information Theory, as in Algorithm and Programming theory, there is no need to worry about how we understand or how we come to create meaning. Within each of these complex cases, we run into the same paradox: formal identity between maximum complexity and randomness (i.e. disorder within maximum statistical homogeneity). And, in both cases, the solution to this paradox consists of ignoring that sense and meaning exist a priori while supposing it does, which eliminates the hypothesis of randomness. It isn’t until recently that paper in Algorithmic Complexity have attempted to solve this paradox, taking into consideration a definition of complexity that is meaning based. A first approach is to account for complexity in noise. A second, more recent approach, uses Multi-Agent Cellular Automata Systems to catch the emergence of functional meaning within the self-organizing networks. As a result of these approaches, we find a large under-determination of theories within the facts, and a small number of networks that allow us to retrace the origins and even quantify them. This under-determination of theory appears to be the most spectacular expression of what is natural complexity.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en