Détection des symétries par réseaux de neurones formels : utilisation de représentations internes dans l'apprentissage

Fiche du document

Date

1994

Discipline
Type de document
Périmètre
Langue
Identifiant
Source

Intellectica

Collection

Persée

Organisation

MESR

Licence

Copyright PERSEE 2003-2023. Works reproduced on the PERSEE website are protected by the general rules of the Code of Intellectual Property. For strictly private, scientific or teaching purposes excluding all commercial use, reproduction and communication to the public of this document is permitted on condition that its origin and copyright are clearly mentionned.



Citer ce document

Gilles Leone et al., « Détection des symétries par réseaux de neurones formels : utilisation de représentations internes dans l'apprentissage », Intellectica, ID : 10.3406/intel.1994.1468


Métriques


Partage / Export

Résumé En Fr

Gilles LEONE, Jocelyn PATINEL, Maurice MILGRAM : Gilles LEONE, Jocelyn PATINEL, Maurice MILGRAM : Détection des symétries par réseaux de neurones formels : utilisation de représentations internes dans l'apprentissage We study the detection of axial symmetries in binary images with artificial layered neural networks, trained with the backpropagation rule. The number of hidden neurons necessary to classify correctly images is almost indépendant from the images' size. After a brief presentation of some psychophysical models we present the corresponding boolean formalism. We show experimental results obtained with different networks, and we note that only a few hidden neurons are really usefull. These neurons are characterised by the regular spatial structure of their input weights. We then propose a new and more efficient training algorithm that yields networks with the minimum number of neurons necessary to perform the classification. In the last part, we take up the theoretical analysis of this problem that leads to an interesting superior limit for the number of hidden neurons needed for its solution.

Nous étudions la détection de symétries axiales dans des images binaires à l'aide de réseaux de neurones formels. Nous obtenons une quasi indépendance du nombre de cellules cachées par rapport à la taille des images à classer. Après avoir présenté différents modèles psychophysiques, nous introduisons le formalisme booléen correspondant. Nous exposons ensuite les résultats expérimentaux obtenus avec différents réseaux, en particulier nous remarquons que seuls un petit nombre de neurones cachés sont réellement utiles. Ceux-ci sont caractérisés par la structure spatiale régulière de leurs poids d'entrée. Nous proposons alors un nouvel algorithme d'apprentissage plus efficace, qui conduit à l'obtention de réseaux possédant le nombre minimum de neurones nécessaires pour la classification. Dans la dernière partie, nous abordons l'analyse théorique de ce problème qui conduit à une borne supérieure intéressante sur le nombre de cellules cachées nécessaires à sa résolution.

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en