Neural mechanisms of instrumental learning : neuroimaging, pharmacological and stimulation studies in humans Les mécanismes neuraux de l'apprentissage par renforcement : études en neuroimagerie, pharmacologique et de la stimulation chez l'homme En Fr

Metadatas

Date

September 17, 2015

Language
Identifier
Collection

Theses.fr

Organization

ABES


Keywords

Récompense Punition Effort Dopamine L'apprentissage par renforcement Noyau pédonculopontin Reward Punishment 612.82


Cite this document

Vasilisa Skvortsova, « Neural mechanisms of instrumental learning : neuroimaging, pharmacological and stimulation studies in humans », Theses.fr, ID : 10670/1.oc44h3


Metrics


Share / Export

Abstract Fr En

Savoir apprendre de ses actions est crucial pour la survie de l'individu. Apprenons-nous différemment selon que nos actions sont récompensées ou punies? Le cerveau intègre-t-il de la même façon les différentes dimensions du choix, tels que les récompenses, les punitions et l'effort physique? Ces dimensions de choix sont-elles représentées par le même circuit neural? Quelle est l'influence de la dopamine sur différents types d'apprentissage (A)?La théorie d'A par renforcement postule que l'A s'effectue par la minimisation de la différence entre les prédictions (des représentations internes du résultat attendu) et le réel résultat des choix. On a étudié l'activité cérébrale liée à ces variables internes dans différents types d'A et comment elles sont altérées par des manipulations pharmacologiques ou par la stimulation cérébrale profonde.Dans l'étude 1, on a observé une puissance spectrale (10-20Hz) élevée dans le noyau pédonculopontin (NP) de patients parkinsoniens suite à la récompense. La stimulation du NP améliore l'A par la récompense, mais pas par la punition. Le NP pourrait contribuer à la représentation de la récompense via une interaction avec les neurones dopaminergiques mésolimbiques impliqués dans la computation de l'erreur de prédiction.Dans les études 2 et 3, on a comparé l'A par la récompense et par l'effort. Les résultats d'IRMf montrent des circuits neuraux partiellement dissociables pour ces deux types d'A. La dopamine, connue pour ces effets bénéfiques sur l'A par la récompense, n'a pas d'effet sur l'A par l'effort.Ce travail permet de généraliser l'algorithme d'A à plusieurs dimensions du choix ainsi que son implémentation dans des circuits spécialisés.

Learning from actions is a key ability for survival. But do we learn differently depending on whether the action outcome is positive or negative? Did the brain integrate different choice dimensions such as rewards, punishments or physical efforts in the same way? Do they all rely on the same neural circuit? Does dopamine influence both learning from rewards and efforts? Reinforcement learning theory postulates that learning follows stepwise minimization of the difference between prediction (e.g. internal representation of expected outcome) and actual outcome. We investigated how brain activity relates to these internal variables in different types of learning and how these representations are altered by pharmacological manipulation and deep brain stimulation.In study 1, we found an increase in power in beta band (10-20Hz) in response to reward in the peduncolopontine nucleus (PPN) of patients with Parkinson’s disease. Stimulation of the PPN specifically improved learning from rewards but not from punishments. This brainstem structure might contribute to the reward-related representations in the midbrain dopamine neurons that are known for their computations of reward prediction errors.In the studies 2 and 3, we compared learning to maximize reward with learning to minimize effort. FMRI results suggest that reward and effort related computations are carried by partially dissociable neural networks. Moreover, dopamine, a neuromodulator known to enhance reward maximization did not influence learning to minimize efforts.Overall, this PhD helps generalizing learning algorithms across different choice dimensions and specifying their implementation in different neural networks.

From the same authors

On the same subjects

Similar documents