History of Quantitative Linguistics in France

Fiche du document

Date

2016

Discipline
Périmètre
Langue
Identifiants
Collection

Archives ouvertes




Citer ce document

Jacqueline Léon et al., « History of Quantitative Linguistics in France », HAL-SHS : histoire, philosophie et sociologie des sciences et des techniques, ID : 10670/1.qtl0x5


Métriques


Partage / Export

Résumé En Fr

This volume gives a historical account of the field of quantitative linguistics in France. It focuses on developments initiated in France implying mathematical methods or the usage and interpretation of quantitative data. It does not include material about corpora compilation, computational implementation, or formal modelization. Quantitative linguistics has a special status in France. Contrary to other countries, it opened the way to the reception of formal languages and the computerization of linguistics in France. In the 1940-50s, research on quantitative linguistics mainly concerns vocabulary statistics prompted by linguists (Mario Roques, Marcel Cohen, Pierre Guiraud, Georges Gougenheim, Charles Muller) and mathematicians (Benoît Mandelbrot, René Moreau).Statistics of vocabulary led to the creation of the first computerized corpus, le Trésor de la Langue Française, and to the development of lexicometry as soon as the 1960s. then lexical statistics evolved into text statistics and corpora.The book also addresses mathematical models and theories which played a role such as Jean-Paul Benzecri’s factorial correspondence analysis, René Thom’s catastrophe theory and Jean Petitot’s morphodynamics. The eleven contributions adress the following issues : which language modelling is developed by mathematics. Are Statistics mere tools or real models for the language sciences ? To what extent quantitative linguistics may contribute to linguistics ?

Cet ouvrage, consacré à l’histoire de la linguistique quantitative en France, est centré sur les recherches ayant impliqué des méthodes mathématiques ou l’usage et l’interprétation de données quantitatives, à l’exclusion des méthodes computationnelles, des grands corpus et de la modélisation formelle. La linguistique quantitative a un statut spécial en France. Contrairement à d’autres pays, elle est une des voies de la formalisation de la linguistique et de son automatisation. Dans les années 1940-50 les recherches en linguistique quantitative se caractérisent par le développement des études statistiques de vocabulaires à la fois sous l’impulsion de linguistes (Mario Roques, Marcel Cohen, Pierre Guiraud, Georges Gougenheim, Charles Muller) et de mathématiciens (Benoît Mandelbrot, René Moreau). Elles ont donné lieu à la création du premier grand corpus, le Trésor de la Langue Française et aux développements de la lexicométrie dès les années 1960. Avec cette dernière, les statistiques lexicales ont évolué vers les statistiques textuelles et une importance accordée aux corpus textuels encore perceptible aujourd’hui. L’ouvrage aborde également des modèles et des théories mathématiques influentes dans les recherches menées en France comme l’analyse des correspondances de Jean-Paul Benzécri, la théorie des catastrophes de René Thom et la morpho-dynamique de Jean Petitot. Au fil des onze contributions de l’ouvrage sont abordées les questions suivantes sur les rapports entre linguistique et mathématiques: Quelle modélisation du langage est opérée par les mathématiques ? Les statistiques doivent-elles être considérées par les sciences du langage comme de simples outils ou bien de véritables modèles? Quelles ont été, durant la période considérée, les contributions de la linguistique quantitative à la linguistique ?

document thumbnail

Par les mêmes auteurs

Sur les mêmes sujets

Sur les mêmes disciplines

Exporter en