Journ@l électronique d’Histoire des Probabilités et de la Statistique/ Electron
Journ@l électronique d’Histoire des Probabilités et de la Statistique/ Electronic Journal for History of Probability and Statistics . Vol.2, n°1. Juin/June 2006 1 Les recherches de Ian Hacking sur l’histoire des usages des probabilités et des statistiques dans le raisonnement inductif1 Alain Desrosières2 Ian Hacking a publié trois livres (en 1965, 1975 et 1990) et de nombreux articles sur la statistique et les probabilités. Cette partie de son œuvre, étalée sur près de trente ans, constitue pourtant un monde un peu à part dans l’ensemble de cette œuvre: ses autres travaux, notamment ceux sur la philosophie des sciences, y font peu référence. Ceci illustre, d’une certaine manière, sa réflexion (elle même inspirée par Alistair Crombie) sur les «styles de raisonnement» relativement autonomes: le «style de raisonnement statistique» est l’un d’entre eux3. Si les trois livres impliquent des sujets et surtout des styles fort différents, il est frappant que chacun des trois ultimes chapitres de ces livres porte précisément sur la démarche inductive. Pourtant le premier est une sorte d’exercice d’épistémologie des sciences, tandis que les deux suivants sont des «genèses», c’est à dire des histoires, portant respectivement sur la période 1650-1750, et sur le 19ème siècle. Les trois livres ont été publiés par Cambridge University Press4: 1) Logic of Statistical Inference, (1965) [ici : LOSI]. 2) The Emergence of Probability. A Philosophical Study of Early Ideas about Probability, Induction and Statistical Inference, (1975) [ici : EOP]. Traduction française par Michel Dufour : L’émergence de la probabilité, Seuil, novembre 2002) 3) The Taming of Chance, (1990) [ici : TOC]. On peut compléter cette liste par deux articles (parmi d’autres): 1 Ce texte est une version modifiée d’une communication à une journée organisée le 6 février 2002 par le Centre Alexandre Koyré d’histoire des sciences, autour du travail de Ian Hacking, professeur au Collège de France et spécialiste notamment de ce qu’il qualifie lui-même de « méta-épistémologie historique ». 2 INSEE et Centre Alexandre Koyré, Paris, alain.desrosieres@insee.fr 3 Comme le montre par exemple le fait que la vulgate poppérienne sur le thème de la « falsification », couramment enseignée en philosophie des sciences, mentionne rarement que les tests empiriques d’hypothèses théoriques impliquent des « seuils de signification » (à 5% ou à 1%), ce qui pose à tout le moins des problèmes de cohérence pour l’ensemble du raisonnement : ceci est un symptôme de la relative autonomie de la partie statistique de celui-ci. Avant Hacking, on notait déjà la même autonomie relative de la réflexion sur l’usage de la statistique dans le raisonnement inductif, au sein même de l’ œuvre d’auteurs comme Cournot, Edgeworth, Pareto ou Keynes. 4 Chacun des trois livres est précédé d’une série de résumés, en quelques lignes, de chacuns des chapitres qui suivent, et aussi d’index des thèmes et des noms propres. Cette pratique éditoriale facilite beaucoup leur utilisation. Elle est peu répandue en France. Journ@l électronique d’Histoire des Probabilités et de la Statistique/ Electronic Journal for History of Probability and Statistics . Vol.2, n°1. Juin/June 2006 2 4) “ How Should We Do the History of Statistics ?”, Ideology and Consciousness, 8, spring 1981, pp. 15-26 [ici : HSWD]. 5) “ Statistical language, statistical truth, and statistical reason : the self-authentification of a style of scientific reasoning” , in : McMullen E. (ed.) Social Dimensions of Sciences, Université de Notre-Dame Press, 1991 [ici: SLST]. Logic of Statistical Inference (LOSI 1965) est un livre de jeunesse : IH avait 28 ans lors de sa publication. Le contexte théorique en était le débat entre statisticiens «fréquentistes» et «néo- bayésiens». Les premiers concevaient les probabilités uniquement dans le cadre d’un modèle de tirages aléatoires «en grand nombre», et, pour eux, la probabilité était synonyme de «fréquence à long terme». Pour les néo-bayésiens, en revanche, cette façon d’envisager la probabilité ne permettait pas de traiter les cas d’incertitudes où manquaient ces tirages nombreux, et où néanmoins il était souhaité de spécifier une notion de probabilité au seul vu d’un petit nombre d’observations, et cela en vue de poser un diagnostic (cas de la médecine) ou de prendre une décision en avenir incertain. La tension entre ces deux points de vue était vive. IH entreprend de construire une théorie axiomatique de l’inférence statistique sous-tendue par le point de vue fréquentiste, et susceptible de répondre de façon plus rigoureuse (selon lui) à à la question soulevée par les néo-bayésiens. Pour cela, il élabore une «théorie de la corroboration statistique»5, en complétant les axiomes de Kolmogoroff et en formulant une «loi de vraisemblance». Au passage, il étudie finement les notions de «fréquence à long terme», et de «dispositif aléatoire» (chance set-up), en montrant comment l’idée de probabilité dépend étroitement des dispositifs expérimentaux envisagés (ce qui annonce ses travaux ultérieurs sur la science: Representing and Intervening, Cambridge UP, 1983). Dans le dernier chapitre, il compare sa méthode à celle des néo-bayésiens et conclutque ces derniers «ratissent plus large» (ils peuvent traiter plus de cas), mais que sa théorie à lui permet de donner des compte-rendus plus précis. Ce livre de jeunesse brillant se présente comme un exercice d’épistémologie, dans le contexte des combats fratricides entre les chapelles statisticiennes. On y trouve déjà ce qui fera l’originalité de IH: une grande souplesse et subtilité de raisonnement, qui l’empèche de se laisser enfermer dans une des positions manichéennes qui sont face à face. Même s’il prétend aujourd’hui que ce livre était «entièrement fréquentiste», on sent bien qu’il cherche déjà à se construire une position à part, au dessus de la mêlée, ce qu’il fera souvent plus tard dans maints débats philosophiques théatres de guerres inexpiables pour n’importe qui d’autre que lui. Mais ce livre montre aussi les limites de l’exercice purement épistémologique, dans lequel d’autres passent toute leur vie. Le discours épistémologique méconnait les contraintes des pratiques scientifiques et les retraductions dans des montages cognitifs variés et complexes. Il manque décidément une ethnographie du raisonnement statistique en situation (comparable, d’une certaine manière, à ce que sera en 1983 «Representing and Intervening», qui, cependant, n’aborde pas cette question de la statistique). Si le style de raisonnement probabiliste et statistique semble relativement à part, ceci tient à une sociologie des positions argumentatives, que l’on peut énumérer : 1) Le discours épistémologique théorique, tenu par des philosophes ou des mathématiciens, dont le livre de 1965 constitue un bon exemple. 2) La retraduction de ce discours dans des manuels de méthodologie, qui codifient des prescriptions normatives, et passent à la trappe ce qu’il y avait encore de problématique et d’ouvert dans les débats épistémologiques. 3) Et enfin les pratiques concrètes, dans les laboratoires des sciences de la nature ou les centres de recherche en sciences sociales, dont, on l’a dit, manque une bonne ethnographie de leurs usages des statistiques. Pour sortir du monde clos de l’épistémologie, IH va prendre une autre voie, celle du recours à l’histoire, en reconstituant deux genèses, respectivement celle des probabilités, entre 1654 et 1737, et celle de la «domestication du hasard» grâce à l’accumulation de statistiques (toujours le fréquentisme…), au 19ème siècle. 5 Il est difficile de traduire précisément l’expression « A theory of statistical support ». Support , au sens propre, signifie : appui, étayage. C’est quelque chose qui est en dessous de la « preuve », une sorte de « confirmation », de « validation », ce qui augmente la « raison de croire », mais ceci est plutôt un langage bayésien : IH cherche à rivaliser avec les bayésiens avec des outils fréquentistes. Journ@l électronique d’Histoire des Probabilités et de la Statistique/ Electronic Journal for History of Probability and Statistics . Vol.2, n°1. Juin/June 2006 3 The Emergence of Probability (EOP 1975) part de la question : pourquoi n’y a-t-il pas eu de “mathématique du hasard” avant les décennies 1650 et 1660 ? En une quinzaine d’années, entre 1654 et 1670 se succèdent plusieurs innovations décisives, liées aux noms de Pascal, Huygens, Leibniz, Graunt et Petty, de Witt, puis, plus tard, Jacques Bernoulli (Ars Conjectandi 1713) et Hume (A Treatise of Human Nature 1739). L’idée centrale de EOP est que la spécificité de la notion de probabilité est sa dualité et la tension récurrente entre les deux aspects de cette notion«Janus-faced». D’une part, en termes «épistémiques», elle vise à évaluer de raisonnables «raisons de croire» (degrees of belief). D’autre part, en termes statistiques de «fréquence à long terme» (long run frequency), elle cherche à dégager des lois stochastiques de processus aléatoires. L’enjeu de ce tournant est l’émergence d’une nouvelle façon de fonder des connaissances à partir de faits observés (evidence). Auparavant, les savoirs pouvaient être justifiés de deux façons. D’une part, l’opinion, c’est à dire l’assentiment de personnes de confiance et expérimentées, fondait les connaissances des «basses sciences» (alchimie, médecine). Dans cet univers les signes que ces personnes savaient lire (déchiffrer), étaient de grande importance. D’autre part, les démonstrations de type logique (demonstrable knowledge) fondaient celles des «hautes sciences» (mathématique, astronomie, mécanique). Dans cette distinction ancienne manquait l’ evidence (terme anglais difficile à traduire) des observations empiriques. C’est cet espace épistémologique nouveau que uploads/Philosophie/ desrosieres-les-recherches-de-ian-hacking-sur-l-x27-histoire-des-usages-des.pdf
Documents similaires










-
35
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Mai 11, 2022
- Catégorie Philosophy / Philo...
- Langue French
- Taille du fichier 0.9917MB