TECHNIQUES STATISTIQUES ADAPTEES AU DEVELOPPEMENT ET A LA GOUVERNANCE Cours pro

TECHNIQUES STATISTIQUES ADAPTEES AU DEVELOPPEMENT ET A LA GOUVERNANCE Cours proposé et dispensé par : Dr NKOMA NTCHEMANDJI Philippe Année académique 2020-2021 1 I. LA STAT ET LES BIG DATA COMME OUTILS D’AIDE A LA DECISION 1.1. Pourquoi s’intéresser aux méthodes ? En sciences-sociales, on utilise une pluralité de méthodes qu’elles soient qualitatives ou quantitatives. La centralité des méthodes dans toute entreprise scientifique dont King, Keohane et Verba dans Designing Social Inquiry: Scientific Inference in Qualitative Research publié 1994, caractérisent la recherche scientifique par les quatre points : l’inférence, soit l’inférence descriptive, soit l’inférence causale ; les procédures ; les conclusions ; le contenu. 1.1.1. Le but est l’inférence L’idée de l’inférence est qu’à partir de l’observation faite, on va tirer des conclusions de ce qu’on n’a pas directement observé. L’inférence peut se faire de deux marnières :  descriptive : on observe ce qu’on aimerait bien observer. Par exemple, cela est le sondage d’opinion. Si on cherche à savoir si une population soutient un Président pour mener une intervention militaire dans un pays, on tire de manière aléatoire un échantillon souvent composé de 1000 à 2000 personnes puis on en tire un pourcentage. Dans ce cas, 70% sont contre une intervention militaire dans ce pays. On procède à une inférence descriptive, on observe les causes sur un phénomène.  Causale : on cherche à déterminer les causes d’un phénomène. Par exemple, avec le chômage, on cherche à déterminer les différentes causes du chômage ou bien de l’augmentation du chômage sur une période de temps déterminée. Pour toute recherche scientifique, le but est d’observer des inférences qui cherchent à dépasser les informations collectées. 1.1.2. Les procédures sont publiques La procédure est publique garantissant une validité ce qui permet de répliquer les résultats. 1.1.3. Les conclusions sont incertaines L’inférence est un processus imparfait. L’incertitude fait qu’on ne peut tout connaître que cela soit dans la description d’un phénomène ou dans les causes qui génèrent un phénomène. Les données sont de plus jamais parfaites et jamais complètes. 1.1.4. Le contenu est la méthode La recherche scientifique implique de se conformer à un ensemble de règles de l’inférence. Ce sont les méthodes qui constituent l’unité de la science. Les méthodes jouent un rôle central dans la recherche scientifique. Phases d’un processus de recherche. 2 Apparaissent les différentes phases d’un processus de recherche (schéma dessus). Lorsqu’on réfléchit au design de recherche, il faut se demander étant donnée la question de recherche quel type de preuves a-t-on besoin. Il y a plusieurs types de designs de recherche comme l’expérimentation, les études de cas, les analyses longitudinales ou les analyses transversales. Chacun de ces design peut recourir à différentes méthodes qu’elles soient qualitatives ou bien quantitative. La question de recherche peut induire le choix d’une méthode. Le choix d’une méthode aura une conséquence sur l’opérationnalisions des concepts qui est la mobilisation des concepts mobilisés dans le cadre théorique qui influe sur la sélection des unités d’analyse ainsi que la collecte des données. L’inférence causale est souvent rendue plus difficile, parce que pour la grande majorité des questions de recherche : l’approche expérimentale qui nécessite la manipulation des causes qui nous intéressent n’est pas possible ; la « nature » ne nous aide que rarement en produisant des conditions d’une expérience naturelle ; et donc nous devons nous baser sur des données d’observation. On observe différents phénomènes et on les mesure. 1.2. L’outil statistique Les statistiques sont vues comme des instruments de la volonté politique au service de la persuasion, ainsi la double nature contradictoire des statistiques est ainsi posée, outils de preuve scientifique et outils de gouvernement. Ces deux usages de la statistique invitent à ne pas oublier son rôle émancipateur à côté de celui d’outil de décision ou d’outil pour l’action. Ce sont les deux facettes d’une même réalité qu’il faut « tenir ensemble » dans l’analyse. La statistique peut se définir comme une branche autonome des mathématiques qui offre des outils scientifiques d’analyse. La mobilisation intensive des outils de la statistique pour l’étude des phénomènes sociaux a contribué au développement de la statistique sociale. 1.2.1. La quantification comme optique distincte de la mesure Les travaux statistiques ont en commun de prendre une optique d’analyse distincte de celle de la mesure : l’optique de la quantification (Desrosières, 2008). La distinction entre ces deux optiques peut se décliner de quatre manières distinctes : comme deux étapes de la démarche scientifique en sciences sociales ; en tant que deux problématisations des mises en chiffres ; comme deux rapports entre le sujet et l’objet ; et enfin comme deux stratégies méthodologiques d’analyse. La quantification est d’abord une étape préalable à la mesure. Mesurer, c’est construire des méthodes d’échantillonnage permettant d’inférer des échantillons aux populations, des méthodes de collecte qui vont permettre d’obtenir les taux de réponses les plus fiables et des méthodes d’analyse permettant d’estimer. Mais avant de construire ces méthodes, il faut préalablement s’entendre sur la quantification de ce qu’on cherche à mesurer. La quantification est un processus qui, comme son nom l’indique, conduit à transformer des qualités en quantités. Quantifier, c’est d’abord mettre en nombre un phénomène en adoptant un étalon et en construisant un instrument. La quantification conduit par ailleurs à une problématisation des mises en nombres distincte de la mesure. Enfin, l’analyse des quantifications conduit bien sûr à adopter des stratégies méthodologiques qui s’opposent à celles de la mesure. La stratégie méthodologique de la mesure consiste à 3 appliquer la statistique mathématique à des phénomènes sociaux décrits à partir de produits harmonisés. 1.2.2. Ce que les statistiques permettent de faire Les études post-facto analysent préalablement les faits et tentent d’établir des hypothèses. Ils permettent entre autres de parvenir aux calculs d’indicateurs. a) Types d’indicateurs - Les indicateurs bruts C’est un chiffre absolu, une unité entière, il s’agit notamment de : l’espérance de vie, le déficit, l’augmentation du trafic, etc. - La proportion C’est un rapport entre deux nombres, il s’agit de : une partie par rapport à son ensemble, multipliée par 100, elle devient un pourcentage, ultimement, elle est utilisée comme taux pour exprimer une réalité, etc. - Le ratio C’est un rapport proportionnel entre deux quantités ou deux nombres différents, il s’agit de : le ratio homme-femme, le % du PIB, la variation : c’est la différence entre la valeur de départ et la valeur d’arrivée, etc. - Les indices Elles expriment le niveau des prix et le volume du commerce b) La nature des indicateurs DES INDICATEURS - Les indicateurs sociodémographiques Il s’agit de la population, l’espérance de vie, le bien-être, le taux d’alphabétisation, le niveau de scolarisation, le degré d’inégalité, le niveau d’urbanisation. - Les indicateurs économiques Il s’agit du PIB, de la richesse nationale, la dette, le PIB/habitant, le taux de chômage. - Les indicateurs politiques Il s’agit du degré de libertés civiles, du niveau de corruption, des législations et des droits, du niveau de participation, etc. - Les indicateurs composites Il s’agit de l’indice de développement humain (IDH) ajusté au genre et aux inégalités, l’IPH (et IPH²). 1.3. Le Big Data ou Data Science Le Big Data (ou mégadonnées) représente les collections de données caractérisées par un volume, une vélocité et une variété si grands que leur transformation en valeur utilisable requiert l’utilisation de technologies et de méthodes analytiques spécifiques. Autrement dit, volume, vélocité et variété renvoient aux significations suivantes : 4 ● Volume - pas d'échantillonnage, on observe et mesure tout ; ● Vélocité - les données et les résultats sont souvent disponibles en temps réel ; ● Variété -puise dans les données textuelles, les photos, audio/vidéo et complète généralement les pièces manquantes en fusionnant plusieurs sources. 1.3.1. D’où vient le Big Data ? ○ De l’explosion de la disponibilité des données, c’est-à-dire une augmentation exponentielle de la quantité de données non structurées (email, chat, blog, web, musique, photo, vidéo, etc.) ; ○ De l’augmentation de la capacité de stockage et d’analyse (l’utilisation de plusieurs machines en parallèle devient accessible) ; ○ Le fait que les technologies existantes ne soient pas conçues pour ingérer ces données (Base de données relationnelles (tabulaires), mainframes, tableurs (Excel), etc.). 1.3.2. Quel en est l’objectif ? Utiliser les données pour aider nos utilisateurs à prendre des décisions éclairées dans des champs d’applications très divers : industriels, marketing, ou encore en relation avec des thématiques de recherche en Biologie, Épidémiologie.... 1.3.3. Les applications Big Data Parmi les applications du Big Data, on peut citer trois grands classiques : Premièrement, l’analyse de fichiers de traces pour en déduire des comportements passés et futurs : traces de transactions commerciales, traces d’activités de personnes mobiles, traces d’accès à des serveurs web, etc., et déductions de comportements de consommateurs, de voyageurs, d’utilisation d’Internet. Cette analyse aboutit généralement à un système de recommandation pour mieux cibler des clients potentiels ou pour augmenter les performances de l’entreprise. Ce type d’analyse se faisait initialement off line sur de très gros volumes de données, mais on observe une demande croissante de traitement on line de flux continus de données. L’objectif général est uploads/Science et Technologie/ stat-et-aide-a-la-decision.pdf

  • 44
  • 0
  • 0
Afficher les détails des licences
Licence et utilisation
Gratuit pour un usage personnel Attribution requise
Partager