Probabilités et Statistique Jean-Michel JOLION Département Génie Industriel1 •
Probabilités et Statistique Jean-Michel JOLION Département Génie Industriel1 • Sommaire • Probabilités o Notions de probabilités o Analyse combinatoire (rappels) Factorielle Arrangements de p objets parmi n Permutations Combinaisons de p parmi n Répétitions o Epreuves et Evènements o Espace probabilisé Axiomatique de Kolmogorov Propriétés élémentaires o Probabilité conditionnelle - Théorème de Bayes Théorème des probabilités composées Conséquences Théorème de Bayes - Probabilités des causes o Le paradoxe de Bertrand • Variables aléatoires o Variable aléatoire : définitions o Fonction de répartition Définition Propriétés Fonction de répartition d'une v.a. discrète o Fonction de répartition d'une v.a. continue o Couple de variables aléatoires Définitions Cas d'un couple de v.a. continues Cas d'un couple de v.a. discrètes Distribution conditionnelle o Loi d'une fonction d'une ou plusieurs variables aléatoires Transformation d'une variable aléatoire Densité de probabilité d'une somme de V.A. indépendantes o Moyenne et espérance mathématique d'une v.a. Notion de moyenne pour une v.a. discrète Espérance mathématique o Moments Définitions Quelques moments particuliers Variance, covariance et écart-type Variable centrée réduite Coefficient de corrélation Exemple Inégalités de Bienaymé - Tchebyshev - Markov o Quelques lois de probabilités Les valeurs principales Liaisons entre lois de probabilités o Quelques relations o Loi des grands nombres Convergence stochastique Théorème central limite o Simulation d'une variable aléatoire Méthode générale par transformation inverse Loi uniforme Loi exponentielle Loi binomiale Loi de Poisson Loi normale : o Autres indicateurs Histogramme Médiane Mode Autres moyennes • Estimation o Estimation ponctuelle Introduction Estimateur convergent Estimateur sans biais Estimateur efficace Robustesse o Méthode du maximum de vraisemblance o Estimation par intervalle de confiance Estimation d'une proportion Estimation d'une moyenne Estimation d'une variance o Estimation robuste Interprétation de données: l'approche bayésienne Le traitement de l'a priori Le traitement de l'a posteriori Le cas monodimensionnel Le cas général Estimation itérative o Régression linéaire Formalisation Résolution dans le cas d'une distribution normale des écarts Le cas de la droite Intervalle de confiance sur le coefficient de corrélation o Filtre de Kalman o Estimation d'un mode o Estimation d'une densité • Tests d'hypothèse o Introduction Hypothèses et erreurs Tests bilatéral et unilatéral Région d'acceptation et région critique Choix d'un test Influence de l'échantillonnage o Test entre deux hypothèses simples La méthode de Neyman et Pearson Test de la moyenne d'une loi normale d'écart-type connu Test de la moyenne d'une loi normale d'écart-type inconnu Test d'une variance de loi normale, la moyenne étant connue Test d'une variance de loi normale, la moyenne étant inconnue Test d'une proportion o Test entre hypothèses composées Tests UMP Test d'une moyenne de loi normale, l'écart-type étant connu Test d'une moyenne de loi normale, l'écart-type étant inconnu Test d'une variance de loi normale, la moyenne étant connue Test d'une variance de loi normale, la moyenne étant inconnue Test d'une proportion o Test de comparaison Comparaison de deux moyennes Comparaison de deux variances Comparaison de deux proportions o Test du rapport des vraisemblances maximales o Test d'adéquation Test du Test de Kolmogorov Test de Cramer-Von Mises o Test d'indépendance Test des différences premières Test de Spearman o Test de comparaison d'échantillons Test des variances de Fisher-Snédécor Test de Student Test de Spearman o Analyse de la variance Les données de l'analyse Le test Analyse des contrastes • Le Contrôle Statistique de Process: SPC o Introduction o Capabilité d'un processus Etude de la capabilité des processus Indicateurs généralisés Les cartes de contrôle o #1 • Tables o Fonction de répartition de la loi normale centrée réduite o Fractiles de la loi normale centrée réduite o Fractiles de la loi du à degrés de liberté o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Table de distribution de (Loi de Student) o Table du coefficient de corrélation des rangs de Spearman de deux variables aléatoires indépendantes o Fonction de répartition de la statistique de Cramer-Von Mises o Table du test de Kolmogorov-Smirnov • Exercices o Probabilités o Variables aléatoires o Estimation o Tests d'hypothèses o SPC o Sujets généraux Problème 1 Problème 2 Problème 3 Problème 4 Sommaire • Probabilités o Notions de probabilités o Analyse combinatoire (rappels) o Epreuves et Evènements o Espace probabilisé o Probabilité conditionnelle - Théorème de Bayes o Le paradoxe de Bertrand • Variables aléatoires o Variable aléatoire : définitions o Fonction de répartition o Fonction de répartition d'une v.a. continue o Couple de variables aléatoires o Loi d'une fonction d'une ou plusieurs variables aléatoires o Moyenne et espérance mathématique d'une v.a. o Moments o Quelques lois de probabilités o Quelques relations o Loi des grands nombres o Simulation d'une variable aléatoire o Autres indicateurs • Estimation o Estimation ponctuelle o Méthode du maximum de vraisemblance o Estimation par intervalle de confiance o Estimation robuste o Régression linéaire o Filtre de Kalman o Estimation d'un mode o Estimation d'une densité • Tests d'hypothèse o Introduction o Test entre deux hypothèses simples o Test entre hypothèses composées o Test de comparaison o Test du rapport des vraisemblances maximales o Test d'adéquation o Test d'indépendance o Test de comparaison d'échantillons o Analyse de la variance • Le Contrôle Statistique de Process: SPC o Introduction o Capabilité d'un processus o #1 • Tables o Fonction de répartition de la loi normale centrée réduite o Fractiles de la loi normale centrée réduite o Fractiles de la loi du à degrés de liberté o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Valeurs de la variable de Fisher-Snédécor ayant la probabilité d'être dépassées o Table de distribution de (Loi de Student) o Table du coefficient de corrélation des rangs de Spearman de deux variables aléatoires indépendantes o Fonction de répartition de la statistique de Cramer-Von Mises o Table du test de Kolmogorov-Smirnov • Exercices o Probabilités o Variables aléatoires o Estimation o Tests d'hypothèses o SPC o Sujets généraux • Bibliographie • Bibliography Introduction Ce polycopié est un support du cours de ``Probabilités-Statistique'' de 3ème année du département Génie Industriel de l'INSA de Lyon. Il regroupe les éléments fondamentaux vus dans ce cours. Il couvre plus que ce qui est réellement abordé en cours car il a également vocation à introduire des concepts plus avancés (comme les statistiques robustes ou la maîtrise des systèmes) en termes de culture générale. Il n'existe pas de recueil des annales des examens des années précédentes car les exercices et problèmes figurant dans ces examens sont introduits chaque année dans la nouvelle liste des exercices fournies en fin de polycopié, avec le plus souvent des élements de correction. Le contenu de ce polycopié n'engage que son auteur, dans le cadre de ce cours de l'INSA de Lyon. Toute reproduction partielle ou totale, pour toute utilisation est assujétie à la demande formulée auprès de l'auteur. Une version électronique est disponible sur le site web http://rfv.insa- lyon.fr/ jolion/STAT/poly.html Jean-Michel Jolion 2006-05-27 Probabilités Subsections • Notions de probabilités • Analyse combinatoire (rappels) o Factorielle o Arrangements de p objets parmi n o Permutations o Combinaisons de p parmi n o Répétitions • Epreuves et Evènements • Espace probabilisé o Axiomatique de Kolmogorov o Propriétés élémentaires • Probabilité conditionnelle - Théorème de Bayes o Théorème des probabilités composées o Conséquences o Théorème de Bayes - Probabilités des causes • Le paradoxe de Bertrand Jean-Michel Jolion 2006-05-27 Notions de probabilités Il existe plusieurs manières de définir une probabilité. Principalement, on parle de probabilités inductives ou expérimentales et de probabilités déductives ou théoriques. On peut les définir comme suit : Probabilité expérimentale ou inductive : la probabilité est déduite de toute la population concernée. Par exemple, si sur une population d'un million de naissances, on constate 530000 garçons et 470000 filles, on dit que P[garçon] = 0.53 Probabilité théorique ou déductive : cette probabilité est connue grâce à l'étude du phénomène sous-jacent sans expérimentation. Il s'agit donc d'une connaissance a priori par opposition à la définition précédente qui faisait plutôt référence à une notion de probabilité a posteriori. Par exemple, dans le cas classique du dé parfait, on peut dire, sans avoir à jeter un dé, que P["obtenir un 4"] = . Comme il n'est pas toujours possible de déterminer des probabilités a priori, on est souvent amené à réaliser des expériences. Il faut donc pouvoir passer de la première à la deuxième solution. Ce uploads/Management/ probabilites-et-statistique-pdf.pdf
Documents similaires










-
43
-
0
-
0
Licence et utilisation
Gratuit pour un usage personnel Attribution requise- Détails
- Publié le Aoû 20, 2021
- Catégorie Management
- Langue French
- Taille du fichier 2.3024MB