Probabilité - Probability

Les probabilités de lancer plusieurs nombres à l'aide de deux dés.

La probabilité est la branche des mathématiques concernant les descriptions numériques de la probabilité qu'un événement se produise ou de la probabilité qu'une proposition soit vraie. La probabilité d'un événement est un nombre compris entre 0 et 1, où, grosso modo, 0 indique l'impossibilité de l'événement et 1 indique la certitude. Plus la probabilité d'un événement est élevée, plus il est probable que l'événement se produise. Un exemple simple est le lancer d'une pièce de monnaie équitable (impartiale). Puisque la pièce est juste, les deux résultats (« face » et « face ») sont tous deux également probables ; la probabilité de « face » est égale à la probabilité de « face » ; et comme aucun autre résultat n'est possible, la probabilité d'être « face » ou « face » est de 1/2 (ce qui pourrait aussi être écrit comme 0,5 ou 50 %).

Ces concepts ont reçu une formalisation mathématique axiomatique dans la théorie des probabilités , qui est largement utilisée dans des domaines d'étude tels que les statistiques , les mathématiques , les sciences , la finance , les jeux de hasard , l' intelligence artificielle , l'apprentissage automatique , l' informatique , la théorie des jeux et la philosophie pour, par exemple. par exemple, tirer des conclusions sur la fréquence attendue des événements. La théorie des probabilités est également utilisée pour décrire la mécanique sous-jacente et les régularités des systèmes complexes .

Terminologie de la théorie des probabilités

Expérience : Une opération qui peut produire des résultats bien définis s'appelle une expérience.

Exemple : Lorsque nous lançons une pièce de monnaie, nous savons que la tête ou la queue apparaît. Ainsi, on peut dire que l'opération consistant à lancer une pièce de monnaie a deux résultats bien définis, à savoir (a) la tête se présente ; et (b) les queues apparaissent.

Expérience aléatoire : lorsque nous lançons un dé, nous sommes bien conscients du fait que l'un des chiffres 1,2,3,4,5 ou 6 peut apparaître sur la face supérieure, mais nous ne pouvons pas dire quel nombre exact apparaîtra.

Une telle expérience dans laquelle tous les résultats possibles sont connus et le résultat exact ne peut pas être prédit à l'avance, s'appelle une expérience aléatoire.

Espace échantillon : tous les résultats possibles d'une expérience dans son ensemble forment l' espace échantillon.

Exemple : Lorsque nous lançons un dé, nous pouvons obtenir n'importe quel résultat de 1 à 6. Tous les nombres possibles qui peuvent apparaître sur la face supérieure forment l'Espace Échantillon (noté S). Par conséquent, l'espace échantillon d'un jet de dé est S={1,2,3,4,5,6}

Résultat : Tout résultat possible hors de l'espace échantillon S pour une expérience aléatoire est appelé un résultat.

Exemple : lorsque nous lançons un dé, nous pouvons obtenir 3 ou lorsque nous lançons une pièce, nous pouvons obtenir face.

Événement : tout sous-ensemble de l'espace échantillon S est appelé un événement (noté E ). Lorsqu'un résultat qui appartient au sous-ensemble E a lieu, on dit qu'un événement s'est produit. Alors que, lorsqu'un résultat qui n'appartient pas au sous-ensemble E a lieu, l'événement ne s'est pas produit.

Exemple : Considérez l'expérience de lancer un dé. Ici, l'espace échantillon S={1,2,3,4,5,6}. Soit E l'événement « d'un nombre apparaissant inférieur à 4 ». Ainsi l'événement E={1,2,3}. Si le chiffre 1 apparaît, on dit que l'événement E s'est produit. De même, si les résultats sont 2 ou 3, nous pouvons dire que l'événement E s'est produit puisque ces résultats appartiennent au sous-ensemble E.

Essai : Par essai, nous entendons effectuer une expérience aléatoire.

Exemple : (i) lancer une pièce de monnaie équitable , (ii) lancer un dé impartial

Interprétations

Lorsque vous traitez avec des expériences qui sont aléatoires et bien définies dans un cadre purement théorique (comme une pièce de monnaie lancer), les probabilités peuvent être numériquement décrits par le nombre de résultats souhaités, divisé par le nombre total de tous les résultats. Par exemple, lancer une pièce deux fois donnera des résultats "tête-tête", "tête-queue", "queue-tête" et "queue-queue". La probabilité d'obtenir un résultat « tête-tête » est de 1 résultat sur 4, soit, en termes numériques, 1/4, 0,25 ou 25 %. Cependant, en ce qui concerne l'application pratique, il existe deux grandes catégories concurrentes d'interprétations des probabilités, dont les adeptes ont des points de vue différents sur la nature fondamentale de la probabilité :

  • Les objectivistes attribuent des numéros pour décrire un état de choses objectif ou physique. La version la plus populaire de la probabilité objective est la probabilité fréquentiste , qui prétend que la probabilité d'un événement aléatoire dénote la fréquence relative d'occurrence du résultat d'une expérience lorsque l'expérience est répétée indéfiniment. Cette interprétation considère la probabilité comme la fréquence relative « à long terme » des résultats. Une modification de ceci est la probabilité de propension , qui interprète la probabilité comme la tendance d'une expérience à produire un certain résultat, même si elle n'est effectuée qu'une seule fois.
  • Les subjectivistes attribuent des nombres par probabilité subjective, c'est-à-dire comme degré de croyance. Le degré de croyance a été interprété comme "le prix auquel vous achèteriez ou vendriez un pari qui rapporte 1 unité d'utilité si E, 0 sinon E". La version la plus populaire de la probabilité subjective est la probabilité bayésienne , qui comprend des connaissances d'experts ainsi que des données expérimentales pour produire des probabilités. La connaissance experte est représentée par une distribution de probabilité a priori (subjective) . Ces données sont incorporées dans une fonction de vraisemblance . Le produit de la probabilité a priori et de la vraisemblance, une fois normalisé, donne une distribution de probabilité postérieure qui intègre toutes les informations connues à ce jour. Par le théorème d'accord d'Aumann , les agents bayésiens dont les croyances a priori sont similaires finiront avec des croyances postérieures similaires. Cependant, des a priori suffisamment différents peuvent conduire à des conclusions différentes, quelle que soit la quantité d'informations partagées par les agents.

Étymologie

Le mot probabilité dérive du latin probabilitas , qui peut aussi signifier « probité », mesure de l' autorité d'un témoin dans une affaire judiciaire en Europe , et souvent en corrélation avec la noblesse du témoin . Dans un sens, cela diffère beaucoup du sens moderne de probabilité , qui est en revanche une mesure du poids des preuves empiriques , et est obtenu à partir du raisonnement inductif et de l'inférence statistique .

Histoire

L'étude scientifique des probabilités est un développement moderne des mathématiques . Le jeu montre qu'il y a eu un intérêt à quantifier les idées de probabilité depuis des millénaires, mais les descriptions mathématiques exactes sont apparues bien plus tard. Il y a des raisons au développement lent des mathématiques des probabilités. Alors que les jeux de hasard ont donné l'impulsion à l'étude mathématique des probabilités, les questions fondamentales sont encore obscurcies par les superstitions des joueurs.

Selon Richard Jeffrey , « Avant le milieu du XVIIe siècle, le terme « probable » (en latin probabilis ) signifiait approuvable , et était appliqué dans ce sens, de manière univoque, à l'opinion et à l'action. Une action ou une opinion probable était une telle que des gens sensés entreprendraient ou tiendraient, dans les circonstances." Cependant, dans les contextes juridiques en particulier, « probable » pourrait également s'appliquer aux propositions pour lesquelles il y avait de bonnes preuves.

Gerolamo Cardano (XVIe siècle)
Christiaan Huygens a publié l'un des premiers livres sur les probabilités (17e siècle)

Le polymathe italien du XVIe siècle Gerolamo Cardano a démontré l'efficacité de définir les probabilités comme le rapport des résultats favorables aux résultats défavorables (ce qui implique que la probabilité d'un événement est donnée par le rapport des résultats favorables au nombre total de résultats possibles). Hormis l'ouvrage élémentaire de Cardano, la doctrine des probabilités remonte à la correspondance de Pierre de Fermat et de Blaise Pascal (1654). Christiaan Huygens (1657) a donné le premier traitement scientifique connu du sujet. L' Ars Conjectandi de Jakob Bernoulli (à titre posthume, 1713) et la Doctrine du hasard d' Abraham de Moivre (1718) ont traité le sujet comme une branche des mathématiques. Voir Ian Hacking « s L'émergence de la probabilité et de James Franklin La science de la Conjecture pour l' histoire du début du développement du concept même de la probabilité mathématique.

La théorie des erreurs peut être retracée à Roger Cotes de l' Opéra Miscellanées ( à titre posthume, 1722), mais un mémoire préparé par Thomas Simpson en 1755 (imprimé 1756) d' abord appliqué la théorie à la discussion des erreurs d'observation. La réimpression (1757) de ce mémoire établit les axiomes selon lesquels les erreurs positives et négatives sont également probables, et que certaines limites assignables définissent la gamme de toutes les erreurs. Simpson discute également des erreurs continues et décrit une courbe de probabilité.

Les deux premières lois de l'erreur qui ont été proposées proviennent toutes deux de Pierre-Simon Laplace . La première loi a été publiée en 1774 et stipulait que la fréquence d'une erreur pouvait être exprimée comme une fonction exponentielle de la grandeur numérique de l'erreur, sans tenir compte du signe. La deuxième loi d'erreur a été proposée en 1778 par Laplace, et a déclaré que la fréquence de l'erreur est une fonction exponentielle du carré de l'erreur. La deuxième loi d'erreur est appelée la distribution normale ou la loi de Gauss. "Il est historiquement difficile d'attribuer cette loi à Gauss, qui malgré sa précocité bien connue n'avait probablement pas fait cette découverte avant l'âge de deux ans."

Daniel Bernoulli (1778) a introduit le principe du produit maximum des probabilités d'un système d'erreurs concurrentes.

Carl Friedrich Gauss

Adrien-Marie Legendre (1805) a développé la méthode des moindres carrés , et l'a introduit dans ses Nouvelles methods Pour la détermination des Orbites des Comètes ( nouvelles méthodes de détermination des Orbite de Comets ). Ignorant l'apport de Legendre, un écrivain irlando-américain, Robert Adrain , rédacteur en chef de "The Analyst" (1808), a d'abord déduit la loi de facilité d'erreur,

où est une constante dépendant de la précision de l'observation, et est un facteur d'échelle assurant que l'aire sous la courbe est égale à 1. Il a donné deux preuves, la seconde étant essentiellement la même que celle de John Herschel (1850). Gauss a donné la première preuve qui semble avoir été connue en Europe (la troisième après celle d'Adrain) en 1809. D'autres preuves ont été données par Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837 ), Friedrich Bessel (1838), WF Donkin (1844, 1856) et Morgan Crofton (1870). Les autres contributeurs étaient Ellis (1844), De Morgan (1864), Glaisher (1872) et Giovanni Schiaparelli (1875). La formule de Peters (1856) pour r , l' erreur probable d'une seule observation, est bien connue.

Au XIXe siècle, les auteurs de la théorie générale comprenaient Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion et Karl Pearson . Augustus De Morgan et George Boole ont amélioré l'exposition de la théorie.

En 1906, Andrey Markov a introduit la notion de chaînes de Markov , qui a joué un rôle important dans la théorie des processus stochastiques et ses applications. La théorie moderne des probabilités basée sur la théorie de la mesure a été développée par Andrey Kolmogorov en 1931.

Du côté géométrique, les contributeurs de The Educational Times étaient influents (Miller, Crofton, McColl, Wolstenholme, Watson et Artemas Martin ). Voir géométrie intégrale pour plus d'informations.

Théorie

Comme les autres théories , la théorie des probabilités est une représentation de ses concepts en termes formels, c'est-à-dire en termes pouvant être considérés séparément de leur sens. Ces termes formels sont manipulés par les règles des mathématiques et de la logique, et tous les résultats sont interprétés ou traduits dans le domaine du problème.

Il y a eu au moins deux tentatives réussies pour formaliser la probabilité, à savoir la formulation de Kolmogorov et la formulation de Cox . Dans la formulation de Kolmogorov (voir aussi espace de probabilité ), les ensembles sont interprétés comme des événements et la probabilité comme une mesure sur une classe d'ensembles. Dans le théorème de Cox , la probabilité est considérée comme une primitive (c'est-à-dire qu'elle n'est pas analysée davantage) et l'accent est mis sur la construction d'une affectation cohérente des valeurs de probabilité aux propositions. Dans les deux cas, les lois de probabilité sont les mêmes, à l'exception des détails techniques.

Il existe d'autres méthodes pour quantifier l'incertitude, telles que la théorie de Dempster-Shafer ou la théorie des possibilités , mais celles-ci sont essentiellement différentes et incompatibles avec les lois de probabilité généralement comprises.

Applications

La théorie des probabilités est appliquée dans la vie de tous les jours dans l' évaluation et la modélisation des risques . L'industrie et les marchés de l' assurance utilisent la science actuarielle pour déterminer les prix et prendre des décisions commerciales. Les gouvernements appliquent des méthodes probabilistes dans la réglementation environnementale , l'analyse des droits et la réglementation financière .

Un exemple de l'utilisation de la théorie des probabilités dans le commerce des actions est l'effet de la probabilité perçue d'un conflit généralisé au Moyen-Orient sur les prix du pétrole, qui ont des effets d'entraînement sur l'économie dans son ensemble. Une évaluation par un commerçant de matières premières qu'une guerre est plus probable peut faire monter ou baisser les prix de cette matière première et signaler aux autres commerçants cette opinion. Par conséquent, les probabilités ne sont pas évaluées de manière indépendante ni nécessairement rationnellement. La théorie de la finance comportementale a émergé pour décrire l'effet d'une telle pensée de groupe sur la tarification, sur la politique et sur la paix et les conflits.

En plus de l'évaluation financière, la probabilité peut être utilisée pour analyser les tendances biologiques (par exemple, la propagation de la maladie) ainsi que l'écologie (par exemple, les carrés de Punnett biologiques). Comme pour la finance, l'évaluation des risques peut être utilisée comme un outil statistique pour calculer la probabilité que des événements indésirables se produisent, et peut aider à mettre en œuvre des protocoles pour éviter de rencontrer de telles circonstances. La probabilité est utilisée pour concevoir des jeux de hasard afin que les casinos puissent réaliser un profit garanti, tout en offrant aux joueurs des paiements suffisamment fréquents pour encourager la poursuite du jeu.

Une autre application importante de la théorie des probabilités dans la vie quotidienne est la fiabilité . De nombreux produits de consommation, tels que les automobiles et l'électronique grand public, utilisent la théorie de la fiabilité dans la conception des produits pour réduire la probabilité de défaillance. La probabilité de défaillance peut influencer les décisions d'un fabricant concernant la garantie d' un produit .

Le modèle de langage de cache et d'autres modèles de langage statistique qui sont utilisés dans le traitement du langage naturel sont également des exemples d'applications de la théorie des probabilités.

Traitement mathématique

Calcul de la probabilité (risque) par rapport aux cotes

Considérez une expérience qui peut produire un certain nombre de résultats. L'ensemble de tous les résultats possibles est appelé l' espace échantillon de l'expérience, parfois noté . L' ensemble de puissance de l'espace échantillon est formé en considérant toutes les différentes collections de résultats possibles. Par exemple, lancer un dé peut produire six résultats possibles. Une collection de résultats possibles donne un nombre impair sur le dé. Ainsi, le sous-ensemble {1,3,5} est un élément de l' ensemble de puissance de l'espace échantillon des lancers de dés. Ces collections sont appelées "événements". Dans ce cas, {1,3,5} est l'événement où le dé tombe sur un nombre impair. Si les résultats qui se produisent réellement tombent dans un événement donné, l'événement est dit s'être produit.

Une probabilité est une manière d'attribuer à chaque événement une valeur comprise entre zéro et un, avec l'exigence que l'événement composé de tous les résultats possibles (dans notre exemple, l'événement {1,2,3,4,5,6}) soit attribué une valeur de un. Pour être qualifiée de probabilité, l'attribution de valeurs doit satisfaire à l'exigence que pour toute collection d'événements mutuellement exclusifs (événements sans résultats communs, tels que les événements {1,6}, {3} et {2,4}) , la probabilité qu'au moins un des événements se produise est donnée par la somme des probabilités de tous les événements individuels.

La probabilité d'un événement A s'écrit , , ou . Cette définition mathématique de la probabilité peut s'étendre à des espaces d'échantillons infinis, et même à d'innombrables espaces d'échantillons, en utilisant le concept de mesure.

L' opposé ou le complément d'un événement A est l'événement [pas A ] (c'est-à-dire l'événement de A qui ne se produit pas), souvent noté , , ou ; sa probabilité est donnée par P (pas A ) = 1 − P ( A ) . À titre d'exemple, la chance de ne pas obtenir un six sur un dé à six faces est de 1 – (chance d'obtenir un six) . Pour un traitement plus complet, voir Evénement complémentaire .

Si deux événements A et B se produisent lors d'une même exécution d'une expérience, cela s'appelle l'intersection ou la probabilité conjointe de A et B , notée .

Événements indépendants

Si deux événements, A et B sont indépendants, alors la probabilité conjointe est

Par exemple, si deux pièces sont lancées, alors la chance que les deux soient face est de .

Des événements mutuellement exclusifs

Si l'événement A ou l'événement B peut se produire mais jamais les deux simultanément, alors ils sont appelés événements mutuellement exclusifs.

Si deux événements s'excluent mutuellement , alors la probabilité que les deux se produisent est notée et

Si deux événements s'excluent mutuellement , alors la probabilité que l' un ou l' autre se produise est notée et

Par exemple, la possibilité de rouler un 1 ou 2 , sur un à six côtés matrice est

Événements non mutuellement exclusifs

Si les événements ne sont pas mutuellement exclusifs, alors

Par exemple, lorsque vous tirez une carte d'un jeu de cartes, la chance d'obtenir un cœur ou une figure (J,Q,K) (ou les deux) est de , puisque parmi les 52 cartes d'un jeu, 13 sont des cœurs, 12 sont des figures, et 3 sont les deux : ici les possibilités incluses dans les « 3 qui sont les deux » sont incluses dans chacun des « 13 cœurs » et des « 12 figures », mais ne doivent être comptées qu'une seule fois.

Probabilite conditionnelle

Probabilité conditionnelle est la probabilité d'un événement A , étant donné l'occurrence de quelque autre événement B . La probabilité conditionnelle s'écrit, et se lit "la probabilité de A , étant donné B ". Il est défini par

If then est formellement indéfini par cette expression. Dans ce cas et sont indépendants, puisque . Cependant, il est possible de définir une probabilité conditionnelle pour certains événements à probabilité nulle en utilisant une σ-algèbre de tels événements (comme ceux résultant d'une variable aléatoire continue ).

Par exemple, dans un sac de 2 boules rouges et 2 boules bleues (4 boules au total), la probabilité de prendre une boule rouge est de ; cependant, lors de la prise d'une deuxième balle, la probabilité qu'il s'agisse d'une balle rouge ou d'une balle bleue dépend de la balle précédemment prise. Par exemple, si une boule rouge était prise, alors la probabilité de reprendre une boule rouge serait de , puisqu'il ne resterait qu'une boule rouge et 2 boules bleues. Et si une boule bleue a été prise précédemment, la probabilité de prendre une boule rouge sera de .

Probabilité inverse

Dans la théorie et les applications des probabilités , la règle de Bayes relie les probabilités d'un événement à un événement , avant (avant) et après (postérieur à) le conditionnement sur un autre événement . La cote sur l' événement est simplement le rapport des probabilités des deux événements. Lorsque arbitrairement de nombreux événements présentent un intérêt, pas seulement deux, la règle peut être reformulée comme a posteriori est proportionnel à la probabilité des temps antérieurs , où le symbole de proportionnalité signifie que le côté gauche est proportionnel à (c'est-à-dire égal à un temps constant) la main droite côté comme variable, pour fixe ou donné (Lee, 2012 ; Bertsch McGrayne, 2012). Sous cette forme, il remonte à Laplace (1774) et à Cournot (1843) ; voir Fienberg (2005). Voir Probabilité inverse et règle de Bayes .

Résumé des probabilités

Résumé des probabilités
Événement Probabilité
UNE
pas un
A ou B
A et B
Un B donné

Relation à l'aléatoire et à la probabilité en mécanique quantique

Dans un univers déterministe , basé sur des concepts newtoniens , il n'y aurait aucune probabilité si toutes les conditions étaient connues ( le démon de Laplace ), (mais il existe des situations dans lesquelles la sensibilité aux conditions initiales dépasse notre capacité à les mesurer, c'est-à-dire les connaître). Dans le cas d'une roulette , si la force de la main et la période de cette force sont connues, le nombre sur lequel la bille s'arrêtera serait une certitude (bien qu'en pratique, cela ne serait probablement vrai que pour un roulette qui n'avait pas été exactement nivelée – comme l'a révélé le Newtonian Casino de Thomas A. Bass ). Cela suppose également la connaissance de l'inertie et du frottement de la roue, du poids, de la douceur et de la rondeur de la balle, des variations de vitesse de la main pendant le virage, etc. Une description probabiliste peut donc être plus utile que la mécanique newtonienne pour analyser le modèle des résultats des rouleaux répétés d'une roue de roulette. Les physiciens sont confrontés à la même situation dans la théorie cinétique des gaz , où le système, bien que déterministe en principe , est si complexe (avec le nombre de molécules typiquement l'ordre de grandeur de la constante d'Avogadro 6,02 × 10 23 ) que seule une description statistique de ses propriétés est possible.

La théorie des probabilités est nécessaire pour décrire les phénomènes quantiques. Une découverte révolutionnaire de la physique du début du 20e siècle était le caractère aléatoire de tous les processus physiques qui se produisent à des échelles subatomiques et sont régis par les lois de la mécanique quantique . La fonction d'onde objective évolue de manière déterministe mais, selon l' interprétation de Copenhague , elle traite des probabilités d'observation, le résultat s'expliquant par un effondrement de la fonction d'onde lorsqu'une observation est faite. Cependant, la perte du déterminisme au profit de l' instrumentalisme n'a pas rencontré l'approbation universelle. Albert Einstein a fait remarquer dans une lettre à Max Born : "Je suis convaincu que Dieu ne joue pas aux dés". Comme Einstein, Erwin Schrödinger , qui a découvert la fonction d'onde, croyait que la mécanique quantique est une approximation statistique d'une réalité déterministe sous-jacente . Dans certaines interprétations modernes de la mécanique statistique de la mesure, la décohérence quantique est invoquée pour expliquer l'apparition de résultats expérimentaux subjectivement probabilistes.

Voir également

En loi

Remarques

Les références

Bibliographie

  • Kallenberg, O. (2005) Symétries probabilistes et principes d'invariance . Springer-Verlag, New York. 510 pages  ISBN  0-387-25115-4
  • Kallenberg, O. (2002) Foundations of Modern Probability, 2e éd. Série Springer en statistiques. 650 pages  ISBN  0-387-95313-2
  • Olofsson, Peter (2005) Probabilités, statistiques et processus stochastiques , Wiley-Interscience. 504 pages ISBN  0-471-67969-0 .

Liens externes