Distribution de probabilité - Probability distribution

Dans la théorie des probabilités et les statistiques , une distribution de probabilité est la fonction mathématique qui donne les probabilités d'occurrence de différents résultats possibles pour une expérience . Il s'agit d'une description mathématique d'un phénomène aléatoire en fonction de son espace d'échantillonnage et des probabilités d' événements (sous-ensembles de l'espace d'échantillonnage).

Par exemple, si X est utilisé pour désigner le résultat d'un tirage au sort ("l'expérience"), alors la distribution de probabilité de X prendrait la valeur 0,5 (1 sur 2 ou 1/2) pour X  = face et 0,5 pour X  = pile (en supposant que la pièce est juste ). Des exemples de phénomènes aléatoires incluent les conditions météorologiques à une date future, la taille d'une personne choisie au hasard, la fraction d'élèves de sexe masculin dans une école, les résultats d'une enquête à mener, etc.

introduction

La fonction de masse de probabilité (pmf) p ( S ) spécifie la distribution de probabilité pour la somme S des comptes de deux dés . Par exemple, la figure montre que p (11) = 2/36 = 1/18. Le pmf permet le calcul des probabilités d'événements tels que P ( S > 9) = 1/12 + 1/18 + 1/36 = 1/6, et toutes les autres probabilités de la distribution.

Une distribution de probabilité est une description mathématique des probabilités d'événements, des sous-ensembles de l' espace échantillon . L'espace échantillon, souvent désigné par , est l' ensemble de tous les résultats possibles d'un phénomène aléatoire observé ; il peut s'agir de n'importe quel ensemble : un ensemble de nombres réels , un ensemble de vecteurs , un ensemble de valeurs non numériques arbitraires, etc. Par exemple, l'espace d'échantillonnage d'un tirage au sort serait Ω = {face, face} .

Pour définir des distributions de probabilité pour le cas spécifique des variables aléatoires (afin que l'espace d'échantillonnage puisse être considéré comme un ensemble numérique), il est courant de faire la distinction entre les variables aléatoires discrètes et continues . Dans le cas discret, il suffit de spécifier une fonction de masse de probabilité attribuant une probabilité à chaque issue possible : par exemple, lors du lancer d'un équitable , chacune des six valeurs 1 à 6 a la probabilité 1/6. La probabilité d'un événement est alors définie comme étant la somme des probabilités des résultats qui satisfont l'événement ; par exemple, la probabilité de l'événement "le dé donne une valeur paire" est

En revanche, lorsqu'une variable aléatoire prend des valeurs dans un continuum, tout résultat individuel a une probabilité de zéro et seuls les événements qui incluent une infinité de résultats, tels que des intervalles, peuvent avoir une probabilité positive. Par exemple, envisagez de mesurer le poids d'un morceau de jambon au supermarché et supposez que la balance a plusieurs chiffres de précision. La probabilité qu'il pèse exactement 500 g est nulle, car il comportera très probablement des chiffres décimaux non nuls. Néanmoins, on pourrait exiger, en contrôle qualité, qu'un paquet de « 500 g » de jambon pèse entre 490 g et 510 g avec au moins 98% de probabilité, et cette demande est moins sensible à la précision des instruments de mesure.

A gauche se trouve la fonction de densité de probabilité. Sur la droite se trouve la fonction de distribution cumulative, qui est l'aire sous la courbe de densité de probabilité.

Les distributions de probabilité continues peuvent être décrites de plusieurs manières. La fonction de densité de probabilité décrit la probabilité infinitésimale d'une valeur donnée, et la probabilité que le résultat se situe dans un intervalle donné peut être calculée en intégrant la fonction de densité de probabilité sur cet intervalle. Une description alternative de la distribution est au moyen de la fonction de distribution cumulative , qui décrit la probabilité que la variable aléatoire ne soit pas plus grande qu'une valeur donnée (c'est-à-dire, P ( X < x ) pour certains x ). La fonction de distribution cumulative est l'aire sous la fonction de densité de probabilité de à x , comme décrit par l'image de droite.

Définition générale

Une distribution de probabilité peut être décrite sous diverses formes, telles que par une fonction de masse de probabilité ou une fonction de distribution cumulative. L'une des descriptions les plus générales, qui s'applique aux variables continues et discrètes, se fait au moyen d'une fonction de probabilité dont l'espace d'entrée est lié à l' espace d'échantillon , et donne une probabilité en nombre réel en sortie.

La fonction de probabilité P peut prendre comme argument des sous-ensembles de l'espace d'échantillonnage lui-même, comme dans l'exemple du tirage au sort, où la fonction P a été définie de telle sorte que P (faces) = 0,5 et P (piles) = 0,5 . Cependant, en raison de l'utilisation généralisée de variables aléatoires , qui transforment l'espace d'échantillonnage en un ensemble de nombres (par exemple, , ), il est plus courant d'étudier des distributions de probabilité dont l'argument sont des sous-ensembles de ces types particuliers d'ensembles (ensembles de nombres), et toutes les distributions de probabilité discutées dans cet article sont de ce type. Il est courant de désigner par P ( X E ) la probabilité qu'une certaine variable X appartienne à un certain événement E .

La fonction de probabilité ci-dessus ne caractérise une distribution de probabilité que si elle satisfait tous les axiomes de Kolmogorov , c'est-à-dire :

  1. , donc la probabilité est non négative
  2. , donc aucune probabilité ne dépasse
  3. pour toute famille d'ensembles disjointe

Le concept de fonction de probabilité est rendu plus rigoureux en le définissant comme l'élément d'un espace de probabilité , où est l'ensemble des résultats possibles, est l'ensemble de tous les sous-ensembles dont la probabilité peut être mesurée, et est la fonction de probabilité, ou mesure de probabilité , qui attribue une probabilité à chacun de ces sous-ensembles mesurables .

Les distributions de probabilité sont généralement divisées en deux classes. Une distribution de probabilité discrète est applicable aux scénarios où l'ensemble des résultats possibles est discret (par exemple un tirage au sort, un lancer de dé) et les probabilités sont codées par une liste discrète des probabilités des résultats ; dans ce cas, la distribution de probabilité discrète est connue sous le nom de fonction de masse de probabilité . D'autre part, les distributions de probabilité continues sont applicables aux scénarios où l'ensemble des résultats possibles peut prendre des valeurs dans une plage continue (par exemple des nombres réels), comme la température un jour donné. Dans le cas des nombres réels, la distribution de probabilité continue est la fonction de distribution cumulative . En général, dans le cas continu, les probabilités sont décrites par une fonction de densité de probabilité , et la distribution de probabilité est par définition l'intégrale de la fonction de densité de probabilité. La distribution normale est une distribution de probabilité continue couramment rencontrée. Des expériences plus complexes, telles que celles impliquant des processus stochastiques définis en temps continu , peuvent exiger l'utilisation de mesures de probabilité plus générales .

Une distribution de probabilité dont l'espace échantillon est unidimensionnel (par exemple nombres réels, liste d'étiquettes, étiquettes ordonnées ou binaire) est appelée univariée , tandis qu'une distribution dont l'espace échantillon est un espace vectoriel de dimension 2 ou plus est appelée multivariée . Une distribution univariée donne les probabilités qu'une seule variable aléatoire prenne différentes valeurs ; une distribution multivariée (une distribution de probabilité conjointe ) donne les probabilités d'un vecteur aléatoire - une liste de deux ou plusieurs variables aléatoires - prenant diverses combinaisons de valeurs. Les distributions de probabilité univariées importantes et couramment rencontrées comprennent la distribution binomiale , la distribution hypergéométrique et la distribution normale . Une distribution multivariée couramment rencontrée est la distribution normale multivariée .

Outre la fonction de probabilité, la fonction de distribution cumulative, la fonction de masse de probabilité et la fonction de densité de probabilité, la fonction génératrice de moment et la fonction caractéristique servent également à identifier une distribution de probabilité, car elles déterminent de manière unique une fonction de distribution cumulative sous-jacente.

La fonction de densité de probabilité (pdf) de la distribution normale , également appelée gaussienne ou "courbe en cloche", la distribution aléatoire continue la plus importante. Comme noté sur la figure, les probabilités d'intervalles de valeurs correspondent à l'aire sous la courbe.

Terminologie

Certains concepts et termes clés, largement utilisés dans la littérature sur le sujet des distributions de probabilité, sont énumérés ci-dessous.

Fonctions pour variables discrètes

  • Fonction de probabilité : décrit la probabilité que l'événement de l'espace échantillon se produise.
  • Fonction de masse de probabilité (pmf) : fonction qui donne la probabilité qu'une variable aléatoire discrète soit égale à une valeur.
  • Distribution de fréquence : un tableau qui affiche la fréquence de divers résultats dans un échantillon .
  • Distribution de fréquence relative : une distribution de fréquence où chaque valeur a été divisée (normalisée) par un certain nombre de résultats dans un échantillon (c'est-à-dire la taille de l'échantillon).
  • Fonction de distribution de probabilité discrète : terme général pour indiquer la façon dont la probabilité totale de 1 est distribuée sur tous les différents résultats possibles (c'est-à-dire sur l'ensemble de la population) pour une variable aléatoire discrète.
  • Fonction de distribution cumulative : fonction évaluant la probabilité queprendra une valeur inférieure ou égale àpour une variable aléatoire discrète.
  • Distribution catégorielle : pour les variables aléatoires discrètes avec un ensemble fini de valeurs.

Fonctions pour variables continues

  • Fonction de densité de probabilité (pdf) : fonction dont la valeur à n'importe quel échantillon (ou point) donné dans l' espace échantillon (l'ensemble des valeurs possibles prises par la variable aléatoire) peut être interprétée comme fournissant une probabilité relative que la valeur de la variable aléatoire égal à cet échantillon.
  • Fonction de distribution de probabilité continue : le plus souvent réservée aux variables aléatoires continues.
  • Fonction de distribution cumulative : fonction évaluant la probabilité queprendra une valeur inférieure ou égale àpour une variable continue.
  • Fonction quantile : l'inverse de la fonction de distribution cumulée. Donnetel que, avec probabilité,ne dépassera pas.

Termes de base

  • Mode : pour une variable aléatoire discrète, la valeur avec la probabilité la plus élevée ; pour une variable aléatoire continue, un emplacement auquel la fonction de densité de probabilité a un pic local.
  • Support : ensemble de valeurs qui peuvent être assumées avec une probabilité non nulle par la variable aléatoire. Pour une variable aléatoire, elle est parfois notée.
  • Queue : les régions proches des bornes de la variable aléatoire, si les pmf ou pdf y sont relativement faibles. A généralement la forme , ou une union de celles-ci.
  • Tête : la région où le pmf ou le pdf est relativement élevé. A généralement la forme .
  • Valeur attendue ou moyenne : la moyenne pondérée des valeurs possibles, en utilisant leurs probabilités comme poids ; ou son analogue continu.
  • Médiane : la valeur telle que l'ensemble des valeurs inférieures à la médiane et l'ensemble supérieur à la médiane ont chacun des probabilités ne dépassant pas la moitié.
  • Variance : le deuxième moment de la pmf ou pdf sur la moyenne ; une mesure importante de la dispersion de la distribution.
  • Ecart type : la racine carrée de la variance, et donc une autre mesure de la dispersion.
  • Quantile : le q-quantile est la valeurtelle que.
  • Symétrie : une propriété de certaines distributions dans laquelle la partie de la distribution à gauche d'une valeur spécifique (généralement la médiane) est une image miroir de la partie à sa droite.
  • Skewness : une mesure de la mesure dans laquelle un pmf ou un pdf « penche » d'un côté de sa moyenne. Le troisième moment standardisé de la distribution.
  • Kurtosis : une mesure du "grossesse" des queues d'un pmf ou d'un pdf. Le quatrième moment normalisé de la distribution.
  • Continuité : en mathématiques, la continuité signifie une fonction ou des valeurs qui n'ont pas de changements brusques.

Distribution de probabilité discrète

La fonction de masse de probabilité d'une distribution de probabilité discrète. Les probabilités des singletons {1}, {3} et {7} sont respectivement de 0,2, 0,5, 0,3. Un ensemble ne contenant aucun de ces points a une probabilité nulle.
Le cdf d'une distribution de probabilité discrète, ...
... d'une distribution de probabilité continue, ...
... d'une distribution qui a à la fois une partie continue et une partie discrète.

Une distribution de probabilité discrète est la distribution de probabilité d'une variable aléatoire qui ne peut prendre qu'un nombre dénombrable de valeurs. Dans le cas où la plage de valeurs est dénombrable infinie, ces valeurs doivent descendre à zéro assez rapidement pour que les probabilités totalisent 1. Par exemple, si pour n = 1, 2, ..., la somme des probabilités serait être 1/2 + 1/4 + 1/8 + ... = 1.

Les distributions de probabilité discrètes bien connues utilisées dans la modélisation statistique comprennent la distribution de Poisson , la distribution de Bernoulli , la distribution binomiale , la distribution géométrique et la distribution binomiale négative . De plus, la distribution uniforme discrète est couramment utilisée dans les programmes informatiques qui effectuent des sélections aléatoires à probabilité égale entre un certain nombre de choix.

Lorsqu'un échantillon (un ensemble d'observations) est tiré d'une population plus importante, les points d'échantillonnage ont une distribution empirique qui est discrète et qui fournit des informations sur la distribution de la population.

Fonction de distribution cumulative

De manière équivalente à ce qui précède, une variable aléatoire discrète peut être définie comme une variable aléatoire dont la fonction de distribution cumulative (cdf) n'augmente que par des discontinuités de saut - c'est-à-dire que sa cdf n'augmente que lorsqu'elle "saute" à une valeur plus élevée, et est constante entre ces sauts. Notez cependant que les points où le cdf saute peuvent former un ensemble dense de nombres réels. Les points où se produisent les sauts sont précisément les valeurs que peut prendre la variable aléatoire.

Représentation de la fonction delta

Par conséquent, une distribution de probabilité discrète est souvent représentée comme une fonction de densité de probabilité généralisée impliquant des fonctions delta de Dirac , ce qui unifie sensiblement le traitement des distributions continues et discrètes. Ceci est particulièrement utile lorsqu'il s'agit de distributions de probabilité impliquant à la fois une partie continue et une partie discrète.

Représentation de la fonction indicateur

Pour une variable aléatoire discrète X , soit u 0 , u 1 , ... les valeurs qu'elle peut prendre avec une probabilité non nulle. Dénoter

Ce sont des ensembles disjoints , et pour de tels ensembles

Il s'ensuit que la probabilité que X prenne n'importe quelle valeur sauf pour u 0 , u 1 , ... est nulle, et donc on peut écrire X comme

sauf sur un ensemble de probabilité zéro, où est la fonction indicatrice de A . Cela peut servir de définition alternative des variables aléatoires discrètes.

Répartition en un point

Un cas particulier est la distribution discrète d'une variable aléatoire qui ne peut prendre qu'une valeur fixe ; en d'autres termes, c'est une distribution déterministe . Exprimée formellement, la variable aléatoire a une distribution à un point si elle a un résultat possible tel que Tous les autres résultats possibles ont alors une probabilité 0. Sa fonction de distribution cumulative passe immédiatement de 0 à 1.

Distribution de probabilité continue

Une distribution de probabilité continue est une distribution de probabilité dont le support est un ensemble indénombrable, tel qu'un intervalle dans la ligne réelle. Ils sont uniquement caractérisés par une fonction de distribution cumulative qui peut être utilisée pour calculer la probabilité pour chaque sous-ensemble du support. Il existe de nombreux exemples de distributions de probabilités continues : normale , uniforme , chi-carré et autres .

Une variable aléatoire a une distribution de probabilité continue s'il existe une fonction telle que pour chaque intervalle la probabilité d' appartenance à est donnée par l'intégrale de over . Par exemple, si , alors nous aurions :

En particulier, la probabilité pour prendre n'importe quelle valeur (c'est-à-dire ) est nulle, car une intégrale dont les limites supérieure et inférieure coïncident est toujours égale à zéro. Une variable qui satisfait à ce qui précède est appelée variable aléatoire continue . Sa fonction de densité cumulée est définie comme

qui, par cette définition, a les propriétés :

  • est non décroissant ;
  • ;
  • et ;
  • ; et
  • est continue en raison des propriétés intégrales de Riemann .

Il est également possible de penser dans la direction opposée, ce qui permet plus de flexibilité : si est une fonction qui satisfait toutes les propriétés ci-dessus sauf la dernière, alors représente la fonction de densité cumulée pour une variable aléatoire : une variable aléatoire discrète si est un pas fonction, et une variable aléatoire continue sinon. Cela permet des distributions continues qui ont une fonction de densité cumulative, mais pas une fonction de densité de probabilité, comme la distribution de Cantor .

Il est souvent nécessaire de généraliser la définition ci-dessus pour des sous-ensembles plus arbitraires de la ligne réelle. Dans ces contextes, une distribution de probabilité continue est définie comme une distribution de probabilité avec une fonction de distribution cumulative qui est absolument continue . De manière équivalente, il s'agit d'une distribution de probabilité sur les nombres réels qui est absolument continue par rapport à la mesure de Lebesgue . De telles distributions peuvent être représentées par leurs fonctions de densité de probabilité . Si est une telle variable aléatoire absolument continue, alors elle a une fonction de densité de probabilité , et sa probabilité de tomber dans un ensemble mesurable de Lebesgue est :

où est la mesure de Lebesgue.

Remarque sur la terminologie : certains auteurs utilisent le terme « distribution continue » pour désigner des distributions dont les fonctions de distribution cumulatives sont continues , plutôt qu'absolument continues . Ces distributions sont celles telles que pour tous . Cette définition inclut les distributions (absolument) continues définies ci-dessus, mais elle inclut également les distributions singulières , qui ne sont ni absolument continues ni discrètes ni un mélange de celles-ci, et n'ont pas de densité. Un exemple est donné par la distribution de Cantor .

Définition de Kolmogorov

Dans la formalisation théorique de la mesure de la théorie des probabilités , une variable aléatoire est définie comme une fonction mesurable d'un espace de probabilité à un espace mesurable . Étant donné que les probabilités d'événements de la forme satisfont les axiomes de probabilité de Kolmogorov , la distribution de probabilité de X est la mesure de poussée de , qui est une mesure de probabilité sur satisfaire .

Autres types de distributions

Une solution pour les équations de Rabinovich-Fabrikant . Quelle est la probabilité d'observer un état à un certain endroit du support (c'est-à-dire le sous-ensemble rouge) ?

Les distributions continues et discrètes avec support sur ou sont extrêmement utiles pour modéliser une myriade de phénomènes, puisque la plupart des distributions pratiques sont supportées sur des sous-ensembles relativement simples, tels que les hypercubes ou les boules . Cependant, ce n'est pas toujours le cas, et il existe des phénomènes avec des supports qui sont en fait des courbes compliquées dans un certain espace ou similaire. Dans ces cas, la distribution de probabilité est prise en charge sur l'image d'une telle courbe, et est susceptible d'être déterminée empiriquement, plutôt que de trouver une formule fermée pour cela.

Un exemple est montré dans la figure de droite, qui montre l'évolution d'un système d'équations différentielles (communément appelées équations de Rabinovich-Fabrikant ) qui peuvent être utilisées pour modéliser le comportement des ondes de Langmuir dans le plasma . Lorsque ce phénomène est étudié, les états observés du sous-ensemble sont indiqués en rouge. On pourrait donc se demander quelle est la probabilité d'observer un état dans une certaine position du sous-ensemble rouge ; si une telle probabilité existe, elle est appelée la mesure de probabilité du système.

Ce type de support compliqué apparaît assez fréquemment dans les systèmes dynamiques . Il n'est pas simple d'établir que le système a une mesure de probabilité, et le problème principal est le suivant. Soit des instants dans le temps et un sous-ensemble du support ; si la mesure de probabilité existe pour le système, on s'attendrait à ce que la fréquence d'observation des états à l'intérieur de l'ensemble soit égale en intervalle et , ce qui pourrait ne pas se produire ; par exemple, il pourrait osciller comme un sinus, , dont la limite quand ne converge pas. Formellement, la mesure n'existe que si la limite de la fréquence relative converge lorsque le système est observé dans le futur infini. La branche des systèmes dynamiques qui étudie l'existence d'une mesure de probabilité est la théorie ergodique .

Notez que même dans ces cas, la distribution de probabilité, si elle existe, peut encore être qualifiée de « continue » ou de « discrète » selon que le support est indénombrable ou dénombrable, respectivement.

Génération de nombres aléatoires

La plupart des algorithmes sont basés sur un générateur de nombres pseudo-aléatoires qui produit des nombres X uniformément distribués dans l' intervalle semi-ouvert [0,1). Ces variables aléatoires X sont ensuite transformées via un algorithme pour créer une nouvelle variable aléatoire ayant la distribution de probabilité requise. Avec cette source de pseudo-aléatoire uniforme, des réalisations de n'importe quelle variable aléatoire peuvent être générées.

Par exemple, supposons une distribution uniforme entre 0 et 1. Pour construire une variable de Bernoulli aléatoire pour certains , nous définissons

pour que

Cette variable aléatoire X a une distribution de Bernoulli de paramètre . Notez qu'il s'agit d'une transformation de variable aléatoire discrète.

Pour une fonction de distribution d'une variable aléatoire continue, une variable aléatoire continue doit être construite. , une fonction inverse de , se rapporte à la variable uniforme :

Par exemple, supposons qu'une variable aléatoire ayant une distribution exponentielle doit être construite.

donc et si a une distribution, alors la variable aléatoire est définie par . Celui-ci a une distribution exponentielle de .

Un problème fréquent dans les simulations statistiques (la méthode Monte Carlo ) est la génération de nombres pseudo-aléatoires qui sont distribués d'une manière donnée.

Distributions de probabilité courantes et leurs applications

Le concept de distribution de probabilité et les variables aléatoires qu'elles décrivent sous-tendent la discipline mathématique de la théorie des probabilités et la science des statistiques. Il existe une dispersion ou une variabilité dans presque toutes les valeurs pouvant être mesurées dans une population (par exemple, la taille des personnes, la durabilité d'un métal, la croissance des ventes, la circulation, etc.) ; presque toutes les mesures sont effectuées avec une erreur intrinsèque ; en physique, de nombreux processus sont décrits de manière probabiliste, depuis les propriétés cinétiques des gaz jusqu'à la description de la mécanique quantique des particules fondamentales . Pour ces raisons et bien d'autres, les nombres simples sont souvent inadéquats pour décrire une quantité, tandis que les distributions de probabilité sont souvent plus appropriées.

Ce qui suit est une liste de certaines des distributions de probabilité les plus courantes, regroupées par type de processus auquel elles sont liées. Pour une liste plus complète, voir liste des distributions de probabilité , qui regroupe selon la nature du résultat considéré (discret, continu, multivarié, etc.)

Toutes les distributions univariées ci-dessous ont un pic unique ; c'est-à-dire que l'on suppose que les valeurs se regroupent autour d'un seul point. En pratique, les quantités réellement observées peuvent se regrouper autour de plusieurs valeurs. De telles quantités peuvent être modélisées à l'aide d'une distribution de mélange .

Croissance linéaire (par exemple erreurs, décalages)

Croissance exponentielle (par exemple, prix, revenus, populations)

Quantités uniformément réparties

Essais de Bernoulli (événements oui/non, avec une probabilité donnée)

Résultats catégoriels (événements avec K résultats possibles)

Processus de Poisson (événements qui se produisent indépendamment avec un taux donné)

  • Distribution de Poisson , pour le nombre d'occurrences d'un événement de type Poisson dans une période de temps donnée
  • Distribution exponentielle , pour le temps avant que le prochain événement de type Poisson ne se produise
  • Distribution gamma , pour le temps avant que les prochains k événements de type Poisson se produisent

Valeurs absolues des vecteurs avec des composantes normalement distribuées

  • Distribution de Rayleigh , pour la distribution des magnitudes vectorielles avec des composantes orthogonales distribuées gaussiennes. Les distributions de Rayleigh se trouvent dans les signaux RF avec des composantes gaussiennes réelles et imaginaires.
  • Distribution de riz , une généralisation des distributions de Rayleigh pour les endroits où il existe une composante de signal de fond stationnaire. Trouvé dans l' évanouissement ricien des signaux radio dû à la propagation par trajets multiples et dans les images IRM avec corruption de bruit sur des signaux RMN non nuls.

Quantités normalement distribuées exploitées avec la somme des carrés

En tant que distributions a priori conjuguées dans l'inférence bayésienne

Quelques applications spécialisées des distributions de probabilité

  • Les modèles de langage de cache et d'autres modèles de langage statistiques utilisés dans le traitement du langage naturel pour attribuer des probabilités à l'occurrence de mots et de séquences de mots particuliers le font au moyen de distributions de probabilité.
  • En mécanique quantique, la densité de probabilité de trouver la particule en un point donné est proportionnelle au carré de l'amplitude de la fonction d' onde de la particule en ce point (voir règle de Born ). Par conséquent, la fonction de distribution de probabilité de la position d'une particule est décrite par , probabilité que la position de la particule x soit dans l'intervalle axb en dimension un, et une triple intégrale similaire en dimension trois. C'est un principe clé de la mécanique quantique.
  • Le flux de charge probabiliste dans l' étude du flux de puissance explique les incertitudes des variables d'entrée en tant que distribution de probabilité et fournit le calcul du flux de puissance également en termes de distribution de probabilité.
  • Prévision des occurrences de phénomènes naturels sur la base des distributions de fréquences précédentes telles que les cyclones tropicaux , la grêle, le temps entre les événements, etc.

Voir également

Listes

Les références

Citations

Sources

  • den Dekker, AJ; Sijbers, J. (2014). « Les distributions de données dans les images de résonance magnétique : Une revue ». Physique Médicale . 30 (7) : 725-741. doi : 10.1016/j.ejmp.2014.05.002 . PMID  25059432 .
  • Vapnik, Vladimir Naumovitch (1998). Théorie de l'apprentissage statistique . John Wiley et fils.

Liens externes