Analyse unidirectionnelle de la variance - One-way analysis of variance

En statistique , l' analyse de variance à un facteur (en abrégé ANOVA à un facteur ) est une technique qui peut être utilisée pour comparer si les moyennes de deux échantillons sont significativement différentes ou non (en utilisant la distribution F ). Cette technique ne peut être utilisée que pour les données de réponse numériques, le "Y", généralement une variable, et les données d'entrée numériques ou (généralement) catégorielles, le "X", toujours une variable, donc "à sens unique".

L'ANOVA teste l' hypothèse nulle , qui stipule que les échantillons de tous les groupes sont tirés de populations ayant les mêmes valeurs moyennes. Pour ce faire, deux estimations sont faites de la variance de la population. Ces estimations reposent sur diverses hypothèses ( voir ci-dessous ). L'ANOVA produit une statistique F, le rapport de la variance calculée entre les moyennes à la variance au sein des échantillons. Si les moyennes de groupe sont tirées de populations ayant les mêmes valeurs moyennes, la variance entre les moyennes de groupe doit être inférieure à la variance des échantillons, conformément au théorème central limite . Un ratio plus élevé implique donc que les échantillons ont été tirés de populations avec des valeurs moyennes différentes.

En règle générale, cependant, l'ANOVA à un facteur est utilisée pour tester les différences entre au moins trois groupes, puisque le cas à deux groupes peut être couvert par un test t (Gosset, 1908). Lorsqu'il n'y a que deux moyens de comparaison, le test t et le test F sont équivalents ; la relation entre l'ANOVA et t est donnée par F  =  t 2 . Une extension de l'ANOVA à un facteur est une analyse de variance à deux facteurs qui examine l'influence de deux variables indépendantes catégorielles différentes sur une variable dépendante.

Hypothèses

Les résultats d'une ANOVA à un facteur peuvent être considérés comme fiables tant que les hypothèses suivantes sont remplies :

Si les données sont ordinales , une alternative non paramétrique à ce test doit être utilisée, telle que l' analyse de variance à un facteur de Kruskal-Wallis . Si les variances ne sont pas connues pour être égales, une généralisation du test t de Welch à 2 échantillons peut être utilisée.

Sorties de la normalité de la population

L'ANOVA est une procédure relativement robuste en ce qui concerne les violations de l'hypothèse de normalité.

L'ANOVA à sens unique peut être généralisée aux schémas factoriels et multivariés, ainsi qu'à l'analyse de covariance.

Il est souvent indiqué dans la littérature populaire qu'aucun de ces tests F n'est robuste lorsqu'il y a de graves violations de l'hypothèse selon laquelle chaque population suit la distribution normale , en particulier pour les petits niveaux alpha et les dispositions déséquilibrées. En outre, il est également affirmé que si l'hypothèse sous-jacente d' homoscédasticité est violée, les propriétés d' erreur de type I dégénèrent beaucoup plus sévèrement.

Cependant, il s'agit d'une idée fausse, basée sur des travaux effectués dans les années 1950 et avant. La première étude complète de la question par simulation de Monte Carlo a été Donaldson (1966). Il a montré que sous les écarts habituels (asymétrie positive, variances inégales) "le test F est conservateur", et il est donc moins probable qu'il ne devrait l'être de trouver qu'une variable est significative. Cependant, à mesure que la taille de l'échantillon ou le nombre de cellules augmente, "les courbes de puissance semblent converger vers celle basée sur la distribution normale". Tiku (1971) a constaté que « la puissance théorique non normale de F diffère de la puissance théorique normale par un terme de correction qui diminue fortement avec l'augmentation de la taille de l'échantillon ». Le problème de la non-normalité, en particulier dans les grands échantillons, est beaucoup moins grave que ne le suggèrent les articles populaires.

L'opinion actuelle est que « les études de Monte-Carlo ont été largement utilisées avec des tests basés sur la distribution normale pour déterminer leur sensibilité aux violations de l'hypothèse de distribution normale des variables analysées dans la population. La conclusion générale de ces études est que la les conséquences de telles violations sont moins graves qu'on ne le pensait auparavant. Bien que ces conclusions ne devraient pas décourager complètement quiconque de s'inquiéter de l'hypothèse de normalité, elles ont augmenté la popularité globale des tests statistiques dépendant de la distribution dans tous les domaines de recherche. "

Pour des alternatives non paramétriques dans la disposition factorielle, voir Sawilowsky. Pour plus de discussion, voir ANOVA sur les rangs .

Le cas des effets fixes, expérimentation totalement randomisée, données déséquilibrées

Le modèle

Le modèle linéaire normal décrit des groupes de traitement avec des distributions de probabilité qui sont des courbes identiques en forme de cloche (normales) avec des moyennes différentes. Ainsi, l'ajustement des modèles ne nécessite que les moyennes de chaque groupe de traitement et un calcul de variance (une variance moyenne au sein des groupes de traitement est utilisée). Les calculs des moyennes et de la variance sont effectués dans le cadre du test d'hypothèse.

Les modèles linéaires normaux couramment utilisés pour une expérience complètement aléatoire sont :

(le modèle des moyens)

ou alors

(le modèle d'effets)

est un indice sur les unités expérimentales
est un indice sur les groupes de traitement
est le nombre d'unités expérimentales dans le jième groupe de traitement
est le nombre total d'unités expérimentales
sont des observations
est la moyenne des observations pour le jième groupe de traitement
est la grande moyenne des observations
est le jième effet du traitement, un écart par rapport à la grande moyenne
, sont des erreurs aléatoires à moyenne nulle normalement distribuées.

L'indice sur les unités expérimentales peut être interprété de plusieurs manières. Dans certaines expériences, la même unité expérimentale est soumise à une gamme de traitements ; peut pointer vers une unité particulière. Dans d'autres, chaque groupe de traitement a un ensemble distinct d'unités expérimentales ; peut être simplement un index dans la -ième liste.

Les données et résumés statistiques des données

Une forme d'organisation des observations expérimentales consiste à regrouper en colonnes :

Organisation des données ANOVA, Déséquilibré, Facteur unique
Listes des observations de groupe
1
2
3
Statistiques récapitulatives du groupe Statistiques récapitulatives générales
# Observé # Observé
Somme Somme
somme carré somme carré
Moyenne Moyenne
Variance Variance

Comparaison du modèle aux résumés : et . La grande moyenne et la grande variance sont calculées à partir des grandes sommes, et non à partir des moyennes et des variances du groupe.

Le test d'hypothèse

Compte tenu des statistiques sommaires, les calculs du test d'hypothèse sont présentés sous forme de tableau. Alors que deux colonnes de SS sont affichées pour leur valeur explicative, une seule colonne est requise pour afficher les résultats.

Table ANOVA pour modèle fixe, facteur unique, expérience entièrement randomisée
Source de variation Sommes de carrés Sommes de carrés Degrés de liberté Carré moyen F
SS explicatif SS informatique DF MME
Traitements
Erreur
Le total

est l'estimation de la variance correspondant à du modèle.

Résumé de l'analyse

L'analyse ANOVA de base consiste en une série de calculs. Les données sont collectées sous forme de tableau. Puis

  • Chaque groupe de traitement est résumé par le nombre d'unités expérimentales, deux sommes, une moyenne et une variance. Les résumés des groupes de traitement sont combinés pour fournir des totaux pour le nombre d'unités et les sommes. La grande moyenne et la grande variance sont calculées à partir des grandes sommes. Le traitement et les grands moyens sont utilisés dans le modèle.
  • Les trois DF et SS sont calculés à partir des résumés. Ensuite, les MS sont calculés et un rapport détermine F.
  • Un ordinateur détermine généralement une valeur p à partir de F qui détermine si les traitements produisent des résultats significativement différents. Si le résultat est significatif, alors le modèle est provisoirement valide.

Si l'expérience est équilibrée, tous les termes sont égaux, donc les équations SS simplifient.

Dans une expérience plus complexe, où les unités expérimentales (ou les effets environnementaux) ne sont pas homogènes, les statistiques de ligne sont également utilisées dans l'analyse. Le modèle comprend des termes dépendant de . La détermination des termes supplémentaires réduit le nombre de degrés de liberté disponibles.

Exemple

Considérez une expérience pour étudier l'effet de trois niveaux différents d'un facteur sur une réponse (par exemple, trois niveaux d'un engrais sur la croissance des plantes). Si nous avions 6 observations pour chaque niveau, nous pourrions écrire le résultat de l'expérience dans un tableau comme celui-ci, où a 1 , a 2 et a 3 sont les trois niveaux du facteur étudié.

un 1 un 2 un 3
6 8 13
8 12 9
4 9 11
5 11 8
3 6 7
4 8 12

L'hypothèse nulle, notée H 0 , pour le test F global pour cette expérience serait que les trois niveaux du facteur produisent la même réponse, en moyenne. Pour calculer le rapport F :

Étape 1 : Calculez la moyenne au sein de chaque groupe :

Étape 2 : Calculez la moyenne globale :

a est le nombre de groupes.

Étape 3 : Calculez la somme « entre les groupes » des différences au carré :

n est le nombre de valeurs de données par groupe.

Les degrés de liberté entre les groupes sont un de moins que le nombre de groupes

donc la valeur quadratique moyenne entre les groupes est

Étape 4 : Calculez la somme des carrés « à l'intérieur du groupe ». Commencez par centrer les données dans chaque groupe

un 1 un 2 un 3
6−5=1 8−9=−1 13−10=3
8−5=3 12−9=3 9−10=−1
4−5=−1 9−9=0 11−10=1
5−5=0 11−9=2 8−10=−2
3−5=−2 6−9=−3 7−10=−3
4−5=−1 8−9=−1 12−10=2

La somme des carrés au sein du groupe est la somme des carrés des 18 valeurs de ce tableau

Les degrés de liberté à l'intérieur du groupe sont

F-dens-2-15df.svg

Ainsi, la valeur quadratique moyenne à l'intérieur du groupe est

Étape 5 : Le rapport F est

La valeur critique est le nombre que la statistique de test doit dépasser pour rejeter le test. Dans ce cas, F crit (2,15) = 3,68 à α = 0,05. Puisque F = 9,3 > 3,68, les résultats sont significatifs au seuil de 5%. On rejetterait l'hypothèse nulle, en concluant qu'il existe des preuves solides que les valeurs attendues dans les trois groupes diffèrent. La valeur p pour ce test est de 0,002.

Après avoir effectué le test F , il est courant d'effectuer une analyse "post-hoc" des moyennes du groupe. Dans ce cas, les moyennes des deux premiers groupes diffèrent de 4 unités, les moyennes des premier et troisième groupes diffèrent de 5 unités et les moyennes des deuxième et troisième groupes ne diffèrent que d'une unité. L' erreur standard de chacune de ces différences est . Ainsi, le premier groupe est fortement différent des autres groupes, car la différence moyenne est plus de fois l'erreur standard, nous pouvons donc être très confiants que la moyenne de population du premier groupe diffère des moyennes de population des autres groupes. Cependant, rien ne prouve que les deuxième et troisième groupes ont des moyennes de population différentes l'un de l'autre, car leur différence moyenne d'une unité est comparable à l'erreur type.

Note F ( xy ) désigne un F -Distribution fonction de distribution cumulative avec x degrés de liberté dans le numérateur et y degrés de liberté dans le dénominateur.

Voir également

Remarques

Lectures complémentaires