5.1: Varianciaanalízis
- Page ID
- 205330
Varianciaanalízis
Korábban két populációs átlagra vonatkozó hipotéziseket teszteltünk. Ez a fejezet több mint két eszköz összehasonlításának módszereit vizsgálja. A varianciaanalízis (ANOVA) egy következtetési módszer, amelyet három vagy több populációs átlag egyenlőségének tesztelésére használnak.
\(H_0: \mu_1= \mu_2= \mu_3= \cdot =\mu_k\)
Ezt a módszert egyfaktoros ANOVA-nak is nevezik, mert egyetlen tulajdonságot vagy jellemzőt használunk a populációk kategorizálásához. Ezt a tulajdonságot néha kezelésnek vagy tényezőnek nevezik.
Megjegyzés
A kezelés (vagy tényező) olyan tulajdonság vagy jellemző, amely lehetővé teszi számunkra, hogy megkülönböztessük a különböző populációkat egymástól.
Az ANOVA tárgyai a következők: (1) becsült kezelési eszközök és a kezelési eszközök különbségei; (2) vizsgálati hipotézisek a kezelési eszközök összehasonlításának statisztikai szignifikanciájára, ahol a „kezelés” vagy a „faktor” az a jellemző, amely megkülönbözteti a populációkat.
Például egy biológus összehasonlíthatja azt a hatást, amelyet három különböző gyomirtó szer gyakorolhat egy invazív faj vetőmagtermelésére erdei környezetben. A biológus meg szeretné becsülni az átlagos éves vetőmagtermelést a három különböző kezelés alatt, miközben azt is megvizsgálja, hogy melyik kezelés eredményezi a legalacsonyabb éves vetőmagtermelést. A null és alternatív hipotézisek a következők:
| \(H_0: \mu_1= \mu_2= \mu_3\) | \(H_1\): legalább az egyik eszköz jelentősen eltér a többitől |
Csábító lenne ezt a nullhipotézist \(H_0: \mu_1= \mu_2= \mu_3\) úgy tesztelni, hogy összehasonlítjuk a populáció átlagát egyszerre kettőt. Ha így folytatjuk, három különböző hipotézispárt kell tesztelnünk:
| \(H_0: \mu_1= \mu_2\) | ÉS | \(H_0: \mu_1= \mu_3\) | ÉS | \(H_0: \mu_2= \mu_3\) |
| \(H_1: \mu_1 \ne \mu_2\) | \(H_1: \mu_1 \ne \mu_3\) | \(H_1: \mu_2 \ne \mu_3\) |
Ha 5% -os szignifikanciaszintet használnánk, minden teszt valószínűsége lenne az I. típusú hibának (elutasítva a nullhipotézist, ha igaz) α = 0,05. Minden tesztnek 95% -os valószínűsége lenne annak, hogy helyesen nem utasítja el a nullhipotézist. Annak valószínűsége, hogy mindhárom teszt helyesen nem utasítja el a nullhipotézist, 0,953 = 0,86. 1 — 0,953 = 0,14 (14%) a valószínűsége annak, hogy legalább egy teszt a nullhipotézis helytelen elutasításához vezet. Az I. típusú hiba 14% -os valószínűsége sokkal nagyobb, mint a kívánt 5% -os alfa (ne feledje: α megegyezik az I. típusú hibával). A populációk számának növekedésével az I. típusú hiba többszörös t-teszttel történő elkövetésének valószínűsége is növekszik. A varianciaanalízis lehetővé teszi számunkra, hogy teszteljük a nullhipotézist (minden átlag egyenlő) az alternatív hipotézissel szemben (legalább egy átlag különbözik) meghatározott α értékkel.
Az ANOVA feltételezései (1) az egyes kezelési csoportok megfigyelései véletlenszerű mintát jelentenek az adott populációból; (2) mindegyik populáció normálisan eloszlik; (3) az egyes kezelési csoportok populációs varianciái homogének (azaz).
Könnyen tesztelhetjük a minták normalitását egy normál valószínűségi diagram létrehozásával, azonban a homogén varianciák ellenőrzése nehezebb lehet. Általános ökölszabály a következő: Egyirányú ANOVA használható, ha a minta legnagyobb szórása nem haladja meg a minta legkisebb szórásának kétszeresét.
Az előző fejezetben kétmintás t-tesztet használtunk két független minta átlagának összehasonlítására közös varianciával. A mintaadatokat a tesztstatisztika kiszámításához használják:
\(t=\dfrac {\bar {x_1}-\bar {x_2}}{s_p\sqrt {\dfrac {1}{n_1}+\dfrac {1}{n_2}}}\)ahol \(S_p^2 = \dfrac {(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1+n_2-2}\)
a közös populációs variancia összesített becslése σ2. Kettőnél több populáció teszteléséhez ki kell terjesztenünk ezt az összevont variancia elképzelését az összes mintára, az alábbiak szerint:
$$s ^ 2_w=\ frac {(n_1-1) s_1^2 + (n_2-1) s_2 ^ 2 +... + (n_k - 1) s_k^2} {n_1+n_2+... +n_k-k}\]
ahol a közös variancia összesített becslését \(s_w^2\) képviseli\(\sigma^2\), és méri a megfigyelések variabilitását a különböző populációkon belül, függetlenül attól, hogy H 0 igaz. Ezt gyakran a mintákon belüli varianciának nevezik (hiba miatti variáció).
Ha a nullhipotézis igaz (minden átlag egyenlő), akkor az összes populáció azonos, közös átlaggal \(\mu\) és szórással. \(\sigma^2\) Ahelyett, hogy véletlenszerűen választanánk ki különböző mintákat különböző populációkból, valójában k különböző mintákat rajzolunk egy populációból. Tudjuk, hogy a mintavételi eloszlás k átlagon alapuló n megfigyelések átlaga \(\mu \bar x\) és szórása lesz \(\frac {\sigma^2}{n}\) (négyzetes standard hiba). Mivel mindegyik n megfigyelésből k mintát vettünk, megbecsülhetjük a k mintaátlag (\(\frac {\sigma^2}{n}\)) szórását
$$\ dfrac {\ sum (\ bar {x_1} -\ mu_ {\ bar x}) ^2} {k-1} =\ dfrac {\ sum\ bar {x_i} ^1 -\ dfrac {[\ összeg\ bar {x_i}] ^2} {k}} {k-1} =\ frac {\ sigma ^2} {n}\]
Következésképpen n az átlagok minta varianciájának n-szerese σ2. Ezt a mennyiséget SB2-nek jelöljük úgy, hogy
$$S_B^2 = n*\ dfrac {\ sum (\ bar {x_i} -\ mu_ {\ bar x}) ^2} {k-1} =n*\ dfrac {\ sum\ bar {x_i} ^2 -\ dfrac {[\ bar {x_i}] ^2} {k}} {k-1}\]
ahol \(S_B^2\) a közös variancia elfogulatlan becslése is van\(\sigma^2\), \(H_0\) HA IGAZ. Ezt gyakran a minták közötti varianciának nevezik (a kezelés miatti eltérés).
A nullhipotézis szerint minden k populáció azonos, két becslésünk van \(σ_2\) (\(S_W^2\)és\(S_B^2\)). Használhatjuk az arányt \(S_B^2/ S_W^2\) tesztstatisztikaként annak a nullhipotézisnek a tesztelésére\(H_0: \mu_1= \mu_2= \mu_3= …= \mu_k\), amely F-eloszlást követ szabadságfokokkal \(df_1= k – 1\) és \(df_2= N –k\) (ahol k a populációk száma és N a megfigyelések teljes száma (). \(N = n_1 + n_2+…+ n_k\) A tesztstatisztika számlálója méri a mintaátlagok közötti eltérést. A nevező varianciájának becslése csak a minta varianciáitól függ, és nem befolyásolják a mintaátlagok közötti különbségek.
Ha a nullhipotézis igaz, az arány \(S_B^2\) és közel \(S_W^2\) lesz 1. Ha a nullhipotézis hamis, \(S_B^2\) akkor általában nagyobb lesz, mint a populációk közötti különbségek \(S_W^2\) miatt. Elutasítjuk a nullhipotézist, ha az F teszt statisztikája nagyobb, mint a F kritikus érték egy adott szignifikanciaszinten (vagy ha a p-érték kisebb, mint a szignifikancia szintje).
A táblázatok kényelmes formátumot jelentenek az ANOVA számítások legfontosabb eredményeinek összefoglalására. A következő egyirányú ANOVA táblázat szemlélteti a szükséges számításokat és a különböző ANOVA táblázatelemek közötti kapcsolatokat.
Táblázat 1. Egyirányú ANOVA asztal.
| A variáció forrása | df | Négyzetek összege (MSS) | F-teszt | p-érték |
|---|---|---|---|---|
| kezelés | k-1 | SSTR | Mstr=SStr/ (k-1) | |
| Hiba | N-k | SSE | MSE = SSE/ (N-k) | |
| Összesen | N-1 | SST0 |
Az ANOVA táblázat négyzeteinek összege az SSTo = SSTr + SSE kapcsolatával rendelkezik, ahol:
$$ssTo =\ sum_ {i=1} ^k\ sum_ {j=1} ^n (x_ {ij} -\ bar {\ bar {x}}) ^2\]
$$sStr =\ sum_ {i=1} ^k n_i (\ bar {x_i} -\ bar {\ bar {x}}) ^2\]
$$SSE =\ sum_ {i=1} ^k\ sum^n_ {j=1} (x_ {ij} -\ bar {x_i}) ^2\]
Teljes variáció (SSTo) = magyarázott variáció (SSTr) +megmagyarázhatatlan variáció (SSE)
A szabadságfokok is hasonló kapcsolatban állnak: df (SSTo) = df (SSTr) + df (SSe)
A kezelés és a hiba négyzeteinek átlagos összegét úgy találjuk meg, hogy a négyzetek összegét elosztjuk az egyes szabadságfokokkal. Míg a négyzetek összegei additívak, a négyzetek átlagos összegei nem. Az F-statisztikát ezután úgy találjuk meg, hogy elosztjuk a kezelés négyzeteinek átlagos összegét (mSTR) a hiba négyzeteinek átlagos összegével (MSE). Az MSTR az, az \(S_B^2\) MSE pedig az. \(S_W^2\)
$$F =\ dfrac {S_B^2} {S_W^2} =\ dfrac {mStr} {MSE}\]
Példa \(\PageIndex{1}\):
Egy környezetvédő azt akarta megállapítani, hogy az eső átlagos savassága különbözik-e Alaszka, Florida és Texas között. Véletlenszerűen kiválasztott hat eső dátumot minden helyszínen, és a következő adatokat kapta:
2. táblázat. Adatok Alaszkáról, Floridáról és Texasról.
| Alaszka | Florida | Texas |
|---|---|---|
| 5.11 | 4.87 | 5.46 |
| 5.01 | 4.18 | 6.29 |
| 4.90 | 4.40 | 5.57 |
| 5.14 | 4.67 | 5.15 |
| 4.80 | 4.89 | 5.45 |
| 5.24 | 4.09 | 5.30 |
Megoldás
\(H_0: \mu_A = \mu_F = \mu_T\)
\(H_1\): legalább az egyik eszköz különbözik
|
Állapot |
Minta mérete |
Minta összesen |
A minta átlaga |
Minta variancia |
|
Alaszka |
n1 = 6 |
30.2 |
5.033 |
0,0265 |
|
Florida |
n2 = 6 |
27.1 |
4.517 |
0.1193 |
|
Texas |
n3 = 6 |
33.22 |
5.537 |
0.1575 |
Táblázat 3. Összefoglaló táblázat.
Figyeljük meg, hogy különbségek vannak a mintaátlagok között. Elég kicsik a különbségek ahhoz, hogy kizárólag a mintavételi változékonysággal magyarázhatók legyenek? Vagy elegendő nagyságúak ahhoz, hogy ésszerűbb magyarázat legyen az, hogy a μ -k nem mind egyenlőek? A következtetés attól függ, hogy a mintaátlagok közötti eltérések (a nagy átlagtól való eltérésük alapján) mekkora eltérést hasonlítanak össze a három mintán belüli eltéréssel.
A nagy átlag egyenlő az összes megfigyelés összegével osztva a teljes mintamérettel:
\(\bar {\bar{x}}\)= végösszeg/N = 90,52/18 = 5,0289
$$SSto = (5.11-5.0289) ^2 + (5.01-5.0289) ^2 +... + (5.24-5.0289) ^2+ (4.87-5.0289) ^2 + (4.18-5.0289) ^2 + (4.09-5.0289) ^ 2 + (5.46-5.0289) ^2 + (6.29-289) 5.0289) ^2 +... + (5.30-5.0289) ^2 = 4.6384\]
$$sStr = 6 (5.033-5.0289) ^2 + 6 (4.517-5.0289) ^2 + 6 (5.537-5.0289) ^2 = 3.1214\]
$$SSE = SSTo — SStr = 4.6384 — 3.1214 = 1.5170\]
Táblázat 4. Egyirányú ANOVA táblázat.
| A variáció forrása | df | Négyzetek összege (SS) | Négyzetek átlagos összege (MSS) | F-teszt |
|---|---|---|---|---|
| kezelés | 3-1 | 3.1214 | 3.1214/2 = 1.5607 | 1.5607/0.1011=15.4372 |
| Hiba | 18-3 | 1.5170 | 1,5170/15=0.1011 | |
| Összesen | 18-1 | 4.6384 |
Ez a teszt alapja \(df_1 = k – 1 = 2\) és\(df_2 = N – k = 15\). Ha α = 0,05, az F kritikus érték 3,68. Mivel a megfigyelt F = 15.4372 nagyobb, mint a 3,68 F kritikus értéke, elutasítjuk a nullhipotézist. Elegendő bizonyíték van arra, hogy legalább az egyik eszköz más.
Szoftver megoldások
Minitab


Egyirányú ANOVA: pH vs. állapot
|
Forrás |
DF |
SS |
MS |
F |
P |
|---|---|---|---|---|---|
|
Állapot |
2 |
3.121 |
1.561 |
15.43 |
0.000 |
|
Hiba |
15 |
1.517 |
0.101 |
||
|
Összesen |
17 4.638 |
||||
|
S = 0,3180 R-Sq = 67,29% R-Sq (adj) = 62,93% |
|||||
|
Egyéni 95% -os CI-k átlagra az összevont STDev alapján |
||||||||
|---|---|---|---|---|---|---|---|---|
|
Szint |
N |
Átlag |
STDev |
—-+———————————+——— |
||||
|
Alaszka |
6 |
5.0333 |
0.1629 |
(——*——) |
||||
|
Florida |
6 |
4.5167 |
0.3455 |
(——*——) |
||||
|
Texas |
6 |
5.5367 |
0.3969 |
(——*——) |
||||
|
—-+———————————+——— |
||||||||
|
4.40 |
4.80 |
5.20 |
5.60 |
|||||
|
Összesített StDev = 0.3180 |
||||||||
A p-érték (0.000) kisebb, mint a szignifikancia szintje (0,05), ezért elutasítjuk a nullhipotézist.
Excel


ANOVA: Egyetlen tényező
|
Összefoglaló |
||||
|---|---|---|---|---|
|
Csoportok |
gróf |
Összeg |
Átlagos |
Variancia |
|
1. oszlop |
6 |
30.2 |
5.033333 |
0.026547 |
|
2. oszlop |
6 |
27.1 |
4.516667 |
0.119347 |
|
3. oszlop |
6 |
33.22 |
5.536667 |
0.157507 |
|
ANOVA |
||||||
|---|---|---|---|---|---|---|
|
A variáció forrása |
SS |
df |
MS |
F |
p-érték |
F krit |
|
Csoportok között |
3.121378 |
2 |
1.560689 |
15.43199 |
0.000229 |
3.68232 |
|
Csoportokon belül |
1.517 |
15 |
0.101133 |
|||
|
Összesen |
4.638378 |
17 |
A p-érték (0,000229) kisebb, mint az alfa (0,05), ezért elutasítjuk a nullhipotézist. Elegendő bizonyíték áll rendelkezésre annak az állításnak az alátámasztására, hogy az eszközök legalább egyike más.
Miután elutasítottuk a nullhipotézist, és megállapítottuk, hogy a kezelési eszközök közül legalább az egyik különbözik, a következő lépés az, hogy azonosítsuk ezeket a különbségeket. Két megközelítés használható az ilyen típusú kérdések megválaszolására: kontrasztok és többszörös összehasonlítások.
A kontrasztok csak akkor használhatók, ha egyértelmű elvárások vannak a kísérlet megkezdése előtt, és ezek tükröződnek a kísérleti tervben. A kontrasztok tervezett összehasonlítások. Például az öszvér szarvasokat A gyógyszerrel, B gyógyszerrel vagy placebóval kezelik fertőzés kezelésére. A három kezelés nem szimmetrikus. A placebo célja, hogy olyan kiindulási alapot biztosítson, amelyhez a többi gyógyszer összehasonlítható. A kontrasztok erősebbek, mint a többszörös összehasonlítások, mert pontosabbak. Ők jobban képesek felvenni egy jelentős különbséget. A kontrasztok nem mindig állnak rendelkezésre a statisztikai szoftvercsomagokban (amikor vannak, gyakran hozzá kell rendelni az együtthatókat), vagy korlátozódhatnak az egyes minták kontrollhoz való összehasonlítására.
Többszörös összehasonlítást kell alkalmazni, ha nincsenek indokolt elvárások. Ezek aposteriori, páronkénti szignifikancia tesztek. Például összehasonlítjuk a terepjárók hat márkájú gázfutásteljesítményét. Nincs előzetes tudásunk arra, hogy elvárjuk, hogy bármelyik jármű másképp teljesítsen, mint a többi. Itt páronkénti összehasonlításokat kell végezni, de csak akkor, ha mind a hat járművön végzett ANOVA teszt először elutasította a nullhipotézist.
NEM helyénvaló kontraszttesztet alkalmazni, ha a javasolt összehasonlítások csak az adatok összegyűjtése után jelennek meg. A tervezett kontrasztok helyett több összehasonlításra fogunk összpontosítani.

