Skip to main content
Global

5.1: Varianciaanalízis

  • Page ID
    205330
  • \( \newcommand{\vecs}[1]{\overset { \scriptstyle \rightharpoonup} {\mathbf{#1}} } \) \( \newcommand{\vecd}[1]{\overset{-\!-\!\rightharpoonup}{\vphantom{a}\smash {#1}}} \)\(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\) \(\newcommand{\id}{\mathrm{id}}\) \( \newcommand{\Span}{\mathrm{span}}\) \( \newcommand{\kernel}{\mathrm{null}\,}\) \( \newcommand{\range}{\mathrm{range}\,}\) \( \newcommand{\RealPart}{\mathrm{Re}}\) \( \newcommand{\ImaginaryPart}{\mathrm{Im}}\) \( \newcommand{\Argument}{\mathrm{Arg}}\) \( \newcommand{\norm}[1]{\| #1 \|}\) \( \newcommand{\inner}[2]{\langle #1, #2 \rangle}\) \( \newcommand{\Span}{\mathrm{span}}\)\(\newcommand{\AA}{\unicode[.8,0]{x212B}}\)

    Varianciaanalízis

    Korábban két populációs átlagra vonatkozó hipotéziseket teszteltünk. Ez a fejezet több mint két eszköz összehasonlításának módszereit vizsgálja. A varianciaanalízis (ANOVA) egy következtetési módszer, amelyet három vagy több populációs átlag egyenlőségének tesztelésére használnak.

    \(H_0: \mu_1= \mu_2= \mu_3= \cdot =\mu_k\)

    Ezt a módszert egyfaktoros ANOVA-nak is nevezik, mert egyetlen tulajdonságot vagy jellemzőt használunk a populációk kategorizálásához. Ezt a tulajdonságot néha kezelésnek vagy tényezőnek nevezik.

    Megjegyzés

    A kezelés (vagy tényező) olyan tulajdonság vagy jellemző, amely lehetővé teszi számunkra, hogy megkülönböztessük a különböző populációkat egymástól.

    Az ANOVA tárgyai a következők: (1) becsült kezelési eszközök és a kezelési eszközök különbségei; (2) vizsgálati hipotézisek a kezelési eszközök összehasonlításának statisztikai szignifikanciájára, ahol a „kezelés” vagy a „faktor” az a jellemző, amely megkülönbözteti a populációkat.

    Például egy biológus összehasonlíthatja azt a hatást, amelyet három különböző gyomirtó szer gyakorolhat egy invazív faj vetőmagtermelésére erdei környezetben. A biológus meg szeretné becsülni az átlagos éves vetőmagtermelést a három különböző kezelés alatt, miközben azt is megvizsgálja, hogy melyik kezelés eredményezi a legalacsonyabb éves vetőmagtermelést. A null és alternatív hipotézisek a következők:

    \(H_0: \mu_1= \mu_2= \mu_3\) \(H_1\): legalább az egyik eszköz jelentősen eltér a többitől

    Csábító lenne ezt a nullhipotézist \(H_0: \mu_1= \mu_2= \mu_3\) úgy tesztelni, hogy összehasonlítjuk a populáció átlagát egyszerre kettőt. Ha így folytatjuk, három különböző hipotézispárt kell tesztelnünk:

    \(H_0: \mu_1= \mu_2\) ÉS \(H_0: \mu_1= \mu_3\) ÉS \(H_0: \mu_2= \mu_3\)
    \(H_1: \mu_1 \ne \mu_2\)   \(H_1: \mu_1 \ne \mu_3\)   \(H_1: \mu_2 \ne \mu_3\)

    Ha 5% -os szignifikanciaszintet használnánk, minden teszt valószínűsége lenne az I. típusú hibának (elutasítva a nullhipotézist, ha igaz) α = 0,05. Minden tesztnek 95% -os valószínűsége lenne annak, hogy helyesen nem utasítja el a nullhipotézist. Annak valószínűsége, hogy mindhárom teszt helyesen nem utasítja el a nullhipotézist, 0,953 = 0,86. 1 — 0,953 = 0,14 (14%) a valószínűsége annak, hogy legalább egy teszt a nullhipotézis helytelen elutasításához vezet. Az I. típusú hiba 14% -os valószínűsége sokkal nagyobb, mint a kívánt 5% -os alfa (ne feledje: α megegyezik az I. típusú hibával). A populációk számának növekedésével az I. típusú hiba többszörös t-teszttel történő elkövetésének valószínűsége is növekszik. A varianciaanalízis lehetővé teszi számunkra, hogy teszteljük a nullhipotézist (minden átlag egyenlő) az alternatív hipotézissel szemben (legalább egy átlag különbözik) meghatározott α értékkel.

    Az ANOVA feltételezései (1) az egyes kezelési csoportok megfigyelései véletlenszerű mintát jelentenek az adott populációból; (2) mindegyik populáció normálisan eloszlik; (3) az egyes kezelési csoportok populációs varianciái homogének (azaz). Mi a Image37184.PNG Könnyen tesztelhetjük a minták normalitását egy normál valószínűségi diagram létrehozásával, azonban a homogén varianciák ellenőrzése nehezebb lehet. Általános ökölszabály a következő: Egyirányú ANOVA használható, ha a minta legnagyobb szórása nem haladja meg a minta legkisebb szórásának kétszeresét.

    Az előző fejezetben kétmintás t-tesztet használtunk két független minta átlagának összehasonlítására közös varianciával. A mintaadatokat a tesztstatisztika kiszámításához használják:

    \(t=\dfrac {\bar {x_1}-\bar {x_2}}{s_p\sqrt {\dfrac {1}{n_1}+\dfrac {1}{n_2}}}\)ahol \(S_p^2 = \dfrac {(n_1-1)S_1^2 + (n_2-1)S_2^2}{n_1+n_2-2}\)

    a közös populációs variancia összesített becslése σ2. Kettőnél több populáció teszteléséhez ki kell terjesztenünk ezt az összevont variancia elképzelését az összes mintára, az alábbiak szerint:

    $$s ^ 2_w=\ frac {(n_1-1) s_1^2 + (n_2-1) s_2 ^ 2 +... + (n_k - 1) s_k^2} {n_1+n_2+... +n_k-k}\]

    ahol a közös variancia összesített becslését \(s_w^2\) képviseli\(\sigma^2\), és méri a megfigyelések variabilitását a különböző populációkon belül, függetlenül attól, hogy H 0 igaz. Ezt gyakran a mintákon belüli varianciának nevezik (hiba miatti variáció).

    Ha a nullhipotézis igaz (minden átlag egyenlő), akkor az összes populáció azonos, közös átlaggal \(\mu\) és szórással. \(\sigma^2\) Ahelyett, hogy véletlenszerűen választanánk ki különböző mintákat különböző populációkból, valójában k különböző mintákat rajzolunk egy populációból. Tudjuk, hogy a mintavételi eloszlás k átlagon alapuló n megfigyelések átlaga \(\mu \bar x\) és szórása lesz \(\frac {\sigma^2}{n}\) (négyzetes standard hiba). Mivel mindegyik n megfigyelésből k mintát vettünk, megbecsülhetjük a k mintaátlag (\(\frac {\sigma^2}{n}\)) szórását

    $$\ dfrac {\ sum (\ bar {x_1} -\ mu_ {\ bar x}) ^2} {k-1} =\ dfrac {\ sum\ bar {x_i} ^1 -\ dfrac {[\ összeg\ bar {x_i}] ^2} {k}} {k-1} =\ frac {\ sigma ^2} {n}\]

    Következésképpen n az átlagok minta varianciájának n-szerese σ2. Ezt a mennyiséget SB2-nek jelöljük úgy, hogy

    $$S_B^2 = n*\ dfrac {\ sum (\ bar {x_i} -\ mu_ {\ bar x}) ^2} {k-1} =n*\ dfrac {\ sum\ bar {x_i} ^2 -\ dfrac {[\ bar {x_i}] ^2} {k}} {k-1}\]

    ahol \(S_B^2\) a közös variancia elfogulatlan becslése is van\(\sigma^2\), \(H_0\) HA IGAZ. Ezt gyakran a minták közötti varianciának nevezik (a kezelés miatti eltérés).

    A nullhipotézis szerint minden k populáció azonos, két becslésünk van \(σ_2\) (\(S_W^2\)és\(S_B^2\)). Használhatjuk az arányt \(S_B^2/ S_W^2\) tesztstatisztikaként annak a nullhipotézisnek a tesztelésére\(H_0: \mu_1= \mu_2= \mu_3= …= \mu_k\), amely F-eloszlást követ szabadságfokokkal \(df_1= k – 1\) és \(df_2= N –k\) (ahol k a populációk száma és N a megfigyelések teljes száma (). \(N = n_1 + n_2+…+ n_k\) A tesztstatisztika számlálója méri a mintaátlagok közötti eltérést. A nevező varianciájának becslése csak a minta varianciáitól függ, és nem befolyásolják a mintaátlagok közötti különbségek.

    Ha a nullhipotézis igaz, az arány \(S_B^2\) és közel \(S_W^2\) lesz 1. Ha a nullhipotézis hamis, \(S_B^2\) akkor általában nagyobb lesz, mint a populációk közötti különbségek \(S_W^2\) miatt. Elutasítjuk a nullhipotézist, ha az F teszt statisztikája nagyobb, mint a F kritikus érték egy adott szignifikanciaszinten (vagy ha a p-érték kisebb, mint a szignifikancia szintje).

    A táblázatok kényelmes formátumot jelentenek az ANOVA számítások legfontosabb eredményeinek összefoglalására. A következő egyirányú ANOVA táblázat szemlélteti a szükséges számításokat és a különböző ANOVA táblázatelemek közötti kapcsolatokat.

    Táblázat 1. Egyirányú ANOVA asztal.

    A variáció forrása df Négyzetek összege (MSS) F-teszt p-érték
    kezelés k-1 SSTR Mstr=SStr/ (k-1)  
    Hiba N-k SSE MSE = SSE/ (N-k)  
    Összesen N-1 SST0    

    Az ANOVA táblázat négyzeteinek összege az SSTo = SSTr + SSE kapcsolatával rendelkezik, ahol:

    $$ssTo =\ sum_ {i=1} ^k\ sum_ {j=1} ^n (x_ {ij} -\ bar {\ bar {x}}) ^2\]

    $$sStr =\ sum_ {i=1} ^k n_i (\ bar {x_i} -\ bar {\ bar {x}}) ^2\]

    $$SSE =\ sum_ {i=1} ^k\ sum^n_ {j=1} (x_ {ij} -\ bar {x_i}) ^2\]

    Teljes variáció (SSTo) = magyarázott variáció (SSTr) +megmagyarázhatatlan variáció (SSE)

    A szabadságfokok is hasonló kapcsolatban állnak: df (SSTo) = df (SSTr) + df (SSe)

    A kezelés és a hiba négyzeteinek átlagos összegét úgy találjuk meg, hogy a négyzetek összegét elosztjuk az egyes szabadságfokokkal. Míg a négyzetek összegei additívak, a négyzetek átlagos összegei nem. Az F-statisztikát ezután úgy találjuk meg, hogy elosztjuk a kezelés négyzeteinek átlagos összegét (mSTR) a hiba négyzeteinek átlagos összegével (MSE). Az MSTR az, az \(S_B^2\) MSE pedig az. \(S_W^2\)

    $$F =\ dfrac {S_B^2} {S_W^2} =\ dfrac {mStr} {MSE}\]

    Példa \(\PageIndex{1}\):

    Egy környezetvédő azt akarta megállapítani, hogy az eső átlagos savassága különbözik-e Alaszka, Florida és Texas között. Véletlenszerűen kiválasztott hat eső dátumot minden helyszínen, és a következő adatokat kapta:

    2. táblázat. Adatok Alaszkáról, Floridáról és Texasról.

    Alaszka Florida Texas
    5.11 4.87 5.46
    5.01 4.18 6.29
    4.90 4.40 5.57
    5.14 4.67 5.15
    4.80 4.89 5.45
    5.24 4.09 5.30

     

    Megoldás

    \(H_0: \mu_A = \mu_F = \mu_T\)

    \(H_1\): legalább az egyik eszköz különbözik

    Állapot

    Minta mérete

    Minta összesen

    A minta átlaga

    Minta variancia

    Alaszka

    n1 = 6

    30.2

    5.033

    0,0265

    Florida

    n2 = 6

    27.1

    4.517

    0.1193

    Texas

    n3 = 6

    33.22

    5.537

    0.1575

    Táblázat 3. Összefoglaló táblázat.

    Figyeljük meg, hogy különbségek vannak a mintaátlagok között. Elég kicsik a különbségek ahhoz, hogy kizárólag a mintavételi változékonysággal magyarázhatók legyenek? Vagy elegendő nagyságúak ahhoz, hogy ésszerűbb magyarázat legyen az, hogy a μ -k nem mind egyenlőek? A következtetés attól függ, hogy a mintaátlagok közötti eltérések (a nagy átlagtól való eltérésük alapján) mekkora eltérést hasonlítanak össze a három mintán belüli eltéréssel.

    A nagy átlag egyenlő az összes megfigyelés összegével osztva a teljes mintamérettel:

    \(\bar {\bar{x}}\)= végösszeg/N = 90,52/18 = 5,0289

    $$SSto = (5.11-5.0289) ^2 + (5.01-5.0289) ^2 +... + (5.24-5.0289) ^2+ (4.87-5.0289) ^2 + (4.18-5.0289) ^2 + (4.09-5.0289) ^ 2 + (5.46-5.0289) ^2 + (6.29-289) 5.0289) ^2 +... + (5.30-5.0289) ^2 = 4.6384\]

    $$sStr = 6 (5.033-5.0289) ^2 + 6 (4.517-5.0289) ^2 + 6 (5.537-5.0289) ^2 = 3.1214\]

    $$SSE = SSTo — SStr = 4.6384 — 3.1214 = 1.5170\]

    Táblázat 4. Egyirányú ANOVA táblázat.

    A variáció forrása df Négyzetek összege (SS) Négyzetek átlagos összege (MSS) F-teszt
    kezelés 3-1 3.1214 3.1214/2 = 1.5607 1.5607/0.1011=15.4372
    Hiba 18-3 1.5170 1,5170/15=0.1011  
    Összesen 18-1 4.6384    

     

    Ez a teszt alapja \(df_1 = k – 1 = 2\) és\(df_2 = N – k = 15\). Ha α = 0,05, az F kritikus érték 3,68. Mivel a megfigyelt F = 15.4372 nagyobb, mint a 3,68 F kritikus értéke, elutasítjuk a nullhipotézist. Elegendő bizonyíték van arra, hogy legalább az egyik eszköz más.

    Szoftver megoldások

    Minitab

    Mi a clipboard_e664bf0e8f3a6cce5e16057e057520d39.png

    Mi a clipboard_e46ddff4a620f12df269c911726f104ea.png

    Egyirányú ANOVA: pH vs. állapot

    Forrás

    DF

    SS

    MS

    F

    P

    Állapot

    2

    3.121

    1.561

    15.43

    0.000

    Hiba

    15

    1.517

    0.101

       

    Összesen

    17 4.638

           

    S = 0,3180 R-Sq = 67,29% R-Sq (adj) = 62,93%

         

    Egyéni 95% -os CI-k átlagra az összevont STDev alapján

    Szint

    N

    Átlag

    STDev

    —-+———————————+———

    Alaszka

    6

    5.0333

    0.1629

     

    (——*——)

       

    Florida

    6

    4.5167

    0.3455

    (——*——)

         

    Texas

    6

    5.5367

    0.3969

       

    (——*——)

     
           

    —-+———————————+———

           

    4.40

    4.80

    5.20

    5.60

     

    Összesített StDev = 0.3180

               

    A p-érték (0.000) kisebb, mint a szignifikancia szintje (0,05), ezért elutasítjuk a nullhipotézist.

    Excel

    Mi a clipboard_e39809b8297b4f8b399d0ca66a85e15bf.png

    Mi a clipboard_ec78f2fe9d8ee2733294a348d26a50211.png

    ANOVA: Egyetlen tényező

    Összefoglaló

           

    Csoportok

    gróf

    Összeg

    Átlagos

    Variancia

    1. oszlop

    6

    30.2

    5.033333

    0.026547

    2. oszlop

    6

    27.1

    4.516667

    0.119347

    3. oszlop

    6

    33.22

    5.536667

    0.157507

    ANOVA

               

    A variáció forrása

    SS

    df

    MS

    F

    p-érték

    F krit

    Csoportok között

    3.121378

    2

    1.560689

    15.43199

    0.000229

    3.68232

    Csoportokon belül

    1.517

    15

    0.101133

         

    Összesen

    4.638378

    17

           

    A p-érték (0,000229) kisebb, mint az alfa (0,05), ezért elutasítjuk a nullhipotézist. Elegendő bizonyíték áll rendelkezésre annak az állításnak az alátámasztására, hogy az eszközök legalább egyike más.

    Miután elutasítottuk a nullhipotézist, és megállapítottuk, hogy a kezelési eszközök közül legalább az egyik különbözik, a következő lépés az, hogy azonosítsuk ezeket a különbségeket. Két megközelítés használható az ilyen típusú kérdések megválaszolására: kontrasztok és többszörös összehasonlítások.

    A kontrasztok csak akkor használhatók, ha egyértelmű elvárások vannak a kísérlet megkezdése előtt, és ezek tükröződnek a kísérleti tervben. A kontrasztok tervezett összehasonlítások. Például az öszvér szarvasokat A gyógyszerrel, B gyógyszerrel vagy placebóval kezelik fertőzés kezelésére. A három kezelés nem szimmetrikus. A placebo célja, hogy olyan kiindulási alapot biztosítson, amelyhez a többi gyógyszer összehasonlítható. A kontrasztok erősebbek, mint a többszörös összehasonlítások, mert pontosabbak. Ők jobban képesek felvenni egy jelentős különbséget. A kontrasztok nem mindig állnak rendelkezésre a statisztikai szoftvercsomagokban (amikor vannak, gyakran hozzá kell rendelni az együtthatókat), vagy korlátozódhatnak az egyes minták kontrollhoz való összehasonlítására.

    Többszörös összehasonlítást kell alkalmazni, ha nincsenek indokolt elvárások. Ezek aposteriori, páronkénti szignifikancia tesztek. Például összehasonlítjuk a terepjárók hat márkájú gázfutásteljesítményét. Nincs előzetes tudásunk arra, hogy elvárjuk, hogy bármelyik jármű másképp teljesítsen, mint a többi. Itt páronkénti összehasonlításokat kell végezni, de csak akkor, ha mind a hat járművön végzett ANOVA teszt először elutasította a nullhipotézist.

    NEM helyénvaló kontraszttesztet alkalmazni, ha a javasolt összehasonlítások csak az adatok összegyűjtése után jelennek meg. A tervezett kontrasztok helyett több összehasonlításra fogunk összpontosítani.