Analyse van variantie (ANOVA)

Dit artikel gaat over de toepassing van variantie-analyse op het belangrijke en vaak voorkomende probleem van het bepalen van de significantie van het verschil tussen gemiddelden.

Variantie, in de gebruikelijke betekenis, is een maat voor de spreiding van een reeks scores. Het beschrijft de mate waarin de scores van elkaar verschillen. Het wordt gedefinieerd als het gemiddelde van de gekwadrateerde afwijking van individuele scores van het gemiddelde.

waarbij x = X - M of afwijking van de score van het gemiddelde, dwz variantie = kwadraat van SD

of, variantie = σ 2 dus σ =

Een maatstaf voor variantie geeft ons enig idee over de homogeniteit van de groep. De variantie van de reeks scores zal minder zijn wanneer de groep homogeen is in prestatie. Aan de andere kant zal de variantie van de reeks scores groter zijn als de groep heterogeen is in prestatie.

De analyse van variantie is een zeer nuttig hulpmiddel voor het analyseren van de resultaten van wetenschappelijke onderzoeken, onderzoek in sociale en fysische wetenschappen. Om antwoorden op onderzoeksvragen te verkrijgen in experimentele studies of om de hypothesen te testen, wordt de variantie geanalyseerd in verschillende componenten en worden varianties van verschillende bronnen vergeleken. In onderzoek komen we verschillende ontwerpen tegen en we formuleren nulhypothesen.

We gebruiken de techniek van "variantieanalyse" (ANOVA of ANOVAR) om te bestuderen of de variantieratio (F) significant is of niet, en op basis hiervan wordt nulhypothese geaccepteerd of afgewezen.

Het concept van variantie en ANOVA wordt verduidelijkt aan de hand van een voorbeeld.

Voorbeeld 1:

Bereken de variantie van de volgende verdeling van scores 4, 6, 3, 7, 5.

Hier wordt de uitdrukking Zx 2 de "Som van vierkanten van afwijking van scores van het gemiddelde" (kortweg SS) genoemd. Wanneer SS wordt gedeeld door het totale aantal scores (N), krijgen we "Mean square" of MS. Variantie wordt dus ook het gemiddelde kwadraat genoemd. Symbolisch,

V = MS, of V = SS / N

Een variantie in de terminologie van ANOVA wordt vaak een 'Mean square' (of MS) ​​genoemd. In Analysis of Variance (ANOVA) wordt Mean square of variance berekend door SS te delen door df . Dus

Componenten van Variantie:

Voordat u gedetailleerde variantieberekeningen doorneemt, moet u eerst een blik werpen op twee componenten:

(a) Systematische variantie, en

(b) Foutvariantie.

(a) Systematische afwijking:

Systematische variantie, in een experimentele opstelling, is dat deel van de variantie dat kan worden toegeschreven aan manipulatie van experimentele variabele, dwz onafhankelijke variabele.

Een onderzoeker wil bijvoorbeeld het effect van motivatie bestuderen, dwz verbale beloning en erkenning op academische prestaties van twee gelijke groepen. Hij selecteert twee homogene groepen en manipuleert de mondelinge beloning voor de ene groep en de herkenning voor een andere groep. Vervolgens voert hij een test uit voor beide groepen en behaalt ze hun scores.

(Hier, 'Motivatie' is de onafhankelijke variabele en 'verkregen score' is de afhankelijke variabele). Wanneer de variantie van alle scores van twee groepen wordt berekend, wordt dit de totale variantie (V t ) genoemd. Het deel van de totale variantie dat alleen te wijten is aan 'manipulatie van motivatie' kan worden aangemerkt als 'Systematische afwijking'. Dit is de variantie tussen groepen (of V b ).

(b) Foutafwijking:

Naast het effect van experimentele variabelen zijn er ook andere bronnen van variatie als gevolg van externe variabelen die de afhankelijke variabele kunnen beïnvloeden.

Dus foutvariantie is dat deel van totale variantie dat kan worden toegeschreven aan andere ongecontroleerde bronnen van variatie in een experiment.

Foutvariantie resulteert uit verschillende bronnen, te weten .:

1. Ongecontroleerde bronnen van variatie als gevolg van externe variabelen.

2. Inherente variabiliteit in de experimentele eenheden.

3. Willekeurige schommelingen in het experiment.

4. Meetfouten door gebrek aan

(a) Standaard experimentele technieken;

(b) Uniformiteit in administratie;

(c) Fysiek gedrag van het experiment;

(d) Voorbijgaande emotionele toestand van de onderwerpen, enz.

Symbolisch wordt foutvariantie uitgedrukt als V e . In het bovenstaande voorbeeld houden we ons voornamelijk bezig met twee variabelen, namelijk motivatie als onafhankelijke variabele en prestatiescores als afhankelijke variabele.

Naast deze twee variabelen vindt de onderzoeker andere variabelen die de afhankelijke variabele beïnvloeden. Dergelijke andere variabelen kunnen zijn als geslacht, intelligentieniveau, sociaal-economische status, leeftijd, opleiding enz., Waarvoor de onderzoeker niet gezorgd heeft.

Dergelijke variabelen die niet worden gecontroleerd in een experimentele opzet en het optreden van de afhankelijke variabele beïnvloeden, worden "externe variabelen" of "irrelevante variabelen" genoemd.

Wanneer deze variabelen in een experiment worden beheerd, kan de experimentele fout tot een minimum worden beperkt. Als deze externe variabelen niet worden gecontroleerd, vormt deze het deel van de foutvariantie. "De belangrijkste functie van experimenteel ontwerp is om systematische variantie te maximaliseren, externe bronnen van variantie te beheersen en foutvariantie te minimaliseren." Aldus wil elke onderzoeker de experimentele fout verminderen.

Om foutenvariatie tot een minimum te beperken, kunnen de volgende manieren worden gebruikt:

1. Externe variabelen kunnen worden gecontroleerd door:

een. randomisatie

b. Eliminatie,

c. Passen bij,

d. Door een extra onafhankelijke variabele of variabelen in te voeren, en

e. Door statistische controle.

2. Meetfouten kunnen worden gecontroleerd door :

een. Met behulp van gestandaardiseerde experimentele technieken,

b. Met behulp van betrouwbare meetinstrumenten,

c. Zorgen voor uniformiteit in administratie of uitvoering van experimenten,

d. De betrouwbaarheid van metingen vergroten door duidelijke en ondubbelzinnige instructies te geven, enz.

Bovenstaande bespreking bevestigt ons om te concluderen dat totale variantie uit twee delen bestaat, dwz

V t = V b + V e

waarin V t = totale variantie

V b = variantie tussen de groepen (of systematische variantie)

V e = foutvariantie.

In ANOVA wordt de systematische variantie bestudeerd tegen de foutvariantie door middel van een F-test.

Hoe groter de waarde van F, hoe groter de kans dat de systematische variantie groter is dan de experimentele fout (binnen de groepsvariantie of individuele variaties).

Een numeriek voorbeeld kan een onderscheid maken tussen systematische variantie en foutvariantie.

Voorbeeld 2:

Een onderzoeker wijst tien studenten willekeurig toe aan twee groepen (vijf in elke groep) en manipuleert willekeurig twee behandelingen van motivatie voor deze twee groepen.

Vervolgens voert de onderzoeker een test uit en noteert de scores van tien studenten zoals hieronder vermeld:

Er wordt nu waargenomen dat de gemiddelden van twee groepen verschillend zijn. Dat wil zeggen, we vinden variantie tussen de groepen. De variantie tussen de groepen (Vb) kan als volgt worden berekend. Laten we de gemiddelden 5 en 7 als twee scores nemen en de variantie van deze twee scores berekenen.

We zullen dan de totale variantie (V t ) berekenen door alle tien scores van beide groepen in één kolom te nemen.

V t bevat alle bronnen van variatie in de scores. We hebben eerder Vb (oftewel variantie tussen groepen) berekend als 1, 00.

Laten we nu nog een andere variantie berekenen door de variantie van elke groep afzonderlijk te berekenen en vervolgens te middelen.

Omdat we de varianties afzonderlijk hebben berekend en vervolgens het gemiddelde hebben berekend, noemen we deze variantie als "binnen de groepsvariantie" of Vw .

In ons voorbeeld is V w = 3 .8

Dus 4, 8 (V t ) = 1, 00 (V b ) + 3, 8 (V w )

of V f = V b + V w [Totale variantie = tussen groepsvariantie + variantie binnen de groep].

Basisconcepten die zijn aangetroffen met ANOVA:

Alvorens numerieke problemen op te nemen om nulhypothese te testen door ANOVA te gebruiken, moeten we bekend zijn met twee concepten: (a) som van vierkanten (SS) en (b) mate van vrijheid ( df ) die we vaak zouden tegenkomen in ANOVA.

(a) Berekening van SS (som van vierkanten):

In ANOVA berekenen we 'tussen- groepsvariantie' (V b ) en de 'binnen groepen variantie' ( Vw ). We berekenen Vb en Vw als volgt:

waarbij SS b = som van vierkanten tussen de groepen

en SS W = binnen-groepen som van vierkanten.

We vergelijken deze twee varianties met een ratio die F wordt genoemd, waarbij F = waar

Laten we nu leren hoe de som van vierkanten (SS) op twee manieren moet worden berekend.

Voorbeeld 3:

Bereken de som van vierkanten van de volgende verdeling van scores.

7, 9, 10, 6, 8

Gemiddelde = 40/5 = 8

Methode-II (korte methode):

SS kan direct uit de scores worden berekend zonder rekenkundig gemiddelde en afwijking. Dit staat bekend als de korte methode en SS wordt berekend met behulp van de formule,

Hier hoeven we niet het gemiddelde en de afwijkingen van de individuele score van het gemiddelde te berekenen. De tweede methode heeft de voorkeur als er een groot aantal scores is en het gemiddelde decimalen betreft.

Dus in ANOVA kan de som van vierkanten worden berekend met behulp van de formule.

Berekening van tussen groepen som van vierkanten (SS b ) en binnen groepen som van vierkanten (SS W )

Er kunnen twee methoden worden gebruikt om SS t, SS b en SS w te berekenen.

Voorbeeld 4:

Twee verschillende behandelingen worden gemanipuleerd op twee groepen van elk vijf personen.

En de behaalde scores zijn als volgt:

Laat de "Grand Mean" (dwz het gemiddelde van alle tien scores) worden aangeduid als M

Nu M = 35 + 25/10 = 60/10 = 6

Berekening van SS t, SS b en SS w (lange methode):

Berekening van SS t :

Om SS t te berekenen zullen we de som van de vierkanten van de afwijking van elk van de bovenstaande tien scores van het grote gemiddelde (dwz 6) moeten achterhalen

Berekening van SS b :

Om SS b te berekenen, nemen we aan dat elk item van de groep gelijk is aan het groepsgemiddelde en vervolgens de variantie tussen verschillende groepen bestuderen. Hier zullen we de som van het kwadraat van de afwijking van gemiddelden van verschillende groepen van het grote gemiddelde berekenen.

De waarde van elk item in groep-I wordt als 7 genomen en de waarde van elk item van groep-II wordt als 5 genomen en de som van vierkanten van deze waarden van het grote gemiddelde (M = 6) wordt berekend.

We kunnen SS b als volgt in tabelvorm berekenen:

Berekening van SS w :

Voor berekening van SS W zullen we de som van de vierkanten van de afwijking van verschillende scores in een groep uit het gemiddelde van de respectievelijke groepen vinden.

De berekening van SS W wordt gepresenteerd in een tabelvorm:

Totale som van vierkanten of SS W = 10 + 6 = 16

In de bovenstaande berekening hebben we SS t, = 26, SS b, = 10 en SS W = 16 gevonden

Dus SS t = SS b + SS w

Berekening van SS t, SS b en SS w (korte methode):

In het kort kunnen we SS t SS b en SS W rechtstreeks uit de scores berekenen door de volgende drie formules te gebruiken.

In deze korte methode hoeven we het gemiddelde en de afwijkingen niet te berekenen. We kunnen verschillende varianties rechtstreeks van de scores berekenen. In ANOVA worden SS t en SS b meestal berekend door de korte methode.

Bij het opnemen van problemen op ANOVA berekenen we SS en SS t volgens deze korte methode.

(b) Vrijheidsgraden (df):

Elke SS wordt een variantie wanneer deze wordt gedeeld door de vrijheidsgraden ( df ) die eraan worden toegekend. In ANOVA komen we over met vrijheidsgraden ( df ). Het aantal vrijheidsgraden voor elke variantie is één minder dan de V waarop het is gebaseerd.

Als N = aantal scores in alle en K = aantal categorieën of groepen, hebben we voor het algemene geval dat:

df voor totaal SS = (N - 1)

df voor tussen Groepen SS = (K - 1)

df voor binnen groepen SS = (N - K)

Ook:

(N - 1) = (N - K) + (K - 1)

Analysis of Variance (One Way):

Afzonderlijk hebben we gesproken over testen van betekenis van verschil tussen gemiddelden. Meestal wordt een t-toets gebruikt als we willen bepalen of de twee steekproefgemiddelden significant verschillen.

Wanneer we ons bezighouden met de experimenten waarbij twee groepen betrokken zijn, kunnen we testen of de twee gemiddelden aanzienlijk verschillen door een t-toets te gebruiken.

Maar t-test is niet adequaat wanneer meer dan twee gemiddelden vergeleken moeten worden. Er zijn bijvoorbeeld vier manieren van vier groepen. Om te testen of deze vier middelen significant van elkaar verschillen, moeten we zes t-tests maken.

Als de vier gemiddelden M 1, M 2, M 3, M 4 zijn, moeten we het verschil tussen M 1 en M 2, dwz (M 1 - M 2 ), vergelijken tussen M 1 en M 3 ie (M 1 - M 3 ), tussen M 1 en M 4 dwz (M 1 - M 4 ), tussen M 2 en M 3 dwz (M 2 - M 3 ), tussen M 2 en M 4 dwz (M 2 - M 4 ), tussen M 3 en M 4 dwz (M 3 - M 4 ). Evenzo voor 10 betekent dat we 45 t-tests moeten maken.

Voor K betekent dat we K (K - 1) / 2 t-tests moeten maken en dit zou meer berekening en arbeid met zich meebrengen. Maar door F-tests te gebruiken via ANOVA kunnen we de significantie van verschil van drie of meer dan drie gemiddelden in één keer evalueren.

Aannames waarop een F-test berust:

Zoals gebruikelijk is een statistische beslissing goed in de mate dat aan bepaalde veronderstellingen is voldaan in de gegevens die worden gebruikt.

In ANOVA zijn er gewoonlijk vier vermelde vereisten:

1. De bemonstering binnen sets moet willekeurig zijn. De verschillende behandelingsgroepen worden willekeurig uit de populatie geselecteerd.

2. De varianties van binnen de verschillende sets moeten ongeveer gelijk zijn. Dit verwijst naar de aanname van homogeniteit van variantie, dat wil zeggen de groepen zijn homogeen in variabiliteit.

3. Waarnemingen binnen experimenteel homogene sets moeten afkomstig zijn van normaal verdeelde populatie.

4. De bijdragen aan de totale variantie moeten additief zijn.

A. We nemen een paar voorbeelden en zien hoe variantie wordt geanalyseerd wanneer groepen onafhankelijk zijn:

Voorbeeld 5:

In een experimentele opstelling worden 16 onderwerpen willekeurig toegewezen aan twee groepen van elk 8 onderwerpen. Deze twee groepen werden behandeld met twee verschillende instructiemethoden. Test de significantie van het verschil tussen de steekproefgemiddelden.

Oplossing:

Eindtotaal (dwz het totaal van alle 16 scores) = 104 of ΣX = 104

Groot gemiddelde (M) dwz gemiddelde van alle 16 scores = ΣX / N = 104/16 = 6, 5

Voor de berekening van de F-verhouding moeten we de onderstaande stappen volgen:

Stap 1:

De som van alle 16 scores is 44 + 60 of 104; en de correctie (C) is dienovereenkomstig

Stap 2:

Wanneer elke score van beide groepen vierkant en gesommeerd is, komt de ΣX 2 op een (× X 1 2 + ΣX 2 2 = 260 + 460) 720.

Dan wordt de correctie 676 afgetrokken van het totaal door de formule te gebruiken:

Totaal SS of SS 1 = ΣX 2 - C = 720 - 676 ​​= 44.

of, SS t = 3 2 + 4 2 + 5 2 + ...... .. + 9 2 - 676 ​​= 44

Stap 3:

De som van vierkanten tussen betekent SS b wordt gevonden door de som van elke kolom te verdelen, de eerste en de tweede door 8 te scheiden, en C af te trekken.

Tussen groep SS of SS b

Stap 4:

De SS binnen (of SS W ) is het verschil tussen de SS t en SS b . Dus SS W = 44 - 16 = 28.

Stap 5:

Omdat er in totaal 16 scores zijn

Interpretatie van F-verhouding:

De variantieverhouding of F is 16/2 of 8. De df voor tussen gemiddelden is 1 en de df voor binnen groepen is 14. Als we tabel F invoeren met deze df's lezen we in kolom 1 en rij 14 dat het .05-niveau 4.60 is en het .01-niveau is 8.86. Onze berekende F is significant op .05-niveau.

Maar het is niet significant op .01-niveau. Of met andere woorden de waargenomen waarde van F is groter dan 0, 05 niveauwaarde maar kleiner dan 0, 01 niveauwaarde. Daarom concluderen we dat het gemiddelde verschil significant is op .05 niveau, maar niet significant op .01 significantieniveau.

Voorbeeld 6:

(Wanneer de grootte van de groepen ongelijk is) wordt een interessebeoordeling afgenomen voor 6 jongens in een beroepsopleiding en voor 10 jongens in een Latijnse klas.

Is het gemiddelde verschil tussen de twee groepen significant op .05-niveau? Test de significantie van verschil via ANOVA.

Interpretatie van F-verhouding:

De variatieverhouding of F is 135/33 of 4.09. De df voor tussen gemiddelden is 1 en de df voor binnen groepen is 14. Als u tabel F invoert met deze df's lezen we in kolom 1 en rij 14 dat het .05-niveau 4.60 is en het .01-niveau 8.86. Onze berekende F van 4, 09 haalt het 0, 05-niveau niet helemaal, zodat ons gemiddelde verschil van 6 punten als niet significant moet worden beschouwd. Vandaar dat de nulhypothese wordt aanvaard.

Wanneer er maar twee manieren zijn om te vergelijken, zoals hier; F = t 2 of t = = √ F en de twee tests (F en t) geven precies hetzelfde resultaat. Voor het bovenstaande voorbeeld √F = √4.09 = 2.02. Uit de tabel D bleek dat voor 14 df het .05 significantieniveau voor deze t 2.14 is.

Onze t van 2.02 bereikt dit niveau niet helemaal en daarom is (zoals F) niet significant.

Voorbeeld 7:

(Meer dan twee groepen)

Pas ANOVA toe om te testen of de gemiddelden van vier groepen aanzienlijk verschillen:

Aangezien er 20 scores zijn in vier groepen:

df voor totale SS (of SS 1 ) = (N - 1) of 20 - 1 = 19

df voor SS b = (K - 1) of 4 - 1 = 3

df voor SS w = (N - K) of 20 - 4 = 16

F = 33, 33 / 3, 5 = 9, 52

T = √F = 3, 08

Interpretatie van F-ratio:

De variatieverhouding of F is 9, 52. De df voor tussen gemiddelden is 3 en de df voor binnen groepen is 16. Als we tabel F invoeren met deze df s lezen we kolom 3 en rij 16 dat het .05-niveau 3.24 is en het .01-niveau 5.29.

Onze berekende F van 9, 52 is meer dan 5, 29. Vandaar dat F significant is. De nulhypothese wordt afgewezen met de conclusie dat de vier gemiddelden aanzienlijk verschillen op 01-niveau.

(B) We zullen een ander voorbeeld nemen bij het analyseren van variantie wanneer dezelfde groep meerdere keren wordt gemeten, dwz in het geval van gecorreleerde groepen:

Wanneer een test wordt gegeven en vervolgens wordt herhaald, kan variantieanalyse worden gebruikt om te bepalen of de gemiddelde verandering significant is (dwz de significantie van het verschil tussen gemiddelden verkregen uit gecorreleerde groepen).

Voorbeeld 8:

(Voor gecorreleerde groepen)

Vijf proefpersonen krijgen 4 opeenvolgende proeven met een cijfer-symbooltest waarvan alleen de scores voor de proeven 1 en 4 worden getoond. Is de gemiddelde winst van de eerste tot de laatste proef significant?

De procedures voor de analyse van variantie verschillen op dit moment op minstens twee manieren van de hierboven besproken methoden.

Ten eerste moeten, aangezien er een mogelijkheid is voor correlatie tussen de scores die door de 5 proefpersonen op het eerste en vierde onderzoek zijn bereikt, de twee sets scores niet van meet af aan als onafhankelijke (willekeurige) steekproeven worden behandeld.

Ten tweede heeft classificatie nu betrekking op twee criteria: (a) trials en (b) subjecten.

Vanwege deze twee criteria moet de totale SS in drie delen worden onderverdeeld:

(a) SS toe te schrijven aan proeven;

(b) SS toe te schrijven aan onderwerpen; en

(c) Een residuele SS die gewoonlijk "interactie" wordt genoemd

Stappen in de berekening van deze drie varianties kunnen als volgt worden samengevat:

Stap 1:

Correctie (C). Net als in de vorige procedure, C = (ΣX) 2 / N. In het bovenstaande voorbeeld is C 90 2/10 of 810.

Stap 2:

Totale som van vierkanten. Opnieuw herhaalt de berekening de procedure toegepast in Voorbeeld 1, 2 en 3.

Totaal SS of SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 of 230.

Stap 3:

SS tussen de middelen van proeven. Er zijn twee proeven met elk vijf scores.

daarom

Stap 4:

SS als middel voor onderwerpen. Een tweede "tussen middel" SS is vereist om voor het tweede criterium van classificatie te zorgen. Er zijn 5 studenten / onderwerpen en elk heeft twee proeven. De scores van de 1e en 4e proeven van elk vak / student worden toegevoegd om 17, 23, 9, 26, 15 te krijgen.

Vandaar,

Stap 5:

Interactie SS. De resterende variatie of interactie is wat er overblijft als de systematische effecten van verschillen in studie en subjectverschillen uit de totale SS zijn verwijderd.

Interactie meet de neiging om de prestaties van een proefpersoon te variëren, net als proeven: het meet de factoren die noch aan proefpersonen, noch aan proeven alleen te wijten zijn, maar aan beide tegelijk.

Interactie wordt verkregen moet eenvoudigweg door het aftrekken van proeven SS plus onderwerpen SS van totale SS.

Dus,

Wisselwerking SS = SS t - (SS- proefpersonen + SS- proeven ) = 230 - (90 + 90) = 50.

Stap 6:

Omdat er in totaal 10 scores zijn (10 - 1) of 9 df voor de totale SS. Twee proeven ontvangen 1 df en 5 onderwerpen, 4. De resterende 4 df worden toegewezen aan interactie. De regel is dat de df voor interactie het product is van de df voor de twee interacterende variabelen, hier 1 x 4 = 4. In het algemeen is N = totaal aantal scores, r = rijen en K = kolommen.

Interpretatie van F-ratio's:

De F voor proeven is 7.2. De berekende waarde van F voor proeven is minder dan 7, 71 die we in tabel F voor het .05-punt lezen als df 1 = 1 en df 2 = 4.

Dit betekent dat de nulhypothese met betrekking tot proeven houdbaar is en moet worden aanvaard. Het bewijs is sterk dat er geen significante verbetering heeft plaatsgevonden van proef 1 tot proef 4.

De F voor onderwerpen is 1, 8 en is veel kleiner dan de 0, 05 punt van 6, 39 in tabel F voor df 1 = 4 en df 2 = 4. Het is duidelijk dat onderwerpen niet altijd beter zijn dan andere.

Dit betekent dat de nulhypothese met betrekking tot onderwerpen houdbaar is en moet worden aanvaard.

Two Way ANOVA:

Om een ​​bepaald geometrisch concept te onderwijzen als verschillende lesmethoden worden toegepast op twee of meer dan twee groepen studenten, noemen we dit een experimentele variabele.

In één richting ANOVA wordt slechts één factor (dwz één onafhankelijke variabele) bestudeerd. Wanneer we bijvoorbeeld willen testen of methoden van lesgeven enig effect hebben op prestatie, bestuderen we het effect van één onafhankelijke variabele (dat wil zeggen methoden leren) op de afhankelijke variabele (ie prestatie).

De datasets worden gedifferentieerd op basis van slechts één experimentele variatie. Er is maar één principe van classificatie, één reden om gegevens in sets te scheiden.

Laten we hiervoor willekeurig drie groepen selecteren en drie verschillende behandelingen, te weten methode 1, methode 2 en methode 3 willekeurig toewijzen aan deze drie groepen.

Aan het einde kunnen de prestatiescores van onderwerpen van de drie verschillende groepen worden verkregen door middel van een geschikte test.

Vervolgens kunnen we met behulp van ANOVA testen of de gemiddelden van deze drie groepen aanzienlijk verschillen.

In een tweeweg classificatie of tweeweg ANOVA zijn er twee verschillende grondslagen voor classificatie. Twee experimentele omstandigheden mogen variëren van groep tot groep. In de psychologische laboratoria kunnen verschillende kunstmatige vliegveldlandingsstroken, elk met een ander patroon van markeringen, worden bekeken door een diffusiescherm om het zicht door mist op verschillende niveaus opaciteit te stimuleren.

In een onderwijsprobleem kunnen vier methoden voor het aanleren van een bepaald geometrisch concept door vijf verschillende leraren worden toegepast, die elk een van de vier methoden gebruiken. Er zouden dus 20 combinaties van leraar en methode zijn.

De volgende tabel kan aan u voorafgaan:

In een hieronder geciteerd voorbeeld worden de effecten van drie instructiemethoden op prestatiescores bestudeerd. Maar verwacht wordt dat de instructiemethoden een ander effect zullen hebben, afhankelijk van het niveau van sociaaleconomische status (SES) van de proefpersonen.

We kunnen dus een studie ontwerpen waarin het effect van twee variabelen, dat wil zeggen het effect van instructiemethoden en het effect van niveaus van sociaal-economische status (SES) gelijktijdig kunnen worden bestudeerd. In dit ontwerp kunnen we ook het interactie-effect bestuderen. Voor dergelijke ontwerpen worden de technieken van de tweewegs-ANOVA gebruikt.

Voorbeeld 9:

Zes groepen studenten (vijf studenten per studie) zijn willekeurig geselecteerd voor zes behandelingsvoorwaarden. Bestudeer het effect van twee factoren, namelijk factor A (sociaaleconomische status) en factor B (instructiemethoden) voor het volgende voorbeeld.

Oplossing:

In het bovenstaande voorbeeld hebben we twee niveaus van SES genomen, hoge SES in A 1 categorie en lage SES in A 2 categorie en drie methoden van instructie namelijk B 1 (lezing), B 2 (discussie) en B 3 ( speel manier).

Het totale aantal behandelingen in het experiment is 2 x 3 = 6. Hier is n = 5 en het totale aantal waarnemingen is N = 5 x 6 = 30.

Totaal totaal, ΣX = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Zes verschillende behandelingsgroepen kunnen worden gepresenteerd in een 'interactietabel', zoals hieronder weergegeven:

Voor drie methoden van instructie zijn er drie kolommen (... c = 3). De rijtotalen worden gebruikt voor de berekening van SS voor A (SES). De kolomtotalen worden gebruikt voor de berekening van SS voor B (instructiemethoden).

Stappen in de berekening van varianties kunnen als volgt worden samengevat:

Stap 1:

Stap 2:

Totaal SS of SS t = ΣX 2 - C. Hier worden alle dertig scores gekwadrateerd en toegevoegd en wordt C afgetrokken.

SS t = 5 2 + 7 2 + ......... + 10 2 + 7 2 - 1687.5 = 1919 - 1687.5 = 231.5

Stap 3:

Tussen Groep SS of SS b = Totaal van (ΣX) 2 / n voor alle zes behandelingsomstandigheden - C.

Stap 4:

Binnen Groepen SS of SS W = SS t - SS b = 231, 5 - 87, 5 = 144

Stap 5:

Nu kan "Between Group SS" of SS b van 87.5 in drie delen worden verdeeld, namelijk, SS A, SS B en SS AB, dwz SS b = SS A + SS B + SS AB

Waar SS A = SS van factor A (SES) genererend uit de afwijking van Al en A2 betekent van het gemiddelde van de totale scores.

SS B = SS van factor B (methoden) gegenereerd uit de afwijkingen van B 1, B 2 en B 3 betekent van het gemiddelde van de totale scores.

Stap 6:

Vrijheidsgraden voor verschillende SS's

In ons probleem hebben we 6 groepen

.˙. K = 6

n = 5 en N = 6 xn = 6 x 5 = 30.

In de interactietabel zijn er twee rijen en drie kolommen

.˙. r = 2 en C = 3.

Partitionering van df kan als volgt worden gemaakt:

df voor SS t = N - 1 = 30 - 1 of 29

df voor SS b = K - 1 = 6 - 1 of 5

df voor SS W = K (n - 1) = 6 x 4 of 24

De df fox SS b, kan in drie delen worden verdeeld:

(i) df voor SSA = r - 1 = 2 - 1 of 1

(ii) df voor SSB = c - 1 = 3 - 1 of 2

(iii) df voor SS AB = (r - 1) (C - 1) = 1 x 2 of 2

Nu kunnen we de bovenstaande berekening invoeren in een tweewegs ANOVA-overzichtstabel:

Interpretatie van de F-verhouding:

(a) F voor SES of F voor A

F = MS A / MS W = 7, 5 / 6, 0 = 1, 25

(.052 is minder dan één)

Als F van 1, 25 <4, 26 op 0, 05 niveau behouden we de nulhypothese dat de twee willekeurig geselecteerde groepen niet verschillen in prestatiescores op basis van sociaal-economische status.

Als F van 6, 67> 5, 6 op 0, 01 niveau, verwerpen we de nulhypothese. We concluderen dat de drie methoden van instructie de prestatiescores anders beïnvloeden.

Als F van 0, 00 <1 behouden we de nulhypothese. We accepteren de nulhypothese van geen interactie. We concluderen dat de effectiviteit van methoden niet afhangt van het niveau van sociaaleconomische status.