Analiza wariancji (ANOVA)

Artykuł ten będzie dotyczył zastosowania analizy wariancji do ważnego i często napotykanego problemu określenia znaczenia różnicy między środkami.

Odchylenie, w zwykłym znaczeniu, jest miarą rozproszenia zbioru wyników. Opisuje stopień, w jakim wyniki różnią się od siebie. Definiuje się ją jako średnią kwadratowej odchyłki ocen indywidualnych od średniej.

gdzie x = X - M lub odchylenie wyniku od średniej, tj. wariancja = kwadrat SD

lub, wariancja = σ 2, więc σ =

Miara wariancji daje nam pewne pojęcie o homogeniczności grupy. Wariancja zbioru wyników będzie mniejsza, gdy grupa będzie jednolita w osiągnięciu. Z drugiej strony wariancja zbioru wyników będzie większa, jeśli grupa jest niejednorodna w osiągnięciu.

Analiza wariancji jest bardzo przydatnym narzędziem do analizy wyników badań naukowych, badań w naukach społecznych i fizycznych. Aby uzyskać odpowiedzi na pytania badawcze w badaniach eksperymentalnych lub przetestować hipotezy, wariancję analizuje się na różne komponenty i porównuje wariancje z różnych źródeł. W badaniach spotykamy się z różnymi projektami eksperymentalnymi i formułujemy hipotezy zerowe.

Stosujemy technikę "analizy wariancji" (ANOVA lub ANOVAR) w celu sprawdzenia, czy współczynnik wariancji (F) jest znaczący, czy też nie, a na podstawie tej hipotezy zerowej przyjmuje się lub odrzuca.

Koncepcja wariancji i ANOVA została wyjaśniona na przykładzie.

Przykład 1:

Oblicz wariancję następującego rozkładu wyników 4, 6, 3, 7, 5.

Tutaj wyrażenie Zx 2 jest nazywane "Suma kwadratów odchylenia wyników od średniej" (w skrócie SS). Gdy SS jest podzielone przez całkowitą liczbę punktów (N) otrzymujemy "średni kwadrat" lub MS. Zatem wariancja nazywana jest również średnim kwadratem. Symbolicznie,

V = MS lub V = SS / N

Rozbieżność w terminologii ANOVA jest często nazywana "średnim kwadratem" (lub MS). W Analysis of Variance (ANOVA) średni kwadrat lub wariancja jest obliczana przez podzielenie SS przez df . A zatem

Składniki wariancji:

Zanim przejdziemy do szczegółowych obliczeń wariancji, należy rzucić okiem na dwa ze swoich składników:

(a) systematyczna wariancja, oraz

(b) Wariancja błędu.

(a) Systematyczna wariancja:

Wariancja systematyczna, w układzie eksperymentalnym, jest tą częścią wariancji, którą można przypisać manipulacji zmienną eksperymentalną, tj. Zmienną niezależną.

Na przykład badacz chce zbadać wpływ motywacji, tj. Nagrody słownej i uznania na osiągnięcia akademickie dwóch równych grup. Wybiera dwie jednorodne grupy i manipuluje nagrodą słowną w jednej grupie i uznaniem innej grupy. Następnie przeprowadza test dla obu grup i otrzymuje swoje wyniki.

(Tutaj "Motywacja" jest zmienną niezależną, a "uzyskana ocena" jest zmienną zależną). Gdy zostanie obliczona wariancja wszystkich wyników dwóch grup, jest ona określana jako całkowita wariancja (V t ). Część całkowitej wariancji, którą można przypisać jedynie do "manipulacji motywacją", można określić jako "systematyczną wariancję". Jest to różnica między grupami (lub V b ).

(b) Odchylenie błędu:

Oprócz wpływu zmiennych eksperymentalnych istnieją również inne źródła zmienności ze względu na zewnętrzne zmienne, które mogą wpływać na zmienną zależną.

Zatem wariancja błędu jest tą częścią całkowitej wariancji, którą można przypisać innym niekontrolowanym źródłom zmienności w eksperymencie.

Błąd wariancji wynika z różnych źródeł:

1. Niekontrolowane źródła zmienności wynikające ze zmiennych zewnętrznych.

2. Nieodłączna zmienność w jednostkach eksperymentalnych.

3. Losowe fluktuacje w eksperymencie.

4. Błędy pomiaru z powodu braku

(a) Standardowe techniki eksperymentalne;

(b) Jednorodność w administracji;

(c) Fizyczne prowadzenie eksperymentu;

(d) Przejściowy stan emocjonalny badanych itp.

Symbolicznie wariancja błędu wyrażona jest jako V e . W powyższym przykładzie zajmujemy się głównie dwiema zmiennymi, mianowicie motywacją jako zmienną niezależną i wynikami osiągnięć jako zmienną zależną.

Oprócz tych dwóch zmiennych, badacz napotyka inne zmienne, które wpływają na zmienną zależną. Takie inne zmienne mogą przypominać płeć, poziom inteligencji, status społeczno-ekonomiczny, wiek, wykształcenie itp., Których badacz nie zadbał.

Takie zmienne, które nie są kontrolowane w konfiguracji eksperymentalnej i wpływają na występowanie zmiennej zależnej, są nazywane "zmiennymi zewnętrznymi" lub "zmiennymi nieistotnymi".

Gdy te zmienne są kontrolowane w eksperymencie, błąd eksperymentalny może zostać zminimalizowany. Jeżeli te nieistotne zmienne nie są kontrolowane, będą stanowić część wariancji błędu. "Główną funkcją projektu eksperymentalnego jest maksymalizacja systematycznej wariancji, kontrola zewnętrznych źródeł wariancji i minimalizacja wariancji błędu". Dlatego każdy badacz chce zmniejszyć błąd eksperymentu.

Aby zminimalizować błędy można zastosować następujące warianty:

1. Zmienne obce mogą być kontrolowane przez:

za. Randomizacja,

b. Eliminacja,

do. Pasujący,

re. Wprowadzając dodatkową niezależną zmienną lub zmienne oraz

mi. Przez kontrolę statystyczną.

2. Błędy pomiaru mogą być kontrolowane przez :

za. Stosując wystandaryzowane techniki eksperymentalne,

b. Używanie niezawodnych przyrządów pomiarowych,

do. Zapewnienie jednolitości w administrowaniu lub przeprowadzaniu eksperymentu,

re. Zwiększenie niezawodności pomiaru poprzez jasne i jednoznaczne instrukcje itp.

Powyższa dyskusja potwierdza, że ​​wnioskujemy, że całkowita wariancja składa się z dwóch części, tj.

V t = V b + V e

gdzie V t = całkowita wariancja

V b = wariancja między grupami (lub systematyczna wariancja)

V e = wariancja błędu.

W wariancie ANOVA wariancja systematyczna jest badana na podstawie wariancji błędu za pomocą testu F.

Największa wartość F, większe jest prawdopodobieństwo, że systematyczna wariancja jest większa niż błąd eksperymentalny (w wariancji grupowej lub indywidualnych odmianach).

W przykładzie liczbowym można rozróżnić wariancję systematyczną i wariancję błędu.

Przykład 2:

Badacz przypisuje losowo dziesięciu studentom dwie grupy (po pięć w każdej grupie) i manipuluje dwoma metodami motywacji do tych dwóch grup losowo.

Następnie badacz przeprowadza test i odnotowuje wyniki dziesięciu uczniów, jak podano poniżej:

Obecnie obserwuje się, że środki dwóch grup są różne. Oznacza to, że znajdujemy wariancję między grupami. Wariancję między grupami (V b ) można obliczyć w następujący sposób. Weźmy środki 5 i 7 jako dwie wyniki i obliczyć wariancję tych dwóch wyników.

Następnie obliczymy całkowitą wariancję (V t ), biorąc wszystkie dziesięć wyników z obu grup w jednej kolumnie.

V t zawiera wszystkie źródła zmienności wyników. Wcześniej obliczyliśmy, że V b (lub wariancja między grupami) wynosi 1, 00.

Teraz obliczmy jeszcze jedną wariancję, obliczając wariancję każdej grupy osobno, a następnie uśredniając je.

Ponieważ obliczyliśmy wariancje oddzielnie, a następnie uśredniamy, nazywamy tę wariancję jako "w wariancji grup" lub V w .

W naszym przykładzie V w = 3 .8

Tak więc 4, 8 (V t ) = 1, 00 (V b ) + 3, 8 (V w )

lub V f = V b + V w [Całkowita wariancja = wariancja grupy + wariancja wewnątrz grupy].

Podstawowe pojęcia napotkane przy pomocy ANOVA:

Przed podjęciem problemów numerycznych w celu sprawdzenia hipotezy zerowej poprzez zastosowanie ANOVA, powinniśmy zapoznać się z dwoma pojęciami mianowicie: (a) Suma kwadratów (SS) i (b) Stopień swobody ( df ), który często napotykamy w ANOVA.

(a) Obliczenie SS (Suma kwadratów):

W analizie ANOVA obliczamy "wariancję między grupami" (V b ) i "wariancję wewnątrz grup" ( Vw ). Obliczamy V b i V w w następujący sposób:

gdzie SS b = suma kwadratów między grupami

i SS W = suma kwadratów w obrębie grup.

Porównujemy te dwie wariancje przez współczynnik zwany F, gdzie F = gdzie

Daj nam teraz dowiedzieć się, jak suma kwadratów (SS) ma być obliczona za pomocą dwóch metod.

Przykład 3:

Oblicz sumę kwadratów następującego rozkładu wyników.

7, 9, 10, 6, 8

Średnia = 40/5 = 8

Metoda II (krótka metoda):

SS można obliczyć bezpośrednio z wyników bez średniej obliczeniowej i odchylenia. Jest to tak zwana metoda krótka, a SS jest obliczane za pomocą wzoru,

Tutaj nie musimy obliczyć średniej i odchyleń wyniku indywidualnego od średniej. Druga metoda jest preferowana, gdy występuje duża liczba wyników, a średnia obejmuje miejsca dziesiętne.

Tak więc w ANOVA suma kwadratów może być obliczona za pomocą wzoru.

Obliczanie pomiędzy grupami sum kwadratów (SS b ) i wewnątrz grup suma kwadratów (SS W )

Następujące dwie metody można zastosować do obliczenia SS t, SS b i SS w .

Przykład 4:

Dwa różne zabiegi są obsługiwane w dwóch grupach po pięć osobników.

Uzyskane wyniki są następujące:

Niech "Grand Mean" (tj. Średnia z wszystkich dziesięciu wyników) zostanie oznaczona jako M

Teraz M = 35 + 25/10 = 60/10 = 6

Obliczanie SS t, SS b i SS w (metoda długa):

Obliczanie SS t :

Aby obliczyć SS t będziemy musieli znaleźć sumę kwadratów odchylenia każdej z powyższych dziesięciu wyników od średniej głównej (tj. 6)

Obliczanie SS b :

Aby obliczyć SS b, zakładamy, że każdy element grupy jest równy średniej grupy, a następnie analizuje wariancję między różnymi grupami. Tutaj obliczymy sumę kwadratów odchylenia średnich różnych grup od wielkiego środka.

Przyjmuje się, że wartość każdej pozycji w grupie I wynosi 7, a wartość każdej pozycji z grupy II wynosi 5, a suma kwadratów tych wartości ze średniej głównej (M = 6) zostanie obliczona.

Możemy obliczyć SS b w formie tabelarycznej w następujący sposób:

Obliczanie SS w :

W celu obliczenia SS W dowiemy się sumy kwadratów odchylenia różnych wyników w grupie od średniej poszczególnych grup.

Obliczenia SS W przedstawiono w formie tabelarycznej:

Suma wszystkich kwadratów lub SS W = 10 + 6 = 16

W powyższych obliczeniach znaleźliśmy SS t, = 26, SS b, = 10 i SS W = 16

Tak więc SS t = SS b + SS w

Obliczanie SS t, SS b i SS w (krótka metoda):

W skrócie można obliczyć SS t SS b i SS W bezpośrednio z wyników za pomocą następujących trzech formuł.

W tej krótkiej metodzie nie musimy obliczyć średniej i odchyleń. Możemy obliczyć różne wariancje bezpośrednio z wyników. W ANOVA, SS t i SS b są obliczane zwykle metodą krótką.

Podczas rozwiązywania problemów na ANOVA obliczamy SS i SS t tą krótką metodą.

(b) Stopnie swobody (df):

Każdy SS staje się wariancją podzieloną przez przydzielone mu stopnie swobody ( df ). W ANOVA natrafiliśmy na stopnie swobody ( df ). Liczba stopni swobody dla każdej wariancji jest o jeden mniejsza niż V, na której się opiera.

Jeśli N = liczba wyników we wszystkich i K = liczba kategorii lub grup, mamy dla ogólnego przypadku, że:

df dla sumy SS = (N - 1)

df dla grup SS = (K - 1)

df dla grup SS = (N - K)

Również:

(N - 1) = (N - K) + (K - 1)

Analiza wariancji (w jedną stronę):

Osobno dyskutowaliśmy o testach istotności różnicy między środkami. Zazwyczaj stosuje się test t, gdy chcemy określić, czy te dwie próbki różnią się istotnie.

Gdy interesują nas eksperymenty z udziałem dwóch grup, możemy przetestować, czy te dwa środki różnią się znacznie, stosując t-test.

Ale test t nie jest odpowiedni, gdy porównuje się więcej niż dwa środki. Na przykład istnieją cztery środki z czterech grup. Aby sprawdzić, czy te cztery środki różnią się znacząco od siebie, musimy wykonać sześć testów t.

Jeżeli cztery środki to M 1, M 2, M 3, M 4, musimy porównać różnicę między M 1 i M 2, tj. (M 1 - M 2 ), między M 1 i M 3 tj. (M 1 - M 3 ), między M 1 i M 4 tj. (M 1 - M 4 ), między M 2 a M 3 tj. (M 2 - M 3 ), między M 2 a M 4 tj. (M 2 - M 4 ), między M 3 i M4 tj. (M3-M4). Podobnie jak w przypadku 10 oznacza, że ​​musimy wykonać 45 testów t.

Dla K oznacza to, że musimy wykonać testy t K (K - 1) / 2, a to wymagałoby więcej obliczeń i pracy. Ale stosując test F poprzez ANOVA możemy ocenić znaczenie różnicy trzech lub więcej niż trzech środków w jednym czasie.

Założenia, na których opiera się test F:

Jak zwykle, decyzja statystyczna jest wiarygodna w zakresie, w jakim pewne założenia zostały spełnione w wykorzystywanych danych.

W ANOVA są zwykle cztery określone wymagania:

1. Pobieranie próbek w ramach zestawów powinno być losowe. Różne grupy leczenia wybiera się losowo z populacji.

2. Różnice w obrębie różnych zbiorów muszą być w przybliżeniu równe. Odnosi się to do założenia homogeniczności wariancji, tzn. Grupy są jednorodne pod względem zmienności.

3. Obserwacje w eksperymentalnie homogenicznych zbiorach powinny pochodzić z populacji o normalnej dystrybucji.

4. Wkład do całkowitej wariancji musi być addytywny.

A. Podejmiemy kilka przykładów i zobaczymy, jak analizowana jest wariancja, gdy grupy są niezależne:

Przykład 5:

W konfiguracji eksperymentalnej 16 osobników przydzielono losowo do dwóch grup po 8 osobników. Te dwie grupy zostały potraktowane dwiema różnymi metodami nauczania. Sprawdź znaczenie różnicy między próbnymi środkami.

Rozwiązanie:

Grand Total (tj. Suma wszystkich 16 punktów) = 104 lub ΣX = 104

Średnia wielka (M), czyli średnia wszystkich 16 punktów = ΣX / N = 104/16 = 6, 5

Do obliczenia współczynnika F będziemy musieli wykonać następujące kroki:

Krok 1:

Suma wszystkich 16 punktów to 44 + 60 lub 104; a korekta (C) jest odpowiednio

Krok 2:

Kiedy każdy wynik obu grup zostanie podniesiony do kwadratu i zsumowany, ΣX 2 okaże się (ΣX1 2 + ΣX2 2 = 260 + 460) 720.

Następnie korekta 676 jest odejmowana od sumy za pomocą wzoru:

Suma SS lub SS 1 = ΣX 2 - C = 720 - 676 ​​= 44.

lub, SS t = 3 2 + 4 2 + 5 2 + ...... .. + 9 2 - 676 ​​= 44

Krok 3:

Suma kwadratów pomiędzy średnimi SS b znajduje się przez podniesienie do kwadratu sumy każdej kolumny, dzieląc pierwszą i drugą przez 8 osobno i odejmując C.

Pomiędzy grupą SS lub SS b

Krok 4:

SS wewnątrz (lub SS W ) jest różnicą między SS t i SS b . Zatem SS W = 44 - 16 = 28.

Krok 5:

Ponieważ w sumie jest 16 wyników

Interpretacja współczynnika F:

Współczynnik wariancji lub F wynosi 16/2 lub 8. Wartość df między wartościami wynosi 1, a wartość df dla grup wynosi 14. Wprowadzając tabelę F z tymi wartościami df, które czytamy w kolumnie 1 i wierszu 14, poziom 0, 05 wynosi 4, 60 i poziom .01 wynosi 8, 86. Nasze obliczone F jest znaczące na poziomie 0, 05.

Ale nie jest istotny na poziomie .01. Innymi słowy, zaobserwowana wartość F jest większa niż wartość poziomu 0, 05, ale mniejsza niż 0, 01. Stąd wnioskujemy, że średnia różnica jest znacząca na poziomie 0, 05, ale nieistotna na poziomie 0, 01.

Przykład 6:

(Kiedy rozmiary grup są nierówne) Test odsetkowy jest podawany 6 chłopcom w klasie kształcenia zawodowego i 10 chłopcom w klasie łacińskiej.

Czy średnia różnica między dwiema grupami jest istotna na poziomie 0, 05? Sprawdź istotność różnicy za pomocą ANOVA.

Interpretacja współczynnika F:

Współczynnik wariancji lub F wynosi 135/33 lub 4, 09. Wartość df między wartościami wynosi 1, a wartość df dla grup wynosi 14. Wprowadzając tabelę F z tymi wartościami df, które czytamy w kolumnie 1 i wierszu 14, poziom .05 wynosi 4, 60, a poziom .01 wynosi 8, 86. Nasze obliczone F 4, 09 nie osiąga poziomu 0, 05, więc nasza średnia różnica 6 punktów musi być uznana za nieistotną. W związku z tym przyjmuje się hipotezę zerową.

Kiedy są tylko dwa środki do porównania, jak tutaj; F = t 2 lub t = = √ F i dwa testy (F i t) dają dokładnie taki sam wynik. Dla powyższego przykładu √F = √4, 09 = 2, 02. Z tabeli D wynika, że ​​dla 14 df poziom istotności .05 dla tego t wynosi 2, 14.

Nasze t 2, 02 nie osiąga tego poziomu, a więc (jak F) nie jest znaczące.

Przykład 7:

(Więcej niż dwie grupy)

Zastosuj ANOVA, aby sprawdzić, czy średnie z czterech grup różnią się znacząco:

Ponieważ istnieje 20 wyników w czterech grupach:

df dla sumy SS (lub SS 1 ) = (N - 1) lub 20 - 1 = 19

df dla SS b = (K - 1) lub 4 - 1 = 3

df dla SS w = (N - K) lub 20 - 4 = 16

F = 33, 33 / 3, 5 = 9, 52

T = √F = 3, 08

Interpretacja współczynnika F:

Współczynnik wariancji lub F wynosi 9, 52. Wartość df między wartościami wynosi 3, a wartość df dla grup wynosi 16. Wpisując tabelę F z tymi wartościami df odczytujemy kolumnę 3 i wiersz 16, że poziom 0, 05 wynosi 3, 24, a poziom .01 wynosi 5, 29.

Nasze obliczone F 9, 52 wynosi ponad 5, 29. Stąd F jest znaczący. Hipoteza zerowa jest odrzucana z wnioskiem, że cztery środki różnią się znacząco na poziomie 01.

(B) Weźmiemy inny przykład w analizie wariancji, gdy ta sama grupa jest mierzona więcej niż jeden raz, tj. W przypadku grup skorelowanych:

Gdy test zostanie podany, a następnie powtórzony, można zastosować analizę wariancji, aby określić, czy średnia zmiana jest znacząca (tj. Istotność różnicy między średnimi uzyskanymi ze skorelowanych grup).

Przykład 8:

(Dla grup skorelowanych)

Pięciu osobników otrzymuje 4 kolejne próby po teście z symbolem cyfry, w którym pokazano tylko wyniki dla badań 1 i 4. Czy średni zysk z początkowego do ostatecznego badania jest znaczący.

Procedury analizy wariancji różnią się obecnie co najmniej na dwa sposoby od omówionych powyżej metod.

Po pierwsze, ponieważ istnieje możliwość korelacji między wynikami uzyskanymi przez 5 pacjentów w pierwszym i czwartym badaniu, dwa zestawy wyników nie powinny na początku być traktowane jako niezależne (losowe) próbki.

Po drugie, klasyfikacja jest teraz pod względem dwóch kryteriów: (a) prób i (b) podmiotów.

Z powodu tych dwóch kryteriów, całkowita liczba SS musi zostać podzielona na trzy części:

(a) SS przypisywane do prób;

(b) SS przypisywane podmiotom; i

(c) Reszta SS zwykle nazywana "interakcją"

Kroki obliczania tych trzech wariancji można podsumować w następujący sposób:

Krok 1:

Korekta (C). Tak jak w poprzedniej procedurze, C = (ΣX) 2 / N. W powyższym przykładzie C wynosi 90 2/10 lub 810.

Krok 2:

Suma wszystkich kwadratów. Ponownie obliczenie powtarza procedurę stosowaną w Przykładach 1, 2 i 3.

Suma SS lub SS t = 7 2 + 8 2 + 4 2 + 6 2 + 5 2 + 10 2 + 15 2 + 5 2 + 20 2 + 10 2 - C

= 1040 - 810 lub 230.

Krok 3:

SS między środkami prób. Istnieją dwie próby po 5 punktów każda.

W związku z tym,

Krok 4:

SS wśród środków podmiotów. Drugi "między środkami" SS jest wymagany, aby zająć się drugim kryterium klasyfikacji. Jest 5 studentów / przedmiotów i każdy ma dwie próby. Wyniki pierwszej i czwartej próby każdego przedmiotu / ucznia są dodawane, aby otrzymać 17, 23, 9, 26, 15.

Stąd,

Krok 5:

Interakcja SS. Resztkowa zmienność lub interakcja jest tym, co pozostało, gdy systematyczne efekty różnic między próbami i różnicami osobników zostały usunięte z całego SS.

Interakcja mierzy tendencję do wykonywania ćwiczeń u poszczególnych pacjentów w różny sposób wraz z próbami: mierzy czynniki, których nie można przypisać ani badaczom, ani próbom działającym w pojedynkę, ale raczej oboje działają wspólnie.

Interakcje uzyskuje się po prostu przez odjęcie prób SS plus podmioty SS od całkowitej SS.

A zatem,

Interakcja SS = SS t - (Badacze SS + badania SS) = 230 - (90 + 90) = 50.

Krok 6:

Ponieważ mamy 10 punktów w sumie mamy (10 - 1) lub 9 df dla całego SS. Dwie próby otrzymują 1 df i 5 osobników, 4. Pozostałe 4 df są przypisane do interakcji. Zasadą jest, że df dla interakcji jest iloczynem df dla dwóch zmiennych oddziałujących, tutaj 1 x 4 = 4. Ogólnie rzecz biorąc, N = całkowita liczba wyników, r = wiersze i K = kolumny.

Interpretacja współczynników F:

Wartość F dla prób wynosi 7, 2. Obliczona wartość F dla prób jest mniejsza niż 7, 71, którą odczytujemy w tabeli F dla punktu .05, gdy df 1 = 1 i df 2 = 4.

Oznacza to, że hipoteza zerowa w odniesieniu do prób jest możliwa do zaakceptowania. Dowody wskazują, że nie nastąpiła znacząca poprawa od próby 1 do próby 4.

F dla przedmiotów wynosi 1, 8 i jest znacznie mniejsza niż 0, 05 punktu 6, 39 w Tabeli F dla df 1 = 4 i df 2 = 4. Jest oczywiste, że badani nie są konsekwentnie lepsi od innych.

Oznacza to, że hipoteza zerowa w odniesieniu do przedmiotów jest możliwa do utrzymania i musi zostać zaakceptowana.

Dwukierunkowa ANOVA:

Aby nauczyć pewną geometryczną koncepcję, jeśli różne metody nauczania są stosowane do dwóch lub więcej niż dwóch grup uczniów, nazywamy to zmienną eksperymentalną.

W jednokierunkowej ANOVA badany jest tylko jeden czynnik (tj. Jedna zmienna niezależna). Na przykład, gdy chcemy sprawdzić, czy metody nauczania mają jakikolwiek wpływ na osiągnięcie, badamy wpływ jednej zmiennej niezależnej (tj. Metody nauczania) na zmienną zależną (tj. Osiągnięcie).

Zbiory danych są zróżnicowane na podstawie tylko jednej odmiany eksperymentalnej. Istnieje tylko jedna zasada klasyfikacji, jedna z przyczyn segregowania danych w zbiory.

W tym celu wybierzmy trzy grupy losowo i przyporządkujmy losowo trzy różne metody, metodę-1, metodę-2 i metodę-3 do tych trzech grup.

Na koniec wyniki osiągnięć podmiotów z trzech różnych grup można uzyskać za pomocą odpowiedniego testu.

Następnie, stosując ANOVA, możemy sprawdzić, czy średnie dla tych trzech grup różnią się znacząco.

W dwukierunkowej klasyfikacji lub dwuczynnikowej ANOVA istnieją dwie odrębne podstawy klasyfikacji. Dozwolone są dwa warunki eksperymentalne, które mogą się różnić w zależności od grupy. W laboratoriach psychologicznych różne sztuczne pasaże lądowania na lotniskach, każdy z innym wzorem oznakowania, mogą być oglądane przez ekran dyfuzyjny, aby stymulować wzrok przez mgłę na różnych poziomach nieprzejrzystości.

W problemie edukacyjnym cztery metody nauczania pewnej koncepcji geometrycznej mogą być stosowane przez pięciu różnych nauczycieli, z których każdy stosuje każdą z czterech metod. Będzie zatem 20 kombinacji nauczyciela i metody.

Następująca tabela może Cię poprzedzić:

W cytowanym poniżej przykładzie badane są efekty trzech metod nauczania na wyniki osiągnięć. Oczekuje się jednak, że metody nauczania będą miały różny skutek w zależności od poziomu statusu społeczno-ekonomicznego (SES) podmiotów.

Tak więc, możemy zaprojektować badanie, w którym jednocześnie można badać wpływ dwóch zmiennych, tj. Wpływu metod nauczania i wpływu poziomów statusu społeczno-ekonomicznego (SES). W tym projekcie możemy również badać efekt interakcji. W przypadku takich projektów stosuje się techniki dwukierunkowej ANOVA.

Przykład 9:

Sześć grup studentów (po 5 uczniów w każdym) zostało wybranych losowo na sześć warunków leczenia. Zbadaj wpływ dwóch czynników mianowicie: czynnika A (status społeczno-ekonomiczny) i czynnika B (metody nauczania) dla następującego przykładu.

Rozwiązanie:

W powyższym przykładzie przyjęliśmy dwa poziomy SES viz., High SES w kategorii A 1 i Low SES w kategorii A 2 oraz trzy metody nauczania mianowicie., B 1 (wykład), B 2 (dyskusja) i B 3 ( sposób gry).

Całkowita liczba zabiegów w eksperymencie będzie 2 x 3 = 6. Tutaj n = 5, a całkowita liczba obserwacji wynosi N = 5 x 6 = 30.

Suma całkowita, ΣX = 30 + 50 + 40 + 25 + 45 + 35 = 225.

Sześć różnych grup terapeutycznych można przedstawić w "Tabeli interakcji", jak podano poniżej:

Dla trzech metod instrukcji istnieją trzy kolumny (... c = 3). Sumy wierszy są używane do obliczenia SS dla A (SES). Sumy kolumn są używane do obliczania SS dla B (metody instrukcji).

Kroki w obliczaniu wariancji można podsumować w następujący sposób:

Krok 1:

Krok 2:

Razem SS lub SS t = ΣX 2 - C. Tutaj wszystkie trzydzieści wyników jest podniesione do kwadratu i dodane, a C jest odejmowane.

SS t = 5 2 + 7 2 + ......... + 10 2 + 7 2 - 1687.5 = 1919 - 1687.5 = 231, 5

Krok 3:

Między grupą SS lub SS b = suma (ΣX) 2 / n dla wszystkich sześciu warunków leczenia - C.

Krok 4:

W grupach SS lub SS W = SS t - SS b = 231, 5 - 87, 5 = 144

Krok 5:

Teraz "Między Grupą SS" lub SS b 87, 5 można podzielić na trzy części, mianowicie: SS A, SS B i SS AB, tj. SS b = SS A + SS B + SS AB

Gdzie SS A = SS czynnika A (SES) generującego od odchylenia A 1 i A2 oznacza średnią z całkowitej liczby punktów.

SS B = SS czynnika B (metody) generowane z odchyleń B 1, B 2 i B 3 oznacza średnią z całkowitej liczby punktów.

Krok 6:

Stopnie swobody dla różnych SS

W naszym problemie mamy 6 grup

. K = 6

n = 5 i N = 6 xn = 6 x 5 = 30.

W tabeli interakcji znajdują się dwa wiersze i trzy kolumny

. r = 2 i C = 3.

Partycjonowanie df można wykonać w następujący sposób:

df dla SS t = N - 1 = 30 - 1 lub 29

df dla SS b = K - 1 = 6 - 1 lub 5

df dla SS W = K (n - 1) = 6 x 4 lub 24

Df fox SS b można podzielić na trzy części:

(i) df dla SSA = r - 1 = 2 - 1 lub 1

(ii) df dla SSB = c - 1 = 3 - 1 lub 2

(iii) df dla SS AB = (r - 1) (C - 1) = 1 x 2 lub 2

Teraz możemy wprowadzić powyższe obliczenia w dwukierunkowej tabeli podsumowań ANOVA:

Interpretacja współczynnika F:

(a) F dla SES lub F dla A

F = MS A / MS W = 7, 5 / 6, 0 = 1, 25

(.052 jest mniejsze niż jeden)

Jako F 1, 25 <4, 26 na poziomie .05 zachowujemy hipotezę zerową, że dwie wybrane losowo grupy nie różnią się pod względem wyników osiągniętych na podstawie statusu społeczno-ekonomicznego.

Ponieważ F wynosi 6, 67> 5, 6 na poziomie .01, odrzucamy hipotezę zerową. Wnioskujemy, że trzy metody nauczania mają różny wpływ na wyniki osiągnięć.

Jako F 0, 00 <1, zachowujemy hipotezę zerową. Akceptujemy hipotezę zerową braku interakcji. Wnioskujemy, że skuteczność metod nie zależy od poziomu statusu społeczno-ekonomicznego.