Als we een groep bestuderen, vergelijken we vaak twee populaties. Afhankelijk van de parameter van deze groep waarin we geïnteresseerd zijn en de omstandigheden waarmee we te maken hebben, zijn er verschillende technieken beschikbaar. Statistische inferentieprocedures die betrekking hebben op de vergelijking van twee populaties kunnen meestal niet worden toegepast op drie of meer populaties. Om meer dan twee populaties tegelijkertijd te bestuderen, hebben we verschillende soorten statistische hulpmiddelen nodig. Variantieanalyse of ANOVA is een techniek van statistische interferentie waarmee we met verschillende populaties kunnen omgaan.
Om te zien welke problemen zich voordoen en waarom we ANOVA nodig hebben, zullen we een voorbeeld overwegen. Stel dat we proberen te bepalen of de gemiddelde gewichten van groen, rood, blauw en oranje M & M-snoepjes van elkaar verschillen. We zullen de gemiddelde gewichten voor elk van deze populaties vermelden, μ1, μ2, μ3 μ4 en respectievelijk. We kunnen de juiste hypothesetest meerdere keren gebruiken, en test C (4,2), of zes verschillende nulhypothesen:
Er zijn veel problemen met dit soort analyses. We zullen er zes hebben p-waarden. Hoewel we elk met een betrouwbaarheidsniveau van 95% kunnen testen, is ons vertrouwen in het totale proces minder dan dit, omdat de waarschijnlijkheden vermenigvuldigen: .95 x .95 x .95 x .95 x .95 x .95 is ongeveer .74, of een betrouwbaarheidsniveau van 74%. Aldus is de waarschijnlijkheid van een type I-fout toegenomen.
Op een meer fundamenteel niveau kunnen we deze vier parameters als geheel niet vergelijken door ze twee tegelijk te vergelijken. De gemiddelden van de rode en blauwe M & M's kunnen aanzienlijk zijn, waarbij het gemiddelde gewicht van rood relatief groter is dan het gemiddelde gewicht van de blauwe. Wanneer we echter de gemiddelde gewichten van alle vier soorten snoep beschouwen, is er mogelijk geen significant verschil.
Om met situaties om te gaan waarin we meerdere vergelijkingen moeten maken, gebruiken we ANOVA. Met deze test kunnen we de parameters van verschillende populaties tegelijkertijd bekijken, zonder in te gaan op enkele problemen waarmee we geconfronteerd worden door hypothesetests uit te voeren op twee parameters tegelijk.
Om ANOVA uit te voeren met het bovenstaande M & M-voorbeeld, zouden we de nulhypothese H testen0: μ1 = μ2 = μ3= μ4. Hierin staat dat er geen verschil is tussen de gemiddelde gewichten van de rode, blauwe en groene M & M's. De alternatieve hypothese is dat er een verschil is tussen de gemiddelde gewichten van de rode, blauwe, groene en oranje M & M's. Deze hypothese is echt een combinatie van verschillende uitspraken Heen:
In dit specifieke geval zouden we, om onze p-waarde te verkrijgen, een waarschijnlijkheidsverdeling gebruiken die bekend staat als de F-verdeling. Berekeningen met de ANOVA F-test kunnen met de hand worden gedaan, maar worden meestal met statistische software berekend.
Wat ANOVA onderscheidt van andere statistische technieken, is dat het wordt gebruikt om meerdere vergelijkingen te maken. Dit is gebruikelijk in de statistieken, omdat we vaak meer dan twee groepen willen vergelijken. Doorgaans suggereert een algemene test dat er een soort verschil is tussen de parameters die we bestuderen. We volgen deze test vervolgens met een andere analyse om te beslissen welke parameter verschilt.