Uafhængighed et eksempel på en rød tråd i statistikken



Relaterede dokumenter
Uafhængighed et eksempel på en rød tråd i statistikken

Værktøjshjælp for TI-Nspire CAS Struktur for appendiks:

Deskriptiv statistik. Version 2.1. Noterne er et supplement til Vejen til matematik AB1. Henrik S. Hansen, Sct. Knuds Gymnasium

Rygtespredning: Et logistisk eksperiment

Eksempel på logistisk vækst med TI-Nspire CAS

Fig. 1 Billede af de 60 terninger på mit skrivebord

Maple 11 - Chi-i-anden test

I. Deskriptiv analyse af kroppens proportioner

Statistik med TI-Nspire CAS version 3.2. Bjørn Felsager September [Fjerde udgave]

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model

Lineære sammenhænge, residualplot og regression

for gymnasiet og hf 2016 Karsten Juul

Statistik i basketball

Lineære modeller. Taxakørsel: Et taxa selskab tager 15 kr. pr. km man kører i deres taxa. Hvis vi kører 2 km i taxaen koster turen altså

Statistik Lektion 1. Introduktion Grundlæggende statistiske begreber Deskriptiv statistik Sandsynlighedsregning

At lave dit eget spørgeskema

Anvendt Statistik Lektion 6. Kontingenstabeller χ 2 -test [ki-i-anden-test]

(Projektets første del er rent deskriptiv, mens anden del peger frem mod hypotesetest. Projektet kan gemmes til dette emne, eller tages op igen der)

Normalfordelingen. Statistik og Sandsynlighedsregning 2

χ 2 -test i GeoGebra Jens Sveistrup, Gammel Hellerup Gymnasium

Matematik A. Studentereksamen. Forberedelsesmateriale til de digitale eksamensopgaver med adgang til internettet

Schweynoch, Se eventuelt

Kapitel 3 Centraltendens og spredning

T A L K U N N E N. Datasæt i samspil. Krydstabeller Grafer Mærketal. INFA Matematik Allan C

To samhørende variable

02402 Løsning til testquiz02402f (Test VI)

2 -test. Fordelingen er særdeles kompleks at beskrive med matematiske formler. 2 -test blev opfundet af Pearson omkring år 1900.

PhD-kursus i Basal Biostatistik, efterår 2006 Dag 2, onsdag den 13. september 2006

Vejledning i brug af Gym-pakken til Maple

Opsamling Modeltyper: Tabelanalyse Logistisk regression Generaliserede lineære modeller Log-lineære modeller

Gennemsnit og normalfordeling illustreret med terningkast, simulering og SLUMP()

for matematik pä B-niveau i hf

Kursus Introduktion til Statistik. Forelæsning 7: Kapitel 7 og 8: Statistik for to gennemsnit, ( , ) Per Bruun Brockhoff

Per Vejrup-Hansen Praktisk statistik. Omslag: Torben Klahr.dk Lundsted Grafisk tilrettelæggelse: Samfundslitteratur Grafik Tryk: Narayana Press

Talrækker. Aktivitet Emne Klassetrin Side

Forelæsning 6: Kapitel 7: Hypotesetest for gennemsnit (one-sample setup)

Statistik i GeoGebra

c) For, er, hvorefter. Forklar.

Spørgeskemaundersøgelser og databehandling

Konfidensintervaller og Hypotesetest

Projekt 6.1 Rygtespredning - modellering af logistisk vækst

Søren Christiansen

Projekt 9.4 t-test som lineær regressionstest: Box s helikoptereksperiment

Note til styrkefunktionen

Generelt er korrelationen mellem elevens samlede vurdering i forsøg 1 og forsøg 2 på 0,79.

Basal statistik for lægevidenskabelige forskere, forår 2014 Udleveret 4. marts, afleveres senest ved øvelserne i uge 13 (25.

Konfidensinterval for µ (σ kendt)

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.

Rapport vedrørende. etniske minoriteter i Vestre Fængsel. Januar 2007

Program. Modelkontrol og prædiktion. Multiple sammenligninger. Opgave 5.2: fosforkoncentration

Tjek. lønnen. Et værktøj til at undersøge lokal løndannelse og ligeløn på offentlige arbejdspladser udgave Varenr. 7520

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19

Modul 5: Test for én stikprøve

Susanne Ditlevsen Institut for Matematiske Fag susanne

Skriftlig eksamen Science statistik- ST501

Personlig stemmeafgivning

OPLÆG TIL STUDIERETNINGSPROJEKTER I MATEMATIK-KEMI OM KVANTITATIV KEMISK ANALYSE OG STATISTISKE MODELLER

Skriftlig eksamen i samfundsfag

Some like it HOT: Højere Ordens Tænkning med CAS

Stastistik og Databehandling på en TI-83

Analyse af en lineær regression med lav R 2 -værdi

Løsning eksamen d. 15. december 2008

Modelkontrol i Faktor Modeller

1 Regressionsproblemet 2

Formler og diagrammer i OpenOffice Calc

Undervisningsbeskrivelse

Forelæsning 11: Kapitel 11: Regressionsanalyse

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning

Valgkampens og valgets matematik

Note om Monte Carlo eksperimenter

Vi kalder nu antal prøverør blandt de 20, hvor der ikke ses vækst for X.

Hypotesetest. Altså vores formodning eller påstand om tingens tilstand. Alternativ hypotese (hvis vores påstand er forkert) H a : 0

Undervisningsplan. Stamoplysninger til brug ved prøver til gymnasiale uddannelser. Oversigt over planlagte undervisningsforløb

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Allan C. Malmberg. Terningkast

Formler, ligninger, funktioner og grafer

Løsning til opgave 7, 9, 10 og 11C Matematik B Sommer 2014

Kort gennemgang af Samfundsfaglig-, Naturvidenskabeligog

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller

De socioøkonomiske referencer for gymnasiekarakterer 2013

Huskesedler. Anvendelse af regneark til statistik

i x-aksens retning, så fås ). Forskriften for g fås altså ved i forskriften for f at udskifte alle forekomster af x med x x 0

Tjek. lønnen. Et værktøj til at undersøge ligeløn på arbejdspladser inden for det grønne område og transportsektoren udgave Varenr.

Program. 1. Repetition: konfidens-intervaller. 2. Hypotese test, type I og type II fejl, signifikansniveau, styrke, en- og to-sidede test.

Regneark II Calc Open Office

Appendiks 3 Beregneren - progression i de nationale matematiktest - Vejledning til brug af beregner af progression i matematik

Analyse af bivirkninger på besætningsniveau efter vaccination med inaktiveret BlueTongue Virus (BTV) serotype 8 i danske malkekvægsbesætninger

Undervisningsbeskrivelse

Evaluering af den skriftlige prøve i musik A-niveau studentereksamen maj/juni 2011

Kapitel 7 Forskelle mellem centraltendenser

Matematik A-niveau STX 24. maj 2016 Delprøve 2 VUC Vestsjælland Syd.

Statistik Lektion 17 Multipel Lineær Regression

sammenhänge for C-niveau i stx 2013 Karsten Juul

Statistik Lektion 1. Introduktion Grundlæggende statistiske begreber Deskriptiv statistik

Analysestrategi. Lektion 7 slides kompileret 27. oktober :24 p.1/17

for matematik pä B-niveau i hf

Forelæsning 8: Inferens for varianser (kap 9)

Kapitlet indledes med en beskrivelse af - og opgaver med - de tre former for sandsynlighed, som er omtalt i læseplanen for

Undervisningsbeskrivelse

Transkript:

Uafhængighed et eksempel på en rød tråd i statistikken Statistiknoter til TI-Nspire CAS version 2.0 Bjørn Felsager Marts 2010

Indholdsfortegnelse: Forord side 1 1. Unges alkoholforbrug som funktion af alder: Lineær regression t-test side 3 1.1 Lineær regression t-test: Den beskrivende statistik side 3 1.2 Lineær regression t-test: Den bekræftende statistik side 5 1.3 Simulering af t-fordelingen for en lineær regressionstest * side 10 2. Unges alkoholforbrug som funktion af køn: t-test for to prøver side 11 2.1 t-test for to prøver: Den beskrivende statistik side 11 2.2 t-test for to prøver: Den bekræftende statistik side 12 2.3 Simulering af t-fordelingen for en t-test med to prøver * side 16 2.4 Hvor stor skal stikprøven være, hvis man skal kunne skelne nulhypotesen fra den alternative hypotese? * side 16 3. Dummy-tests: Konvertering af t-test med to prøver til en lineær regressionstest side 17 En teknisk bemærkning om opsamling af teststørrelsen side 18

Uafhængighed et eksempel på en rød tråd i statistikken Fra næste skoleår bliver chi-i-anden-testen obligatorisk stof på matematik B og A, og ligeledes bliver tolkning af p-værdier obligatorisk stof på samfundsfag A. Både matematik og samfundsfag skal altså fremover kunne samarbejde omkring hypotesetest. Samtidigt anvendes statistiske tests hyppigt i biologiundervisningen og også her er det derfor oplagt med et samarbejde mellem matematik og biologi omkring hypotesetest. Det kan derfor være nyttigt at sætte chi-i-anden-testen ind i en lidt større ramme og se på mulighederne for at inddrage andre typer af tests i den forbindelse. Der findes som bekendt to typer af chi-i-anden test: Uafhængighedstestet og goodness-of-fit-testet. Begge typer rækker ud til andre nærtbeslægtede tests. I denne note vil vi fokusere på uafhængighedstestet, der især rækker ud til t-testet. Vi skal altså se på den generelle problemstilling: Hvordan afgør vi om to stokastiske variable er uafhængige? Der findes nu to forskellige typer af stokastiske variable: De numeriske/kvantitative variable og de kategoriske/kvalitative variable. Det giver anledning til følgende tre kombinationer af uafhængighedstest: Type I:To numeriske variable Type II: Én kategorisk og én numerisk variabel Type III: To kategoriske variable Den første type bygger på lineær regression og giver derfor også mulighed for at uddybe forståelsen af den lineære regression, der er grundlæggende for et andet af de nye obligatoriske samarbejdsemner mellem matematik og samfundsfag: regressionsmodeller. Det giver endnu en god begrundelse for at dykke ned i uafhængighedssporet. Denne type fører til t-testet for hældningen af regressionslinjen. Den anden type bygger på sammenligning af fordelinger, herunder specielt sammenligninger af niveauerne for et antal fordelinger, fx hvilken type pølse indeholder mest nitrit osv. Det er ikke helt nemt at håndtere denne type statistisk, så ofte vil man transformere den over i en af de to andre typer. Men hvis man kigger på en kategorisk variabel med kun to værdier, dvs. kun vil sammenligne to fordelinger, fører den til t-testet for forskellen mellem to middelværdier, som er nært beslægtet med det foregående t-test. Den tredje type fører direkte til krydstabeller og chi-i-anden testet. Dette test er grundigt behandlet i de supplerende noter, der fulgte med det nye statistik-pensum til matematik 1. Så dette spor vil vi ikke behandle yderligere i den foreliggende note. Den grundlæggede testteori for de tre typer af uafhængighedstest er den samme. Specielt er det den samme måde man simulerer uafhængighed på i de tre tilfælde, idet sikrer uafhængighed af de to invol- 1 se fx http://education.ti.com/educationportal/si tes/danmark/nonproductmulti/laerere_u ndervisning.html. 1 verede variable ved at omrøre værdierne for den ene. Men den teoretiske udformning er forskellig i de tre tilfælde, som vi især skal se nærmere på i de to første typer. Det fører også til følgende karakterisering af de eksperimentelle metoder versus de teoretiske metoder i de tre tilfælde: Det er forholdsvis kompliceret at gennemføre en eksperimentel test i de tre tilfælde, men det er den samme overordnede metode i alle tre tilfælde og den er nem at forstå. Omvendt er det forholdsvis enkelt at gennemføre en teoretisk test i alle tre tilfælde. Men til gengæld er der tale om tre væsensforskellige metoder, og det er ikke helt nemt at forstå de bagvedliggende formler. Det er derfor en klar fordel at starte med den eksperimentelle metode for at bygge forståelse op for testteorien og derved skaffe sig et brugbart kørekort til at kunne anvende de teoretiske metoder i praksis. Men først skal vi altså have en ramme for testteorien. Her benytter vi os af Fishers testteori. Det grundlæggende spørgsmål i testteorien kan formuleres således: Hvordan ser man forskel på en tilfældig variation og en systematisk variation. Når man anvender testteori handler det om at kunne træffe et rationelt valg på basis af nogle observationer. Disse observationer kan forklares ud fra en helt tilfældig variation af de indgående stokastiske variable eller ud fra en systematisk variation af de indgående stokastiske variable (hvor der typisk vil være overlejret en tilfældig variation). Der er tradition for at kalde antagelsen om en tilfældig variation for nulhypotesen H 0 og tilsvarende antagelsen om en (delvis) systematisk variation for den alternative

hypotese Ha. Begge antagelser er principielt mulige, men vi skal have truffet et valg og vi skal derfor på en eller anden måde fremskaffe en vurdering af de to antagelsers troværdighed. Det gøres på baggrund af nulhypotesen om uafhængighed. Man skal altså forsøge at karakterisere den tilfældige variation frembragt af to uafhængige stokastiske variable, så man bliver i stand til at genkende en typisk tilfældig variation knyttet til to uafhængige variable. Det kan gøres eksperimentelt ved at simulere nulhypotesen. En sådan simulering er nem at udføre i et dynamisk statistikprogram som TI-Nspire CAS. Og det giver megen forståelse for fordelingen af teststørrelse, når man selv har prøvet at frembringe dem. Tilsvarende giver det bedre forståelse for brugen af den universelle teoretiske fordeling, når man helt konkret har kunnet sammenligne den med en simuleret fordeling. Derimod er det uden for rækkevidde af almindelig gymnasieundervisning i matematik at udlede formlerne for tæthedsfunktionerne for de universelle fordelinger (normalfordelinger, t- fordelinger, χ 2 -fordelinger osv.) endsige bevise de centrale grænseværdisætninger for disse universelle fordelinger. Alt hvad vi kan håbe på i den almindelige undervisning er derfor at give eleverne en god fornemmelse for brugen af disse universelle fordelinger uden at begrunde i matematiske detaljer, hvor de egentlig kommer fra. I den foreliggende note arbejdes der derfor meget konkret med simulering af uafhængighed som grundlag for et uafhængighedstest, og det vises samtidigt, hvordan man i praksis kan gennemføre et teoretisk test ved hjælp af de indbyggede rutiner. Endelig vises det hvordan man kan udvide simuleringen, så den også dækker den teoretiske udformning af testet, men det er mere kompliceret, så disse afsnit er markeret med en * - de kan roligt overspringes i en første gennemlæsning. For at kunne arbejde med simuleringer har vi brug for et konkret datamateriale. Det kan man få forskellige steder fra. Fx kan man tage udgangspunkt i en historisk case. Her ville fx Challengerulykken egne sig fortrinligt til en illustration af de forskellige typer uafhængighedstest idet nøglespørgsmålet i opklaringen af ulykken jo er en påvisning af at uheldene med de såkaldte O-ringe afhang signifikant af temperaturen på opsendelsestidspunktet for rumfærgen. Denne historie vil vi imidlertid reservere for de generelle statistiknoter til TI-Nspire CAS. Her vil vi i stedet tage udgangspunkt i et elevfrembragt datamateriale. I dette tilfælde drejer sig om en spørgeskemaundersøgelse om unges alkoholforbrug, som nemt kan udbygges hjemme på skolen. Eksemplet er lånt fra den glimrende metodebog 'Fold dig ud i samfundsfaglige metoder' af Per Henriksen og Torben Steiner Nielsen, udgivet på forlaget Columbus. Eksemplet diskuteres dels i kapitel 6: Tal, der taler, side 69-72, dels i kapitel 7, Kvantitative sammenhænge og forskelle, side 85-88. Den foreliggende note kan ses som et forsøg på at udfolde de samme emner fra en mere matematisk synsvinkel, og dermed forhåbentligt give anledning til en frugtbar udveksling af samfundsfaglige og matematiske metoder i arbejdet med et sådant projekt. Referencer: Ønsker man at læse noget baggrundsmateriale om statistik for bedre at kunne forstå emnet kan man dels orientere sig historisk, dels teoretisk. Hvad angår den historiske udvikling af statistikken er det stærkt anbefalelsesværdigt at læse den charmerede anekdotiske beretning om den moderne statistiks historie: David Salsburg: The Lady Tasting Tea: How Statistics Revolutionized Science in the Twentieth Century, Freeman, 2001. Ønsker man en mere akademisk diskussion af statistikkens historie er det værd at læse: Lorraine Daston et al: The Empire of Chance: How probability changed science and everyday life, Cambridge Press, 1989 Ønsker man at fordybe sig i den mere matematisk/ teoretiske baggrund for formler osv. kan man på gymnasieniveau fordybe sig i den følgende glimrende introduktion til statistik fra en matematisk synsvinkel: Axel Bertelsen: Statistik med matematik, Systime, 2005. På universitetsniveau kan man fx læse den følgende kompakte detaljerede fremstilling af moderne statistik: Jørgen Larsen: Basisstatistik, Imfufatekst nr. 435 fra 2004. Ønsker man at vide mere om hvordan statistik anvendes i praksis i samfundsfag kan man fx gribe til den lettilgængelige: Per Vejrup-Hansen: Statistik med Excel, Samfundslitteratur, 2001 Noten er forfattet af Bjørn Felsager, 2010. 2

1. Unges alkoholforbrug som funktion af alder: Lineær regression t test 1.1 Lineær regression t test: Den beskrivende statistik Lad os som et gennemgående eksempel se på et spørgeskema der handler om unges alkoholforbrug: Eksemplet stammer fra bogen Fold dig ud, der er en metodeteori for samfundsfag. Eksemplet omhandler alkoholforbruget hos 18 elever i en klasse. Eksemplet er tænkt som et illustrativt eksempel med forholdsvis få data. I praksis skal man bruge en væsentlig større stikprøve, men for overskuelighedens skyld holder vi os til eksemplet med de 18 elever. Idéen er nu at undersøge om alkoholforbruget hos de unge kunne tænkes at afhænge af deres køn henholdsvis deres alder. Alkoholforbruget (antal genstande pr uge) er altså responsvariablen, mens køn og alder er de forklarende variable. Her er kønnet en kategorisk variable, mens alder er en numerisk variabel. Vi har derfor de to første typer af kombinationer repræsenteret. Vi starter med at undersøge sammenhængen mellem alder og alkoholforbrug. Som sædvanlig lægger vi ud med en beskrivende undersøgelse af datasættet (deskriptiv statistik). Det kunne godt se ud som om der var en svagt stigende tendens, og vi tilføjer derfor en regressionslinje ved at gå ind i Analyser-menuen: Datasættet er sorteret primært efter køn og sekundært efter alder, dvs. først har vi listet alle drengene efter stigende alder og dernæst alle pigerne efter stigende alder. Det sker ved at markere de tre søjler, højre klikke og vælge menupunktet sorter, idet vi sorterer baglæns, dvs. i første omgang efter alder og i anden omgang efter køn. For at undersøge om der kan være tale om en sammenhæng mellem alder og genstande afbilder vi nu de to variable i et punktplot. Vi tilføjer derfor et Data og statistikværksted og afsætter alder vandret og genstande lodret: Vi ser af regressionsligningen, at hældningen for regressionslinjen er 1.7, dvs. alkoholforbruget i denne klasse stiger med 1.7 genstande pr. uge, for hver gang alderen stiger med 1 år. Skæringen med aksen er ikke relevant, da det ikke giver mening at tillægge babyer et alkoholforbrug. Den viser sig da også i dette tilfælde at være negativ. Men selv om det ser ud som om alkoholforbruget udviser en svagt stigende tendens med alderen, så er der også tydelige individuelle variationer. Det kan tolkes som resultatet af tilfældige variationer eller som resultatet af andre forklarende variable. Vi ønsker derfor et mål for kvaliteten af modellen: Hvor god er den lineære model til at forklare den observerede variation i alkoholforbruget? Det er her forklaringsgraden r 2 kommer ind i billedet. Hvis vi vil beregne forklaringsgraden er det nemmest at gå tilbage til regnearket og udføre den lineære regression dér (vælg statistik-menuen). Vi skal da som vist udfylde en dialogboks, der først og fremmest handler om hvilke to variable, der er på spil, men også giver mulighed for at inkludere hyppighedslister (hvilket ikke er relevant i dette tilfælde, hvor vi har adgang til de rå data), ligesom vi kan splitte beregningen efter en tredje kategorisk variabel. 3

i dette tilfælde kunne vi altså inkludere køn som en kategoriliste og sige at vi kun ville se resultatet for drengene eller at vi kun ville se resultatet for pigerne 2. Men her ser vi altså på det samlede resultat: Her er det vi med fordel kan inddrage nulhypotesen som en standard. Ifølge nulhypotesen kan vi også prøve at forklare den observerede variation som et resultat af en tilfældige variation. Ifølge nulhypotesen er der nu slet ingen sammenhæng mellem alkoholforbruget og alderen. Men det betyder jo at alkoholforbruget ifølge nulhypotesen blot svinger tilfældigt rundt om sin middelværdi. Vi kan derfor modellere nulhypotesen med en konstant funktion, der er lig med middelværdien 3. Vi tegner derfor den konstante funktion givet ved middelværdien ved at vælge menupunktet Plot funktion i Analyser-menuen: Vi får da ligesom i grafrummet oplyst ligningen for regressionsligningen i form af koefficienterne m og b, men denne gang får vi også oplyst såvel korrelationskoefficienten r som forklaringsgraden r 2. I matematisk modellering vil vi være mest interesseret i forklaringsgraden, fordi den - i modsætning til korrelationskoefficienten - giver mening for alle slags modeller. I dette tilfælde er forklaringsgraden altså 42.8%, dvs. den lineære model kan forklare 42.8% af den observerede variation, mens den resterende variation må forklares af anden vej, fx som et resultat af tilfældige variationer i alkoholforbruget. Spørgsmålet er så hvad vi mener mere præcist med at den lineære model kan forklare 42.8 % af variationen. Her kan vi med fordel se lidt nærmere på mindste kvadraters metode. Vælger vi Residualer i Analyser-menuen kan vi få vist de residuelle kvadrater for den lineære regressionsmodel. Vi ser da, at summen af kvadraterne, dvs. summen af de kvadratiske afvigelser hørende til den lineære model, er givet ved 80.6179. Det er den såkaldte restvariation, dvs. den variation, som vi ikke kan forklare ved hjælp af den lineære model. Hvis den er lille er modellen god, hvis den er stor, er modellen dårlig. Problemet er blot at et tal i sig selv ikke kan være lille eller stort. Det kan det kun i sammenligning med en standard. Desværre kan vi ikke få vist de residuelle kvadrater for en funktion. Men i stedet kan vi få et tilnærmet billede af situationen ved at vælge en flytbar linje i Analyser-menuen og så lægge den oven på grafen for den konstante funktion. Vi får da den tilnærmede værdi 140.49 for summen af kvadraterne ifølge nulhypotesen. Denne sum kaldes for totalvariationen. Den udgør nu den standard, som vi kan måle restvariationen i forhold til. Da restvariationen på 80.62 udgør 57.2% af totalvariationen på 140.9 viser det netop at det ud fra den lineære model er lykkedes os at forklare 100% - 57.2% = 42.8% af variationen. Dette er den præcise betydning af forklaringsgraden. Vi kan nemt formalisere udregningen i regnearket: 2 Dette ville kræve at vi først oprettede særskilte lister for delkategorierne {Dreng} og {Pige} 4 3 Man kan forholdsvis simpelt vise at middelværdien netop er den bedste konstante funktion ifølge mindste kvadraters metode.

De indtastede formler i cellerne ser således ud: Dermed har vi styr på forklaringsgraden og vi er færdige med den beskrivende statistik, dvs. vi har gjort rede for strukturen af observationerne. 1.2 Lineær regression t test: Den bekræftende statistik Vi skifter så til den bekræftende statistik, dvs. vi stiller nu spørgsmålet, hvorvidt det observerede mønster kan udvides til en større population, hvor den pågældende klasse kan betragtes som en repræsentativ stikprøve for denne større population, fx populationen af elever i gymnasiet generelt på det pågældende klassetrin. Læg godt mærke til repræsentativiteten. De pågældende elever er jo næppe udvalgt tilfældigt blandt alle landets elever så repræsentativiteten er noget man må argumentere for ad anden vej. I den bekræftende statistik skal vi nu afgøre hvorvidt den observerede variation ligner en typisk tilfældig variation eller ej. Hvis den ikke ligner en tilfældig variation, må vi forkaste nulhypotesen og vælge at tro på den systematiske variation, dvs. vi må vælge den alternative hypotese. Men det kræver altså, at vi kan genkende en typisk tilfældig variation. For at finde ud af hvordan den tilfældige variation opfører sig kan vi nu enten udnytte et rent teoretisk kendskab til den tilfældige variation eller vi kan simulere nulhypotesen og dermed rent eksperimentelt afgøre, hvordan den tilfældige variation opfører sig, herunder hvad der er den typiske forventede opførsel. Her vil vi se på begge angrebsvinkler. Først den eksperimentelle undersøgelse. For at simulere nulhypotesen skal vi kunne simulere uafhængighed af to stokastiske variable, da vi jo netop tester for uafhængighed. Men det foregår på præcis den samme måde uafhængigt af om de stokastiske variable er kategoriske eller numeriske. Man foretager simpelthen en omrøring, dvs. bytter tilfældigt om på rækkefølgen af værdierne for den ene stokastiske variable, og bryder derved enhver sammenhæng den måtte have haft med den anden stokastiske variabel. I vores tilfælde laver vi derfor en omrøring på den afhængige variabel genstande. Det gøres ved hjælp af kommandoen for en dynamisk stikprøve, der hedder randsamp(). Vi slår kommandoen op i kataloget i venstrepanelet, og ser at vi skal oplyse hvilken liste vi vil udtage stikprøven fra, hvor stor den skal være og om den skal være med eller uden tilbagelægning. I vores tilfælde skal det være en tilfældig permutation af elementerne i listen for genstande, dvs. det skal netop være en stikprøveudtagning uden tilbagelægning, og vi skal netop trække det samme antal elementer i stikprøven, som i den oprindelige liste. Vi indsætter derfor en ny søjle ved siden af søjlen for genstande og udfører kommandoen Derved får vi mulighed for at udføre en lineær regression på de simulerede data, dvs. med alder ud af x-aksen og omrøring op af y-aksen. Da der er tale om den samme uafhængige variabel, alder, kunne vi have afsat simuleringen i det samme koordinatsystem ved at højreklikke og vælge Tilføj Y- 5

variabel, men for tydeligere at kunne skelne mellem det observerede datasæt og det simulerede datasæt har vi afbildet dem i hvert deres grafrum. Yderligere har vi farvelagt dem, så de data, der hører til de oprindelige observationer fremstår rødt, mens de data, der hører til simuleringen fremstår med blåt. Når vi befinder os i regnearket kan vi nu gentage simuleringen ved at taste CTRL-R (for recalculate). De typiske hældninger for simuleringen ses da at ligge meget tættere på nul, som er den forventede værdi for hældningen, hvis de to variable virkeligt var uafhængige. Det er den simulerede hældning, vi skal have opsamlet. I den næste søjle indfører vi derfor en variabel test, og vælger Data-menuen Automatisk Datafangst: For nu at få en tydelige fornemmelse for hvor typisk den observerede variation er, vil vi måle den simulerede hældning og foretage en opsamling af målingerne ved hjælp af datafangst, så vi kan se, hvordan de simulerede hældninger fordeler sig, når vi gentager simuleringen rigtigt mange gange. Vi bruger altså hældningen for regressionslinjen som teststørrelsen. Vi skal da først have gemt hældningerne som variable. Det sker i celler, som ligger uden for søjlerne med de lineære regressioner, da vi ellers lukker for de lineære regressioner, så de ikke længere opdateres. Vi vælger derfor den første ledige søjle og kopierer cellerne med den observerede hældning henholdsvis den simulerede hældning over i to ledige celler. Derefter lægger vi de to værdier på lager ved at højreklikke i cellerne og vælge menupunktet Gem var. Som navne for de gemte variable bruger vi da obs_hæld og sim_hæld: Derefter er vi klar til at se nærmere på fordelingen af teststørrelsen test. Vi opretter derfor et nyt Data og statistik-værksted, afbilder variablen test på x- aksen, vender tilbage til regnearket og trykker CTRL-R gentagne gange. Vi ser da fordelingen langsomt dukke op: 6

Vi kan nu tilpasse grafvinduet, skifte farve til blå for simuleringen og sætte en tæller på, så vi ved, hvor mange målinger, vi har foretaget af teststørrelsen - det sker ved hjælp af kommandoen dim(test). Vi tilføjer også med Plot værdi den observerede hældning. Efter 1000 målinger ser det således ud: Som den alternative hypotese til uafhængigheden, dvs. Ha, vælger vi en voksende sammenhæng. De græske bogstaver β og ρ er standardbetegnelser i teoretisk statistik. Ligningen for regressionsligningen skrives (også i den danske faglitteratur!), så hældningen hedder b, men derved kommer den sande værdi for hældningen til at hedde β (beta) som er den græske variant af det latinske bogstav b. Korrelationskoefficienten hedder r, men derved kommer den sande værdi for korrelationskoefficienten til at hedde ρ (rho) som er den græske variant af det latinske bogstav r. Den alternative hypotese Ha: β & ρ > 0 er altså blot en kompakt skrivemåde for at vi tester nulhypotesen om uafhængighed mod en positiv hældning eller - hvad der er det samme mod en positiv korrelation. Det er tydeligvis kun meget få simuleringer, i dette tilfælde 3 simuleringer, der har en hældning, der er mindst lige så stor som den observerede. Vi finder altså en p-værdi på 3 eller 0.3%. Den observerede hældning er derfor ikke typisk for en tilfældig variation og vi kan roligt forkaste nulhypotesen om uafhængighed mellem de to variable. Vi får da de viste oplysninger fra den lineære regressionstest. En del af oplysningerne er velkendte: Koefficienterne til regressionsligningen a og b, forklaringsgraden r 2, korrelationskoefficienten r samt residualerne. Men vi får også en række nye specifikt statistiske oplysninger: Vi kan også foretage en teoretisk test. Det går naturligvis meget hurtigere end når man udfører en eksperimentel simulering af nulhypotesen men til gengæld kan den være lidt sværere at forstå. Vi vender derfor tilbage til regnearket og vælger en lineær reg t-test fra Statistik-menuen: t-værdien: 3.46 p-værdien: 0.16% df-værdien: 16 s-værdien: 2.24 SESlope: 0.50 1) t-værdien er navnet på teststørrelsen i en t-test. I vores tilfælde er den tæt knyttet til hældningen for regressionslinjen, men af tekniske grunde ønsker man at normere teststørrelsen, så man umiddelbart kan sammenligne den med en universel standardfordeling. Den korte version er derfor, at man finder t- værdien ved at dividere hældningen med usikkerheden på hældningen, dvs. SESlope (Standard Error Slope): b t SESlope Det er nemt at kontrollere i regnearket: 7

Vi uddyber formlen om lidt! 2) p-værdien er sandsynligheden for at finde en test-værdi (dvs. i realiteten en simuleret hældning), der er mindst lige så stor som den observerede. Den ligger rimeligt tæt på vores estimerede p-værdi på 0.3%. Selv med et signifikansniveau på 1% fører den til forkastelse af nulhypotesen. 3) df-værdien eller Degrees of Freedom er antallet af frihedsgrader i t-testet. Da der er tale om en lineær regressionstest er antallet af frihedsgrader 18-2 = 16, idet vi mister 2 frihedsgrader, fordi vi er nødt til at estimere såvel hældningen som begyndelsesværdien for den rette linje. Frihedsgrader i et t-test fungerer altså på mange måder ligesom frihedsgraderne i et chi2-test. Læg mærke til at residualspredningen ikke afhænger af totalvariationen. I modsætning til forklaringsgraden er residualspredningen altså ikke et egentligt kvalitetsmål for modellen. Men den fortæller noget om den typiske usikkerhed på y-værdierne, og det kan også i mange sammenhænge være en nyttig information. I praksis kan man imidlertid få præcis den samme information fra residualplottet, hvor man uden videre kan aflæse størrelsesordenen for den typiske usikkerhed. Residualplottet giver så samtidigt mulighed for at vurdere om modellen er udtømmende eller om der er en systematisk restvariation, vi ikke har fået gjort rede for i modellen. Men hvis man er vant til at bruge Root Mean Square i forbindelse med lineær regression, så har man den altså til rådighed! 5) SESlope = StandardErrorSlope er usikkerheden eller spredningen på estimatet for hældningen. Den kan udregnes ved en forholdsvis simpel formel, der imidlertid ikke er helt nem at begrunde. Løst sagt så afhænger usikkerheden eller spredningen på hældningen af forholdet mellem spredningerne i lodret retning og vandret retning. Ydermere skal man dividere med kvadratroden af stikprøvens størrelse: Jo større stikprøven er, jo mere præcis bliver hældningen fastlagt. Det viser sig alt i alt at føre til formlen: Igen kan man kontrollere formlen i regnearket: 4) s-værdien er residualspredningen, dvs. usikkerheden på y-værdien, når denne regnes ud fra mindste kvadraters linje. Den hedder også RMS eller Root Mean Square og udregnes af mange naturvidenskabelige programmer. Den er ikke så svær at stille en formel op for. Blot skal man huske på, at når man midler over de kvadratiske afvigelser skal man dividere med n-2 (dvs. med antallet af frihedsgrader). Formlen for residualspredningen er altså givet ved 2 Igen er det nemt at kontrollere i regnearket: Vi uddyber nu p-værdien og t-teststørrelsen. 8 Først p-værdien. Hertil skal vi bruge den teoretiske fordeling af t-teststørrelsen. Vi vil illustrere p- værdien grafisk, så vi åbner et nyt data-og statistikværksted med et tomt koordinatsystem på basis af to tomme variable: x_var og y_var. Herefter vælger vi Plot funktion i Analysermenuen. Vi finder t-fordelingen i kataloget. Vi skal bruge tæthedsfunktionen tpdf(), dvs. tpointdistributionfunction. Vi skal da oplyse navnet på den uafhængige variabel, her x, og antallet af frihedsgrader, her 16.

Som standard foreslås det at sætte den nedre grænse til -, hvilket giver den traditionelle kumulerede fordeling, men vi skal bruge intervalfordelingen, så vi sætter den nedre grænse til stat4.t og sætter den øvre grænse til, mens frihedsgraderne som før sættes til 16: Derefter justerer vi grænserne for grafrummet og finder følgende graf for fordelingsfunktionen. Samtidigt har vi tilføjet teststørrelsen ved at plotte værdien for stat4.t. Vi kan så højreklikke på grafen, vælge Skraver under funktion, og udpege grænserne som den lodrette linje ved den observerede t-værdi og boksen med +. Vi finder da netop arealet under grafen svarende til de x-værdier, der ligger længere ude end den observerede (dvs. hvor den simulerede hældning er større end den observerede). Dette areal er givet ved 0.0016. Dermed har vi fundet en grafisk illustration af p-værdien. Resultatet er selvfølgelig det samme som før! Vi vender os derefter mod t-teststørrelsen. Hvordan skal den forstås? Her kan vi ikke gå ind i alle de teoretiske detaljer, men må nøjes med at antyde: t- teststørrelsen blev indført af kemikeren Gosset i 1908 i forbindelse med estimation af middelværdier for små stikprøver, hvor spredningen var ukendt. Hvis bare spredningen var kendt på forhånd kunne man teste en kendt middelværdi μ 0 ved at sammenligne den observerede middelværdi med den forventede værdi μ 0. Det er da nærliggende at benytte teststørrelsen / hvor σ er spredningen for den stokastiske variabel X og / dermed spredningen for middelværdien den såkaldte standardfejl (SE = Standard Error). Under almene forudsætninger kan man så med god tilnærmelse regne med at teststørrelsen z er standardnormalfordelt med middelværdien 0 og spredningen 1. Det gør det nemt at vurdere troværdigheden af nul-hypotesen: Mellem -2 og 2, dvs. indenfor to standardafvigelser (normalområdet), er den oplagt troværdig, og udenfor intervallet fra -3 til 3, dvs. udenfor tre standardafvigelser (det exceptionelle område) er den oplagt utroværdig. Men ingen vidste hvad man skulle gøre, hvis man ikke kendte spredningen på forhånd? Gosset foreslog nu i 1908, at man i stedet skulle erstatte den ukendte spredning σ med et estimat s for spredningen. Derved fik man en ny teststørrelse / Hvis vi bare vil beregne p-værdien sker det ved brug af den kumulerede fordelingsfunktion. Igen kan vi benytte kataloget. der ikke længere var standardnormalfordelt og hvor fordelingen oven i købet afhang af antallet af frihedsgrader n. Men der var ligesom med χ 2 - fordelingen stadigvæk tale om en universel fordeling, der kunne tabellægges og bruges til statistiske test. I vores tilfælde er det hældningen, vi ønsker at vurdere. Den har den forventede værdi 0, så vi skal ikke trække noget fra i tælleren, men vi skal selvfølgelig stadigvæk dividere med standardfejlen for hældningen (der i sig selv er et vægtet gennemsnit af de enkelte hældninger målt ud fra tyngdepunktet). 9

1.3 Simulering af t fordelingen for en lineær regressionstest * Sammenhængen mellem det eksperimentelle test, der bygger på den simulerede hældning, og det teoretiske test, der bygger på t-værdien, kan nu også uddybes, om end det ikke er helt så simpelt. Vi indfører en ny teststørrelse i simuleringen svarende til t-værdien, dvs. vi erstatter den simulerede hældning sim_hæld med den simulerede t-værdi sim_t beregnet ud fra formlen sim_hæld/sim_seslope. Her må vi altså både beregne den simulerede hældning såvel som den simulerede standardfejl for hældningen ud fra den omrørte lineære regression, der er gemt i funktionen f2. Det kræver, at vi først udregner værdien af den simulerede standardfejl og gemmer værdien af den simulerede t-værdi i en variabel, så vi kan referere til den indenfor regnearket. Dernæst indfører vi en ny søjlevariabel med navnet t_test: Vi få så nogenlunde frembragt en symmetrisk fordeling omkring 0. Det er denne fordeling vi vil sammenligne med den teoretiske tæthedsfordeling. Vi tilføjer derfor grafen for t-fordelingens tæthedsfunktion tpdf(x,16) og ser at de følges så nogenlunde ad. Herefter kan vi præcis som før afbilde den observerede t-værdi og udregne arealet for den del af grafen, der ligger til højre for den observerede t- værdi. Derefter afbilder vi t_test i et Data og statistikværksted, skifter til et histogram og sætter skalaen til densitet (ved at højreklikke på histogrammet): Som det se, er det dog svært at få øje på det skraverede areal med værdien 0.0016 i det nederste højre hjørne, da det fylder så lidt. 10

2. Unges alkoholforbrug som funktion af køn: t test for to prøver 2.1 t test for to prøver: Den beskrivende statistik Vi skifter nu spor til en undersøgelse af sammenhængen mellem alkoholforbruget og kønnet. Dvs. denne gang undersøger vi sammenhængen mellem en kategorisk og en numerisk variabel. Igen lægger vi ud med en beskrivende undersøgelse af datasættet (deskriptiv statistik). For at undersøge om der kan være tale om en sammenhæng mellem køn og genstande afbilder vi nu de to variable i et prikplot. Vi tilføjer derfor et Data og statistik-værksted og afsætter køn vandret og genstande lodret: Vi ser da de to fordelinger af alkoholforbruget for henholdsvis drenge og piger. Allerede af prikplottet synes det som om niveauet for drenges alkoholforbrug ligger højere end for pigernes, ligesom det ser ud som om drengens alkoholforbrug har en større spredning. Vi kan omsætte prikplottet til et boksplot og skifte til et sammenhængende boksplot ved at højreklikke et par gange: Konklusionen på den beskrivende statistik er altså at i den pågældende klasse er drengens niveau for alkoholforbruget højere end pigernes ligesom drengenes variation i alkoholforbruget er større end variationen hos pigerne. Hvis vi ønsker at understøtte den beskrivende statistik med beregninger i regnearket løber vi ind i det problem at enkeltvariabel statistikken ikke fungerer med kategoriske variable. Vi må da i stedet splitte variablen genstande i to delvariable, én hørende til drengene og én hørende til pigerne. Det gøres nemt, da datasættet er sorteret efter køn: Vi har tilføjet et par tekstbokse for at fastfryse informationen om drengens median på 7 og pigernes median på 5. Vi kan også afbilde middelværdien ved at vælge Plot værdi i Analyser-menuen. Vi ser da at drengenes niveau også ligger højere end pigernes når vi måler på middelværdien, om end forskellen er skrumpet lidt ind. Så snart vi har splittet variablen genstande i to delvariable, kan vi udføre enkeltvariabelstatistik på de to delvariable. De fleste oplysninger giver sig selv. Vi får blandt andet oplyst middelværdierne, medianerne og variationerne SSX for de to variable. 11

Læg mærke til, at der oplyses to spredningsmål: Populationsspredningen σx, der udregnes ved at midle med n, dvs. ud fra formlen x Stikprøvespredningen sx, der udregnes ved at midle med n-1, dvs. ud fra formlen x 1 2.2 t test for to prøver: Den bekræftende statistik Vi går derefter over til den bekræftende statistik, dvs. vi stiller nu spørgsmålet hvorvidt det observerede mønster kan udvides til en større population, hvor den pågældende klasse kan betragtes som en repræsentativ stikprøve for en større population, fx populationen af elever i gymnasiet generelt på det pågældende klassetrin. Læg godt mærke til repræsentativiteten. De pågældende elever er jo næppe udvalgt tilfældigt blandt alle landets elever så repræsentativiteten er noget man må argumentere for ad anden vej. I den bekræftende statistik skal vi nu afgøre hvorvidt den observerede variation ligner en typisk tilfældig variation eller ej. Hvis den ikke ligner en tilfældig variation må vi forkaste nulhypotesen og vælge at tro på den systematiske variation, dvs. vi må vælge den alternative hypotese. Men det kræver altså, at vi kan genkende en typisk tilfældig variation. For at finde ud af hvordan den tilfældige variation opfører sig kan vi enten udnytte et rent teoretisk kendskab til den tilfældige variation eller vi kan simulere nulhypotesen og dermed rent eksperimentelt afgøre, hvordan den tilfældige variation opfører sig, herunder hvad der er den typiske forventede opførsel. Her vil vi se på begge angrebsvinkler: Først den eksperimentelle undersøgelse: For at simulere nulhypotesen skal vi kunne simulere uafhængighed af to stokastiske variable, da vi jo netop tester for uafhængighed. Men det foregår på den samme måde uafhængigt af om de stokastiske variable er kategoriske eller numeriske. Man foretager en omrøring, dvs. bytter tilfældigt om på rækkefølgen af værdierne for den ene stokastiske variable, og bryder derved enhver sammenhæng den måtte have haft med den anden stokastiske variabel. I vores tilfælde laver vi derfor en omrøring på variablen genstande. Det gøres ved hjælp af kommandoen for en dynamisk stikprøve, der hedder randsamp(). Slår vi den op i kataloget i venstrepanelet ser vi derfor, at vi skal altså oplyse hvilken liste vi vil udtage stikprøven fra, hvor stor den skal være og om den skal være med eller uden tilbagelægning. 12 I vores tilfælde skal det være en tilfældig permutation af elementerne, dvs. det skal være uden tilbagelægning, og vi skal netop trække det samme antal elementer i stikprøven, som i den oprindelige liste. Vi indsætter derfor en ny søjle ved siden af søjlen for genstande og udfører kommandoen Vi kan så oprette et nyt Data og statistik-værksted baseret på de omrørte data.

Igen har vi farvekodet tabellen, så den er i overensstemmelse med graferne. Vi kan så udføre en automatisk datafangst på de simulerede forskelle ved at indsætte en ekstra søjle og kalde den test og vælge Automatisk datafangst i Data-menuen. Man skal ikke simulere ret mange gange for at se at det er nemt at opnå en lige så stor forskel i niveau ud fra nulhypotesen. Den observerede forskel ligner altså rent faktisk en typisk tilfældig variation, og denne gang kan vi derfor ikke forkaste nulhypotesen om uafhængighed. Men derfor kan vi jo godt gennemføre en eksperimentel test af uafhængighed alligevel. For nu at få en tydeligere fornemmelse for hvor typisk den observerede variation er, vil vi måle den simulerede forskel på niveauerne (målt på middelværdierne) og foretage en opsamling af målingerne med datafangst, så vi kan se hvordan de simulerede niveauforskelle fordeler sig, når vi gentager simuleringen rigtigt mange gange. Vi bruger altså såvel de observerede som de simulerede niveauforskelle i form af forskellen mellem de to middelværdier. De udregnes derfor og lægges på lager ved at højreklikke i cellerne og vælge Gem var. Som navne bruger vi da obs_dif og sim_dif: Vi kan nu tilpasse grafvinduet, skifte farve til blå for simuleringen og sætte en tæller på, så vi ved, hvor mange målinger vi har foretaget af teststørrelsen (det sker ved hjælp af kommandoen dim(test) ). Vi tilføjer også med plot værdi den observerede hældning. Efter 2000 målinger ser vi da, at en betydelig del af målingerne har en større niveauforskel end den faktisk observerede, så vi kan ikke på baggrund af observationerne forkaste nulhypotesen. Vi kan altså godt på det foreliggende grundlag acceptere at alkoholforbruget er uafhængigt at kønnet men vi kan også se, at med så lille en stikprøve kan det være meget svært at forkaste nulhypotesen også selvom den observerede forskel rent faktisk skulle vise sig at være reel. Det er ikke sikkert testet er stærkt nok til at kunne se forskel på nulhypotesen og den alternative hypotese. Det skal vi vende tilbage til. Vi kan optælle de skæve simuleringer, der er mindst lige så store som den observerede. Derved kan vi estimere p-værdien ud fra vores simulering. Vi ser da, at p-værdien estimeres til 28.7%, så nulhypotesen har rimelig høj troværdighed! 13

den samlede liste genstande, eller man kan gøre det ved at kombinere estimaterne fra de to dellister d_genstande og p_genstande. Langt det enkleste er at svare Ja til spørgsmålet Samlet?, dvs. sammenholde de to dellister med den forventede opførsel ud fra den samlede liste i stedet for at holde dem strengt adskilt. Endelig får vi mulighed for at illustrere resultatet grafisk ved at sætte hak i feltet Skraver P-værdi. Resultatet er de følgende søjler i regnearket. Vi kan også foretage en teoretisk test. Det er naturligvis endnu hurtigere, men til gengæld kan det være lidt sværere at forstå. Vi vender derfor tilbage til regnearket og vælger denne gang en t-test for to prøver: Først skal vi vælge om vi vil teste på de rå data eller om vi vil oplyse de statistiske nøgletal direkte. Her vil vi vælge de rå data (det andet er nyttigt i opgavesituationer, hvor man kun får oplyst de statistiske nøgletal, dvs. middelværdier, stikprøvespredninger og størrelsen af stikprøverne). Vi skal så indtaste de relevante oplysninger: Igen er de fleste felter rimeligt oplagte: Middelværdierne 1, 2, stikprøvespredningerne sx1, sx2 og størrelsen af stikprøverne n1 og n2. Resten vil vi nu kommentere: Først er der t-værdien. Den er nærtbeslægtet med forskellen på niveauerne, dvs. differensen mellem middelværdierne. Men ligesom i det forrige t-test skal vi normalisere differensen ved at dividere med den forventede usikkerhed. Det viser sig at føre til følgende formel 1 2 sp hvor sp er et mål for modellens residualspredning. Denne formel kan vi nemt kontrollere i regnearket Først skal vi oplyse navnene på de to lister, som vi ønsker at sammenligne. Igen er det altså nødvendigt at splitte den oprindelige liste genstande i to dellister, én delliste d_genstande hørende til drengenes forbrug og én delliste p_genstande hørende til pigernes forbrug. Så kan vi om nødvendigt tilføje hyppighedslister. I dette tilfælde lader vi den alternative hypotese være Ha: μ1 > μ2, idet vi har en formodning/fordom om at drengenes niveau godt kunne være højere end pigernes. Så skal vi svare på et lidt mindre gennemskueligt spørgsmål: Samlet? Det hentyder til at vi kan håndtere datasættet på to forskellige måder: Når vi under antagelse af nulhypotesen skal estimere spredningen for alkoholforbruget om uafhængighed kan man enten gøre det ud fra 14 Så er der p-værdien, dvs. sandsynligheden for at få et t-værdi, der er mindst lige så stor, forudsat de to variable er uafhængige. Den udregnes her til 27.0%, mens vi ved simuleringen fandt 28.7%. Dernæst er der antallet af frihedsgrader df (= Degrees of Fredom), som er n-2, idet vi har mistet to frihedsgrader undervejs, da vi estimerede de to middelværdier (dvs. niveauerne for drenges henholdsvis pigers alkoholforbrug). I dette tilfælde er antallet af frihedsgrader derfor 16. Hvis man har

glemt at svare Ja til Samlet fås i stedet en skæv værdi for antallet af frihedsgrader! Endelig er der det fælles samlede estimat sp for resdiualspredningen. Det udregnes ved en kombination af de to dellisters residualspredninger (ifølge sætningen om at en varians for en sum af to uafhængige stokastiske variable er det samme som summen af de to enkelte varianser). Men finder derved den følgende formel: n1 1 sx1 n2 1 sx2 n 2 Den kan igen kontrolleres i regnearket: Vi indtaster navnet på den uafhængige variabel, dvs. x, og antallet af frihedsgrader, dvs. 16. Herefter justere vi grænserne for grafrummet og finder følgende graf for fordelingsfunktionen. Samtidigt har vi tilføjet teststørrelsen ved at vælge menupunktet Plot værdi i Analyser-menuien og indtaste navnet for t- værdien, dvs. her stat12.t. Vi kan så højreklikke på grafen, vælge Skraver under funktion, og udpege grænserne som den lodrette linje ved den observerede t-værdi og boksen med +. Vi finder da netop arealet under grafen svarende til de x-værdier, der ligger længere ude end den observerede (dvs. hvor den simulerede hældning er større end den observerede). Arealet er givet ved 0.2703, dvs. p-værdien er 27.03%. Dermed har vi fundet en grafisk illustration af p-værdien. Hvis vi bare vil beregne den sker det ved brug af den kumulerede fordelingsfunktion, tcf(), som vi igen henter i kataloget. Vi uddyber nu p-værdien og t-teststørrelsen. Først p-værdien. Hertil skal vi bruge den teoretiske fordeling af t-teststørrelsen. Vi vil illustrere p-værdien grafisk, så vi åbner et nyt Data og statistikværksted med et tomt koordinatsystem (på basis af to tomme variable: x_var og y_var ). Herefter vælger vi Plot funktion i Analysermenuen. Vi finder t-fordelingen i kataloget. Vi skal bruge tæthedsfunktionen tpdf(), dvs. tpointdistributionfunction: Som standard foreslås det at sætte den nedre grænse til -, hvilket giver den traditionelle kumulerede fordeling. Men vi skal bruge intervalfordelingen, så vi ændrer den nedre grænse til stat12.t og sætter den øvre grænse til, mens frihedsgraderne som før sættes til 16: Resultatet er selvfølgelig det samme som før! 15

2.3 Simulering af t fordelingen for en t test med to prøver * Sammenhængen mellem det eksperimentelle test, der bygger på den simulerede niveauforskel, og det teoretiske test, der bygger på t-værdien, kan nu også uddybes, om end det ikke er helt så simpelt. Vi indfører en ny teststørrelse sim_t i simuleringen svarende til t-værdien, dvs. vi erstatter den simulerede niveauforskel sim_dif med den simulerede t- værdi beregnet ud fra formlen sim_dif/sim_se, hvor vi både må beregne den simulerede niveauforskel såvel som den simulerede standardfejl for niveauforskellen ud fra den omrørte stikprøve. Det kræver at vi først udregner værdien af den simulerede standardfejl og gemmer værdien af den simulerede t-værdi i en variabel, så vi kan referere til den indenfor regnearket. Dernæst indfører vi en ny søjlevariabel med navnet t_test. Derefter afbilder vi t_test i et Data og statistikværksted, skifter til et histogram og sætter skalaen til densitet (ved at højreklikke på histogrammet). Vi får så nogenlunde frembragt en symmetrisk fordeling omkring 0. Det er denne fordeling vi vil sammenligne med den teoretiske tæthedsfordeling. Vi tilføjer derfor grafen for tæthedsfunktionen med forskriften tpdf(x,16) og ser at de følges så nogenlunde ad. Herefter kan vi som vist afbilde den observerede t-værdi og udregne arealet for den del af grafen, der ligger til højre for den observerede t- værdi. 2.4 Hvor stor skal stikprøven være, hvis man skal kunne skelne nulhypotesen fra den alternative hypotese? * Men hvad nu hvis den observerede forskel mellem piger og drenge rent faktisk var signifikant, men at t- testen bare var for svag til at se det, fordi stikprøven var for lille? Hvis vi nu ønskede at gentage spørgeskemaundersøgelsen, hvor mange skal vi så spørge for at have en rimelig chance for at kunne se forskellen som værende signifikant hvis den altså rent faktisk er signifikant, hvilket vi jo ikke kan vide på forhånd? Det kan man undersøge ved at skalere stikprøven op med udgangspunkt i den observerede fordeling af genstande og køn. Man tilføjer derfor hyppighedslister d_genstande og p_genstande med en konstant hyppighed. Derved holder man fordelingen konstant, men ændrer alene på stikprøvens størrelse. Et t-test med to prøver viser da, at en skalering med faktoren 7 gør forskellen signifikant på 5%- niveau. Det svarer til 126 adspurgte. Det vil altså være en god ide at inddrage ca. 150 elever i den næste spørgeskemaundersøgelse, hvis vi skal gøre os håb om at se en niveauforskel på ca. 1 som værende signifikant! 16

3. Dummy tests: Konvertering af t test med to prøver til en lineær regressionstest Vi har set at der er tre forskellige typer uafhængighedstests for to stokastiske variable, alt eftersom vi kombinerer to numeriske variable, en kategorisk og en numerisk eller to kategoriske variable. I praksis vil man ofte konvertere den midterste type til en af de to andre: Det kan ske ved enten at omdanne en kategorisk variabel til en numerisk variable, eller ved at gruppere den numeriske variabel, dvs. omdanne den til en kategorisk variabel. Eksempel 1: I Susanne Christensens noter lægger hun ud med et eksempel, hvor man skal undersøge hvorvidt de unges tøjforbrug er afhængigt af deres køn. Som udgangspunkt skal man altså undersøge sammenhængen mellem en kategorisk variabel, køn, og en numerisk variabel, tøjforbrug (målt som det gennemsnitlige antal kroner pr måned, den unge bruger på tøj). For at håndtere det som en χ 2 -test, der jo handler om sammenhængen mellem to kategoriske variable, må hun derfor først konvertere den numeriske variabel til en kategorisk variabel. Det gør hun ved at gruppere tøjforbrug, idet hun indlægger et snit på 1500 kr. pr måned og derved splitter tøjforbrug i højt forbrug, hvis det overstiger 1500 kr. pr måned, og lavt forbrug, hvis det holder sig under 1500 kr. pr måned. Man kan nu eftervise ved simple symbolske udregninger at den bedste rette linje netop går gennem tyngdepunktet for pigerne, henholdsvis tyngdepunktet for drengene (ligesom den går igennem det samlede tyngdepunkt). Hældningen for dummy-regressionsligningen er derfor netop det samme som niveauforskellen, dvs. forskellen på middelværdierne for de to køn. Spørgsmålet er så om denne hældning er statistisk signifikant forskellig fra 0. Vi kan derfor nu udføre en lineær regressionstest, som er en t-test fuldstændigt ækvivalent med t-testen for 2 prøver: Eksempel 2: Der er imidlertid også den anden mulighed, at man i stedet konverterer den kategoriske variabel, køn, til en numerisk variabel. Det vil vi illustrere ved hjælp af eksemplet med de unges alkoholforbrug. Vi omkoder da det ene køn, kvinde, til et 0-tal, og det andet køn, mand, til et 1-tal. Den omkodede variabel kaldes en dummyvariabel. I praksis sker det ved hjælp af den viste celleformel, som vi efterfølgende trækker ned gennem listen: Da vi nu har to numeriske variable i spil kan vi afbilde dem i et punktplot. 17 Vi ser da også at t-værdien, p-værdien og antallet af frihedsgrader er nøjagtigt de samme. I t- testen for de to prøver får vi derefter oplyst de to middelværdier 1 og 2, mens vi i dummy-regressionstesten får oplyst skæringen med x-aksen a (som er den første middelværdi) og hældningen b (som er differensen mellem de to middelværdier, dvs. 1 2. De to stikprøvespredninger sx1 og sx2, optræder kun i t-testen for to prøver, mens standardfejlen for hældningen kun optræder i dummyregressionstesten. Til gengæld optræder residualspredningen i begge modeller, idet den dog kaldes sp i t-testen for to prøver henholdsvis s i dummytesten. Endelig får vi oplyst antallet af elementer i de to prøver i t-testen for to prøver, mens vi får oplyst korrelationskoefficienten og forklaringsgraden i dummy-regressionstesten.

En teknisk bemærkning om opsamling af teststørrelsen * I det foregående har vi anvendt automatisk dataopsamling af teststørrelsen. Det er strengt taget ikke helt korrekt. Den automatiske opsamling registrerer nemlig kun teststørrelsen, når der sker ændringer i teststørrelsen. Men der er en lille sandsynlighed for at teststørrelsen ved et tilfælde rent faktisk ikke skifter værdi, hvilket fx vil være tilfældet når permutationerne af y-værdierne rent faktisk sker indenfor de samme x-værdier. I eksemplet med de unges alkoholforbrug kan man derfor komme ud for at permutationen kun ombytter de første 12 værdier indbyrdes og tilsvarende med de sidste 6 indbyrdes værdier. Det vil ikke ændre teststørrelsen. Vi viser her resultatet af en sådan sikker måling for den lineære regressions test. Først opretter vi dummyvariablen dummy og sum-variablen sumtest. Man kan kontrollere hvor alvorligt problemet er ved at man samtidigt med at man laver datafangst på teststørrelsen også laver datafangst på en dummyvariabel, som med sikkerhed skifter værdi hver gang. Her kan man fx benytte dummyvariablen rand(), der hele tiden producerer nye tilfældige tal i intervallet fra 0 til 1. I de foregående eksempler vil man da se, at gentagelserne forekommer i ca. 2% af tilfældene. Det giver en lille skævhed i fordelingen af teststørrelsen, men den er ikke stor nok til at den kan rykke ved konklusionerne. Man kan komme uden om problemet ved at anvende manuel datafangst (hvor man skal taste CTRL., dvs. CTRL PUNKTUM, hver gang man vi samle data op). Men det er mere besværligt, fordi man i så fald skal skiftevis skal taste CTRL R og CTRL. rigtigt mange gange for at opsamle målingerne og man må ikke overspringe CTRL R en eneste gang, for så får man jo bare det modsatte problem, hvor nogle af målingerne optræder flere gange uden at man har omrørt. Det er derfor en klar fordel at kunne anvende automatisk dataopsamling. Derefter gennemfører vi den simultane måling af sum-variablen og dummy-variablen. Hvis man vil gøre det helt korrekt, skal man derfor udføre den automatiske datafangst lidt mere omhyggeligt. I praksis kan man da lave samtidig datafangst på såvel summen af teststørrelsen og dummy-variablen som på dummy-variablen. Derved undgår man gentagelser, hvilket man kan kontrollere ved fx at se, at man hele tiden fanger det samme antal målinger. Efterfølgende kan man så trække målingerne af dummy-variablen fra målingerne af summen. Derved rekonstrueres netop den fulde liste af teststørrelser svarende til de gentagne simuleringer. For at undgå at komplicere begrebstilegnelsen har jeg ikke vist denne teknik i forbindelse med eksemplerne. Men de er også afprøvet med denne sikre teknik, og det giver ikke anledning til væsentlige ændringer af de forskellige estimater, der ligger til grund for testene. Endelig afbilder vi de rekonstruerede simulerede hældning: målinger af den 18