Den generelle lineære model

Størrelse: px
Starte visningen fra side:

Download "Den generelle lineære model"

Transkript

1 Kapitel 10 Den generelle lineære model Den generelle lineære normale model, eller blot den lineære normale model, er en matematisk abstraktion af en række af de mest anvendte statistiske modeller: etsidet variansanalyse, tosidet variansanalyse, regressionsanalyse, multipel regression og alle mulige udvidelser og blandinger heraf. Disse modeller kan analyseres under et, og det vil vi gøre. Det giver - på trods af abstraktionen - en forbavsende simpel og gennemskuelig analyse, hvor vi virkelig høster frugterne af vores abstrakte, matematisk betonede tilgang til statistik. En smule Hilbertrumsgeometri giver en indsigt som selv års konkret regneri på de enkelte modeller ikke ville give. Det centrale er ikke udenadslærte formler, men et mentalt billede af en retvinklet trekant! En mere håndfast tilgang til modellerne en for en (sådan som det har været traditionen i den engelsktalende del af verden, og vel stadig er det i et vist omfang) ville gøre dette kapitel flere hundrede sider langt, og alle regninger ville være sovset ind i dekompositioner af kvadratsummer på snart den ene, snart den anden måde. Den pris vi betaler for abstraktionen er, at vi måske får mindre føling med de konkrete modeller. Specielt vil det ikke træde tydeligt frem hvad forskellen er på modellerne, og især ikke hvilke forskelle i den videnskabelige og eksperimentelle problemstilling, der betinger det præcise modelvalg. Disse forskelle vil være emnet for de kommende kapitler. 349

2 350 Kapitel 10. Den generelle lineære model 10.1 Definition og eksempler Lad V være et endeligdimensionalt reelt vektorrum, udstyret med et indre produkt,. Vi vil i almindelighed betegne dimensionen af V med N. En lineær normal model på V har to ingredienser. Den ene er et lineært underrum L V. Det skal være et ægte underrum - hvis vi tillader L = V fører det til forskellige degenerationer som vi helst er fri for. På den anden side er det fuldt ud tilladt at L er nulvektorrummet. Vi refererer til L som middelværdiunderrummet. Den anden ingrediens er en hel familie af indre produkter, fremstillet ud fra det oprindelige indre produkt,. Vi sætter for σ 2 (0, ) x, y σ 2 = x, y σ 2, x, y V. (10.1) Vi bemærker at det oprindelige indre produkt er med i denne familie, hvor det svarer til σ 2 = 1. Disse indre produkter er uenige om længder. Men det vil stå centralt i analysen at de er enige om en ting: de er enige om hvilke vektorer der står ortogonalt på hinanden. Der gælder at x, y σ 2 = 0 x, y = 0 for alle x, y V, σ 2 (0, ). Definition 10.1 Den lineære normale model på et endeligdimensionalt vektorrum V med middelværdiunderrum L V og grundlæggende præcision,, er familien af alle regulære normalfordelinger på V med centrum ξ L og en præcision af formen, σ 2. De ukendte parametre i modellen er (ξ, σ 2 ) L (0, ). I praksis vil vektorrummet V være R N. For de modeller der interesserer os her, vil det grundlæggende indre produkt endvidere altid være det sædvanlige indre produkt på R N. At specificere en lineær normal model for den stokastiske variabel X = (X 1,..., X N ) T med det sædvanlige indre produkt som grundlæggende indre produkt, er blandt andet at sige at enkeltmålingerne X 1,..., X N er uafhængige reelle variable, og at X i N(ξ i, σ 2 ) for i = 1,..., N. Alle variablene er således normalfordelte, og de har samme (ukendte) varians. Fleksibiliteten i modellen ligger i at variablene ikke behøver at have samme middelværdi:

3 10.1. Definition og eksempler 351 EX i = ξ i kan fint variere med observationsnummeret i. Men dog ikke friere end at sammenbundtningen ξ = (ξ 1,..., ξ N ) T ligger i det på forhånd givne underrum L. Selv om vores praktiske interesse således er rettet mod eksempler af ret konkret karakter, vil vi alligevel insistere på den abstrakte ramme, med vilkårlige indre produkter på vilkårlige vektorrum. Denne formulering leder nemlig automatisk hen mod et geometrisk syn på modellen. Og den rette dosis geometrisk tankegang er afgørende for den lethed med hvilken vi vil analysere den lineære normale model. Når V = R N og når, er det sædvanlige indre produkt, er modellens egenskaber beskrevet ved specifikationen af hvilke middelværdivektorer der er lovlige. Vi vil nu give et par eksempler, der belyser hvad man er i stand til at udtrykke om virkeligheden ved at insistere på at de lovlige middelværdivektorer udgør et underrum, og hvad man ikke kan udtrykke i den ramme. Eksempel 10.2 Hvis observationerne svarer til uafhængige replikationer af det samme eksperiment, så vil det være naturligt at antage at EX i = α ξ = for alle i = 1,..., N for ukendt α R. Hvis vi ikke lægger restriktioner på α, har vi på denne måde specificeret en lineær normal model, idet middelværdivektoren opfylder at α 1 α 1. α = α det vil sige at de mulige middelværdivektorer udgør et etdimensionalt underrum af R N, udspændt af (1,..., 1) T. I visse situationer ved man på forhånd at den fælles middelværdi α er positiv. Denne viden kan ikke udtrykkes gennem en lineær normal model. Derfor lukker man ofte øjnene for denne forhåndsviden, og går frem som om α kan antage vilkårlige reelle værdier. Eksempel 10.3 Hvis observationerne naturligt falder i to grupper, og hvis observationerne inden for hver gruppe svarer til uafhængige replikationer af det samme eksperiment, så vil det være naturligt at antage at EX i = α 1 for i = 1,..., M, EX i = α 2 for i = M + 1,..., N,. 1,

4 352 Kapitel 10. Den generelle lineære model hvor vi har antaget at de første M observationer udgør den ene gruppe, og de sidste N M observationer udgør den anden gruppe. Hvis vi ikke lægger restriktioner på α 1 og α 2, har vi på denne måde specificeret en lineær normal model, idet middelværdivektoren opfylder at 1 0 ξ = α 1. α 1 α 2. α 2 = α α 2 det vil sige at de mulige middelværdivektorer udgør et todimensionalt underrum af R N, udspændt af (1,..., 1, 0,... 0) T og (0,..., 0, 1,..., 1) T. I visse situationer ved man på forhånd at de to grupper har forskellig middelværdi, altså at α 1 α 2. I andre situationer ved man på forhånd at α 1 α 2, altså at den første gruppe har en middelværdi der er mindst lige så stor som den anden gruppe. Viden af denne type kan ikke udtrykkes gennem en lineær normal model. Man kan naturligvis udbygge eksemplet til at involvere flere grupper end blot to, og man taler da gerne om en etsidet variansanalyse. Den eneste måde tingene bliver mere komplicerede på, er notationsmæssigt. Det gælder i særdeleshed hvis observationerne i de enkelte grupper ikke er nummereret fortløbende. Vi vil i et senere kapitel udvikle en formalisme, der kan håndtere denne generelle situation. Eksempel 10.4 Hvis vi til hver observation X i har knyttet et reelt tal t i som en kovariat, så kan det være naturligt at opstille en lineær regressionsmodel, hvor EX i = α + β t i for i = 1,..., N. Hvis vi ikke lægger restriktioner på α og β, har vi på denne måde specificeret en lineær normal model, idet middelværdivektoren opfylder at α + β t 1 α + β t 2 ξ = = α. α + β t N β t 1 t 2. t N,.

5 10.1. Definition og eksempler 353 Det vil sige at de mulige middelværdivektorer udgør et todimensionalt underrum af R N, udspændt af (1,..., 1) T og (t 1,..., t N ) T. I visse situationer ved man på forhånd at kovariaten har en positiv indflydelse på responsen, altså at β > 0. Viden af denne type kan ikke udtrykkes gennem en lineær normal model. Et gennemgående træk i disse eksempler er at middelværdiunderrummet for den lineære normale model specificeres ved et frembringersystem. Og de virkeligt begribelige størrelser i modellen er for så vidt ikke middelværdivektoren selv, men de koefficienter man får frem, når man skriver middelværdivektoren som en linearkombination af dette frembringersystem. Hvis frembringersystemet er lineært uafhængigt er disse koefficienter entydigt bestemt, og sættet af koefficienter er det man sædvanligvis forstår ved modellens middelværdiparametre. Hvis vi opskriver et frembringersystems vektorer (antag der er k af dem) som søjlerne i en N k-matrix A kalder vi denne matrix for en designmatrix for modellen. Middelværdiunderrummet har i så fald formen L = {Aβ β R k }. Her repræsenterer β R k modellens middelværdiparametre. Vi vil sædvanligvis insistere på at søjlerne i A er lineært uafhængige, svarende til at A har rang k. I så fald er β Aβ en bijektion mellem R k og L, og underforstås denne oversættelse mellem middelværdiparametrene og middelværdivektoren, kan hele den lineære normale model parametriseres ved (β, σ 2 ) R k (0, ). Eksempel 10.5 For at give et mere vidtgående eksempel på hvordan designmatricer ser ud, vil vi nu kombinere eksempel 10.3 og eksempel Vi antager derfor at hver observation X i har tilknyttet en kovariat t i, men vi antager også at observationerne naturligt falder i to grupper. En separat lineær regression i hver gruppe svarer til middelværdispecifikationen EX i = α 1 + β 1 t i for i = 1,..., M, EX i = α 2 + β 2 t i for i = M + 1,..., N, hvor vi igen har antaget at de første M observationer udgør den ene gruppe, og de sidste N M observationer udgør den anden gruppe. Dette er en lineær normal model

6 354 Kapitel 10. Den generelle lineære model med middelværdiunderrum 1 0 t 1 0 L = t M t M t N α 1 α 2 β 1 β 2 α 1 α 2 β 1 β 2 R 4. Populære varianter af denne model inkluderer en version hvor de to grupper har samme hældning, men forskelligt intercept, 1 0 t 1... α 1 0 t 1 α L = M 1 α 0 1 t M+1 2 α β 2 R3, β t N og (noget sjældnere) en version hvor de to grupper har samme intercept, men forskellig hældning, 1 t 1 0 L =... 1 t M t M t N α β 1 β 2 α β 1 β 2 R3. Bemærk at et underrum altid har mange frembringersystemer, og en konkret lineær normal model vil derfor altid have mange designmatricer, eller mange parametriseringer om man vil. I praksis prøver man at finde en designmatrix, så middelværdiparametrene er direkte fortolkelige i forhold til det videnskabelige problem man diskuterer.

7 10.1. Definition og eksempler 355 Eksempel 10.6 I eksempel 10.3, med to homogene grupper af observationer, kunne vi let opskrive et frembringersystem for middelværdiunderrummet. Dette frembringersystem svarer til designmatricen A 1 = Bijektionen β A 1 β (hvor β er en todimensional parametervektor) giver en naturlig fortolkning af β s to koordinater som henholdvis niveauet i første gruppe og niveauet i anden gruppe. Man kan let finde andre frembringersystemer for middelværdiunderrummet, og dermed andre designmatricer for modellen. For eksempel A 2 = og A 3 = Bijektionerne β A 2 β og β A 3 β giver anledning til helt andre fortolkninger af parametrene. I A 2 -tilfældet bliver β s førstekoordinat niveauet i første gruppe, og β s andenkoordinat bliver til forskellen mellem de to grupper. I A 3 -tilfældet bliver β s førstekoordinat en slags gennemsnitsniveau for de to grupper, og β s andenkoordinat fortæller hvor langt de to gruppeniveauer ligger fra gennemsnitsniveauet. En af de vanskeligste udfordringer man skal løse, når man skriver et computerprogram, der kan analysere lineære normale modeller, er at finde en strategi for hvordan designmatricerne skal se ud. Problemet omtales gerne som valg af kontraster. De to designmatricer A 2 og A 3 i eksempel 10.6 svarer til to generelle principper for valg af kontraster, henholdsvis kaldet treatmentkontraster (valget af A 2 ) og sumkontraster (valget af A 3 )..

8 356 Kapitel 10. Den generelle lineære model 10.2 Projektioner på Hilbertrum Lad V være et endeligdimensionalt vektorrum, og lad, være et indre produkt på V. Vi vil i dette afsnit udvikle en del teori om ortogonalprojektioner med hensyn til det givne indre produkt. Denne teori er det vigtigste tekniske hjælpemiddel i analysen af den lineære normale model. Lad os reformulere definitionen af ortogonalprojektioner. Hvis L V er et underrum, og hvis x V er en given vektor, så findes der præcis en vektor p(x) L sådan at x p(x) L, dvs. sådan at x p(x), y = 0 for alle y L. (10.2) Vi kalder p(x) for ortogonalprojektionen af x på L. For hvert y L er p(x) y L, og ved at bruge Pythagoras sætning, ser vi at x y 2 = x p(x) + p(x) y 2 = x p(x) 2 + p(x) y 2 (10.3) for alle y L. En vigtig konsekvens af (10.3) er, at p(x) kan karakteriseres som det punkt i L, der ligger tættest på x. Man ser ud fra (10.2) at p(x) = x hvis x L, p(x) = 0 hvis x L. (10.4) Vi vil interesse os for p som en afbildning. Nogen gange opfatter vi p som en afbildning V L - det gjorde vi f.eks. i spaltningssætningen. I dette kapitel er vi nærmere tilbøjelige til at opfatte p som en afbildning V V, hvis værdier tilfældigvis ligger i L. Fra et formelt synspunkt er der en indlejring af L i V til forskel på disse betragtningsmåder, men notationen er tilbøjelig til at blive temmelig tung hvis man skal skelne. Sætning 10.7 Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, og lad L V være et underrum. Der gælder at en lineær afbildning p : V V er ortogonalprojektionen på L, hvis og kun hvis den opfylder følgende tre betingelser: p(v) = L, (10.5) p 2 (x) = p(x) for alle x V, (10.6) p(x), y = x, p(y) for alle x, y V. (10.7)

9 10.2. Projektioner på Hilbertrum 357 BEMÆRK: Den første betingelse er at billedmængden for p præcis er L. Alle punkter x V afbildes altså ind i L, og alle punkter i L bliver ramt i denne proces. Hvis p opfylder (10.6) siger vi at den er idempotent, mens den er selvadjungeret med hensyn til det indre produkt, hvis den opfylder (10.7). BEVIS: Lad p : V V være ortogonalprojektionen på L. Det er klart at p er lineær, og det er klart at p(x) L for alle x V. Endvidere har vi fra (10.4) at alle punkter i L fastholdes af p. Heraf indses både (10.5) og (10.6). Og bruges denne observation i (10.2), får vi at x, p(y) = p(x), p(y) for alle x, y V. Bruges symmetrien af det indre produkt, får vi nu at (10.7) er opfyldt. Lad omvendt p : V V være en lineær afbildning der tilfredsstiller de tre betingelser. Hvis y L findes der et z V så p(z) = y. Da p er idempotent, er p(y) = p 2 (z) = p(z) = y. Vi kan altså konstatere at p holder alle punkter i L fast. Hvis x V og y L, kan vi udnytte at p er selvadjungeret til at vise at x p(x), y = x, y p(x), y = x, y x, p(y) = x, y x, y = 0, hvilket betyder at (10.2) er opfyldt. Eksempel 10.8 Hvis vi fokuserer på tilfældet hvor V = R N, så kan ortogonalprojektionen p ned på et underrum L repræsenteres ved en N N-matrix P, sådan at p(x) kan udtrykkes som matrixproduktet Px. At p er idempotent, oversættes nu til at P er en idempotent matrix, altså at P 2 = P. (10.8) Hvis det indre produkt, er givet ved en symmetrisk matrix B, x, y = x T B y for x, y R n, (10.9) så oversættes selvadjungerethed af p til matrixligningen Kombineres denne ligning med idempotens, udvides den til P T B = B P. (10.10) P T B P = P T B = B P.

10 358 Kapitel 10. Den generelle lineære model Betingelse (10.5) lader sig også formulere som matrixformel, hvis vi antager at L = { Aβ β R k} (10.11) hvor A er en N k-matrix af rang k. I så fald er betingelsen om at x Px L identisk med at 0 = Aβ, x Px = β T A T B(I P)x for alle β R k, x R N, hvor symbolet I betegner enhedsmatricen af den relevante dimension (i dette tilfælde af dimension N). Bemærk at A T B(I P)x er en k-vektor, og påstanden kan læses på den måde at denne k-vektor står vinkelret på alle k-vektorer i det sædvanlige indre produkt på R k. Men det kan kun lade sig gøre hvis vektoren selv er nul. Og hvis A T B(I P)x = 0 for alle x, kan vi slutte at A T B(I P) = 0. (10.12) Man checker let efter at hvis det indre produkt er givet ved (10.9), mens L er givet ved (10.11), og hvis P er en N N-matrix, så repræsenterer P ortogonalprojektionen ned på L hvis og kun hvis de tre ligninger (10.8), (10.9) og (10.12) er opfyldt. Indenfor rammerne af eksempel 10.8 kan vi faktisk gøre endnu mere end blot at oversætte de abstrakte karakteriseringer af ortogonalprojekter: vi kan finde P-matricen helt eksplicit. Sætning 10.9 Lad V = R N være udstyret med et indre produkt af formen x, y = x T B y for x, y R N, hvor B er en symmetrisk, positivt definit N N matrix, og lad L være et underrum af R N af formen L = { Aβ β R k} hvor A er en N k-matrix af rang k. Da repræsenteres ortogonalprojektionen ned på L af matricen P = A(A T BA) 1 A T B. (10.13)

11 10.2. Projektioner på Hilbertrum 359 BEVIS: Lad os starte med at indse at A T BA er invertibel. Dette matrixprodukt er tydeligvis en symmetrisk k k-matrix, og β T (A T BA)β = (Aβ) T B(Aβ) = Aβ 2 0 for alle β R k. Så A T BA er positivt semidefinit. Faktisk gælder der skarp ulighed medmindre Aβ = 0, og da søjlerne i A er lineært uafhængige, kan det kun indtræffe hvis β = 0. Altså har vi vist at A T BA er positivt definit, og dermed invertibel. Lad N N-matricen P repræsentere ortogonalprojektionen ned i L. For at bevise at P opfylder (10.13), tager vi et konkret x R N. Idet Px L kan vi antage at Px = Aβ for et passende β R k. På grund af (10.12) ser vi at og dermed er A T Bx = A T BPx = A T BAβ, (10.14) Multipliceres begge sider af dette lighedstegn med A, fås β = (A T BA) 1 A T Bx. (10.15) Px = Aβ = A(A T BA) 1 A T Bx. Eftersom denne formel gælder for alle x R N, følger (10.13). Disse formler antyder at det er let at sætte en computer til at regne projektioner ud: man skal blot have adgang til matrixrutiner for multiplikation, transponering og inversion. I praksis griber man dog sagen an med lidt større sofistikation. Hvis man skal løse den såkaldte normalligning (10.14), er det regnemæssigt ineffektivt at invertere A T BA - normalligningen kan løses langt hurtigere ved f.eks. Gauss-elimination. Endnu mere sofistikeret findes en klasse af algoritmer, der søger at minimere β A β x 2 (10.16) uden overhovedet at danne matrixproduktet A T BA. Det sker typisk ved omformning af problemet til et andet problem, der er nemmere at løse. Hvis B = I (sådan at det indre produkt vi taler om, er det sædvanlig indre produkt på R N ), og hvis Q er en ortonormal N N-matrix, vil Q T (A β x) 2 = A β x 2.

12 360 Kapitel 10. Den generelle lineære model I stedet for at minimere (10.16), kan man derfor forsøge at minimere β à β x 2, à = Q T A, x = Q T x. Denne omformning er ikke nødvendigvis en gevinst. Men hvis à er en øvre trekantsmatrix, r 11 r r 1k ( ) R 0 r r 2k à =, R = r kk så er problemet nemt at løse: hvis x = ( x 1 x 2 ) T er den tilsvarende blokopdeling af den omformede observationsvektor, så minimeres (10.16) af β = R 1 x 1, der naturligvis findes ved Gauss-elimination, ikke ved inversion af matricen - bemærk at Gauss-elimination går rasende stærkt, når man starter med en trekantsmatrix. Ydermere finder vi let den minimale værdi til at være min β A β x 2 = x 2 2. Denne teknik står og falder altså med at man kan omforme det oprindelige A til en øvre trekantsmatrix, eller ækvivalent, at man kan skrive ( ) R A = Q. 0 Bogstaverne i denne formel har vundet hævd, og man taler gerne om en QRdekomposition af A. Der er ikke selvindlysende at QR-dekompositioner er en fornuftig tilgang til projektionsproblemet - det er ikke klart hvordan man skal finde en sådan dekomposition, og det er slet ikke klart hvordan man skal gå frem, hvis det skal gå stærkt. Men der findes højtudviklede iterative algoritmer, hvor man omformer den oprindelige designmatrix gennem en serie af mellemformer, der bliver mere og mere trekantsagtige. En algoritme baserer sig på Householder-spejlinger, en anden på Givens-rotationer. En regnemæssig gevinst ved disse algoritmer, er at man ikke behøver at holde styr over mellemformerne - når man har gennemført et omformningstrin kan man glemme hvor man kom fra. I praksis betyder det at man konstant overskriver designmatrix og observationsvektor med de omformede varianter.

13 10.3. Projektioner og geometri 361 Normalligningsmetoder er i det store og hele hurtigere end metoder, baseret på QRdekompositioner. Til gengæld har QR-dekompositionen overlegne numeriske egenskaber. Hvis A T A har determinant tæt på nul, så kan afrundingsfejl etc. komme til at betyde ganske meget for (A T A) 1 - det er endnu en pind til ligkisten for den praktiske anvendelighed af formel (10.13). Denne mangel på stabilitet af matrixinversion kan i nogen grad genfindes i normalligninsmetoderne. Indenfor numerisk analyse taler man om en matrices konditionstal, et heltal, der måler hvor følsom regninger med matricen er overfor småfejl - et lavt konditionstal er godt, et højt konditionstal er dårligt. Matricen A T A har et konditionstal, der er kvadratet på A s eget konditionstal. Metoderne baseret på QR-dekompositioner fastholder derimod det oprindelige konditionstal Projektioner og geometri Lad igen V være et endeligdimensionalt vektorrum med indre produkt,. I det følgende vil vi betragte to underrum L 1 og L 2 med tilhørende ortogonalprojektioner p 1 og p 2. Vi vil interessere os for den indbyrdes placering af L 1 og L 2 som geometriske objekter i V, og vi vil prøve at udtrykke denne placering ved hjælp af de to ortogonalprojektioner. Et simpelt eksempel på den type resultater vi ønsker, er at hvis L 2 = L 1, så er p 2 = 1 p 1 (hvor symbolet 1 betegner den identiske afbildning på V). Lemma Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, lad L 1 og L 2 være to underrum, og lad p 1 og p 2 være de tilhørende ortogonalprojektioner. Da er følgende tre betingelser ækvivalente: L 1 og L 2 er ortogonale, (10.17) p 1 p 2 = 0, (10.18) p 2 p 1 = 0. (10.19) BEVIS: Antag først at L 1 og L 2 er ortogonale. For x V er p 2 (x) L 2 og desmere er p 2 (x) L 1. Og dermed følger det af (10.4) at p 1 (p 2 (x)) = 0. På tilsvarende måde følger det at p 2 (p 1 (x)) = 0.

14 362 Kapitel 10. Den generelle lineære model Antag omvendt at p 1 p 2 = 0, og tag x L 1, y L 2. På grund af (10.4) er p 1 (x) = x og p 2 (y) = y. Og da p 1 er selvadjungeret, er x, y = p 1 (x), p 2 (y) = x, p 1 p 2 (y) = x, 0 = 0. Altså er L 1 og L 2 ortogonale underrum. Af symmetrigrunde ser vi at der også må gælde at L 1 og L 2 er ortogonale hvis p 2 p 1 = 0. Vi er her gået over til den sædvanlige operatornotation for lineære afbildninger, hvor sammensætning af afbildninger skrives uden brug af parenteser eller tegnet, og hvor argumentet sædvanligvis underforstås. Når vi skriver p 1 p 2 = 0 mener vi således at p 1 (p 2 (x)) = 0 for alle x V. Symbolet 0 betyder så alt efter sammenhængen nulvektoren i V eller nuloperatoren, altså den lineære afbildning der sender alt ind i nulvektoren. Lemma Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, lad L 1 og L 2 være to underrum, og lad p 1 og p 2 være de tilhørende ortogonalprojektioner. Da er følgende tre betingelser ækvivalente: L 2 L 1, (10.20) p 1 p 2 = p 2, (10.21) p 2 p 1 = p 2. (10.22) BEVIS: Hvis L 2 L 1, så er L 2 og L 1 ortogonale. Idet ortogonalprojektionen på L 1 er 1 p 1, følger det af lemma at (1 p 1 ) p 2 = 0 = p 2 (1 p 1 ). Ganges parenteserne ud, fås netop som ønsket at p 1 p 2 = p 2 = p 2 p 1. Hvis vi omvendt antager at p 1 p 2 = p 2, ser vi at (1 p 1 )p 2 = 0. Ifølge lemma står L 2 og L 1 da vinkelret på hinanden. Men heraf følger at L 2 L 1. Og helt tilsvarende vises at p 1 p 2 = p 2 medfører at L 2 L 1.

15 10.3. Projektioner og geometri 363 Definition Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt, og lad L 2 L 1 være to underrum. Det relative ortogonale komplement af L 2 i forhold til L 1, skrevet L 1 L 2, er underrummet L 1 L 2 = {x V x L 1 og x, y = 0 for alle y L 2 }. Den definerede relation for det relative ortogonale komplement kan skrives direkte som L 1 L 2 = L 1 L 2. Se figur 10.1 for en skitse. Strengt taget består L 1 L 2 af de vektorer, der udgør det almindelige ortogonale komplement til L 2, hvis man ser bort fra at der eksisterer et univers uden for L 1. Men pointen er at L 1 L 2 netop opfattes som en delmængde af det omkringliggende univers V, nærmere end som en delmængde af L 1. PSfrag replacements V L 1 L 2 L 2 L 1 Figur 10.1: En illustration af det relative ortogonale komplement. Det omgivende vektorrum V er på tegningen tredimensionalt (antydet af de tre basisvektorer), mens L 1 er todimensionalt og L 2 er etdimensionalt. Det relative komplement L 1 L 2 er et etdimensionalt underrum. Per konstruktion er det indeholdt i L 1, men man bør nærmere tænke på det som et selvstændigt underrum af det omgivende univers V. Lemma Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, lad L 2 L 1 være to underrum, og lad p 1 og p 2 være de tilhørende ortogonalprojektioner. Da er p 1 p 2 ortogonalprojektionen ned i L 1 L 2. BEVIS: Det er klart at p 1 (x) p 2 (x) L 1 for alle x V, eftersom både p 1 (x) og p 2 (x) ligger i L 1. Hvis y L 2 er p 1 (x) p 2 (x), y = p 1 (x), y p 2 (x), y = x, p 1 (y) x, p 2 (y) = x, y x, y = 0.

16 364 Kapitel 10. Den generelle lineære model Så p 1 (x) p 2 (x) L 2. Og altså må p 1 (x) p 2 (x) L 1 L 2 for alle x V. Hvis x V og y L 1 L 2, så er y, x (p 1 (x) + p 2 (x)) = y, x y, p 1 (x) y, p 2 (x) = y, x p 1 (y), x p 2 (y), x = y, x y, x 0 = 0. Det vil sige at p 1 p 2 opfylder den relevante version af (10.2). Definition Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,. Lad L 1 og L 2 være to underrum, og lad L 0 = L 1 L 2 være deres fællesmængde. Vi siger at L 1 og L 2 er geometrisk ortogonale, skrevet L 1 G L 2, hvis L 1 L 0 L 2 L 0. Man kan tænke på to planer i rummet gennem nulpunktet. Hvis de ikke er ens, så skærer de hinanden i en ret linie L 0. De kan dermed aldrig stå ægte ortogonalt på hinanden, i den forstand at enhver vektor i den ene plan står vinkelret på enhver vektor i den anden, for i så fald skulle vektorer på L 0 stå vinkelret på sig selv. Alligevel synes man sommetider at planerne danner en ret vinkel med hinanden - tænk på forholdet mellem to vægge i et hjørne. Det vi tænker på, er i så fald netop ovenstående begreb geometrisk ortogonalitet. Begrebet er illustreret i figur Lemma Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, lad L 1 og L 2 være to underrum, og lad p 1 og p 2 være de tilhørende ortogonalprojektioner. Lad L 0 = L 1 L 2 og lad p 0 være projektionen ned på L 0. Da er følgende tre betingelser ækvivalente: L 1 og L 2 er geometrisk ortogonale. (10.23) p 1 p 2 = p 2 p 1. (10.24) p 1 p 2 = p 0. (10.25)

17 10.3. Projektioner og geometri 365 L 1 PSfrag replacements V L 2 L 0 L0 L 1 L 0 L 2 Figur 10.2: En illustration af hvad det betyder at to underrum, L 1 og L 2, er geometrisk ortogonale. Vi har optegnet fællesmængden L 0 = L 1 L 2, og med fedt de to relative komplementer til L 0, inden i henholdsvis L 1 og L 2. De to originale underrum er geometrisk ortogonale, hvis disse to relative komplementer står ægte ortogonalt på hinanden. BEVIS: Det føler af lemma at p 1 p 0 er projektionen ned i L 1 L 0, mens p 2 p 0 er projektionen ned i L 2 L 0. Det følger af lemma at L 1 og L 2 er geometrisk ortogonale hvis og kun hvis Ganger man paranteserne ud, får man 0 = (p 1 p 0 )(p 2 p 0 ). (p 1 p 0 )(p 2 p 0 ) = p 1 p 2 p 1 p 0 p 0 p 2 + p 0 p 0 = p 1 p 2 p 0 p 0 + p 0 = p 1 p 2 p 0, så de to underrum er altså geometrisk ortogonale hvis og kun hvis p 1 p 2 = p 0. Da p 0, p 1 og p 2 er selvadjungerede, følger det af p 1 p 2 = p 0 for alle x, y V at (p 1 p 2 )x, y = x, (p 1 p 2 )y = p 1 x, p 2 y = p 2 p 1 x, y, hvoraf vi slutter at p 1 p 2 = p 2 p 1, altså at de to projektioner kommuterer. Endelig, hvis de to projektioner kommuterer, ser vi at p 1 p 2 er en selvadjungeret idempotent med værdier i L 0, og at p 1 p 2 faktisk fastholder elementerne i L 0. Dermed er p 1 p 2 = p 0 ifølge 10.7.

18 366 Kapitel 10. Den generelle lineære model Korollar Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,. Lad L 1 og L 2 være to underrum, og lad p 1 og p 2 være de tilhørende ortogonalprojektioner. Hvis L 1 og L 2 er geometrisk ortogonale, så kan projektionen ned på underrummet L 1 + L 2 findes som Der gælder endvidere at p 1+2 = p 1 + p 2 p 1 p 2. (10.26) p 1+2 x 2 = p 1 x 2 + p 2 x 2 p 1 p 2 x 2 for alle x V. (10.27) BEVIS: Lad L 0 = L 1 L 2, og lad den tilhørende projektion være p 0. Hvis L 1 og L 2 er geometrisk ortogonale, er de tre underrum L 1 L 0, L 2 L 0 og L 0 indbyrdes (ægte) ortogonale, og da L 1 + L 2 = (L 1 L 0 ) + (L 2 L 0 ) + L 0, har vi at p 1+2 = (p 1 p 0 ) + (p 2 p 0 ) + p 0 = p 1 + p 2 p 0. Og da p 1 p 2 = p 0, er dette præcis påstanden i (10.27). Tilsvarende giver ortogonaliteten - sammen med Pythagoras sætning - at p 1+2 x 2 = (p 1 p 0 )x 2 + (p 2 p 0 )x 2 + p 0 x 2 = ( p 1 x 2 p 0 x 2) + ( p 2 x 2 p 0 x 2) + p 0 x 2, hvilket reducerer til (10.27). De underrum man interesserer sig for i forbindelse med lineære normale modeller, er meget ofte sumunderrum. I almindelighed findes der ingen måde at udtrykke projektionen ned i en sum af to underrum L 1 + L 2 på, udelukkende ved hjælp af projektionerne ned i L 1, L 2 og L 1 L 2. Dette forhold komplicerer analysen af visse lineære normale modeller betydeligt. Det er kun på grund af den ekstra betingelse om geometrisk ortogonalitet, at det lykkes at finde projektionen ned på sumunderrummet i korollar Vi skal senere se hvordan dette forhold betyder, at geometriske ortogonalitet spiller en vigtig rolle i analysen af de såkaldte faktorforsøg. Nogle forsøgsdesign bliver meget nemmere at forstå end andre, fordi visse underrum, der optræder i analysen, bliver geometrisk ortogonale.

19 10.4. Estimation i den lineære normale model Estimation i den lineære normale model Vi vil nu betragte den lineære normale model på V, baseret på det grundlæggende indre produkt,, og med middelværdiunderrum L. Normen med hensyn til det grundlæggende indre produkt betegnes med de sædvanlige dobbeltstreger, x 2 = x, x for x V. En gang imellem får vi brug for normen med hensyn til et af de afledte indre produkter, σ 2. Til det vil vi bruge et symbol med trippelstreger, x 2 σ 2 = x, x σ 2 = x 2 σ 2 for x V. Vi får brug for at diskutere ortogonalprojektioner ned på L, og også ned på forskellige andre underrum af V. Ortogonalprojektion er et begreb der afhænger af det valgte indre produkt, og derfor kunne man frygte at komme til at arbejde med en hel skare af ortogonalprojektioner. Men de indre produkter, σ 2 er helt enige om hvilke vektorer der står vinkelret på hinanden. Karakteriseringen i (10.2) viser derfor at de også er enige om hvordan ortogonalprojektioner ser ud. Så når vi blot taler om ortogonalprojektionen på L, så er det med hensyn til et vilkårligt af de indre produkter, σ 2. Eftersom det grundlæggende indre produkt, er med i familien, er det naturligt at tænke på ortogonalprojektionen med hensyn til dette indre produkt. Sætning Lad V være et vektorrum af dimension N. Betragt den lineære normale model på V baseret på det grundlæggende indre produkt,, og med middelværdiunderrum L V. Lad λ V være et Lebesguemål på V. Med λ V som dominerende mål er likelihoodfunktionen for den lineære normale model L X (ξ, σ 2 ) = c ( ) N/2 1 σ 2 e X ξ 2 /2σ 2, (ξ, σ 2 ) L (0, ). (10.28) Her er c en konstant, der afhænger af λ V og,, men ikke af L.

20 368 Kapitel 10. Den generelle lineære model BEVIS: Vi kalkerer argumentationen i lemma Alle Lebesguemål på V er proportionale, så det er uden betydning for resultatet hvilket Lebesguemål vi tager fat på. Men det er ikke uden betydning for hvor let regningerne forløber. Så vi vælger os et specielt hensigtsmæssigt Lebesguemål: Lad e 1,..., e N være en ortonormal basis for V med hensyn til,. Denne basis består at vektorer der står vinkelret på hinanden med hensyn til ethvert, σ 2, men det er kun med hensyn til det grundlæggende indre produkt at vektorerne har længde 1. Lad φ : R N V være koordinatafbildning for den valgte basis. Vi vil antage at λ V = φ(m N ). For alle x V og σ 2 > 0 er φ(x) 2 = n i=1 x i e i, n j=1 x j e j ni=1 x 2 i σ 2 σ 2 = σ 2. eftersom e i erne er ortogonale. For ethvert ξ V ser vi derfor at e 1 2 v ξ 2 σ 2 dλ V (v) = e 1 2 v 2 σ 2 dφ(m N )(v) = e 1 2 φ(x) 2 σ 2 dm N (x) N N = e x2 i /2σ2 dm N (x) = e x2 i /2σ2 dx i i=1 i=1 = ( 2πσ 2) N/2, hvor vi har brugt Tonellis sætning. Dermed har normalfordelingen med centrum ξ og præcision, σ 2 tæthed ( 1 2πσ 2 ) N/2 ( e x ξ 2 σ 2 /2 = 1 2πσ 2 ) N/2 e x ξ 2 /2σ 2 med hensyn til λ V.

21 10.4. Estimation i den lineære normale model 369 Sætning Lad V være et vektorrum af dimension N. Betragt den lineære normale model på V baseret på det grundlæggende indre produkt,, og med middelværdiunderrum L. Lad p være ortogonalprojektionen ned i L. Med sandsynlighed 1 er maksimaliseringsestimatoren entydigt bestemt som ˆξ = p(x), σˆ 2 X p(x) 2 = N. BEVIS: Vi kan argumentere analogt med eksempel Hvis vi ser bort fra numeriske konstanter, kan likelihoodfunktionen (10.28) ifølge Pythagoras sætning skrives som ( ) N/2 1 L X (ξ, σ 2 ) = e X ξ 2 /2σ 2 σ 2 ( 1 = = σ 2 ) N/2 e 1 2σ 2 ( X p(x) 2 + p(x) ξ 2 ) ( ) N/2 1 σ 2 e 1 2σ 2 X p(x) 2 e 1 2σ 2 p(x) ξ 2. I første omgang holder vi σ 2 fast. De to første faktorer i likelihoodfunktionen er dermed givne, og vi kan kun gøre noget ved sidste faktor. Denne faktor maksimeres for ˆξ = p(x), og maksimum er 1. Dermed er profillikelihoodfunktionen for σ 2 lig med ( ) N/2 1 L X (σ 2 ) = σ 2 e 1 2σ 2 X p(x) 2. Underrummet L har lavere dimension end V, så λ V (L) = 0 for et vilkårligt Lesguemål λ V på V. Fordelingen af X har, uanset værdien af parametrene, tæthed med hensyn til λ V, og derfor er P ξ,σ 2(X L) = 0 for alle (ξ, σ 2 ) L (0, ). Vi kan konstatere at der er sandsynlighed 1 for at X p(x) 2 0. Anvendes lemma 4.17 med y = σ 2, a = X p(x) 2 2 og b = N/2, følger det at L X (σ 2 ) har entydigt maksimum for σˆ 2 = X p(x) 2 N. Når man i praksis skal estimere i en lineær normal model, vil man altid bruge ˆξ som estimator for ξ. Men ˆ σ 2 er - som vi skal se om et øjeblik - tilbøjelig til at undervudere

22 370 Kapitel 10. Den generelle lineære model den sande varians, og man bruger derfor hellere estimatoren σ 2 = N N k σˆ 2 X p(x) 2 = N k (10.29) hvor k = dim L. Ofte har man nytte af at p(x) og X p(x) er ortogonale, for Pythagoras sætning giver da at X 2 = p(x) + (X p(x)) 2 = p(x) 2 + X p(x) 2. Derfor kan variansestimatet regnes ud som σ 2 = X 2 p(x) 2 N k x L PSfrag replacements p(x) 0 Figur 10.3: En grafisk fremstilling af estimationsproceduren i en lineær normal model. Som centrumestimat ud fra observationen x bruger vi p(x), altså det punkt i L, der ligger tættest ved x. Som variansestimat bruger vi en skaleret version af kvadratet på afstanden mellem x og p(x). Det fremgår af beviset for sætning hvorfor middelværdiunderrummet L for en lineær normal model skal være et ægte underrum af V. Hvis L = V er p(x) = X, og dermed kan profillikelihoodfunktionen for σ 2 ikke maksimeres inden for det lovlige område (0, ). Så i det degenererede tilfælde L = V eksisterer maksimaliseringsestimatoren aldrig. Mere prosaisk: hvis L = V kan vi rette centrumestimatet ind, så det falder sammen med observationen. Og vi har i så fald ingen mulighed for at vurdere σ 2, der netop er et udtryk for variationen omkring centrum - for der er ingen variation tilbage.

23 10.4. Estimation i den lineære normale model 371 Sætning Lad V være et vektorrum af dimension N. Betragt den lineære normale model på V baseret på det grundlæggende indre produkt,, og med middelværdiunderrum L. Lad k = dim L og lad ( ˆξ, σˆ 2 ) være maksimaliseringsestimatoren fra sætning Fordelingen af maksimaliseringsestimatoren kan opsummeres i tre punkter: 1) ˆξ og ˆ σ 2 er uafhængige. 2) ˆξ er regulært normalfordelt på L med centrum ξ og en præcision, der er restriktionen af, σ 2 til L. 3) ˆ σ 2 er χ 2 -fordelt med N k frihedsgrader og skalaparameter σ 2 /N. BEVIS: Vi kan argumentere analogt med eksempel Idet 1 p er ortogonalprojektionen ned på L, følger det af spaltningssætningen er p(x) og X p(x) er uafhængige, uanset hvilket, σ 2 der er det sande. Eftersom ˆξ og σ ˆ2 produceres ud fra hver sin af disse størrelser, kan vi konkludere at ˆξ og σ ˆ2 uafhængige. Det følger også direkte af spaltningssætningen at ˆξ = p(x) er regulært normalfordelt på L med centrum p(ξ) = ξ og en præcision, der er restriktionen af det sande, σ 2 til L. Endelig følger det af spaltningssætningssætningen at X p(x) er regulært normalfordelt på L med centrum ξ p(ξ) = 0 og en præcision, der er restriktionen af det sande, σ 2 til L. Sætning 9.31 fortæller at X p(x) 2 σ 2 er χ 2 -fordelt med N k frihedsgrader og skalaparameter 1. Og dermed er σˆ 2 X p(x) 2 = N = σ2 N X p(x) 2 σ 2 som ønsket χ 2 -fordelt med N k frihedsgrader og skalaparameter σ 2 /N. Det følger af sætning at ˆ σ 2 underestimerer den sande varians, for E ˆ σ 2 = N k N σ2 hvis (ξ, σ 2 ) er de sande parametre. Hvis dimensionen af L er stor i forhold til N kan fejlen være betragtelig. Men vi ser at korrektionen (10.29) har den rigtige størrelse: E σ 2 = E N N k ˆ σ 2 = σ 2 hvis (ξ, σ 2 ) er de sande parametre.

24 372 Kapitel 10. Den generelle lineære model Som det fremgik af afsnit 10.1 er vi primært interesserede i lineære normale modeller på V = R N, med det sædvanlige indre produkt som grundlæggende indre produkt - svarende til en antagelse om at vi har uafhængige normalfordelte målinger med samme varians - og hvor middelværdiunderrummet har formen L = {Aβ β R k } hvor A er en passende N k-matrix af rang k. I så fald vil man foretrække at parametrisere modellen ved (β, σ 2 ) R k (0, ), fordi middelværdiparameteren β er meget nemmere at fortolke end middelværdivektoren ξ R N. Sammenhængen mellem de to parametriseringer er naturligvis at ξ = Aβ. Vi kan oversætte de opnåede resultater til denne situation: Korollar Lad X være en stokastisk variabel på R N, og antag at X N ( Aβ, σ 2 I ), hvor A er en N k-matrix af rang k, og hvor I er N N enhedsmatricen. Hvis modellen parametriseres ved (β, σ 2 ) R k (0, ), så er maksimaliseringsestimatorerne ( ˆβ, σˆ 2 ) givet ved ˆβ = (A T A) 1 A T X, ˆ σ 2 = X A ˆβ 2 /N. (10.30) Disse estimatorer er uafhængige, ˆβ N ( β, σ 2 (A T A) 1), (10.31) og ˆ σ 2 er χ 2 -fordelt med N k frihedsgrader og skalaparameter σ 2 /N. BEVIS: Modellen for X er den lineære normale model på R N med det sædvanlige indre produkt som grundlæggende indre produkt og med middelværdiunderrum L = {Aβ β R k }. Man kan gennemgå beviset for sætning en gang til, eller man kan bruge ækvivarians af maksimaliseringsestimation fra sætning 4.13 til at se at maksimaliseringsestimatet for middelværdivektoren og for middelværdiparametrene er relateret ved ˆξ = Aˆβ.

25 10.4. Estimation i den lineære normale model 373 Ortogonalprojektionen ned på L er givet ved en N N-matrix P, der ifølge (10.13) kan skrives på formen P = A(A T A) 1 A T. Derfor er Aˆβ = ˆξ = PX = A(A T A) 1 A T X. Matricen A er ikke kvadratisk, så man kan ikke gange denne ligning igennem med A s inverse matrix. Men vi kan sætte A uden for parantes, og opnå at A (ˆβ (A T A) 1 A T X ) = 0. Udnyttes at A har fuld rang, ser vi således at ˆβ = (A T A) 1 A T X som ønsket. Idet X N ( Aβ, σ 2 I ), følger det af korollar 9.48 at ˆβ er normalfordelt med middelværdi E ˆβ = (A T A) 1 A T Aβ = β, og varians V ˆβ = ( (A T A) 1 A T ) σ 2 I ( (A T A) 1 A T )T = σ 2 (A T A) 1. De øvrige påstande i korollaret er simple oversættelser af resultaterne i sætning og sætning Naturligvis vil vi også i denne situation foretrække det centrale variansestimat σ 2 = X A ˆβ 2 N k fremfor maksimaliseringsestimatoren σ ˆ2, der systematisk undervurderer den sande varians. I praksis er det ofte nemmest at udregne variansestimatet ved hjælp af Pythagoras sætning, σ 2 = X 2 Aˆβ 2. (10.32) N k Ønsker man helt at fjerne formlernes geometriske karakter, erstatter man normstregerne med matrixprodukter, og får σ 2 = XT X ˆβ T A T Aˆβ. N k Det er ikke indlysende at denne konkretisering er en gevinst for forståeligheden.,

26 374 Kapitel 10. Den generelle lineære model 10.5 Test af lineære hypoteser Lad V være et N-dimensionalt vektorrum med indre produkt, og et udvalgt underrum L af dimension k. Vi vil betragte den lineære normale model på V givet ud fra, og L. Observationen repræsenteres af en stokastisk variabel X. En lineær hypotese i denne model er givet ved et underrum L L, som vi vil antage har dimension m < k. Hypotesen er H : ξ L, hvor vi altså begrænser de mulige centrale vektorer til at skulle ligge i L. Uden for hypotesen har den centrale vektor derimod frihed til at ligge hvor som helst i det større underrum L. Eksempel Hvis vi har et underrum L R N af formen L = {Aβ β R k } for en N k matrix A af rang k, så vil en lineær hypotese ofte fremkomme ud fra en designmatrix, hvis søjler er udtaget blandt A s søjler. En anden måde at sige det samme på, er at fastholde designmatricen A, men insistere på at visse af β s komponenter er nul, f.eks. L = { ( γ A 0 ) γ R m }. Lad p være ortogonalprojektionen på L, og lad p være ortogonalprojektionen på L. Eftersom L L, har vi at p p = p p = p. Endvidere ved vi at p p er ortogonalprojektionen på L L. Disse forhold er illustreret på figur Lemma Uanset om hypotesen H er sand eller ej, så er de tre variable X p(x), p(x) p (X) og p (X) uafhængige.

27 10.5. Test af lineære hypoteser 375 x PSfrag replacements L 0 p(x) p (x) L Figur 10.4: To lineære underrum L L med tilhørende ortogonalprojektioner p og p. Man ser at p p er ortogonalprojektionen ned på L L. Specielt er de tre vektorer p (x), p(x) p (x) og x p(x) indbyrdes ortogonale. BEVIS: Vi ved fra spaltningssætningen at X p(x) er uafhængig af p(x). Da ( p (X), p(x) p (X) ) = ( p p(x), (1 p ) p(x) ), ser vi at (p (X), p(x) p (X)) kun afhænger af X gennem p(x). Altså må X p(x) og (p (X), p(x) p (X)) være uafhængige. Ligeledes ved vi fra spaltningssætningen at p (X) og 1 p (X) er uafhængige. Men p(x) p (X) = p(1 p )(X), og derfor må p (X) være uafhængig af p(x) p (X). Vi opfatter intuitivt X p(x) 2 som et udtryk for hvor godt observationen X passer med middelværdiunderrummet L - hvis X passer dårligt med L, vil X p(x) 2 være stor. Tilsvarende er X p (X) 2 et intutivt udtryk for hvor godt observationen passer med hypotesen om at ξ L. Naturlige teststørrelser for hypotesen H kan derfor konstrueres ved en sammenligning af X p(x) 2 og X p (X) 2 - hvis de er af samme størrelsesorden, taler det for hypotesen. Ifølge Pythagoras sætning har vi at X p (X) 2 = X p(x) 2 + p(x) p (X) 2. Derfor kan vi alternativt sammenligne X p(x) 2 og p(x) p (X) 2. Geometrisk set sammenligner man da længderne af de to kateter i den retvinklede trekant dannet

28 376 Kapitel 10. Den generelle lineære model af x, p(x) og p (x), se figur Hvis den katete, der ligger i L, er kort sammenlignet med den, der står vinkelret på L, vil man være tilbøjelig til at acceptere hypotesen. Uanset om hypotesen er sand eller ej har X p(x) centrum 0, og dermed er X p(x) 2 χ 2 -fordelt med N k frihedsgrader og skalaparameter σ 2. Hvis hypotesen er sand, har p(x) p (X) også centrum 0, og dermed er p(x) p (X) 2 χ 2 -fordelt med k m frihedsgrader og skalaparameter σ 2. Den konkrete sammenligning af siderne i den retviklede trekant fra figur 10.4 kan f.eks. foretages ved at opskrive størrelsen F = p(x) p (X) 2 /(k m) X p(x) 2 /(N k). (10.33) Under hypotesen er dette en brøk af to uafhængige χ 2 -fordelte størrelser, begge med middelværdi σ 2. Derfor er brøken F-fordelt med (k m, N k) frihedsgrader - hvis hypotesen vel at mærke er rigtig - og store værdier af F er kritiske for hypotesen. Når F-størrelsen skal regnes ud i praksis, benytter man gerne Pythagoras sætning til at konkludere at p(x) p (X) 2 = p(x) 2 p (X) 2, X p(x) 2 = X 2 p(x) 2, og dermed er F = ( p(x) 2 p (X) 2 )/(k m) ( X 2 p(x) 2 )/(N k) En alternativ måde at foretage sammenvejningen på, er at opskrive B =. (10.34) X p(x) 2 X p (X) 2 = X p(x) 2 X p(x) 2 + p(x) p (X) 2, (10.35) der under hypotesen er B-fordelt med (N k, k m) frihedsgrader. Bemærk at små B-værdier er kritiske for hypotesen. Det gør ingen forskel om man tester hypotesen ved hjælp af F-størrelsen eller B-størrelsen: eftersom B = N k N k + (k m)f, er der en bijektiv korrespondence mellem de to teststørrelser, hvor store F-værdier svarer til små B-værdier og vice versa, og de to teststørrelser er derfor ækvivalente. Traditionen foreskriver dog at man benytter sig af F-størrelsen. I stedet for disse ad hoc teststørrelser kan vi gå mere systematisk til værks og finde kvotientteststørrelsen:

29 10.5. Test af lineære hypoteser 377 Sætning Kvotientteststørrelsen for hypotesen H er ( ) X p(x) 2 N/2 Q = X p (X) 2, og små Q-værdier er kritiske for hypotesen. BEMÆRK: Q står i bijektiv korrespondence med B. Og dermed kan kvotienttestet udføres som et B-test eller som et F-test. Selve fordelingen af Q hører derimod ikke til i standardarsenalet. BEVIS: Kombinerer vi sætning og sætning ser vi at den maksimale værdi af likelihoodfunktionen under modellen er ( ) N/2 sup L X (ξ, σ 2 N ) = c ξ L,σ 2 >0 X p(x) 2 e N/2. Her er c en konstant, der afhænger af hvilket Lebesguemål vi bruger som dominerende mål. Tilsvarende er den maksimale værdi af likelihoodfunktionen under hypotesen ( sup L X (ξ, σ 2 ) = c ξ L,σ 2 >0 Derfor er kvotientteststørrelsen N X p (X) 2 ) N/2 e N/2. Q = sup ξ L,σ 2 >0 L X(ξ, σ 2 ( ) ) X p(x) 2 N/2 sup ξ L,σ 2 >0 L X(ξ, σ 2 ) = X p (X) 2 som ønsket. Man kan vride en interessant konsekvens ud af ortogonalitetsbetragtningerne i lemma 10.22, under forudsætning af at hypotesen H er sand. I så fald kan man vise at centrumestimatet p (X), variansestimatet baseret på X p (X) 2 og kvotienttesttørrelsen Q er uafhængige af hinanden. Det er således ikke tilfældet at vi ser med større skepsis på parameterestimaterne under hypotesen, hvis hypotesen næsten forkastes, end vi ville gøre hvis hypotesen accepteres med glans. Eller omvendt, at usædvanlige parameterestimater gør det mere sandsynligt at hypotesen forkastes.

30 378 Kapitel 10. Den generelle lineære model 10.6 Successive test Hvis man har to underrum L L af det primære middelværdiunderrum L, kan man foretage et direkte test af hypotesen om at ξ L mod den generelle antagelse af ξ L. Men man kan også udføre successive test, det vil sige først teste en hypotese om at ξ L mod den generelle model, og i tilfælde af at dette test godkendes derefter teste hypotesen om at ξ L mod den allerede accepterede hypotese om at ξ L. Fordelen ved den successive tilgang opstår først og fremmest i den situation hvor man forkaster at ξ L. For hvis man allerede har accepteret at ξ L har man dog opnået nogen reduktion i forhold til udgangspunktet. En mere teknisk gevinst er at hvis det sande centrum ligger i L, så kan testet af ξ L mod ξ L vises at have større styrke end det direkte test af ξ L mod det generelle alternativ ξ L. Så det er nemmere at opdage at den mindste hypotese er falsk, ved den successive tilgang. Korollar Lad L L L være underrum af V med tilhørende ortogonalprojektione p, p og p. Betragt hypoteserne H 1 : ξ L og H 2 : ξ L, i forhold til den generelle model ξ L. Lad B 1 = X p(x) 2 X p (X) 2 og B 2 = X p (X) 2 X p (X) 2 være teststørrelserne for et test af H 1 mod den generelle model, henholdsvis et test af H 2 mod H 1. Under forudsætning af at H 2 er sand, så er B 1 og B 2 uafhængige. BEMÆRK: Uafhængighedsresultatet er formuleret med B-teststørrelser, men gælder uindskrænket, hvis man i stedet betragter F-teststørrelser eller kvotientteststørrelser, fordi alle disse teststørrelser står i bijektiv korrespondence med hinanden.

31 10.6. Successive test 379 BEVIS: Under hypotesen er X p(x) 2, p(x) p (X) 2, p (X) p (X) 2, uafhængige og χ 2 -fordelte med passende formparametre, og alle med skalaparameter σ 2. Et velkendt, generelt resultat om brøker af summer af uafhængige Γ-fordelte variable giver derfor at og B 2 = B 1 = X p(x) 2 X p(x) 2 + p(x) p (X) 2 X p(x) 2 + p(x) p (X) 2 X p(x) 2 + p(x) p (X) 2 + p (X) p (X) 2 er uafhængige af hinanden, og iøvrigt også af X p (X) 2 = X p(x) 2 + p(x) p (X) 2 + p (X) p (X) 2. Selv om den successive strategi ofte er at foretrække, skal man dog være opmærksom på strategiens indvirkning på det samlede testniveau. Hvis alle enkelttest gennemføres på et 5%-niveau, så er sandsynligheden for at acceptere en hypotese om at ξ L væsentlig mindre end 95% hvis man bruger en successiv strategi, selv når hypotesen er sand. Man vil ikke nå ned i det rigtige middelværdiunderrum, hverken hvis man forkaster i første testrunde, eller hvis man forkaster i anden testrunde - der er så at sige to lodtrækninger involveret, og begge kan gå galt. Uafhængigheden i korollar fortæller at sandsynligheden for at alt går godt under den successive strategi er = Samlet set har testproceduren således et niveau på omkring 10%! I praktiske sammenhænge udfører man ofte mange, mange test på et konkret datamateriale, og problemerne med multipel testning er noget man har inde på livet hver dag. Man taler om massesignifikans, når man kommer til at afvise sande hypoteser ved overdrevet forbrug af test. Om et konkret afvist test skyldes massesignifikans eller om det skyldes at hypotesen vitterligt er forkert, er jo ikke til at vide, så den sædvanlige statistiske reaktion på problemet er at underspille betydningen af det niveau som testet formelt foregår på. I stedet for hårdt at acceptere/forkaste på et fast niveau, bruger man testets p-værdi til at skønne over i hvilken grad hypotesen kunne tænkes at være forkert. Men i visse sammenhænge er man nødt til at have et håndfast forhold til massesignifikans. Man kan da ofte håndtere problemerne ved at gennemføre enkelttestene

32 380 Kapitel 10. Den generelle lineære model på et andet niveau end det niveau hvorpå man ønsker at drage hovedkonklusionen. Hvis man i et successivt test af to lineære hypoteser gennemfører hvert test på 2.5%- niveau, vil den samlede testprocedure have et niveau meget tæt på 5%. Man taler om at budgettere med kontrollen over fejl af type I ud over de enkelte test, og man taler om en Bonferroni-korrektion af testniveauet Test af affine hypoteser I visse tilfælde er interessen ikke rette mod lineære hypoteser, men mod såkaldt affine hypoteser, altså hypoteser af formen H : ξ L + η, hvor L L er et ægte underrum, og hvor η er en fast vektor i L. Hvis vi insisterer på at η ligger i L L er η entydigt bestemt udfra hypotesen. Men ofte kommer affine hypoteser til verden som H : s(ξ) = w 0, hvor s : L L er en surjektiv, lineær afbildning, og hvor w 0 er en fast vektor i L. Hvis w 0 = 0 specificerer dette en lineær hypotese med L = ker(s). Hvis w 0 0 er der derimod tale om en affin hypotese med L = ker(s) og med η som en vilkårlig vektor, der opfylder at s(η) = w 0. Affine hypoteser diskuteres nemmest ved at skifte variabel. Hvis vi indfører en translateret variabel X = X η, så er X regulært normalfordelt med samme præcision som X, og med centrum ξ = ξ η. Centrum for X ligger i L hvis og kun hvis centrum for X ligger i L. Forskellen opstår når vi diskuterer den givne affine hypotese, for den kan reformuleres som H : ξ L. For den nye variable X er H således en lineær hypotese, og vi kan uden videre opstille f.eks. en B-teststørrelse, B = X p(x ) 2 X p (X ) 2 = X p(x) 2 X p (X) (1 p )(η) 2, (10.36)

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30 Områdeestimator X (Ω, F) (X, E) x 01 01 P θ ν θ θ Θ 0000 1111 000000 111111 0000 1111 0000 1111 C(x) En områdeestimator er en afbildning C : X P(Θ).. p.1/30 Konfidensområde En områdestimator C : X P(Θ)

Læs mere

Fejlstrata. Vi forestiller os at V har. 1) Et underrum L. 2) Et indre produkt, 3) En ortogonal dekomposition V = W W m

Fejlstrata. Vi forestiller os at V har. 1) Et underrum L. 2) Et indre produkt, 3) En ortogonal dekomposition V = W W m Fejlstrata Vi forestiller os at V har 1) Et underrum L 2) Et indre produkt, 3) En ortogonal dekomposition V = W 1 +... + W m Underrummene W i kaldes fejlstrata. Typisk eksempel på en fejlstratumdekomposition:

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2005 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Faktorforsøg. Antag at X i, i I, er uafhængige reelle variable og at. for alle i I. En faktor er en afbildning. hvor F er en mængde af labels.

Faktorforsøg. Antag at X i, i I, er uafhængige reelle variable og at. for alle i I. En faktor er en afbildning. hvor F er en mængde af labels. Faktorforsøg Antag at X i, i I, er uafhængige reelle variable og at X i N (ξ i, σ 2 ) for alle i I En faktor er en afbildning f : I F hvor F er en mængde af labels. En faktor deler observationerne ind

Læs mere

Taylors formel. Kapitel Klassiske sætninger i en dimension

Taylors formel. Kapitel Klassiske sætninger i en dimension Kapitel 3 Taylors formel 3.1 Klassiske sætninger i en dimension Sætning 3.1 (Rolles sætning) Lad f : [a, b] R være kontinuert, og antag at f er differentiabel i det åbne interval (a, b). Hvis f (a) = f

Læs mere

Asymptotisk testteori

Asymptotisk testteori Kapitel 8 Asymptotisk testteori Vi vil nu beskæftige os med den asymptotiske teori for estimation under pæne hypoteser og for test af disse hypoteser. Vi skal især undersøge det forhold at hvis den fulde

Læs mere

Del II. Den lineære normale model

Del II. Den lineære normale model Del II Den lineære normale model 301 302 Kapitel 9 Normalfordelinger på vektorrum Vi vil i dette kapitel give en fremstilling af teorien for normalfordelinger (også kaldet Gaussiske fordelinger) på endeligdimensionale

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2002 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1 Tag-hjem prøve 1. juli 2010 24 timer Alle hjælpemidler er tilladt. Det er tilladt at skrive med blyant og benytte viskelæder,

Læs mere

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ Normalfordelingen Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: f(x) = ( ) 1 exp (x µ)2 2πσ 2 σ 2 Frekvensen af observationer i intervallet

Læs mere

Lineære normale modeller (4) udkast

Lineære normale modeller (4) udkast E6 efterår 1999 Notat 21 Jørgen Larsen 2. december 1999 Lineære normale modeller (4) udkast 4.5 Regressionsanalyse 4.5.1 Præsentation 1 Regressionsanalyse handler om at undersøge hvordan én målt størrelse

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).)

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) Statistisk hypotese Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) En statistisk hypotese er en delmængde P 0 P.. p.1/26 PSfrag replacements Statistisk

Læs mere

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 For test med signifikansniveau α: p < α forkast H 0 2/19 p-værdi Betragt tilfældet med test for H 0 : µ = µ 0 (σ kendt). Idé: jo større

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser Uge 43 I Teoretisk Statistik,. oktober 3 Simpel lineær regressionsanalyse Forudsigelser Fortolkning af regressionsmodellen Ekstreme observationer Transformationer Sammenligning af to regressionslinier

Læs mere

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ.

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ. Statistiske modeller (Definitioner) Statistik og Sandsynlighedsregning 2 IH kapitel 0 og En observation er en vektor af tal x (x,..., x n ) E, der repræsenterer udfaldet af et (eller flere) eksperimenter.

Læs mere

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).)

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) Statistisk hypotese Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) En statistisk hypotese er en delmængde P 0 P.. p.1/23 Statistisk hypotese PSfrag replacements

Læs mere

8 Regulære flader i R 3

8 Regulære flader i R 3 8 Regulære flader i R 3 Vi skal betragte særligt pæne delmængder S R 3 kaldet flader. I det følgende opfattes S som et topologisk rum i sportopologien, se Definition 5.9. En åben omegn U af p S er således

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02) SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige

Læs mere

Module 4: Ensidig variansanalyse

Module 4: Ensidig variansanalyse Module 4: Ensidig variansanalyse 4.1 Analyse af én stikprøve................. 1 4.1.1 Estimation.................... 3 4.1.2 Modelkontrol................... 4 4.1.3 Hypotesetest................... 6 4.2

Læs mere

Fejlstratummodeller. Kapitel 3

Fejlstratummodeller. Kapitel 3 Kapitel 3 Fejlstratummodeller Lad V være et endeligdimensionalt reelt vektorrum. En fejlstratummodel på V har tre ingredienser, hvoraf de to første svarer til hvad man har for lineære normale modeller:

Læs mere

Om første og anden fundamentalform

Om første og anden fundamentalform Geometri, foråret 2005 Jørgen Larsen 9. marts 2005 Om første og anden fundamentalform 1 Tangentrummet; første fundamentalform Vi betragter en flade S parametriseret med σ. Lad P = σu 0, v 0 være et punkt

Læs mere

Reeksamen 2014/2015 Mål- og integralteori

Reeksamen 2014/2015 Mål- og integralteori Reeksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål. Ved bedømmelsen indgår de spørgsmål med samme vægt.

Læs mere

Lineær Algebra eksamen, noter

Lineær Algebra eksamen, noter Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,

Læs mere

Tidligere Eksamensopgaver MM505 Lineær Algebra

Tidligere Eksamensopgaver MM505 Lineær Algebra Institut for Matematik og Datalogi Syddansk Universitet Tidligere Eksamensopgaver MM55 Lineær Algebra Indhold Typisk forside.................. 2 Juni 27.................... 3 Oktober 27..................

Læs mere

standard normalfordelingen på R 2.

standard normalfordelingen på R 2. Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet

Læs mere

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at Likelihood teori Lineær regression (intro) Dagens Emner Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 1 ) = ( 2πσ 2)n/2 e 1 2 P n (xi µ)2 er tætheden som funktion af

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k Dagens program: Likelihoodfunktion, begreber : Mandag den 4. februar Den generelle lineære model score-funktion: første afledede af log-likelihood har middelværdien nul observeret information: anden afledede

Læs mere

EKSAMEN Flerdimensional Analyse Sommer sider

EKSAMEN Flerdimensional Analyse Sommer sider EKSAMEN Flerdimensional Analyse Sommer 2008 5 sider Formaliteter Eksamen er en 24-timers eksamen, der udleveres mandag den 23/6-2008 klokken 0.00 og afleveres tirsdag den 24/6-2008 inden klokken 0.00.

Læs mere

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA) Anvendt Statistik Lektion 9 Variansanalyse (ANOVA) 1 Undersøge sammenhæng Undersøge sammenhænge mellem kategoriske variable: χ 2 -test i kontingenstabeller Undersøge sammenhæng mellem kontinuerte variable:

Læs mere

Mat H /05 Note 2 10/11-04 Gerd Grubb

Mat H /05 Note 2 10/11-04 Gerd Grubb Mat H 1 2004/05 Note 2 10/11-04 Gerd Grubb Nødvendige og tilstrækkelige betingelser for ekstremum, konkave og konvekse funktioner. Fremstillingen i Kapitel 13.1 2 af Sydsæters bog [MA1] suppleres her med

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA) Anvendt Statistik Lektion 9 Variansanalyse (ANOVA) 1 Undersøge sammenhæng Undersøge sammenhænge mellem kategoriske variable: χ 2 -test i kontingenstabeller Undersøge sammenhæng mellem kontinuerte variable:

Læs mere

Fejlstratummodeller. Kapitel 3

Fejlstratummodeller. Kapitel 3 Kapitel 3 Fejlstratummodeller Lad V være et endeligdimensionalt reelt vektorrum. En fejlstratummodel på V har tre ingredienser, hvoraf de to første svarer til hvad man har for lineære normale modeller:

Læs mere

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller Type I og type II fejl Type I fejl: forkast når hypotese sand. α = signifikansniveau= P(type I fejl) Program (8.15-10): Hvis vi forkaster når Z < 2.58 eller Z > 2.58 er α = P(Z < 2.58) + P(Z > 2.58) =

Læs mere

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Institut for Biostatistik. Regressionsanalyse

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Institut for Biostatistik. Regressionsanalyse Epidemiologi og biostatistik. Uge, torsdag. Erik Parner, Institut for Biostatistik. Lineær regressionsanalyse - Simpel lineær regression - Multipel lineær regression Regressionsanalyse Regressionsanalyser

Læs mere

Elementær Matematik. Mængder og udsagn

Elementær Matematik. Mængder og udsagn Elementær Matematik Mængder og udsagn Ole Witt-Hansen 2011 Indhold 1. Mængder...1 1.1 Intervaller...4 2. Matematisk Logik. Udsagnslogik...5 3. Åbne udsagn...9 Mængder og Udsagn 1 1. Mængder En mængde er

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2003 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Definition. og lœngden, normen. og afstanden mellem vektorer a og b. Der gælder

Definition. og lœngden, normen. og afstanden mellem vektorer a og b. Der gælder Oversigt [LA] 11, 1, 13 Prikprodukt Nøgleord og begreber Ortogonalitet Ortogonalt komplement Tømrerprincippet Ortogonal projektion Pythagoras formel Kortest afstand August 00, opgave 6 Cauchy-Schwarz ulighed

Læs mere

Oversigt [LA] 11, 12, 13

Oversigt [LA] 11, 12, 13 Oversigt [LA] 11, 12, 13 Nøgleord og begreber Ortogonalt komplement Tømrerprincippet Ortogonal projektion Projektion på 1 vektor Projektion på basis Kortest afstand August 2002, opgave 6 Tømrermester Januar

Læs mere

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen Landmålingens fejlteori Lektion Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet En stokastisk variabel er en variabel,

Læs mere

Diagonalisering. Definition (diagonaliserbar)

Diagonalisering. Definition (diagonaliserbar) 1 Diagonalisering 2 Definition (diagonaliserbar) Lad A være en n n-matrix. A siges at være diagonaliserbar hvis A er similær med en diagonal matrix, dvs. A = PDP 1, hvor D er en n n diagonal matrix og

Læs mere

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22 Dagens Emner Likelihood teori Lineær regression (intro) p. 1/22 Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 ) = ( 1 2πσ 2)n/2 e 1 2σ 2 P n (x i µ) 2 er tætheden som

Læs mere

Vektorer og lineær regression

Vektorer og lineær regression Vektorer og lineær regression Peter Harremoës Niels Brock April 03 Planproduktet Vi har set, at man kan gange en vektor med et tal Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

Kapitel 12 Variansanalyse

Kapitel 12 Variansanalyse Kapitel 12 Variansanalyse Peter Tibert Stoltze stat@peterstoltzedk Elementær statistik F2011 Version 7 april 2011 1 / 43 Indledning Sammenligning af middelværdien i to grupper indenfor en stikprøve kan

Læs mere

Vinkelrette linjer. Frank Villa. 4. november 2014

Vinkelrette linjer. Frank Villa. 4. november 2014 Vinkelrette linjer Frank Villa 4. november 2014 Dette dokument er en del af MatBog.dk 2008-2012. IT Teaching Tools. ISBN-13: 978-87-92775-00-9. Se yderligere betingelser for brug her. Indhold 1 Introduktion

Læs mere

Vektorer og lineær regression. Peter Harremoës Niels Brock

Vektorer og lineær regression. Peter Harremoës Niels Brock Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.

Læs mere

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Afdeling for Biostatistik. Eksempel: Systolisk blodtryk

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Afdeling for Biostatistik. Eksempel: Systolisk blodtryk Eksempel: Systolisk blodtryk Udgangspunkt: Vi ønsker at prædiktere det systoliske blodtryk hos en gruppe af personer. Epidemiologi og biostatistik. Uge, torsdag. Erik Parner, Afdeling for Biostatistik.

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17 nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse

Læs mere

Anvendt Statistik Lektion 8. Multipel Lineær Regression

Anvendt Statistik Lektion 8. Multipel Lineær Regression Anvendt Statistik Lektion 8 Multipel Lineær Regression 1 Simpel Lineær Regression (SLR) y Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke

Læs mere

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven. PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve

Læs mere

1 Beviser for fornyelsessætningen

1 Beviser for fornyelsessætningen Hvordan beviser man fornyelsessætningen? 1 1 Beviser for fornyelsessætningen I dette notat skal vi diskutere, hvorman man kan bevise fornyelsessætningen. Vi vil starte med at se på tilfældet, hvor ventetidsfordelingen

Læs mere

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Center for Statistik. Multipel regression med laggede responser som forklarende variable Center for Statistik Handelshøjskolen i København MPAS Tue Tjur November 2006 Multipel regression med laggede responser som forklarende variable Ved en tidsrække forstås i almindelighed et datasæt, der

Læs mere

12. september Epidemiologi og biostatistik. Forelæsning 4 Uge 3, torsdag. Niels Trolle Andersen, Afdelingen for Biostatistik. Regressionsanalyse

12. september Epidemiologi og biostatistik. Forelæsning 4 Uge 3, torsdag. Niels Trolle Andersen, Afdelingen for Biostatistik. Regressionsanalyse . september 5 Epidemiologi og biostatistik. Forelæsning Uge, torsdag. Niels Trolle Andersen, Afdelingen for Biostatistik. Lineær regressionsanalyse - Simpel lineær regression - Multipel lineær regression

Læs mere

Oversigt [LA] 11, 12, 13

Oversigt [LA] 11, 12, 13 Oversigt [LA] 11, 12, 13 Nøgleord og begreber Ortogonalitet Ortogonalt komplement Tømrerprincippet Ortogonal projektion Pythagoras formel Kortest afstand August 2002, opgave 6 Cauchy-Schwarz ulighed Calculus

Læs mere

Lineær Algebra, TØ, hold MA3

Lineær Algebra, TØ, hold MA3 Lineær Algebra, TØ, hold MA3 Lad mig allerførst (igen) bemærke at et vi siger: En matrix, matricen, matricer, matricerne. Og i sammensætninger: matrix- fx matrixmultiplikation. Injektivitet og surjektivitet

Læs mere

Statistisk model. Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål

Statistisk model. Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål Statistisk model Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål på (X, E). Modellen er parametriseret hvis der findes en parametermængde Θ og

Læs mere

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1 Økonometri 1 Inferens i den lineære regressionsmodel 25. september 2006 Økonometri 1: F6 1 Oversigt: De næste forelæsninger Statistisk inferens: hvorledes man med udgangspunkt i en statistisk model kan

Læs mere

Eksamen i Statistik for biokemikere. Blok

Eksamen i Statistik for biokemikere. Blok Eksamen i Statistik for biokemikere. Blok 2 2007. Vejledende besvarelse 22-01-2007, Niels Richard Hansen Bemærkning: Flere steder er der givet en argumentation (f.eks. baseret på konfidensintervaller)

Læs mere

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse.

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. Tema Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. (Fx. x. µ) Hypotese og test. Teststørrelse. (Fx. H 0 : µ = µ 0 ) konfidensintervaller

Læs mere

Nøgleord og begreber Ortogonalt komplement Tømrerprincippet. [LA] 13 Ortogonal projektion

Nøgleord og begreber Ortogonalt komplement Tømrerprincippet. [LA] 13 Ortogonal projektion Oversigt [LA] 11, 12, 13 Nøgleord og begreber Ortogonalt komplement Tømrerprincippet Ortogonal projektion Projektion på 1 vektor Projektion på basis Kortest afstand August 2002, opgave 6 Tømrermester Januar

Læs mere

Hypotesetest. Altså vores formodning eller påstand om tingens tilstand. Alternativ hypotese (hvis vores påstand er forkert) H a : 0

Hypotesetest. Altså vores formodning eller påstand om tingens tilstand. Alternativ hypotese (hvis vores påstand er forkert) H a : 0 Hypotesetest Hypotesetest generelt Ingredienserne i en hypotesetest: Statistisk model, f.eks. X 1,,X n uafhængige fra bestemt fordeling. Parameter med estimat. Nulhypotese, f.eks. at antager en bestemt

Læs mere

6.1 Reelle Indre Produkter

6.1 Reelle Indre Produkter SEKTION 6.1 REELLE INDRE PRODUKTER 6.1 Reelle Indre Produkter Definition 6.1.1 Et indre produkt på et reelt vektorrum V er en funktion, : V V R således at, for alle x, y V, I x, x 0 med lighed x = 0, II

Læs mere

Vejledende besvarelser til opgaver i kapitel 14

Vejledende besvarelser til opgaver i kapitel 14 Vejledende besvarelser til opgaver i kapitel 14 Opgave 1 a) Det første trin i opstillingen af en hypotesetest er at formulere to hypoteser, hvoraf den ene støtter den teori vi vil teste, mens den anden

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

3.1 Baser og dimension

3.1 Baser og dimension SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V

Læs mere

Lineær algebra 1. kursusgang

Lineær algebra 1. kursusgang Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra

Læs mere

Nogle grundlæggende begreber

Nogle grundlæggende begreber BE2-kursus 2010 Jørgen Larsen 5. februar 2010 Nogle grundlæggende begreber Lidt simpel mængdelære Mængder består af elementer; mængden bestående af ingen elementer er, den tomme mængde. At x er element

Læs mere

1 Hb SS Hb Sβ Hb SC = , (s = )

1 Hb SS Hb Sβ Hb SC = , (s = ) PhD-kursus i Basal Biostatistik, efterår 2006 Dag 6, onsdag den 11. oktober 2006 Eksempel 9.1: Hæmoglobin-niveau og seglcellesygdom Data: Hæmoglobin-niveau (g/dl) for 41 patienter med en af tre typer seglcellesygdom.

Læs mere

Sandsynlighedsregning Oversigt over begreber og fordelinger

Sandsynlighedsregning Oversigt over begreber og fordelinger Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)

Læs mere

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA], 2, 3, [S] 9.-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Efterår Dagens program Dagens program Estimation: Kapitel 9.7-9.10 Estimationsmetoder kap 9.10 Momentestimation Maximum likelihood estimation Test Hypoteser kap. 10.1 Testprocedure kap 10.2 Teststørrelsen Testsandsynlighed 1

Læs mere

Forelæsning 11: Kapitel 11: Regressionsanalyse

Forelæsning 11: Kapitel 11: Regressionsanalyse Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske Universitet 2800

Læs mere

Afstande, skæringer og vinkler i rummet

Afstande, skæringer og vinkler i rummet Afstande, skæringer og vinkler i rummet Frank Villa 2. maj 202 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her. Indhold

Læs mere

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat.

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. Estimation Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. En estimator er en gætteregel.. p.1/22 Estimation X acements

Læs mere

Additive hypoteser i flerfaktorforsøg

Additive hypoteser i flerfaktorforsøg Additive hypoteser i flerfaktorforsøg Et design er et system af faktorer, G = {G 1,...,G m } Hertil hører et underrum af R I og en hypotese L G = m L Gi, i=1 H G : ξ L G Udfordring: Forstå hvad udsagnet

Læs mere

Lineære Afbildninger. enote 8. 8.1 Om afbildninger

Lineære Afbildninger. enote 8. 8.1 Om afbildninger enote 8 enote 8 Lineære Afbildninger Denne enote undersøger afbildninger mellem vektorrum af en bestemt type, nemlig lineære afbildninger Det vises, at kernen og billedrummet for lineære afbildninger er

Læs mere

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås 5.3. Konvergens i sandsynlighed 55 BEVIS: Lad φ 1, φ 2,... og φ være de karakteristiske funktioner for X 1, X 2,... og X. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås φ X,v

Læs mere

Affine og konvekse mængder

Affine og konvekse mængder Kapitel 3 Affine og konvekse mængder 3.1 Affine mænger Definition 3.1 LadXvære et vektorrum. En delmængde A Xer affin hvis λ 1 x 1 +λ 2 x 2 A for alle x 1, x 2 A og λ 1,λ 2 R med λ 1 +λ 2 = 1. (3.1) Udtrykket

Læs mere

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:

Læs mere

Kapitel 12 Variansanalyse

Kapitel 12 Variansanalyse Kapitel 12 Variansanalyse Peter Tibert Stoltze stat@peterstoltzedk Elementær statistik F2011 Version 7 april 2011 1 Indledning 2 Ensidet variansanalyse 3 Blokforsøg 4 Vekselvirkning 1 Indledning 2 Ensidet

Læs mere

Afstande, skæringer og vinkler i rummet

Afstande, skæringer og vinkler i rummet Afstande, skæringer og vinkler i rummet Frank Nasser 9. april 20 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her.

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Oversigt 1 Gennemgående eksempel: Højde og vægt 2 Korrelation 3 Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere