Del II. Den lineære normale model

Størrelse: px
Starte visningen fra side:

Download "Del II. Den lineære normale model"

Transkript

1 Del II Den lineære normale model 301

2 302

3 Kapitel 9 Normalfordelinger på vektorrum Vi vil i dette kapitel give en fremstilling af teorien for normalfordelinger (også kaldet Gaussiske fordelinger) på endeligdimensionale reelle vektorrum. Fremstillingen er sine steder ganske abstrakt. Når det kommer til stykket, så er vi udelukkende interesserede i normalfordelinger på de euklidiske talrum R n. Det giver i princippet mulighed for en mere konkret tilgang, baseret på regning i koordinater. Når vi alligevel vælger den abstrakte, koordinatfri vej, er det dels af pædagogiske grunde: de abstrakte argumenter er lettere end de koordinatbaserede, i den forstand at de koordinatbaserede argumenter ofte drukner i regninger. Og dels af faglige grunde: den abstrakte tilgang får den såkaldte spaltningssætning, sætning 9.32, til at fremstå som et næsten trivielt resultat. Spaltningssætningen er et hovedresultat om flerdimensionale normalfordelinger, men blot at formulere resultatet volder stort besvær i en koordinatbaseret fremstilling. 9.1 Affine afbildninger på R n Enhver lineær afbildning s : R n R m er givet ved en m n-matrix A, s (x) = Ax. 303

4 304 Kapitel 9. Normalfordelinger på vektorrum Her opfattes x R n som en søjlevektor, det vil sige som en n 1-matrix. En affin afbildning t : R n R m er en afbildning af formen t(x) = s(x) + v (9.1) hvor s : R n R m er lineær, og hvor v er en fast vektor i R m. Translationen y y + v er altid bijektiv, så en affin afbildning på formen (9.1) er bijektiv hvis og kun hvis den underliggende lineære afbildning s er bijektiv. Affine afbildninger spiller en stor rolle i statistik, fordi de svarer til et skift af måleenheder (forstået i bred forstand) og et skift af nulpunkt. I mange statistiske sammenhænge er valg af måleenheder og nulpunkt relativt arbitrære i forhold til de problemstillinger man ønsker undersøgt, og det er derfor vigtigt at de konklusioner man drager er upåvirkede af affine transformationer. Lemma 9.1 Enhver affin afbildning t : R n R m er B n B m -målelig. BEVIS: Lad t være givet på formen (9.1). Idet B m = B B med i alt m faktorer, ser vi at t er målelig hvis og kun hvis hver koordinatfunktion er målelig. Men hvis s er givet ved matricen A = (a i j ), er den i te koordinatfunktion givet ved x 1... x n a i1x a in x n + v i, hvilket er en målelig kombination af de målelige funktioner x 1... x j, j = 1,... n. x n Lemma 9.2 Lad m n være Lebesguemålet på (R n, B n ), og lad x 0 R n være et fast element. Lad t : R n R n være translationen Så er t(m n ) = m n. t(x) = x + x 0.

5 9.2. Endeligdimensionale Hilbertrum 305 Lemma 9.3 Lad m n være Lebesguemålet på (R n, B n ), og lad s : R n R n være en isomorfi, givet ved en matrix A. Så er s(m n ) = det A 1 m n. Både lemma 9.2 og lemma 9.3 er simple specialtilfælde af den generelle transformationssætning for Lebesguemålet på R n. Man kan også opfatte disse lemmaer som en tand mere fundamentale: Hvis man skal bevise den generelle transformationssætning, må man starte med at bevise lemma 9.2 og Endeligdimensionale Hilbertrum Definition 9.4 Et indre produkt, på et vektorrum V er en afbildning V V R, der opfylder at 1) v 1, v 2 = v 2, v 1 2) v 1 + v 2, v 3 = v 1, v 3 + v 2, v 3 3) cv 1, v 2 = c v 1, v 2 4) v, v 0 5) v, v = 0 v = 0. Betingelse 1), 2) og 3) siger at, er en symmetrisk bilinearform. For en symmetrisk bilinearform siger betingelse 4) at, er positivt semidefinit, og kombinationen af 4) og 5) siger at, er positivt definit. Der er mange forskellige notationer for indre produkter. Udover v 1, v 2 støder man ofte på ( v 1, v 2 ), (v1 v 2 ) eller v 1 v 2. Og specielt i forbindelse med endeligdimensionale vektorrum, støder man også på notationen δ(v 1, v 2 ). Ud fra et indre produkt kan man lave en norm på V ved Man viser Cauchy-Schwarz ulighed v := v, v 1/2. v 1, v 2 v 1 v 2,

6 306 Kapitel 9. Normalfordelinger på vektorrum og herudfra følger trekantsuligheden for. Det skal bemærkes at når V er endeligdimensionalt, så er den pågældende norm automatisk fuldstændig. Altså er (V,, ) et Hilbertrum. Lad V være et endeligdimensionalt vektorrum med et indre produkt,. To vektorer v 1 og v 2 er ortogonale, ofte skrevet v 1 v 2, hvis v 1, v 2 = 0. Et sæt e 1,..., e n af vektorer i V er en ortonormal basis for (V,, ) hvis det er en basis for V, hvis elementerne er parvist ortogonale og hvis e i = 1 for alle i. Eksempel 9.5 Hvis e 1,..., e n er en ortonormal basis for (V,, ), så kan enhver vektor v V skrives n v = v, e i e i. (9.2) Eftersom e i erne udgør en basis, ved vi nemlig at vi kan skrive v = n j=1 λ j e j for passende koefficienter λ 1,..., λ n. Og dermed er v, e i = j=1 λ j e j, e i = n λ j e j, e i = λ i. j=1 Vi ser at koefficienterne i fremstillingen af v udfra basisvektorerne e 1,..., e n, kan identificeres med de indre produkter mellem v og basisvektorerne. Og det er netop påstanden i (9.2). Eksempel 9.6 Lad a 1,..., a n være et sæt af lineært uafhængige vektorer i et vektorrum V med indre produkt,. Sæt og herefter successivt j=1 f 1 = a 1, e 1 = f 1 f 1, i 1 f i = a i a i, e j e j, e i = f i f i, i = 2,..., n. Man viser ved induktion efter n at e i erne er parvist ortogonale, har længde 1 og opfylder at span{e 1,..., e n } = span{a 1,..., a n }.

7 9.2. Endeligdimensionale Hilbertrum 307 Specielt gælder der at hvis a 1,..., a n udgør en basis for V, så vil e 1,..., e n udgøre en ortonormal basis for V. Når man anvender denne procedure, taler man at det oprindelige sæt af vektorer Gram-Schmidt ortonormaliseres. Definition 9.7 Lad V være et vektorrum med indre produkt,,. For et underrum U V definerer vi det ortogonale komplement U som U = {v V v, u = 0 for alle u U}. Det ses let at det ortogonale komplement U selv er et underrum af V. Bemærk at en vektor v, der ligger både i U og i U, må stå vinkelret på sig selv, og dermed må v være nulvektoren. Hvis e 1,..., e m er en ortonormal basis for U (f.eks. fremstillet ved Gram-Schmidt ortonormalisering udfra en almindelig basis for U), ser vi at for alle v V vil v m v, e i e i U. Det kan man f.eks. overbevise sig om ved at indse at m m v v, e i e i, λ j e j = j=1 m m λ j v, e j j=1 m v, e i λ j e i, e j = 0, j=1 for alle koefficientsæt λ 1,..., λ m. Dermed får den trivielle dekomposition m m v = v, e i e i + v v, e i e i, et ikke-trivielt indhold: vi har skrevet v som en sum af to vektorer, hvoraf den ene ligger i U og den anden ligger i U. Måske kan vi skrive v som en sum af en U-vektor og en U -vektor på to måder, v = u 1 + u 2 = w 1 + w 2, u 1, w 1 U, u 2, w 2 U.

8 308 Kapitel 9. Normalfordelinger på vektorrum Man kunne jo f.eks. gennemføre ovenstående konstruktion med to forskellige ortonormalbaser for U. I så fald må u 1 w 1 = w 2 u 2. Denne differensvektor ligger både i U og i U, og må derfor være nul. Så de to måder at skrive v på, er faktisk ens. Vi har argumenteret for at enhver vektor v V på en og kun en måde kan skrives som v = u 1 + u 2, hvor u 1 U mens u 2 U. Det leder til følgende definition: Definition 9.8 Lad V være et endeligdimensionalt vektorrum med indre produkt,, og lad U V være et underrum. Ortogonalprojektionen på U er den entydigt bestemte afbildning p : V V, der opfylder at p(v) U, v p(v) U for alle v V. Man kan skændes om hvorvidt ortogonalprojektionen skal opfattes som en afbildning V V, der tilfældigvis har værdier i U, eller om det skal opfattes som en afbildning V U. Fra et formelt synspunkt der er en indlejring af U i V til forskel på disse betragtningsmåder. Vi vil ikke tage det så nøje med denne forskel. Lemma 9.9 Lad V være et endeligdimensionalt vektorrum med indre produkt,, lad U V være et underrum, og lad p : V V være ortogonalprojektionen ned i U. Da er p en lineær afbildning. BEVIS: Lad v V og λ R. Da er λp(v) U, og Dermed er λv λp(v) = λ ( v p(v) ) U. p(λv) = λp(v) for alle v V, λ R. (9.3) Lad v 1, v 2 V. Da er p(v 1 ) + p(v 2 ) U, og ( v1 + v 2 ) ( p(v1 ) + p(v 2 ) ) = ( v 1 p(v 1 ) ) + ( v 2 p(v 2 ) ) U. (9.4) Vi kan altså konkludere at p(v 1 + v 2 ) = p(v 1 ) + p(v 2 ) for alle v 1, v 2 V.

9 9.2. Endeligdimensionale Hilbertrum 309 Vi skal beskæftige os med mange forskellige indre produkter på et vektorrum V på en gang. Det kan godt føre til en anelse forvirring, for alle begreber, der involverer ortogonalitet, har en underforstået reference til et indre produkt. Hvis man har to indre produkter i spil på V, så vil de som regel være uenige om hvordan det ortogonale komplement til et underrum U ser ud, lige som de vil være uenige om hvad ortogonalprojektion på U er for noget. På vektorrummet R n kan indre produkter formuleres ved hjælp af matrixoperationer. Hvis, er et indre produkt på R n, og hvis e 1,..., e n betegner den kanoniske basis for R n, så er n n n n x, y = x i e i, y j e j = x i e i, e j y j, j=1 j=1 det vil sige at x, y = x T A y, (9.5) hvor A er n n-matricen A = e 1, e 1 e 1, e 2... e 1, e n e 2, e 1 e 2, e 2... e 2, e n e n, e 1 e n, e 2... e n, e n Det er let at se at A er symmetrisk. Omvendt vil (9.5) definere en symmetrisk bilinearform hvis A er en symmetrisk n n-matrix. Det sædvanlige indre produkt på R n er således bilinearformen associeret til A = I, hvor I er n n-enhedmatricen. Vi vil karakterisere de symmetriske matricer A, der fører til at bilinearformen givet ved (9.5) er positivt semidefinit, henholdsvis positivt definit. En n n-matrix R kaldes ortonormal hvis R T R = R R T = I. (9.6) Ordet ortonormal kan måske forvirre lidt i denne sammenhæng, hvor vi arbejder med flere forskellige indre produkter på R n, men det bruges fordi søjlerne i en matrix R der opfylder (9.6) udgør en basis for R n, der er ortonormal mht. det sædvanlige indre produkt. Det følger af relationen (9.6) at en ortonormal matrix R er invertibel, og at R 1 = R T. Eftersom R og R T har samme determinant, følger det også af (9.6) at det R = ±1.

10 310 Kapitel 9. Normalfordelinger på vektorrum Sætning 9.10 (Spektralsætningen) Lad A være en symmetrisk n n-matrix. Der findes en ortonormal matrix R sådan at hvor λ 1 λ 2 λ n. λ λ R T A R = λ n (9.7) Spektralsætningen er et en af den lineære algebras juveler. Hvis vi kalder diagonalmatricen på højre side af (9.7) for Λ, kan vi skrive A = (R R T ) A (R R T ) = R ( R T A R ) R T = R Λ R T. (9.8) Hvis vi sætter r i = R e i, hvor e i er den i te vektor i den kanoniske basis for R n, så ser vi at A r i = ( R Λ R T) R e i = R Λ e i = R ( λ i e i ) = λi r i. Diagonalelementerne på højre side af (9.7) er således egenværdier for A. Bemærk også at den i te søjle i R netop er hvad vi har kaldt r i, så søjlerne i R er egenvektorer for A. En geometrisk reformulering af spektralsætningen er derfor, at der eksisterer et sæt af egenvektorer for A, der udgør en ortonormal basis for R n (med hensyn til det sædvanlige indre produkt). Egenværdierne for en matrix er entydigt bestemte. Så når vi insisterer på at anbringe dem i aftagende orden, er λ i erne på højre side af (9.7) entydigt bestemte. Den ortonormale matrix R er derimod ikke entydigt bestemt. Nogle gange har man højdimensionale egenrum, hørende til bestemte egenværdier, og det giver en vis fleksibilitet i valget af R-søjler. Og helt generelt, så kan man altid erstatte en egenvektor v med v. Den operation, hvor man for et givet A finder egenværdierne λ 1,..., λ n og en ortonormal matrix R, der opfylder (9.10), kaldes diagonalisering. Bemærk at det følger af (9.7) at n det A = λ i. (9.9) Formuleret i ord: determinanten af A er produktet af egenværdierne.

11 9.2. Endeligdimensionale Hilbertrum 311 Sætning 9.11 Lad A være en symmetrisk n n-matrix. Da er bilinearformen x, y = x T A y, x, y R n, positivt semidefinit hvis og kun hvis alle A s egenværdier er ikke-negative. Og positivt definit hvis og kun hvis alle A s egenværdier er strengt positive. BEVIS: Lad v 0 være en egenvektor for A med egenværdi λ. Da er v, v = v T A v = v T (λv) = λ v T v. Størrelse λ v T v har samme fortegn som λ. Hvis bilinearformen skal være positivt semidefinit, må alle A s egenværdier således være ikke-negative. Og tilsvarende, hvis bilinearformen skal være positivt definit, må alle A s egenværdier være strengt positive. Antag omvendt at alle A s egenværdier er ikke-negative. Lad der være givet en diagonalisering af A, R T A R = Λ, hvor Λ er diagonalmatricen med A s egenværdier, og hvor R er en ortogonal matrix. For ethvert w = (w 1,..., w n ) T R n er w T Λ w = n λ i w 2 i 0 (9.10) Ved at bruge (9.8), ser vi således for ethvert v R n at v, v = v T A v = v T ( R Λ R T ) v = (R T v) T Λ (R T v) 0, (9.11) hvor vi har brugt (9.10) på vektoren w = R T v. Altså er bilinearformen givet ved A positivt semidefinit. Hvis alle A s egenværdier er strengt positive, ser vi let udfra (9.10) at bilinearformen givet ved Λ er positivt definit. Hvis v T A v = 0, ser vi som i (9.11) at (R T v) T Λ (R T v) = 0, og dermed er R T v = 0. Men R T er invertibel, så det medfører at v = 0. Og vi har nu konstateret at bilinearformen givet ved A er positivt definit.

12 312 Kapitel 9. Normalfordelinger på vektorrum 9.3 Målteori på vektorrum Lad V være et n-dimensionalt vektorrum. Hvis e 1,..., e n er en basis for V, kan vi lave en identifikation φ : R n V, givet ved φ x 1. x n = n x i e i. (9.12) Vi kalder φ for koordinatafbildningen hørende til basen e 1,..., e n. Vi konstaterer at φ er en isomorfi. Et andet valg af basis e 1,..., e n for V giver en anden identificering φ : R n V. Bemærk at sammensætningen φ 1 φ således er en isomorfi af R n på sig selv - se figur 9.1. V e 2 e 2 e 1 e 1 PSfrag replacements φ φ R n R n Figur 9.1: To forskellige baser e 1,..., e n og e 1,..., e n for V giver anledning til to forskellige identificeringer φ og φ af V med R n. Vi vil udstyre V med en σ-algebra, der fortjener at blive kaldt Borelalgebraen på V. Lad B V være den initialt inducerede σ-algebra på V, induceret af afbildningen φ 1 ned i (R n, B n ). Definitionen af B V afhænger tilsyneladende eksplicit af den valgte basis e 1,..., e n. Men som vi skal se, fører forskellige baser til samme σ-algebra.

13 9.3. Målteori på vektorrum 313 Lemma 9.12 Lad V være et endeligdimensionalt vektorrum. Lad e 1,..., e n og e 1,..., e n være to baser for V, lad φ og φ være de to tilhørende koordinatafbildninger, og lad B V og B V være de to σ-algebraer på V der er frembragt af hhv. φ og φ. Da er B V = B V. BEVIS: Vi ved som udgangspunkt at φ 1 er B V B n -målelig. Og vi ser at φ 1 = φ 1 ( φ φ 1) = ( φ 1 φ ) φ 1. (9.13) Idet φ 1 φ er en lineær afbildning af R n på sig selv, er den ifølge lemma 9.1 B n B n -målelig. Altså viser (9.13) at φ 1 er en sammensætning af en B V B n -målelig afbildning med en B n B n -målelig afbildning, og dermed er φ 1 selv B V B n - målelig. Da B V er den mindste σ-algebra der gør φ 1 målelig, følger det derfor at B V B V. Helt tilsvarende regninger (eller et symmetriargument) viser at B V B V. Så vi kan tillade os at glemme at B V er defineret via en konkret basis - alle baser leder til den samme σ-algebra. I øvrigt kan man karakterisere B V på mange andre måder. Hvis man f.eks. har et indre produkt, på V, kan man herudfra fremstille en norm på V, og dermed kan man udstyre V med en topologi. Det kan vises at B V er den mindste σ-algebra på V der gør alle åbne mængder målelige. Lemma 9.13 Lad V være et n-dimensionalt vektorrum, lad e 1,..., e n være en basis for V og lad φ : R n V være den tilhørende koordinatafbildning. Da er φ en B n B V -målelig afbildning. BEMÆRKNING: Påstanden er ikke helt tom. Det vi ved, er at den inverse afbildning φ 1 er målelig. Og der findes rundt omkring i målteorien eksempler på bijektive afbildninger der er målelige den ene vej, men ikke den anden. BEVIS: Vi har følgende afbildninger: R n φ V φ 1 R n, og σ-algebraen på V er bestemt af den sidste afbildning φ 1 i skemaet. Gennemstrømningssætningen fortæller derfor at φ er målelig hvis og kun hvis sammensætningen φ 1 φ er målelig. Men sammensætningen er jo identiteten på R n, og identiteten er selvfølgelig B n B n -målelig.

14 314 Kapitel 9. Normalfordelinger på vektorrum Lemma 9.14 Lad V og W være to endeligdimensionale vektorrum. Da er V W også et endeligdimensionalt vektorrum, og B V W = B V B W. BEVIS: Lad e 1,..., e n være en basis for V, lad f 1,..., f m være en basis for W og lad φ : R n V og ψ : R m W være de tilhørende koordinatafbildninger. Da er (e 1, 0),..., (e n, 0), (0, f 1 ),..., (0, f m ) en basis for det n + m-dimensionale vektorrum V W, og n m φ ψ : (x 1,..., x n, x n+1,..., x n+m ) x i e i, x n+ j f j er den tilhørende koordinatafbildning. En overvejelse viser at (φ ψ) 1 = φ 1 ψ 1, og da φ 1 er B V B n -målelig, mens ψ 1 er B W B m -målelig, ser vi at φ 1 ψ 1 er B V B W B n B m -målelig. Idet B n B m = B n+m, og idet B V W er den mindste σ-algebra på V W der gør (φ ψ) 1 målelig, følger det nu at B V W B V B W. For at vise den modsatte inklusion lader vi π V : V W V være projektionen ned på V, og π 1 : R n+m R n være projektionen ned på de første n koordinater. Det ses let at π V (φ ψ) = φ π 1, j=1 og dermed gælder så at π V = φ π 1 (φ ψ) 1. Idet π 1 er B n+m B n -målelig, følger det at π V er B V W B V -målelig. Ved helt tilsvarende argumenter følger det at projektionen π W : V W W er B V W B W - målelig. Idet B V B W er den mindste σ-algebra på V W der gør både π V og π W målelige, kan vi slutte at B V B W B V W.

15 9.3. Målteori på vektorrum 315 Vi vil nu indføre en slags Lebesguemål på (V, B V ). Ideen er at flytte Lebesguemålet på (R n, B n ) op på V via en koordinatafbildning. Her ryger vi desværre ind i et problem, for det viser sig at forskellige baser giver anledning til forskellige Lebesguemål! Lad som før e 1,..., e n og e 1,..., e n være to baser for V, og lad φ og φ være de to tilhørende koordinatafbildninger R n V. Sæt λ V = φ(m n ), λ V = φ (m n ), hvor m n er det n-dimensionale Lebesguemål på R n. Vi ser at λ V = φ (m n ) = ( φ φ 1) φ (m n ) = φ ( φ 1 φ (m n ) ). Bemærk at φ 1 φ er en lineær isomorfi af R n på sig selv. Der findes derfor ifølge lemma 9.3 et tal c > 0 så φ 1 φ (m n ) = c m n. Og altså er λ V = φ(c m n) = cφ(m n ) = cλ V. Vi konkluderer at λ V og λ V er ens på nær en multiplikativ konstant. Eksempel 9.15 Lad e 1,..., e n være en basis for V, og sæt e i = α i e i for hvert i = 1,..., n. Her er α i 0 for hvert i, men i princippet kan α i være såvel positiv som negativ. Det er klart at e 1,..., e n udgør en basis for V. Og vi ser at den tilhørende koordinatafbildning φ opfylder at φ x 1. x n = n x i e i = n α 1 x 1 α i x i e i = φ.. α n x n Altså er koordinatskifteafbildningen givet som α x φ 1 φ. = 0 α x n α n x 1. x n.

16 316 Kapitel 9. Normalfordelinger på vektorrum Det følger nu af lemma 9.3 at 1 n φ 1 φ (m n ) = α i og derfor ser vi at 1 n λ V = α i λ V. m n, De forskellige strategier til at flytte Lebesguemålet op på vektorrummet V, er altså uenige om hvilket mål en konkret mængde skal tilordnes. Men uenigheden er overskuelig: To konkrete Lebesguemål på V er ens, på nær en multiplikativ konstant. Og derfor er de faktisk enige om en række ting. De er enige om hvorvidt en mængde B V er en nulmængde eller ej. De er enige om hvorvidt en målelig funktion f : V [0, ] er integrabel eller ej (de er ganske vist ikke enige om værdien af integralet, men de er enige om hvorvidt det er endeligt eller ej). Og de er enige om hvorvidt et mål µ på (V, B V ) har tæthed eller ej. Derfor indfører vi klassen af Lebesguemål på V som {φ(m n ) φ : R n V er en lineær isomorfi}. Vi taler om Lebesgue nulmængder, vi taler om at funktioner er integrable med hensyn til Lebesguemålet (selv om vi retteligt burde bruge den mindre mundrette formulering integrabel mht. klassen af Lebesguemål ), og vi taler om at et mål har tæthed med hensyn til Lebesguemålet. Et konkret Lebesguemål på V betegnes som regel λ V. Sætning 9.16 Lad V og W være to endeligdimensionale vektorrum, og lad λ V og λ W være to Lebesguemål herpå. Da er λ V λ W et Lebesguemål på V W. BEMÆRKNING: Indholdet af denne sætning skrives ofte kortfattet som λ V λ W = λ V W. (9.14) BEVIS: Antag at V og W har dimension henholdvis n og k. Lad φ : R n ψ : R k W være to isomorfier, sådan at V og λ V = φ(m n ), λ W = ψ(m k ).

17 9.3. Målteori på vektorrum 317 Da er λ V λ W = φ(m n ) ψ(m k ) = (φ ψ)(m n m k ). Vi ser at φ ψ : R n+k V W er en isomorfi. Idet m n m k = m n+k følger det heraf at λ V λ W er et Lebesguemål på V W. Lemma 9.17 Lad V og W være to endeligdimensionale vektorrum, og lad s : V W være en isomorfi. Lad λ V være et Lebesguemål på V. Da er s(λ V ) et Lebesguemål på W. BEVIS: Lad φ : R n V være en isomorfi, sådan at λ V = φ(m n ). Da er s(λ V ) = s φ(m n ). Og s φ er selvfølgelig en isomorfi R n W. Lemma 9.18 Lad V være et endeligdimensionalt vektorrum, lad v 0 V være en fast vektor, og lad t : V V være translationen t(v) = v + v 0. Hvis λ V er et Lebesguemål på V, så er t(λ V ) = λ V. BEVIS: Lad φ : R n V være en isomorfi, sådan at λ V = φ(m n ). Da er t φ = φ t hvor t : R n R n er translationen med φ 1 (v 0 ). Dermed er t(λ V ) = t φ(m n ) = φ(t (m n )) = φ(m n ) = λ V, hvor vi undervejs har brugt lemma 9.2.

18 318 Kapitel 9. Normalfordelinger på vektorrum Sætning 9.19 Lad V og W være to endeligdimensionale vektorrum, og lad t : V W være en bijektiv affin afbildning. Lad λ V og λ W være Lebesguemål på de to rum. Antag at µ er et sandsynlighedsmål på (V, B V ), der har tæthed mht. Lebesguemålet på V, altså at µ = g λ V, for en passende tæthed g M + (V, B V ). Så har billedmålet t(µ) tæthed med hensyn til Lebesguemålet på W. Mere præcist: der findes en konstant c > 0 så t(µ) = c g t 1 λ W. (9.15) BEVIS: Generelt gælder at hvis µ = (h t) λ V, så er t(µ) = h t(λ V ). Eftersom t er bijektiv, har vi i dette tilfælde at og dermed er µ = g λ V = (g t 1 t) λ V, t(µ) = g t 1 t(λ V ). Kombineres lemma 9.17 og 9.18, fås at t(λ V ) selv er et Lebesguemål på W. Og der findes derfor et c > 0 så t(λ V ) = cλ W. 9.4 Regulære normalfordelinger Definition 9.20 Lad, være et indre produkt på et endeligdimensionalt vektorrum V. Den regulære normalfordeling på V med centrum ξ V og præcision, er det sandsynlighedsmål µ der har tæthed proportional med med hensyn til et Lebesguemål λ V på (V, B V ). v e 1 2 v ξ 2 (9.16) Vi underforstår sædvanligvis normeringskonstanten, og skriver µ e 1 2 v ξ 2 λ V,

19 9.4. Regulære normalfordelinger 319 i stedet for det mere korrekte: der findes et c > 0 så µ = c e 1 2 v ξ 2 λ V. Værdien af c afhænger af det konkrete λ V. Det er ikke på forhånd klart at tætheden kan normeres til en sandsynlighedstæthed, men det følger af nedenstående lemma: Lemma 9.21 Lad V være et endeligdimensionalt vektorrum, udstyret med et indre produkt,, lad ξ V være en vektor, og lad λ V være et Lebesguemål på V. Da er e 1 2 v ξ 2 dλ V (v) <. BEVIS: Alle Lebesguemål på V er proportionale, så det er uden betydning for resultatet hvilket Lebesguemål vi tager fat på. Men det er ikke uden betydning for hvor let regningerne forløber. Så vi vælger os et specielt hensigtsmæssigt Lebesguemål: Lad os i første omgang antage at ξ = 0. Lad e 1,..., e n være en ortonormal basis for V, lad φ : R n V være den tilhørende koordinatafbildning, og lad λ V = φ(m n ). φ(x) 2 = n x i e i, n x j e j = j=1 n x 2 i (9.17) eftersom e i erne er ortogonale. Og derfor gælder det at e 1 2 v 2 dλ V (v) = e 1 2 v 2 dφ(m n )(v) = e 2 1 φ(x) 2 dm n (x) = n e 1 2 x2 i dm n (x) = hvor vi har brugt Tonellis sætning. n e 1 2 x2 i dx i = (2π) n/2, Hvis ξ 0, lader vi t(v) = v ξ være translationen med ξ. Da er e 1 2 v ξ 2 dλ V (v) = e 1 2 t(v) 2 dλ V (v) = e 1 2 w 2 d t(λ V )(w). Ifølge lemma 9.18 er t(λ V ) = λ V, og det sidste integral er således endeligt.

20 320 Kapitel 9. Normalfordelinger på vektorrum Hvis man vælger et konkret Lebesguemål λ V på (V, B V ), så kan man i princippet udregne den proportionalitetskonstant der gør (9.16) til en sandsynlighedstæthed. I abstrakte sammenhænge hjælper en eksplicit proportionalitetskonstant ikke noget særligt. Men hvis V = R n vil man typisk insistere på at udtrykke tætheden i forhold til det naturlige Lebesguemål: Sætning 9.22 Lad, være et indre produkt på R n, givet på formen x, y = x T A y for en symmetrisk n n-matrix A. Den regulære normalfordeling på R n med centrum ξ R n og præcision, er sandsynlighedsmålet f m n, hvor f (x) = (deta)1/2 (2π) n/2 e 1 2 (x ξ)t A(x ξ). (9.18) BEVIS: Påstanden er at e 1 2 (x ξ)t A(x ξ) dm n (x) = (2π)n/2. (9.19) 1/2 (deta) Da m n er translationsinvariant, spiller centret ξ ingen rolle for integralets værdi, vi kan antage at ξ = 0. Ifølge spektralsætningen findes en ortonormal matrix R og en diagonalmatrix Λ så R T AR = Λ, og ved at gange igennem med R og R T ses at A = RΛR T. Dermed er x T Ax = x T (RΛR T )x = (R T x) T Λ(R T x). Erindrer vi endvidere at det R T = det R = ±1, ser vi af lemma 9.3 at e 1 2 xt A x dm n (x) = e 1 2 (RT x) T Λ(R T x) dm n (x) = e 2 1 yt Λy dr T (m n )(y) = e 1 n 2 λ i y 2 i dm n (y) n n = e 1 2 λ iy 2 2π i dy i = hvor λ erne er A s egenværdier. Fra (9.9) fås nu det ønskede. λ i

21 9.4. Regulære normalfordelinger 321 Eksempel 9.23 Vi genkender tætheden for en sædvanlig N(ξ, σ 2 )-fordeling på R som tætheden for den regulære normalfordeling med centrum ξ og præcision, givet ved x, y = x y σ 2 for alle x, y R. Eksempel 9.24 Hvis X 1,..., X n er uafhængige reelle stokastiske variable, defineret på et baggrundsrum (Ω, F, P), og hvis hvert X i er standard normalfordelt, så har den stokastiske variabel X = på R n tæthed f med hensyn til m n, hvor X 1. X n f (x 1,..., x n ) = n 1 2π e 1 2 x i 2 = 1 (2π) n/2 e 1 2 xt x. Vi genkender dette som tætheden for den regulære normalfordeling på R n med centrum 0 og det sædvanlige indre produkt som præcision. Denne fordeling kaldes ofte standard normalfordelingen på R n. Eksempel 9.25 Vi har tidligere indført noget vi kaldte den regulære normalfordeling på R n med middelværdi ξ R n og en symmetrisk, positivt definit variansmatrix Σ. Det var fordelingen med tæthed f (x) = ( ) n/2 ( ) 1/2 1 1 e 2 1 (x ξ)t Σ 1 (x ξ) 2π detσ for x R n med hensyn til det n-dimensionale Lebesguemål m n. Vi genkender denne fordeling som den regulære normalfordeling på R n med centrum ξ og præcision, givet ved x, y = x T Σ 1 y. Denne formel definerer vitterligt et indre produkt, for når Σ er symmetrisk og positivt definit, så er Σ 1 også symmetrisk og positivt definit.

22 322 Kapitel 9. Normalfordelinger på vektorrum En stokastisk variabel X, defineret på et baggrundsrum (Ω, F, P) og med værdier i (V, B V ), siges naturligvis at være regulært normalfordelt med centrum ξ og præcision, hvis der findes en normeringskonstant c så P(X A) = c e 1 2 v ξ 2 dλ V (v) for alle A B V. A Eller mere mundret: hvis fordelingen af X, altså billedmålet X(P), er den regulære normalfordeling på V med centrum ξ og præcision,. Lemma 9.26 Lad X være en stokastisk variabel med værdier i V. Hvis X er regulært normalfordelt med centrum ξ og præcision,, så er X + ξ 0 regulært normalfordelt med centrum ξ + ξ 0 og præcision,. BEVIS: Antagelsen er i stenografisk form at X(P) e 1 2 v ξ 2 λ V. Hvis t : V V betegner translation med ξ 0, følger det af (9.15) at t(x) har fordeling t(x)(p) e 1 2 t 1 (v) ξ 2 λ V = e 1 2 v (ξ 0+ξ) 2 λ V, eftersom t 1 er translation med ξ 0. Sætning 9.27 Lad s : V W være en isomorfi mellem to endeligdimensionale vektorrum, og lad X være en stokastisk variabel med værdier i V. Hvis X er regulært normalfordelt med centrum ξ og præcision, V, så er s(x) regulært normalfordelt (på W) med centrum s(ξ) og præcision, W, givet ved w 1, w 2 W = s 1 (w 1 ), s 1 (w 2 ) V. (9.20) BEVIS: Det er klart at (9.20) definerer et indre produkt på W, og at w 2 W = w, w W = s 1 (w), s 1 (w) V = s 1 (w) 2 V.

23 9.4. Regulære normalfordelinger 323 Lad λ V og λ W være Lebesguemål på V henholdsvis W. Antagelsen er i stenografisk form at X(P) e 1 2 v ξ 2 V λv. Ifølge sætning 9.19 er s X(P) e 1 2 s 1 (w) ξ 2 V λw = e 1 2 w s(ξ) 2 W λw. Men dette er præcis det ønskede udsagn. Sætning 9.28 Lad V og W være endeligdimensionale vektorrum, og lad X, Y være stokastiske variable på et sandsynlighedsfelt (Ω, F, P) med værdier i henholdsvis V og W. Hvis X og Y er uafhængige og begge regulært normalfordelte, så er (X, Y) regulært normalfordelt på V W. BEVIS: Lad X have centrum ξ 1 og præcision, 1, og lad Y have centrum ξ 2 og præcision, 2. Lad endvidere λ V og λ W være Lebesguemål på V og W. Vi ved at X(P) e 1 2 v ξ λv, Y(P) e 1 2 w ξ λw. Da X og Y er uafhængige, har vi dermed at (X, Y)(P) = X(P) Y(P) e 1 2 v ξ e 1 2 w ξ λv λ W. Idet λ V λ W er et Lebesguemål på V W, viser dette at (X, Y) er regulært normalfordelt på V W med centrum (ξ 1, ξ 2 ) og præcision, givet ved (v 1, w 2 ), (v 2, w 2 ) = v 1, v w 1, w 2 2. Sætning 9.29 Lad V være et n-dimensionalt vektorrum med et indre produkt, og lad e 1,..., e n være en ortonormal basis for V. Lad X være en stokastisk variabel med værdier i V, og antag at X er regulært normaltfordelt med centrum 0 og præcision,. Sæt X i := X, e i, i = 1,..., n. Da er X 1,..., X n uafhængige reelle variable, der alle følger en standard normalfordeling.

24 324 Kapitel 9. Normalfordelinger på vektorrum BEVIS: Lad φ : R n V være koordinatafbildningen svarende til basen e 1,..., e n. Bemærk at ortonormaliteten af basen medfører n v, e 1 v = v, e i e i = φ.... v, e n Heraf kan man aflæse at v, e 1 φ 1 (v) =.... v, e n Det følger af sætning 9.27 at φ 1 (X) er regulært normalfordelt på R n med centrum 0 og præcision, givet ved n n n n n x, y = φ(x), φ(y) = x i e i, y j e j = x i y j e i, e j = x i y i. j=1 Præcisionen er altså det sædvanlige indre produkt på R n, og ifølge eksempel 9.24 følger φ 1 (X) derfor en standard normalfordeling på R n - det vil sige at koordinaterne er uafhængige og hver især standard normalfordelte. Men koordinaterne er netop variablene X 1,..., X n. j=1 Korollar 9.30 Lad V være et n-dimensionalt vektorrum med et indre produkt, og lad e 1,..., e n være en ortonormal basis for V. Lad X være en stokastisk variabel med værdier i V. Antag at X er regulært normalfordelt med centrum ξ og præcision,. Der findes reelle variable Y 1,..., Y n på (Ω, F, P), sådan at Y erne er uafhængige, og hver især følger en standard normalfordeling, og sådan at n X = Y i e i + ξ. BEVIS: Lad Y = X ξ. Da har Y centrum 0, og passer ind i sætning Så Y i = Y, e i er uafhængige, standard normalfordelte. Og det er klart at n n X = Y + ξ = Y, e i e i + ξ = Y i e i + ξ.

25 9.4. Regulære normalfordelinger 325 Sætning 9.31 Lad V være et n-dimensionalt vektorrum med et indre produkt,. Lad X være en stokastisk variabel med værdier i V. Hvis X er regulært normaltfordelt med centrum 0 og præcision,, så følger den reelle stokastiske variabel X 2 en χ 2 -fordeling med n frihedsgrader. BEVIS: Lad e 1,..., e n være en ortonormal basis for V. Da er X 2 = n X, e i 2. Idet X, e i er standard normalfordelt, følger X, e i 2 en χ 2 -fordeling med 1 frihedsgrad. Og idet X, e 1 2,..., X, e n 2 er uafhængige, er summen af dem χ 2 -fordelt med n frihedsgrader som ønsket. Sætning 9.32 (Spaltningssætningen) Lad V være et endeligdimensionalt vektorrum med indre produkt,. Lad U V være et underrum, og lad p være ortogonalprojektionen ned på U. Lad X være regulært normalfordelt på V med centrum ξ og præcision,. 1) De stokastiske variable p(x) og X p(x) er uafhængige. 2) Den stokastiske variabel p(x) er regulært normalfordelt på U med centrum p(ξ) og en præcision, der er restriktionen af, til U. BEMÆRK: De to underrum U og U indgår i virkeligheden symmetrisk i sætningens set up. Afbildningen x x p(x) er ortogonalprojektionen ned i U, og derfor følger det af påstand 2) i spaltningssætningen at X P(X) er regulært normalfordelt på U, med centrum ξ p(ξ) og en præcision, der er restriktionen af, til U. Bemærk også at spaltningssætningen er et af de steder, hvor det faktisk gør en forskel, om man opfatter ortogonalprojektionen ned i U som en afbildning V U eller som en afbildning V V, hvis værdier tilfældigvis ligger i U. I denne sammenhæng må vi insistere på at p er en afbildning V U. BEVIS: Lad e 1,..., e n være en ortonormal basis for V sådan at e 1,..., e k er en basis for U. En sådan basis kan f.eks. fremstilles på følgende måde: lad f 1,..., f k være en vilkårlig basis for U, og suppler den til en basis f 1,..., f k, f k+1,..., f n for hele V. Lad herefter e 1,..., e n være Gram-Schmidt ortonormaliseringen af f 1,..., f n.

26 326 Kapitel 9. Normalfordelinger på vektorrum Det er klart at e k+1,..., e n alle må ligge i U For alle v V har vi at v = n v, e i e i = k n v, e i e i + v, e i e i i=k+1 og heraf ses at p(v) = k n v, e i e i, v p(v) = v, e i e i. i=k+1 Idet X ξ er regulært normalfordelt med centrum 0 og præcision,, ser vi at de reelle variable Y i = X ξ, e i, er uafhængige og standard normalfordelte. Vi ser også at p(x) = k n Y i e i + p(ξ), X p(x) = Y i e i + ξ p(ξ). i=k+1 Altså er p(x) dannet ud fra Y 1,..., Y k, mens X p(x) er dannet udfra Y k+1,..., Y n. Og det følger derfor at p(x) og X p(x) er uafhængige. Vi ser fra eksempel 9.24, at (Y 1,..., Y k ) T er regulært normalfordelt på R k med centrum 0 og en præcision, der er det sædvanlige indre produkt, som vi i denne sammenhæng betegner (, ). Idet y 1 k s. = y i e i (9.21) y k er en isomorfi R k U, følger det af sætning 9.27 at k Y i e i er regulært normalfordelt på U med centrum 0 og præcision, givet ved v, w = (s 1 v, s 1 w) for alle v, w U. Det følger af (9.21) at s 1 kan udtrykkes ved indre produkter, og vi får derfor at v, w = k v, e i w, e i for alle v, w U.

27 9.4. Regulære normalfordelinger 327 Regner vi det oprindelige indre produkt ud af to U-vektorer, kan vi ved at udnytte (9.2) - og erindre at det indre produkt med de sidste n k basisvektorer automatisk giver nul - indse at k k v, w = v, e i e i, w, e j e j = j=1 k k v, e i w, e j e i, e j = j=1 k v, e i w, e i for alle v, w U. Så, er identisk med restriktionen af den oprindelige præcision til U. Endelig følger det af lemma 9.26 at p(x) = k Y i e i + p 1 (ξ) er regulært normalfordelt på U med centrum p(ξ) og præcision,. Eksempel 9.33 Lad X 1,..., X n være uafhængige reelle stokastiske variable, alle N(ξ, σ 2 )-fordelte. Den simultane fordeling af (X 1,..., X n ) har da tæthed mht. Lebesguemålet m n på R n, givet som f (x 1,..., x n ) = n ( 1 2πσ 2 e (x i ξ) 2 /2σ 2 = 1 2πσ 2 ) n/2 e n (x i ξ) 2 /2σ 2. Vi genkender denne tæthed som tætheden for den regulære normalfordeling på R n med centrum (ξ,..., ξ) T og præcision, givet som x, y = xt y σ 2. Lad η = (1,..., 1) T, og sæt U = span(η). Bemærk at centrum for den simultane fordeling af X erne er ξ η, der udmærker sig ved at ligge i U. Lad p være ortogonalprojektionen ned i U. Vi kan finde denne projektion eksplicit: 1 η p(x) = x, η η 2 = x n. 1 = hvor vi har brugt de sædvanlige symboler x = n x i og x = 1 n n x i. Vi ser at x 1 x x p(x) =.. x n x Lad nu X = (X 1,..., X n ) T være sammenbundtningen af de oprindelige stokastiske variable som en søjle. Vi har redegjort for at X er regulært normalfordelt med præcision x. x,

28 328 Kapitel 9. Normalfordelinger på vektorrum,, og dermed er p(x) og X p(x) uafhængige ifølge spaltningssætningen. Men X er en funktion af p(x) (det er f.eks. førstekomponenten), og SSD er en funktion af X p(x) - faktisk er X p(x) 2 = SSD σ 2. (9.22) Disse overvejelser tillader os at slutte at X og SSD er uafhængige - et faktum, der har være benyttet adskillige gange allerede i disse noter. Vi kan faktisk også finde fordelingen af SSD. Det følger nemlig af spaltningssætningen at X p(x) er regulært normalfordelt på U med centrum ξ η p(ξ η) = 0 (eftersom η U), og med en præcision, der er restriktionen af, til U. Derfor er X p(x) 2 χ 2 -fordelt med dimu = n 1 frihedsgrader, ifølge sætning Og det kommer så direkte fra (9.22) at SSD er χ 2 -fordelt med n 1 frihedsgrader og skalaparameter σ 2. Sætning 9.34 Lad s : V W være en surjektiv lineær afbildning mellem to endeligdimensionale vektorrum. Hvis X er en stokatisk variabel, der er regulært normalfordelt på V, så er s(x) regulært normalfordelt på W. BEMÆRK: I princippet kan man godt udtrykke centrum og præcision af fordelingen af s(x) ved centrum og præcision af fordelingen af X. Men udtrykket for præcisionen er for kompliceret til at være nyttigt i praksis. BEVIS: Lad X have centrum ξ og præcision,. Sæt En optælling af dimensioner giver at U = ker s = {v V s(v) = 0} dimv = dimu + dimu. Siden s er surjektiv giver dimensionssætningen for lineære afbildninger på den anden side at dimv = dimw + dimu. Af disse to ligninger tilsammen, slutter vi at dimu = dimw.

29 9.5. Generelle normalfordelinger 329 Lad p være ortogonalprojektionen fra V ned i U. Da s er surjektiv, kan vi for ethvert w W finde et v V så w = s(v). Men s(v) = s(p(v) + v p(v)) = s(p(v)) + s(v p(v)) = 0 + s(v p(v)). (9.23) Eftersom v p(v) U, ser vi heraf at s afbilder U surjektivt på W. Men de to vektorrum har samme dimension, og derfor må restriktionen af s være en isomorfi mellem U og W. Lad os kalde denne restriktion for s. Vi ser af (9.23) at s(x) = s (X p(x) ). Vi ved fra spaltningssætningen at X p(x) er regulært normalfordelt på U. Og da s er en isomorfi, er også s (X p(x)) regulært normalfordelt. 9.5 Generelle normalfordelinger Hvis µ er en regulær normalfordeling på et endeligdimensionalt vektorrum V, og hvis t : V W er en surjektiv, affin transformation, så er t(µ) også en regulær normalfordeling. Men hvis man blot antager at t er affin, uden nødvendigvis at være surjektiv, så kan t(µ) være et helt anderledes ondskabsfuldt objekt. Eksempel 9.35 Lad X være standard normalfordelt på R, og lad t : R R 2 være afbildningen ( ) x t(x) =. x Variablen Y = t(x) er ærlig talt temmelig degenereret. Der er sandsynlighed 1 for at Y havner på diagonalen i R 2. Og diagonalen har m 2 -mål 0. Så der er ingen chance for at fordelingen af Y kunne have tæthed med hensyn til m 2. Bemærk at vanskeligheden har at gøre med at vi opfatter Y som en variabel med værdier i R 2. Hvis vi opfatter Y som havende værdier på diagonalen = {(x, y) R 2 x = y}, der jo er et etdimensionalt vektorrum, så er Y regulært normalfordelt.

30 330 Kapitel 9. Normalfordelinger på vektorrum Man skal være ganske meget på tæerne for at kunne håndtere vilkårlige affine afbildninger af regulære normalfordelinger. Et trin på vejen er at give den slags objekter en navn: Definition 9.36 Lad V og W være endeligdimensionale vektorrum, og lad t : V W være affin. Hvis µ er en regulær normalfordeling på V, siger vi at billedmålet t(µ) er en normalfordeling på W. Af sætning 9.30 ser vi at vi altid kan antage at µ er en standard normalfordeling på et euklidisk rum R k. Hvis t er surjektiv, så er t(µ) ifølge sætning 9.34 selv en regulær normalfordeling, og der er i så fald ikke tale om noget nyt begreb. Men hvis t ikke er surjektiv, så vil t(v) være et ægte affint underrum af W. Et sådant underrum har mål 0 med hensyn til et vilkårligt Lebesguemål λ W på W, og t(µ) kan således ikke have tæthed med hensyn til λ W. Der er i så fald tale om en ny type fordelinger. En normalfordeling, der ikke er regulær, siges at være singulær. Singulære normalfordelinger er relativt ubehagelige objekter. De har f.eks. ikke tæthed med hensyn til noget fornuftigt grundmål. Eksempel 9.37 Lad X være regulært normalfordelt på V, og lad w 0 W. Lad Y være den stokastiske variabel på V W givet ved Y = (X, w 0 ). Da er Y normalfordelt, for hvis i : V V W er indlejringen, givet ved så er i(v) = (v, 0), v V, (X, w 0 ) = i X + (0, w 0 ). Da i er lineær, er dette en affin transformation af X. På den anden side er Y ikke regulært normalfordelt, for P(Y V {w 0 }) = 1 mens V {w 0 } er en nulmængde med hensyn til et Lebesguemål λ V W. Altså er Y singulært normalfordelt.

31 9.5. Generelle normalfordelinger 331 Når singulære normalfordelinger nu er så ubehagelige, så kunne man tro at man stod sig ved kun at betragte regulære normalfordelinger. Men man kommer forbavsende nemt til at lave singulære normalfordelte: Eksempel 9.38 Lad X 1, X 2,..., X n være uafhængige, reelle stokastiske variable, alle N(ξ, σ 2 )-fordelte. Hvis ξ er ukendt, har vi set at man kan estimere den ved ˆξ = 1 n n X i. En naturlig ting er da at se på residualerne X 1 ˆξ,..., X n ˆξ. Residualerne er det naturlige udgangspunkt for en modelkontrol. Som i eksempel 9.33 ser vi at X = (X 1,..., X n ) T er regulært normalfordelt med centrum η = (ξ,..., ξ) T og præcision,, givet ved x, y = xt y σ 2. Men residualerne fremkommer som en lineær transformation af X, 1 1 n 1 n... 1 n X 1 ˆξ 1. = n 1 1 n... 1 X 1 n.. X n ˆξ (9.24) X n 1 n 1 n n Residualerne er således normalfordelt på R n. Men denne normalfordeling er singulær, fordi den involverede matrix ikke har fuld rang. F.eks. er 1 1 n 1 n... 1 n 1 n 1 1 n n = n 1 n n så den lineære afbildning bag (9.24) er ikke injektiv, og derfor heller ikke surjektiv.

32 332 Kapitel 9. Normalfordelinger på vektorrum Singulære normalfordelinger dukker forbavsende hyppigt op, og man er derfor nødt til at kunne håndtere dem. Bemærk at hvis v 1,..., v m, η V er vilkårlige vektorer, og hvis Y 1,..., Y m er uafhængige reelle variable, der hver især følger en standard normalfordeling, så er X = m Y i v i + η en normalfordelt variabel med værdier i V. Det er et vigtigt resultat at den omvendte påstand også gælder: Sætning 9.39 (Struktursætning for normalfordelinger) Lad X være en normalfordelt stokastisk variabel med værdier i et n-dimensionalt vektorrum V. Der findes lineært uafhængige vektorer v 1,..., v p i V, en vektor η V og uafhængige reelle variable Y 1,..., Y p, der hver især følger en standard normalfordeling, sådan at p X = Y i v i + η. X er singulært normalfordelt hvis og kun hvis p < n. BEVIS: Per antagelse er fordelingen af X en affin transformation af en standard normalfordeling på et euklidisk rum, sig R k. Der findes altså en lineær afbildning s : R k V og en vektor η V sådan at X(P) = t(µ), hvor µ er standard normalfordelingen på R k, og hvor t : R k V er den affine transformation t(x) = s(x) + η for x R k. Lad U V være billedmængden for s, U = s(r k ). Da er U et underrum af V, og s kan opfattes som en surjektiv, lineær afbildning R k U. Lad p være dimensionen af U. Da er p k, med lighedstegn hvis og kun hvis s er injektiv.

33 9.5. Generelle normalfordelinger 333 Lad os indføre den stokastiske variabel Y = X η. Fordelingen af Y er lig s(µ), det vil sige at Y er regulært normalfordelt på U med centrum 0 og en vis præcision,. Hvis vi lader v 1,..., v p være en ortonormalbasis for U med hensyn til,, så er Y = p Y, v i v i, hvoraf dekompositionen (9.39) følger uden videre med Y i = Y, v i. Da v i erne er en basis for U, er de specielt lineært uafhængige, og det følger fra sætning 9.29 at Y i erne er uafhængige og standard normalfordelte. Hvis p = n er U = V, og Y er således regulært normalfordelt på V. Følgelig er også X regulært normalfordelt på V. Og omvendt, hvis p < n lever X på et ægte affint underrum af V, og kan derfor ikke være regulært normalfordelt. Korollar 9.40 Lad t : V W være en affin afbildning mellem to endeligdimensionale vektorrum. Hvis X er normalfordelt på V, så er t(x) normalfordelt på W. BEVIS: Antag at t(v) = s(v) + ξ for en passende lineær afbildning s : V W og en vektor ξ W. Opskriv X på formen X = p Y i v i + η. hvor Y i erne er uafhængige og standard normalfordelte. Da er p p t(x) = s Y i v i + η + ξ = Y i s(v i ) + s(η) + ξ. Korollar 9.41 Lad V og W være endeligdimensionale vektorrum, og lad X, Y være stokastiske variable på et sandsynlighedsfelt (Ω, F, P) med værdier i henholdsvis V og W. Hvis X og Y er uafhængige og begge normalfordelte, så er (X, Y) normalfordelt på V W.

34 334 Kapitel 9. Normalfordelinger på vektorrum BEVIS: Lad φ : V V W og ψ : W V W være de to indlejringer, φ(v) = (v, 0), ψ(w) = (0, w) for v V, w W. Ifølge struktursætningen for normalfordelingen, er X = p X i v i + η, Y = q Y j w j + ξ, for passende vektorer v 1,..., v p, w 1,..., w q, η og ξ. Her er såvel X i erne som Y j erne uafhængige, standard normalfordelte reelle variable. Bemærk at X i erne kun afhænger af X og Y j erne kun af Y - og derfor er X i erne og Y j erne uafhængige af hinanden. j=1 Vi ser at (X, Y) = φ(x) + ψ(y) = p X i φ(v i ) + φ(η) + q Y j ψ(w i ) + ψ(ξ), j=1 hvoraf det fremgår at (X, Y) er normalfordelt på V W. Bemærk at uafhængigheden af X og Y er essentiel for at korollar 9.41 holder. Man kan godt forstå at sammenbundtning af to regulære normalfordelinger ikke nødvendigvis giver en regulær normalfordeling - eksempel 9.35 er et simpelt eksempel på at en sammenbundtning af to regulære normalfordelinger kan give en singulær normalfordeling. Men selve normaliteten kan også forsvinde: Eksempel 9.42 Lad X og Y være uafhængige N(0, 1)-fordelte stokastiske variable, og sæt Z = sgn(x) Y. Her betyder sgn(x) fortegnet af x, altså 1 hvis x > 0 sgn(x) = 0 hvis x = 0 1 hvis x < 0. Vi vil udregne fordelingsfunktionen for Z, og ser at P( Y z, X < 0) hvis z < 0 P(Z z) = P(X < 0) + P( Y z, X > 0) hvis z > 0,

35 9.6. Middelværdi og varians 335 idet vi undlader at bekymre os om hvad der sker for z = 0. Udnyttes uafhængigheden af X og Y og symmetrien af X s fordeling om 0, ser vi at 1 2 P( Y z) hvis z < 0 P(Z z) = P( Y z) hvis z > 0. Eftersom Y s fordeling også er symmetrisk om 0, ser vi at P(Z z) = P(Y z) for alle z 0. Også Z er derfor standard normalfordelt. Men skønt X og Z begge er normalfordelte, er sammenbundtningen (X, Z) absolut ikke normalfordelt på R 2, som vi skal se. Konstruktion af Z sikrer at X og Z har samme fortegn - fordelingen af (X, Z) giver derfor sandsynlighed 0 til f.eks. 2. kvadrant. Enhver regulær normalfordeling på R 2 tildeler alle fire kvadranter positiv sandsynlighed, så (X, Z) kan ikke være regulært normalfordelt. På den anden side er afbildningen (x, y) (x, sgn(x) y ) en diffeomorfi i hvert af de fire kvadranter, så den simultane fordeling af (X, Z) har tæthed mht. det todimensionale Lebesguemål. Så (X, Z) kan ikke være singulært normalfordelt. 9.6 Middelværdi og varians Vi vil i dette afsnit beskæftige os med middelværdier og varianser af normalfordelinger (regulære såvel som singulære) på R k. Der er ingen problemer med eksistensen af disse momenter: Lemma 9.43 Lad X være en normalfordelt stokastisk variabel på R n. Da har X såvel 1. som 2. moment. BEVIS: Hvis Y = (Y 1,..., Y k ) T følger en standard normalfordeling på R k, så har Y såvel 1. som 2. moment. Dermed har enhver affin transformation af Y de ønskede momenter. Og X har samme fordeling som en passende affin transformation af et sådant Y.

36 336 Kapitel 9. Normalfordelinger på vektorrum Sætning 9.44 Lad, være et indre produkt på R n givet ved x, y = x T A y for x, y R n, (9.25) for en symmetrisk, positivt definit n n-matrix A. Lad X være en stokastisk variabel med værdier i (R n, B n ), og antag at X er regulært normalfordelt med centrum ξ og præcision,. Da er EX = ξ, VX = A 1. (9.26) BEVIS: Lad os i første omgang antage at ξ = 0. Ifølge spektralsætningen findes en ortonormal matrix R så R T AR = Λ (9.27) hvor Λ er en diagonal-matrix. Lad Y = R T X. Idet x R T x er en isomorfi af R n på sig selv, er Y regulært normalfordelt med centrum 0 og præcision,, hvor x, y = (R T ) 1 x, (R T ) 1 y = Rx, Ry = x T R T ARy = x T Λy. Opskriver vi tætheden for Y med hensyn til m n, ser vi at Y s koordinater er uafhængige reelle variable, og at Y i N(0, λ i 1 ) hvor λ erne er diagonal-elementer i Λ. Altså er EY = 0, VY = Λ 1. Idet X = RY blot er en lineær transformation af Y, er EX = 0, mens VX = R VY R T = RΛ 1 R T = A 1. Hvis ξ 0 har vi lige vist at variablen X ξ har middelværdi 0 og varians A 1. Heraf følger (9.26) let. Korollar 9.45 Lad X være en normalfordelt stokastisk variabel med værdier i R n. Variansen VX er invertibel hvis og kun hvis X er regulært normalfordelt. BEVIS: Da X er normalfordelt, har X samme fordeling som X = BY + ξ, hvor Y er standard normalfordelt på et euklidisk rum R k af passende dimension, hvor B er en n k-matrix, og hvor ξ er en vektor i R n. Dermed er VX = B B T.

37 9.6. Middelværdi og varians 337 Hvis X er regulært normalfordelt, ved vi fra sætning 9.44 at VX er invertibel. Hvis X er singulært normalfordelt, kan B ikke være af fuld rang. Og dermed er rang VX rang B n 1, så VX er ikke invertibel. Sætning 9.46 Lad X og Y være normalfordelte variable på R n. Hvis EX = EY, VX = VY så har X og Y samme fordeling. BEVIS: Hvis X og Y har samme fordeling, så har de i særdeleshed samme middelværdi og varians. Det er derfor den modsatte implikation der er interessant. Vi antager at X og Y har samme middelværdi og varians. Efter en eventuel translation, kan vi antage at den fælles middelværdi er 0. Lad os først antage at den fælles varians er en diagonalmatrix af formen λ λ VX =..... (9.28) λ n for passende λ 1 λ 2 λ n 0. Hvis λ n > 0 er denne matrix invertibel, og det følger af korollar 9.45 og (9.26) at X og Y begge er regulært normalfordelte med en præcision, givet ved x, y = x T VX 1 y. I særdeleshed har X og Y samme fordeling. Den interessante situation opstår altså hvis nogle af λ i erne er nul. Lad os antage at λ 1,..., λ p > 0, mens λ p+1 = = λ n = 0. Vi har da at VX p+1 =... = VX n = 0, og som følge heraf er hver af variablene X p+1,..., X n næsten sikkert konstant. Eftersom middelværdien af X er nul, kan vi konstatere at (X p+1,..., X n ) = (0,..., 0) n.s.

38 338 Kapitel 9. Normalfordelinger på vektorrum Tilsvarende er naturligvis (Y p+1,..., Y n ) = (0,..., 0) næsten sikkert, og i særdeleshed har (X p+1,..., X n ) og (Y p+1,..., Y n ) samme fordeling. Hvis vi ser på (X 1,..., X p ), så fremkommer denne variabel ved en lineær transformation af det oprindelige X, og dermed er (X 1,..., X p ) normalfordelt. Middelværdien er nul, og variansen er diagonalmatricen med λ 1,..., λ p stående i diagonalen. Tilsvarende for (Y 1,..., Y p ). Men disse variables fælles variansmatrix er invertibel, så vi har allerede vist at (X 1,..., X p ) og (Y 1,..., Y p ) har samme fordeling. Den sidste krølle er nu at bemærke at en stokastisk variabel, der er konstant næsten sikkert, automatisk er uafhængig af enhver anden stokastisk variabel. I denne sammenhæng er (X 1,..., X p ) og (X p+1,..., X n ) derfor uafhængige. Og tilsvarende for Y i erne. Derfor har vi at (X 1,..., X n )(P) = (X 1,..., X p )(P) (X p+1,..., X n )(P) = (Y 1,..., Y p )(P) (Y p+1,..., Y n )(P) = (Y 1,..., Y n )(P). Eller med rene ord: X og Y har samme fordeling. Hvis vi dropper antagelsen om at den fælles variansmatrix VX er på diagonalform, så følger det i det mindste af spektralsætningen at der findes en ortonormal matrix R så Λ = R T VX R er en diagonalmatrix. Den stokastiske variabel X = R T X er normalfordelt, og en hurtig udregning viser at X har middelværdi 0 og varians Λ. Helt tilsvarende for Ỹ = R T Y. Så vi kan slutte at X og Ỹ har samme fordeling. Men vi kan regne baglæns, og finder at X = R X og Y = RỸ, så også de oprindelige variable X og Y har samme fordeling. Lemma 9.47 Lad ξ R n være en vektor og lad Σ være en symmetrisk, positivt semidefinit n n-matrix. Der findes da en stokastisk variabel X med værdier i R n, sådan at X er normalfordelt med middelværdi ξ og varians Σ. BEVIS: Vi indser først at der findes en kvadratrod af Σ, altså en n n matrix B så Σ = B B T. Hvis R er en ortonormal matrix sådan at λ λ R T Σ R =., λ n

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

standard normalfordelingen på R 2.

standard normalfordelingen på R 2. Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

Taylors formel. Kapitel Klassiske sætninger i en dimension

Taylors formel. Kapitel Klassiske sætninger i en dimension Kapitel 3 Taylors formel 3.1 Klassiske sætninger i en dimension Sætning 3.1 (Rolles sætning) Lad f : [a, b] R være kontinuert, og antag at f er differentiabel i det åbne interval (a, b). Hvis f (a) = f

Læs mere

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme

Læs mere

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

Reeksamen 2014/2015 Mål- og integralteori

Reeksamen 2014/2015 Mål- og integralteori Reeksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål. Ved bedømmelsen indgår de spørgsmål med samme vægt.

Læs mere

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive

Læs mere

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag. Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er

Læs mere

Diagonalisering. Definition (diagonaliserbar)

Diagonalisering. Definition (diagonaliserbar) 1 Diagonalisering 2 Definition (diagonaliserbar) Lad A være en n n-matrix. A siges at være diagonaliserbar hvis A er similær med en diagonal matrix, dvs. A = PDP 1, hvor D er en n n diagonal matrix og

Læs mere

Eksamen 2014/2015 Mål- og integralteori

Eksamen 2014/2015 Mål- og integralteori Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt

Læs mere

Symmetriske og ortogonale matricer Uge 7

Symmetriske og ortogonale matricer Uge 7 Symmetriske og ortogonale matricer Uge 7 Preben Alsholm Efterår 2009 1 Symmetriske og ortogonale matricer 1.1 Definitioner Definitioner En kvadratisk matrix A = [ a ij kaldes symmetrisk, hvis aij = a ji

Læs mere

Lineær Algebra, TØ, hold MA3

Lineær Algebra, TØ, hold MA3 Lineær Algebra, TØ, hold MA3 Lad mig allerførst (igen) bemærke at et vi siger: En matrix, matricen, matricer, matricerne. Og i sammensætninger: matrix- fx matrixmultiplikation. Injektivitet og surjektivitet

Læs mere

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016 Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 206 Mikkel Findinge http://findinge.com/ Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan.

Læs mere

Symmetriske og ortogonale matricer Uge 6

Symmetriske og ortogonale matricer Uge 6 Symmetriske og ortogonale matricer Uge 6 Preben Alsholm Efterår 2010 1 Symmetriske og ortogonale matricer 1.1 Skalarprodukt og Cauchy-Schwarz ulighed Skalarprodukt og Cauchy-Schwarz ulighed Det sædvanlige

Læs mere

Transformation: tætheder pår k

Transformation: tætheder pår k Kapitel 19 Transformation: tætheder pår k I dette kapitel vil vi angribe følgende version af transformationsproblemet: Lad X 1,, X k være reelle stokastiske variable, defineret på (Ω,F, P), sådan at den

Læs mere

Om første og anden fundamentalform

Om første og anden fundamentalform Geometri, foråret 2005 Jørgen Larsen 9. marts 2005 Om første og anden fundamentalform 1 Tangentrummet; første fundamentalform Vi betragter en flade S parametriseret med σ. Lad P = σu 0, v 0 være et punkt

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017 Besvarelser til Lineær Algebra Ordinær Eksamen - 12. Juni 2017 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Tidligere Eksamensopgaver MM505 Lineær Algebra

Tidligere Eksamensopgaver MM505 Lineær Algebra Institut for Matematik og Datalogi Syddansk Universitet Tidligere Eksamensopgaver MM55 Lineær Algebra Indhold Typisk forside.................. 2 Juni 27.................... 3 Oktober 27..................

Læs mere

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02) SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Lineære transformationer, middelværdi og varians Helle Sørensen Uge 8, onsdag SaSt2 (Uge 8, onsdag) Lineære transf. og middelværdi 1 / 15 Program I formiddag: Fordeling

Læs mere

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige længde: z = 1 n hvor z i = xi 2 + yi 2. n z i = 1 n i=1 n i=1 x 2 i + y 2 i Indfør tabellen samt vægtene Da er a k = #{i

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

Den Brownske Bevægelse

Den Brownske Bevægelse Den Brownske Bevægelse N.J. Nielsen 1 Notation I dette notesæt vil vi generelt benytte samme notation som i det øvrige undervisningsmateriale i MM23. For ethvert n N betegner B n Borelalgebraen på R, og

Læs mere

Lineær Algebra eksamen, noter

Lineær Algebra eksamen, noter Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,

Læs mere

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås 5.3. Konvergens i sandsynlighed 55 BEVIS: Lad φ 1, φ 2,... og φ være de karakteristiske funktioner for X 1, X 2,... og X. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås φ X,v

Læs mere

Sandsynlighedsregning Oversigt over begreber og fordelinger

Sandsynlighedsregning Oversigt over begreber og fordelinger Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte

Læs mere

8 Regulære flader i R 3

8 Regulære flader i R 3 8 Regulære flader i R 3 Vi skal betragte særligt pæne delmængder S R 3 kaldet flader. I det følgende opfattes S som et topologisk rum i sportopologien, se Definition 5.9. En åben omegn U af p S er således

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

Symmetriske matricer

Symmetriske matricer Symmetriske matricer Preben Alsholm 17. november 008 1 Symmetriske matricer 1.1 Definitioner Definitioner En kvadratisk matrix A = a ij kaldes symmetrisk, hvis aij = a ji for alle i og j. Altså hvis A

Læs mere

Affine og konvekse mængder

Affine og konvekse mængder Kapitel 3 Affine og konvekse mængder 3.1 Affine mænger Definition 3.1 LadXvære et vektorrum. En delmængde A Xer affin hvis λ 1 x 1 +λ 2 x 2 A for alle x 1, x 2 A og λ 1,λ 2 R med λ 1 +λ 2 = 1. (3.1) Udtrykket

Læs mere

Fejlstrata. Vi forestiller os at V har. 1) Et underrum L. 2) Et indre produkt, 3) En ortogonal dekomposition V = W W m

Fejlstrata. Vi forestiller os at V har. 1) Et underrum L. 2) Et indre produkt, 3) En ortogonal dekomposition V = W W m Fejlstrata Vi forestiller os at V har 1) Et underrum L 2) Et indre produkt, 3) En ortogonal dekomposition V = W 1 +... + W m Underrummene W i kaldes fejlstrata. Typisk eksempel på en fejlstratumdekomposition:

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018 Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Juni 28 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30 Områdeestimator X (Ω, F) (X, E) x 01 01 P θ ν θ θ Θ 0000 1111 000000 111111 0000 1111 0000 1111 C(x) En områdeestimator er en afbildning C : X P(Θ).. p.1/30 Konfidensområde En områdestimator C : X P(Θ)

Læs mere

z 1 = z 1z 1z 1 z 1 2 = z z2z 1 z 2 2

z 1 = z 1z 1z 1 z 1 2 = z z2z 1 z 2 2 M å l e p u n k t R i e m a n n s k G e o m e t r i E 8 J a ko b L i n d b l a d B l a ava n d 2 5 3 6 7 5 27 oktober 28 I n s t i t u t fo r M at e m at i s k e Fag A a r h u s U n i v e r s i t e t indledning

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

1.1. n u i v i, (u, v) = i=1

1.1. n u i v i, (u, v) = i=1 1.1 1. Hilbert rum 1.1. Hilbert rum og deres geometri. Definition 1.1. Et komplekst vektor rum V kaldes et indre produkt rum (eller præ-hilbert rum), når det er forsynet med en funktion (, ): V V C, som

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4 NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4 Sættet består af 3 opgaver med ialt 15 delopgaver. Besvarelsen vil blive forkastet, medmindre der er gjort et

Læs mere

Lineær algebra: Egenværdier, egenvektorer, diagonalisering

Lineær algebra: Egenværdier, egenvektorer, diagonalisering Lineær algebra: Egenværdier, egenvektorer, diagonalisering Institut for Matematiske Fag Aalborg Universitet 2011 Egenvektorer og egenværdier Mål: Forståelse af afbildningen x Ax fra R n R n for en n n-matrix

Læs mere

9.1 Egenværdier og egenvektorer

9.1 Egenværdier og egenvektorer SEKTION 9.1 EGENVÆRDIER OG EGENVEKTORER 9.1 Egenværdier og egenvektorer Definition 9.1.1 1. Lad V være et F-vektorrum; og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote 7 enote 7 Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses Der bruges egenværdier og egenvektorer i løsningsproceduren,

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober 2017 Miniprojekt: Lineær algebra på polynomier Grupperne forventes at regne de små opgaver i afsnittene 1 5 i løbet af de første 4 halve dage. Dernæst tilføjes

Læs mere

Egenværdier og egenvektorer

Egenværdier og egenvektorer 1 Egenværdier og egenvektorer 2 Definition Lad A være en n n matrix. En vektor v R n, v 0, kaldes en egenvektor for A, hvis der findes en skalar λ således Av = λv Skalaren λ kaldes en tilhørende egenværdi.

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2005 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

hvor a og b er konstanter. Ved middelværdidannelse fås videre

hvor a og b er konstanter. Ved middelværdidannelse fås videre Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige. Histogrammetoden. Histogrammetoden.

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige. Histogrammetoden. Histogrammetoden. For ( i, y i ) R 2, i =,, n, ser vi på den gennemsnitlige længde: z = n hvor z i = i 2 + yi 2 Indfør tabellen samt vægtene Da er z i = n 2 i + y 2 i a k = #{i 00z i = k}, k N 0 z ned := ν k = a k n 00kν

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018 Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 08 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

6.1 Reelle Indre Produkter

6.1 Reelle Indre Produkter SEKTION 6.1 REELLE INDRE PRODUKTER 6.1 Reelle Indre Produkter Definition 6.1.1 Et indre produkt på et reelt vektorrum V er en funktion, : V V R således at, for alle x, y V, I x, x 0 med lighed x = 0, II

Læs mere

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer DesignMat September 2008 fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum over L (enten R eller C). fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum

Læs mere

Uge 11 Lille Dag. Opgaver til OPGAVER 1. Det ortogonale komplement

Uge 11 Lille Dag. Opgaver til OPGAVER 1. Det ortogonale komplement OPGAVER 1 Opgaver til Uge 11 Lille Dag Opgave 1 Det ortogonale komplement a) I R 2 er der givet vektoren (3, 7). Angiv en basis for det ortogonale komplement. b) Find i R 3 en basis for det ortogonale

Læs mere

3.1 Baser og dimension

3.1 Baser og dimension SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA], 2, 3, [S] 9.-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

Lineær Algebra F08, MØ

Lineær Algebra F08, MØ Lineær Algebra F08, MØ Vejledende besvarelser af udvalgte opgaver fra Ugeseddel 3 og 4 Ansvarsfraskrivelse: Den følgende vejledning er kun vejledende. Opgaverne kommer i vilkårlig rækkefølge. Visse steder

Læs mere

Integration m.h.t. mål med tæthed

Integration m.h.t. mål med tæthed Integration m.h.t. mål med tæthed Sætning (EH 11.7) Lad ν = f µ på (X, E). For alle g M + (X, E) gælder at gdν = g f dµ. Bevis: Standardbeviset: 1) indikatorfunktioner 2) simple funktioner 3) M + -funktioner.

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Normalfordelingens venner og bekendte Helle Sørensen Uge 9, onsdag SaSt2 (Uge 9, onsdag) Normalfordelingens venner 1 / 20 Program Resultaterne fra denne uge skal bruges

Læs mere

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20.

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20. Foldning af sandsnlighedsmål Lad µ og ν være to sandsnlighedsmål på (R, B). Fortolkning Lad φ : R R være φ(, ) = + for (, ) R. Lad X og Y være to reelle stokastiske variable defineret på (Ω, F, P). Definition

Læs mere

Asymptotisk testteori

Asymptotisk testteori Kapitel 8 Asymptotisk testteori Vi vil nu beskæftige os med den asymptotiske teori for estimation under pæne hypoteser og for test af disse hypoteser. Vi skal især undersøge det forhold at hvis den fulde

Læs mere

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA 6. oktober 2016 Miniprojekt: Lineær algebra på polynomier

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA 6. oktober 2016 Miniprojekt: Lineær algebra på polynomier MATEMATIK 3 LINEÆR ALGEBRA 6. oktober 2016 Miniprojekt: Lineær algebra på polynomier Grupperne forventes at regne en mængde af opgaver, som tilsammen dækker 100 point. De små opgaver giver hver 5 point,

Læs mere

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Differentialregning i R k

Differentialregning i R k Differentialregning i R k Lad U R k være åben, og lad h : U R m være differentiabel. Den afledte i et punkt x U er Dh(x) = h 1 (x) x 1 h 2 (x) x 1. h m (x) x 1 h 1 (x) x 2... h 2 (x) x 2.... h m (x) x

Læs mere

Den todimensionale normalfordeling

Den todimensionale normalfordeling Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 9 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske variable,

Læs mere

Antag at. 1) f : R k R m er differentiabel i x, 2) g : R m R p er differentiabel i y = f(x), . p.1/18

Antag at. 1) f : R k R m er differentiabel i x, 2) g : R m R p er differentiabel i y = f(x), . p.1/18 Differentialregning i R k Kæderegel Lad U R k være åben, og lad h : U R m være differentiabel Antag at Den afledte i et punkt x U er Dh(x) = 1) f : R k R m er differentiabel i x, 2) g : R m R p er differentiabel

Læs mere

Klassisk Taylors formel

Klassisk Taylors formel p. 1/17 Klassisk Taylors formel Sætning Lad f : (a, b) R være n gange differentiabel. For x 0, x (a, b) findes et ξ mellem x 0 og x der opfylder at f(x) = f(x 0 )+ f (x 0 ) 1! (x x 0 )+...+ f(n 1) (x 0

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Normalfordelingen og transformation af kontinuerte fordelinger Helle Sørensen Uge 7, mandag SaSt2 (Uge 7, mandag) Normalford. og transformation 1 / 16 Program Paretofordelingen,

Læs mere

Egenværdier og egenvektorer

Egenværdier og egenvektorer enote 9 enote 9 Egenværdier og egenvektorer Denne note indfører begreberne egenværdier og egenvektorer for lineære afbildninger i vilkårlige generelle vektorrum og går derefter i dybden med egenværdier

Læs mere

Den generelle lineære model

Den generelle lineære model Kapitel 10 Den generelle lineære model Den generelle lineære normale model, eller blot den lineære normale model, er en matematisk abstraktion af en række af de mest anvendte statistiske modeller: etsidet

Læs mere

Faktorforsøg. Antag at X i, i I, er uafhængige reelle variable og at. for alle i I. En faktor er en afbildning. hvor F er en mængde af labels.

Faktorforsøg. Antag at X i, i I, er uafhængige reelle variable og at. for alle i I. En faktor er en afbildning. hvor F er en mængde af labels. Faktorforsøg Antag at X i, i I, er uafhængige reelle variable og at X i N (ξ i, σ 2 ) for alle i I En faktor er en afbildning f : I F hvor F er en mængde af labels. En faktor deler observationerne ind

Læs mere

Lineær Algebra - Beviser

Lineær Algebra - Beviser Lineær Algebra - Beviser Mads Friis 8 oktober 213 1 Lineære afbildninger Jeg vil i denne note forsøge at give et indblik i, hvor kraftfuldt et værktøj matrix-algebra kan være i analyse af lineære funktioner

Læs mere

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra Eksamen i Lineær Algebra Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet & Det Sundhedsvidenskabelige Fakultet Tirsdag den 8 januar, Kl 9- Nærværende eksamenssæt består af 8 nummererede sider

Læs mere

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra To find the English version of the exam, please read from the other end! Se venligst bort fra den engelske tekst på bagsiden, hvis du følger den danske version af prøven. Eksamen i Lineær Algebra Første

Læs mere

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3 Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april

Læs mere

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).)

Statistisk hypotese. Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) Statistisk hypotese Lad P være en statistisk model på (X, E). (P er altså en familie af sandsynlighedsmål på (X, E).) En statistisk hypotese er en delmængde P 0 P.. p.1/26 PSfrag replacements Statistisk

Læs mere

Endeligdimensionale vektorrum

Endeligdimensionale vektorrum Endeligdimensionale vektorrum I det følgende betegner X, Y og Z endeligdimensionale vektorrum Gerne udstyret med en norm, evt et indre produkt Eksempel: En skævt beliggende plan i rummet, X = {v R 3 v,

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Symmetriske matricer. enote Skalarprodukt

Symmetriske matricer. enote Skalarprodukt enote 19 1 enote 19 Symmetriske matricer I denne enote vil vi beskæftige os med et af de mest benyttede resultater fra lineær algebra den såkaldte spektralsætning for symmetriske matricer. Den siger kort

Læs mere

Besvarelse af Eksamensopgaver Juni 2005 i Matematik H1

Besvarelse af Eksamensopgaver Juni 2005 i Matematik H1 Besvarelse af Eksamensopgaver Juni 5 i Matematik H Opgave De fire vektorer stilles op i en matrix som reduceres: 4 4 4 8 4 4 (a) Der er ledende et-taller så dim U =. Som basis kan f.eks. bruges a a jfr.

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Afsnit 6.1 Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler Lineære transformationer

Læs mere

DESIGNMAT FORÅR 2012: UGESEDDEL Forberedelse Læs alle opgaverne fra tidligere ugesedler, og læg særlig mærke til dem du har spørgsmål til.

DESIGNMAT FORÅR 2012: UGESEDDEL Forberedelse Læs alle opgaverne fra tidligere ugesedler, og læg særlig mærke til dem du har spørgsmål til. DESIGNMAT FORÅR 2012: UGESEDDEL 13 INSTITUT FOR MATEMATIK 1. Forberedelse Læs alle opgaverne fra tidligere ugesedler, og læg særlig mærke til dem du har spørgsmål til. 2. Aktiviteter mandag 13 17 2.1.

Læs mere

Kalkulus 2 - Grænseovergange, Kontinuitet og Følger

Kalkulus 2 - Grænseovergange, Kontinuitet og Følger Kalkulus - Grænseovergange, Kontinuitet og Følger Mads Friis 8. januar 05 Indhold Grundlæggende uligheder Grænseovergange 3 3 Kontinuitet 9 4 Følger 0 5 Perspektivering 4 Grundlæggende uligheder Sætning

Læs mere

Besvarelser til Lineær Algebra Reeksamen August 2016

Besvarelser til Lineær Algebra Reeksamen August 2016 Besvarelser til Lineær Algebra Reeksamen - 9. August 26 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra Eksamen i Lineær Algebra Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet & Det Sundhedsvidenskabelige Fakultet Onsdag den. januar,. Kl. 9-3. Nærværende eksamenssæt består af 8 nummererede

Læs mere

Betingning med en uafhængig variabel

Betingning med en uafhængig variabel Betingning med en uafhængig variabel Sætning Hvis X er en reel stokastisk variabel med første moment og Y er en stokastisk variabel uafhængig af X, så er E(X Y ) = EX. Bevis: Observer at D σ(y ) har formen

Læs mere

(Prøve)eksamen i Lineær Algebra

(Prøve)eksamen i Lineær Algebra (Prøve)eksamen i Lineær Algebra Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet & Det Sundhedsvidenskabelige Fakultet Nærværende eksamenssæt bestaår af 9 nummererede sider med ialt 15 opgaver.

Læs mere

n=1 er veldefineret for alle følger for hvilke højresiden er endelig. F.eks. tilhører følgen

n=1 er veldefineret for alle følger for hvilke højresiden er endelig. F.eks. tilhører følgen 2 Hilbert rum 2. Eksempler på Hilbert rum Vi skal nu først forsøge at begrunde, at de indre produkt rum af funktioner eller følger, som blev indført i Kapitel, ikke er omfattende nok til vores formål.

Læs mere

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra To find the English version of the exam, please read from the other end! Se venligst bort fra den engelske version på modsatte side hvis du følger denne danske version af prøven. Eksamen i Lineær Algebra

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Deskriptiv teori i flere dimensioner

Deskriptiv teori i flere dimensioner Kapitel 17 Deskriptiv teori i flere dimensioner I kapitel 13 og 14 udviklede vi en række deskriptive værktøjer til at beskrive sandsynlighedsmål på (R, B). Vi vil i dette kapitel forsøge at udvikle varianter

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere