Deskriptiv teori i flere dimensioner

Størrelse: px
Starte visningen fra side:

Download "Deskriptiv teori i flere dimensioner"

Transkript

1 Kapitel 17 Deskriptiv teori i flere dimensioner I kapitel 13 og 14 udviklede vi en række deskriptive værktøjer til at beskrive sandsynlighedsmål på (R, B). Vi vil i dette kapitel forsøge at udvikle varianter af disse værktøjer, der er egnede til at beskrive sandsynlighedsmål på (R n, B n ). Lad os fra starten advare mod for stor tiltro til projektet: mål på flerdimensionale rum er notorisk svære at sige noget begavet om, og det er svært at opsummere hvilke ligheder og forskelle to konkrete mål har Flerdimensionale fordelingsfunktioner Definition 17.1 Lad ν være et sandsynlighedsmål på (R n, B n ). Fordelingsfunktionen for ν er funktionen F : R n R givet ved F ( x 1,..., x n ) = ν ( (, x1 ]... (, x n ] ), (x 1,..., x n ) R n. Indholdet af denne definition er illustreret på figur For n = 1 stemmer definitionen overens med definition Og som i én dimension gælder generelt at fordelingsfunktionen entydigt fastlægger sandsynlighedsmålet. 344

2 17.1. Flerdimensionale fordelingsfunktioner 345 (x, y) Figur 17.1: Hvis ν er et sandsynlighedsmål på R 2, med tilhørende fordelingsfunktion F, så er F s værdi i punktet (x, y) ν-målet af det skraverede område. Sætning 17.2 Et sandsynlighedsmål på (R n, B n ) er entydigt bestemt ved sin fordelingsfunktion. BEVIS: Hvis to sandsynlighedsmål ν 1 og ν 2 på (R n, B n ) har samme fordelingsfunktion, så stemmer de overens på alle mængder af formen (, x 1 ]... (, x n ], (x 1,..., x n ) R n. Man kan (med et vist besvær) vise at disse mængder udgør et fællesmængdestabilt frembringersystem for B n. Og dermed følger sætningen af entydighedssætningen for sandsynlighedsmål. En af de nyttige egenskaber ved fordelingsfunktioner på R er at de muliggør en effektiv tabellering af et sandsynlighedsmål. Noget lignende gør sig ikke rigtig gældende i flere dimensioner. Dels selvfølgelig fordi det er svært at tabellere funktioner af flere variable. Men også fordi det er svært at udtrykke sandsynligheden af konkrete mængder ud fra fordelingsfunktionen. Eksempel 17.3 Lad F være fordelingsfunktion for et sandsynlighedsmål ν på (R 2, B 2 ). Lad A = (a 1, b 1 ] (a 2, b 2 ] være en standardkasse, altså et produkt af to standardintervaller. Vi ser at F(b 1, y) F(a 1, y) = ν ( (a 1, b 1 ] (, y] ),

3 346 Kapitel 17. Deskriptiv teori i flere dimensioner for alle y R, og dermed at (F(b 1, b 2 ) F(a 1, b 2 )) (F(b 1, a 2 ) F(a 1, a 2 )) = ν ( (a 1, b 1 ] (a 2, b 2 ] ). Det er altså lykkedes os at udtrykke ν(a) ved hjælp af fordelingsfunktionen for ν, om end formlen ikke er særligt smuk. Man kan helt generelt udtrykke sandsynligheden af en standardkasse i vilkårlig dimension ud fra sandsynlighedsmålets fordelingsfunktion ved følgende uskønne inklusion/eksklusions-formel: ν ( (a 1, b 1 ]... (a n, b n ] ) = ( 1) K F(d1 K,..., dk n ), (17.1) K {1,...,n} hvor K betegner antallet af elementer i K, og hvor di K a i hvis i K, = b i hvis i K. Højre side af (17.1) kaldes F s tilvækst over kassen (a 1, b 1 ]... (a n, b n ]. I én dimension ved vi at fordelingsfunktioner er voksende. Den analoge egenskab for en flerdimensional fordelingsfunktion, er at den har en ikke-negativ tilvækst over enhver standardkasse. Denne egenskab er så uigennemskuelig, at fordelingsfunktioner som begreb betragtet mister det meste af sin umiddelbare appel. Men egenskaben har dog forståelige konsekvenser. I to dimensioner følger det således at x F(x, y) er voksende for hvert fastholdt y og at y F(x, y) er voksende for hvert fastholdt x - vi siger at F er voksende på akseparallelle liniestykker. Tilsvarende bliver kontinuitetsegenskaberne for flerdimensionale fordelingsfunktioner så komplicerede at selve kontinuitetsbegrebet taber betydning. En flerdimensional fordelingsfunktion F er ganske vist altid højrekontinuert, med den rigtige definition af dette begreb. F.eks. vil lim F(x 1,..., x i 1, x i m, x i+1,..., x n ) F(x 1,..., x i 1, x i, x i+1,..., x n ), m hvis x i m x i for m, en egenskab vi kunne kalde akseparallel højrekontinuitet. Men en diskontinuitet kan ikke længere fortolkes som en punkt med positiv masse - der kan være mange andre grunde til at højrekontinuiteten ikke bliver til rigtig kontinuitet. Og det er heller ikke muligt at sige at der højst er tælleligt mange diskontinuitetspunkter.

4 17.1. Flerdimensionale fordelingsfunktioner 347 Sætning 17.4 Lad X 1,..., X n være reelle stokastiske variable, defineret på (Ω, F, P). Lad F være fordelingsfunktionen for den simultane fordeling af (X 1,..., X n ). Fordelingsfunktionen for X 1 er da G(x) = lim F(x, m,..., m). m BEVIS: Lad x R. På grund af sandsynlighedsmåls kontinuitetsegenskaber er G(x) = P(X 1 x) = lim m P(X 1 x, X 2 m,..., X n m) = lim m F(x, m,..., m), præcis som ønsket. Sætning 17.5 Lad X 1,..., X n være uafhængige reelle stokastiske variable, defineret på (Ω, F, P). Lad F i være den etdimensionale fordelingsfunktionen for X i, F i (x) = P(X i x) for i = 1,..., n. Fordelingsfunktionen F for den simultane fordeling af (X 1,..., X n ) er da F(x 1,..., x n ) = n F i (x i ). i=1 BEVIS: For x 1,..., x n R er F(x 1,..., x n ) = P(X 1 x 1,..., X n x n ) = n P(X i x i ) = i=1 n F i (x i ), i=1 præcis som ønsket. Eksempel 17.6 Gumbels todimensionale eksponentialfordeling med parameter θ [0, 1] har fordelingsfunktion F(x 1, x 2 ) = 1 e x 1 e x 2 + e (x 1+x 2 +θx 1 x 2 ) for x 1 > 0, x 2 > 0. (17.2)

5 348 Kapitel 17. Deskriptiv teori i flere dimensioner Det kan vises at dette virkelig er fordelingsfunktionen for et sandsynlighedsmål i planen. Vi ser at lim x 2 F(x 1, x 2 ) = 1 e x 1 for x 1 > 0, uanset værdien af θ, og dette genkendes som fordelingsfunktionen for den sædvanlige eksponentialfordeling. Hvis (X 1, X 2 ) har fordelingsfunktion (17.2), så er X 1 - og tilsvarende X 2 - altså standard eksponentialfordelte. Produktet af de to etdimensionale fordelingsfunktioner er (1 e x 1 )(1 e x 2 ) = 1 e x 1 e x 2 + e (x 1+x 2 ) for x 1 > 0, x 2 > 0. Hvis θ > 0 er dette produkt forskelligt fra (17.2), og derfor må X 1 og X 2 være afhængige. Hvis θ = 0 er Gumbels fordelingsfunktion produktet af to fordelingsfunktioner for eksponentialfordelinger, og derfor vil X 1 og X 2 i denne situation være uafhængige Kovarians Når man snakker om kovarianser, og mere generelt om flerdimensionale momenter, så er ideen at integrere visse polynomier af flere variable. Definition 17.7 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P), og antag at begge variable har 1. moment. Den sammenbundtede variabel (X, Y) har kovarians hvis produktet XY har 1. moment. I bekræftende fald er kovariansen mellem X og Y givet ved Cov(X, Y) = E ( (X EX)(Y EY) ). (17.3) Bemærk at (X EX)(Y EY) = X Y X EY Y EX + EX EY. (17.4) Når X og Y begge har 1. moment, ser vi heraf at XY har 1. moment hvis og kun hvis produktet af de centrerede variable, (X EX)(Y EY), har 1. moment. Så definition 17.7 giver god mening. Integreres led for led i (17.4) ser vi endvidere at Cov(X, Y) = EXY EX EY EX EY + EX EY = EXY EX EY. (17.5)

6 17.2. Kovarians 349 Sætning 17.8 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y begge har 2. moment, så har (X, Y) kovarians. BEVIS: Bemærk at X og Y begge har 1. moment. Der gælder at 0 ( X Y ) 2 = X 2 + Y 2 2 X Y, så vi ser at X Y X2 + Y 2. 2 Det følger heraf at X Y har 1. moment. Vi bemærker at hvis X har 2. moment, så har (X, X) kovarians, og Cov(X, X) = VX. Sætning 17.9 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y er uafhængige, og begge har 1. moment, så har X Y 1. moment, og Specielt har (X, Y) kovarians, og Cov(X, Y) = 0. EX Y = EX EY. (17.6) BEVIS: Vi skal bruge to varianter af samme argument, dels til at vise at X Y har 1. moment, og dels til at finde dette moment. Vi koncentrerer os om den første variant. Integraltransformationsformlen giver at X Y dp = x y d(x, Y)(P)(x, y) = x y dx(p) Y(P)(x, y). Ved hjælp af Tonellis sætning kan vi nu få at X Y dp = x y dy(p)(y) dx(p)(x). Regner vi på det inderste integral, kan vi sætte x ud, og får ved hjælp af integraltransformationsformlen at y dy(p)(y) = Y dp = E Y.

7 350 Kapitel 17. Deskriptiv teori i flere dimensioner Hermed ser vi at X Y dp = E Y x dx(p)(x) = E X E Y <. Altså har X Y 1. moment. Hvis vi gennemfører regningerne en gang til, uden numerisktegn denne gang, og med referencen til Tonellis sætning erstattet af en reference til Fubinis sætning, så opnår vi (17.6). At kovariansen er nul, følger ved indsættelse i (17.5). Hvis Cov(X, Y) = 0 siger vi at X og Y er ukorrelerede. Resultatet ovenfor formuleres ofte på den måde at uafhængige variable er ukorrelerede. Vi ser således at en numerisk stor kovarians mellem X og Y er et sikkert tegn på afhængighed. Det findes dog visse former for afhængighed, som kovariansen ikke kan opdage. Eksempel Lad X være ligefordelt på (0, 1), og lad Y = X(1 X). Da er X og Y meget kraftigt afhængige - Y er deterministisk, hvis man kender X. Alligevel ser vi at Cov(X, Y) = E(X 2 (1 X)) EX E(X X 2 ) = ( ) = 0, 3 så X og Y er ukorrelerede. Vi bemærker at sammenhængen mellem X og Y er kraftigt ikke-lineær. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis (X, Y) har kovarians, så er Endvidere gælder for alle α, β R at Cov(X, Y) = Cov(Y, X). (17.7) Cov(α + β X, Y) = βcov(x, Y). (17.8) BEVIS: Det er klart at udtrykket E ( (X EX)(Y EY) ) er symmetrisk i X og Y, så (17.7) følger. Hvad angår (17.8), skal vi centrere den nye X-variabel, og får (α + β X) E(α + β X) = α + β X α βex = β(x EX). Nu følger (17.8) nemt.

8 17.2. Kovarians 351 Vi kan naturligvis kombinere (17.8) med (17.7) og opnå at Cov(α 1 + β 1 X 1, α 2 + β 2 X 2 ) = β 1 β 2 Cov(X 1, X 2 ). (17.9) Lemma Lad X, Y og Z være reelle stokastiske variable, defineret på (Ω, F, P). Hvis både (X, Z) og (Y, Z) har kovarians, så har (X + Y, Z) kovarians og Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z). (17.10) BEVIS: Vi ser at produktet af de centrerede variable er ((X + Y) E(X + Y)) (Z EZ) = (X EX)(Z EZ) + (Y EY)(Z EZ). De ønskede resultater følger nu ved integration. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X har 2. moment, så er Cov(X, X) = VX. (17.11) Hvis både X og Y har 2. moment, så er V(X + Y) = VX + VY + 2Cov(X, Y). (17.12) Hvis X og Y er uafhængige og har 2. moment, gælder der at V(X + Y) = VX + VY. (17.13) BEVIS: Vi har allerede set at (17.11) er en triviel konsekvens af (17.5). Og nu ser vi at V(X + Y) = Cov(X + Y, X + Y) = Cov(X, X) + Cov(X, Y) + Cov(Y, X) + Cov(Y, Y) = VX + VY + 2Cov(X, Y). Formel (17.13) følger nu direkte, når man husker at uafhængige variable er ukorrelerede.

9 352 Kapitel 17. Deskriptiv teori i flere dimensioner Eksempel Lad (X 1, X 2, X 3 ) være polynomialfordelt med længde n og sandsynlighedsparameter (p 1, p 2, p 3 ). Da er Cov(X 1, X 2 ) = n p 1 p 2. Bemærkningerne efter lemma fortæller nemlig at de tre variable X 1, X 2 og X 1 + X 2 alle er binomialfordelte med længde n og successandsynlighed henholdsvis p 1, p 2 og p 1 + p 2. Dermed giver (17.12) i kombination med eksempel 13.17, at Cov(X 1, X 2 ) = 1 ( ) V(X1 + X 2 ) VX 1 VX 2 2 = n ( (p1 + p 2 )(1 p 1 p 2 ) p 1 (1 p 1 ) p 2 (1 p 2 ) ) 2 = n p 1 p 2. Hvis (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ) giver helt tilsvarende regninger at for i j er Cov(X i, X j ) = n p i p j. (17.14) Vi konstaterer altså at variablene i en polynomialfordeling er afhængige - fortegnet i (17.14) betyder at hvis X i er stor, så vil X j typisk være lille etc. Vi siger at X i og X j er negativt korrelerede. Det er ikke særligt mystisk: vi ved jo at X X N = n, så hvis én af variablene er større end forventet, må det kompenseres af at andre er mindre end forventet Store tals lov Definition En følge X 1, X 2,... af stokastiske variable siges at konvergere i P sandsynlighed mod en konstant ξ, skrevet X n ξ, hvis det for alle ɛ > 0 gælder at P ( X n ξ > ɛ) 0 for n. (17.15) Konvergens i sandsynlighed betyder at fordelingen af X n bliver mere og mere koncentreret om ξ. Hvis vi for et fast p (0, 1) lader x n være p-fraktilen for fordelingen af X n, vil der således gælde at x n ξ for n, uanset hvor ekstremt et p vi har fat på.

10 17.3. Store tals lov 353 Lemma Lad Y 1, Y 2,... være en følge af reelle stokastiske variable med 2. moment. Hvis EY n = ξ for alle n, og VY n 0 for n, så vil Y n P ξ. BEVIS: Lad ɛ > 0 være givet. Ifølge Chebyshevs ulighed vil P( Y n ξ > ɛ) VY n ɛ 2, og denne øvre grænse konvergerer tydeligvis mod nul. Sætning (Store tals lov) Lad X 1,..., X n være uafhængige, identisk fordelte reelle stokastiske variable med middelværdi ξ og varians σ 2. Da vil 1 n n P X i ξ. (17.16) i=1 BEVIS: Vi ser at E 1 n n X i = 1 n i=1 n EX i = ξ for alle n. Uafhængigheden mellem variablene sikrer endvidere at V 1 n n X i = 1 n 2 i=1 n i=1 i=1 VX i = n σ2 n 2 = σ2 n. Resultatet følger nu af lemma Ud fra store tals lov kan vi gøre rede for at den frekventistiske holdning til sandsynlighedsregning er selvkonsistent. Lad X 1, X 2,... være uafhængige, identisk fordelte

11 354 Kapitel 17. Deskriptiv teori i flere dimensioner reelle variable med fordeling ν, svarende til uafhængige replikationer af et eksperiment, der beskrives af ν. Den empiriske frekvens af en hændelse A B er 1 n n 1 A (X i ). i=1 Det er en stokastisk variabel, som ifølge store tals lov konvergerer i sandsynlighed mod grænseværdien ν(a). Så der vil altså være meget stor sandsynlighed for at den empiriske frekvens af hændelsen A ligger tæt på ν(a), i hvert fald hvis n er stor Korrelation Lemma (Cauchy-Schwarz ulighed) Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis både X og Y har 2. moment, er ( EXY ) 2 EX 2 EY 2. (17.17) BEVIS: For alle t R er 0 E ( (X + ty) 2) = EY 2 t EXY t + EX 2. Et vist andengradspolynomium i t er altså ikke-negativt. Men et andengradspolynomium kan kun være ikke-negativt hvis diskriminanten er ikke-positiv. Altså må ( 2EXY ) 2 4 EX 2 EY 2 0, hvilket præcis er (17.17). Bruges Cauchy-Schwarz ulighed på variablene X EX og Y EY, fås at Cov(X, Y) 2 VX VY. (17.18) Dette leder os naturligt til indførelse af en standardiseret kovarians.

12 17.4. Korrelation 355 Definition Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y er ikke-udartede og har 2. moment, defineres korrelationen mellem dem som Cov(X, Y) corr(x, Y) =. VX VY Korrelationen er et udtryk for det samme som kovariansen. Men denne gang måler vi det på en skala bestemt af variabiliteten af de to variable, og derfor er den faktiske værdi af korrelationen i et vist omfang fortolkelig. Bemærk at (17.18) medfører at 1 corr(x, Y) 1. Bemærk også at corr(x, X) = 1. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Antag at X og Y er ikke-udartede og har 2. moment. Da gælder at og For alle α R, β > 0 gælder endvidere at corr(x, Y) = corr(y, X), (17.19) corr(x, Y) = corr(x, Y). (17.20) corr(α + βx, Y) = corr(x, Y). (17.21) BEVIS: Formel (17.19) og (17.20) er direkte udtryk for kovariansens symmetri og linearitet. Også (17.21) følger af kovariansens linearitet: corr(α + βx, Y) = = Cov(α + βx, Y) V(α + βx) VY = Cov(X, Y) VX VY = corr(x, Y). βcov(x, Y) β 2 VX VY

13 356 Kapitel 17. Deskriptiv teori i flere dimensioner Vi observerer at for β > 0 er corr(x, α + βx) = corr(x, X) = 1. Tilsvarende ser vi at for β < 0 er corr(x, α + βx) = 1. Sætning Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Antag at X og Y er ikke-udartede og har 2. moment. Hvis corr(x, Y) = 1 eller corr(x, Y) = 1 så findes α, β R så Y = α + βx P-næsten sikkert. BEVIS: Lad os først antage at korrelationen er 1. Vi indfører de standardiserede variable X = X EX VX, Ỹ = Y EY VY, der har middelværdi 0 og varians 1. De standardiserede variable er blot en affin transformation af de oprindelige variable, så E X Ỹ = Cov( X, Ỹ) = corr( X, Ỹ) = corr(x, Y). Vi kan altså slutte at E X Ỹ = 1. Så gælder der at E( X Ỹ) 2 = E X 2 + EỸ 2 2E X Ỹ = = 0. Da ( X Ỹ) 2 0, kan dette kun lade sig gøre hvis integranden er nul næsten sikkert, dvs. hvis X = Ỹ næsten sikkert. Men i så fald har vi med sandsynlighed 1 at Y = VYỸ + EY = VY VY VY X + EY = VX X + EY VX EX. Altså er Y en affin transformation af X. Hvis corr(x, Y) = 1, så er corr( X, Y) = 1, og vi har derfor lige vist at Y = α βx P-n.s. for passende α og β. Med denne sætning in mente, er det almindeligt at korrelationer tæt ved ±1 fortolkes som næsten lineær afhængighed, og mere generelt siger man at korrelation måler

14 17.5. Flerdimensionale momenter 357 den lineære afhængighed mellem to variable, skønt begrebet ikke kan gives præcis mening. Eksempel Hvis (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ), så følger det af eksempel at for i j er n p i p j corr(x i, X j ) = n pi (1 p i ) n p j (1 p j ) = p i p j (1 p i ) (1 p j ) Flerdimensionale momenter Definition Lad X 1,..., X n være reelle stokastiske variable, defineret på et fælles baggrundsrum (Ω, F, P). Hvis alle variablene har 1. moment, så siger vi at den sammenbundtede variabel X = (X 1,..., X n ) har 1. moment, og vi indfører middelværdien af X som R n -vektoren EX 1 EX =.. EX n Tilsvarende, hvis alle variablene X 1,..., X n har 2. moment, så siger vi at X har 2. moment, og vi indfører variansen af X som n n matricen VX 1 Cov(X 1, X 2 )... Cov(X 1, X n ) Cov(X VX = 2, X 1 ) VX 2... Cov(X 2, X n ) Cov(X n, X 1 ) Cov(X n, X 2 )... VX n Vi konstaterer at VX er en symmetrisk n n matrix. Den kaldes også variansmatricen, eller kovariansmatricen.

15 358 Kapitel 17. Deskriptiv teori i flere dimensioner Eksempel Hvis X = (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ), så følger det af eksempel at X har både middelværdi og varians. Vi ser at middelværdien er p 1 mens variansmatricen er EX = n p 2. p n p 1 (1 p 1 ) p 1 p 2... p 1 p n VX = n p 2 p 1 p 2 (1 p 2 )... p 2 p n p n p 1 p n p 2... p n (1 p n ). Som man ser af eksempel 17.24, er flerdimensionale middelværdier og varianser blot et værktøj til at hjælpe med bogholderiet over de forskellige parvise kovarianser. Men det er et nyttigt værktøj, blandt andet fordi det passer så fint sammen med lineære transformationer, som vi skal se. I forbindelse med lineær algebra kan det være nødvendigt at sondre mellem rækkevektorer og søjlevektorer. Vi vil da insistere på at en sammenbundtning af n reelle variable altid skal opfattes som en søjle. Uheldigvis fylder søjler meget i trykt form, og derfor skriver man ofte x = (x 1,..., x n ) T når man mener at x er en n-søjle. Vi skriver altså x som en række, der transponeres. Sætning Lad X = (X 1,..., X n ) T være en stokastisk variabel med værdier i R n, defineret på (Ω, F, P). Lad a R k være en vektor, lad B være en k n matrix, og sæt Y = a + BX. Hvis X har 1. moment, så har Y 1. moment, og EY = a + B EX. (17.22) Hvis X har 2. moment, så har Y 2. moment, og VY = B VX B T. (17.23)

16 17.5. Flerdimensionale momenter 359 BEVIS: Lad a = a 1 a 2. a m, B = b 11 b b 1n b 21 b b 2n b m1 b m2... b mn. Definitionen på Y = (Y 1,..., Y m ) T er da simpelthen en kompakt måde at skrive m forskellige variable på: Y i = a i + n b i j X j, i = 1,..., m. j=1 Det følger af lemma at hvis X j erne alle har k te moment, så har Y i også k te moment. Hvis 1. momenterne eksisterer, ser vi at EY i = a i + n b i j EX j = ( a + B EX) i, i = 1,..., m. j=1 Tilsvarende, hvis 2. momenterne eksisterer, ser vi at n Cov(Y i, Y k ) = Cov a i + b i j X j, a k + n = j=1 l=1 j=1 l=1 n b k l X l n b i j b k l Cov(X j, X l ) = ( B VX B T ) ik. Vi husker at variansen for en reel stokastisk variabel er ikke-negativ, og faktisk er strengt positiv medmindre variablen er konstant. Noget lignende gælder for flerdimensionale variable, hvor begrebet positivt semidefinit matrix (se p. 594 for en definition) er den relevante generalisering af et ikke-negativt reelt tal: Sætning Lad X = (X 1,..., X n ) T være en stokastisk variabel med værdier i R n, defineret på (Ω, F, P). Hvis X har 2. moment, så er VX positivt semidefinit. Faktisk er VX positivt definit, medmindre der findes en ikke-triviel linearkombination af X 1,..., X n der er konstant.

17 360 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Lad x R n være en søjlevektor, altså en n 1 matrix. Betragt den lineære afbildning R n R givet ved y x T y. Sæt Z = x T X. Det følger af sætning 17.25, at Z har 2. moment. Men Z er en reel variabel, så variansen er blot et tal - endda et ikke-negativt tal. Derfor har vi ifølge (17.23) 0 VZ = x T VX (x T ) T = x T VX x, og vi kan nu slutte at VX er positivt semidefinit. Antag at VX ikke er positivt definit. Der findes da et x R n, så x 0 og så x T VX x = 0. Ifølge (17.23) har Z = x T X da varians 0, dvs. Z er en konstant stokastisk variabel. Og Z er netop en ikke-triviel linearkombination af X i erne Flerdimensionale karakteristiske funktioner Definition Lad ν være et sandsynlighedsmål på (R n, B n ). Den karakteristiske funktion for ν er funktionen φ : R n C givet som φ(θ) = e i θt x dν(x) for θ R n. (17.24) Vi tænker på R n som bestående af søjlevektorer, ikke rækkevektorer, og størrelsen θ T x i eksponenten af (17.24) er derfor et reelt tal. For n = 1 stemmer denne definition naturligvis overens med definition Hvis X = (X 1,..., X n ) T er en stokastisk variabel med værdier i R n, taler man ofte om X s karakteristiske funktion når man i virkeligheden mener den karakteristiske funktion for X s fordeling. Den definerende formel er altså φ(θ) = e i θt x dx(p)(x) = e i θt X dp, hvor sidste udtryk fremkommer ved hjælp af integraltransformationssætningen. For at få disse formler til at give mening er det vigtigt at vi tænker på X som en stokastisk søjlevektor, ikke som en rækkevektor.

18 17.6. Flerdimensionale karakteristiske funktioner 361 Som i afsnit 15.2 ser vi at den karakteristiske funktion φ for et sandsynlighedsmål ν på R n opfylder at φ(θ) 1 for θ R n og φ(0) = 1. Ved at kopiere beviset for lemma 15.7 ser vi at φ er konjugeret symmetrisk, φ( θ) = φ(θ) for alle θ R n. Og ved at kopiere beviset for sætning 15.8 ser vi at φ er uniformt kontinuert. Sætning Lad X være en stokastisk variabel med værdier i R n, og lad φ være variablens karakteristisk funktion. Hvis a R k er en vektor og hvis B er en k n matrix, så har den stokastiske variabel a + BX karakteristisk funktion ψ(θ) = e i θt a φ(b T θ) for alle θ R k. BEVIS: Hvis ψ betegner den karakteristiske funktion for a + BX, så er ψ(θ) = e i θt (a+bx) dp = e i θt a+i (B T θ) T X dp = e i θt a φ(b T θ), for alle θ R k, præcis som ønsket. Eksempel Lad X og Y være to reelle stokastiske variable, og antag at den sammenbundtede variabel (X, Y) T har karakteristisk funktion φ : R 2 C. Variablen X er en lineær transformation af (X, Y) T, og derfor kan vi finde dens karakteristiske funktion ψ ved at sætte ind i sætning Vi har at ( ) X X = (1 0). Y og derfor er ψ(θ) = φ ( (1 0) T θ ) (( 1 = φ 0 ) ) (( θ θ = φ 0 )) for θ R. Tager man ikke helt strengt på formalia, vil man typisk formulere dette resultat på formen ψ(θ) = φ(θ, 0) - det fylder mindre, og er ikke overdynget med overflødige

19 362 Kapitel 17. Deskriptiv teori i flere dimensioner parenteser. Men når man skal udlede det, har man behov for at holde nøje styr over hvad der er rækker og hvad der er søjler. Variablen Y får tilsvarende karakteristisk funktion θ φ(0, θ) for θ R, og det er klart at vi kan udvide teknikken til at dække mange andre former for marginaliseringer. Hvis φ er karakteristisk funktion for en tredimensional variabel (X, Y, Z) T, så har (X, Z) karakteristisk funktion (θ 1, θ 2 ) φ(θ 1, 0, θ 2 ) og så videre. Lemma Lad (X, E, µ) og (Y, F, ν) være to σ-endelige målrum. Hvis der er givet to komplekse integrable funktioner f L C (X) og g L C (Y), så er funktionen f g : X Y C givet ved f g(x, y) = f (x)g(y) for alle x X, y Y, integrabel med hensyn til µ ν, og der gælder at f g dµ ν = f dµ g dν. BEMÆRK: Ved første øjekast virker resultatet som en velkendt konsekvens af Fubinis sætning. Vi har da også brugt en tilsvarende formel for reelle funktioner mange gange, f.eks. i sætning 17.9, uden at gøre et større nummer ud af det. Når der er noget at argumentere for her, er det fordi der er tale om kompleks multiplikation, både inde i integranden af venstre side og mellem integralerne på højre. BEVIS: Eftersom f (x)g(y) = f (x) g(y) følger det af Tonellis sætning at f g er integrabel. Så det er kun selve integrationsformlen, der kræver omhu. Lad f = f 1 +i f 2 og g = g 1 + ig 2 være en opsplitning af f og g i real- og imaginærdel. Da er f g(x, y) = f 1 (x)g 1 (y) f 2 (x)g 2 (y) i ( f 1 (x)g 2 (y) + f 2 (x)g 1 (y) ). og derfor er f g dµ ν = f 1 (x)g 1 (y) f 2 (x)g 2 (y) dµ ν(x, y) + i f 1 (x)g 2 (y) + f 2 (x)g 1 (y) dµ ν(x, y).

20 17.6. Flerdimensionale karakteristiske funktioner 363 Integreres led for led fås fire integraler, og de kan alle regnes ud ved hjælp af Fubinis sætning, f g dµ ν = f 1 dµ g 1 dν f 2 dµ g 2 dν ( ) + i f 1 dµ g 2 dν + f 2 dµ g 2 dν. På den anden side kan vi starte med produktet ( ) ( f dµ g dν = f 1 dµ + i f 2 dµ g 1 dν + i ) g 2 dν. Ganger vi ud, får vi præcis det samme som ovenfor. Sætning Lad X og Y være to reelle stokastiske variable, med karakteristiske funktioner φ 1 og φ 2. Hvis X og Y er uafhængige, så har den sammenbundtede variabel (X, Y) T karakteristisk funktion (( )) θ1 φ = φ 1 (θ 1 ) φ 2 (θ 2 ) for alle θ 1, θ 2 R. (17.25) θ 2 BEVIS: Ved at henvise til integraltransformationsformlen og eksponentialfunktionens funktionalligning ser vi at (( )) θ1 φ = e i (θ 1X+θ 2 Y) dp = e i (θ 1x+θ 2 y) d(x, Y)(P)(x, y) θ 2 = e i θ1x e i θ2y dx(p) Y(P)(x, y). Resultatet følger nu ved hjælp af lemma Hvis vi har behov for en mere kompakt notation, vil vi ikke nødvendigvis føle os hævet over at skrive formel (17.25) som φ(θ 1, θ 2 ) = φ 1 (θ 1 )φ 2 (θ 2 ), skønt det naturligvis kan give anledning til formelle problemer. Det er klart at teknikken bag sætning kan bruges mere generelt: der er ikke behov for at de to indgående variable er reelle.

21 364 Kapitel 17. Deskriptiv teori i flere dimensioner Hvis X har værdier i R k og Y har værdier i R m, så sikrer uafhængighed mellem dem at den karakteristiske funktion for sammenbundtningen (X, Y) T kan skrives på formen (17.25), hvor argumentet på venstre side skal opfattes som en bekvem skrivemåde for en vektor i R k+m. Ved successiv brug af dette generelle princip, ser vi at hvis X 1,..., X n er uafhængige reelle variable med karakteristiske funktioner φ 1,..., φ n, så har den sammenbundtede variabel (X 1,..., X n ) T karakteristisk funktion θ 1 n φ. = φ i (θ i ) for alle θ 1,..., θ n R. θ i=1 n Eksempel Lad X 1,..., X n være uafhængige N(0, 1)-fordelte reelle stokastiske variable. Den karakteristiske funktion for den simultane fordeling af (X 1,..., X n ) er θ 1 n φ. = e θ i 2 /2 = e n i=1 θ 2 i /2. θ i=1 n Vi foretrækker normalt dette resultat skrevet op på formen φ(θ) = e θt θ/2 for alle θ R n, (17.26) der jo i det mindste har fordelen af at være ganske kompakt. Vi har i afsnit 16.2 indført regulære normalfordelinger på R n som fordelinger med en tæthed, der giver mindelser om den klassiske normalfordelingstæthed. Det viser sig at man kan indføre en endnu mere vidtrækkende generalisering af det etdimensionale normalfordelingsbegreb ved at fokusere på at den karakteristiske funktion skal se ud omtrent som den karakteristiske funktion i eksempel 17.32: Definition For en vektor ξ R n og en symmetrisk, positivt semidefinit n n matrix Σ er normalfordelingen N n (ξ, Σ) det sandsynlighedsmål på (R n, B n ) der har karakteristisk funktion φ(θ) = e i θt ξ e θt Σ θ/2 for alle θ R n. (17.27)

22 17.6. Flerdimensionale karakteristiske funktioner 365 Vi viser i næste afsnit at den karakteristiske funktion bestemmer sandsynlighedsmålet entydigt, så der kan højst være ét sandsynlighedsmål på R n der har den karakteristiske funktion (17.27). Men det er næppe klart at der findes sådan et sandsynlighedsmål. Det skal vi dog overbevise os om at der gør. Eksempel Hvis X 1,..., X n er uafhængige N(0, 1)-fordelte reelle variable, så følger sammenbundtningen X = (X 1,..., X n ) T en N n (0, I)-fordeling. Her betegner 0 nulvektoren og I er n n enhedsmatricen. Dette resultat følger umiddelbart når man sammenligner den karakteristiske funktion fra eksempel med definition Man refererer ofte til fordelingen af X som standard normalfordelingen på R n. Lemma Lad ξ R n være en vektor og lad Σ være en symmetrisk, positivt semidefinit n n matrix. Sandsynlighedsmålet N n (ξ, Σ) findes. BEVIS: Udfordringen består i at producere en stokastisk variabel med den rigtige karakteristiske funktion. Ved hjælp af spektralsætningen for symmetriske n n matricer kan man vise, at når Σ er positivt semidefinit så har den en matrixkvadratrod - der findes altså en n n matrix B så Σ = BB T. Lad X = (X 1,..., X n ) T være en sammenbundtning af uafhængige N(0, 1)-fordelte reelle variable, og sæt Y = ξ + BX. Ifølge eksempel har X karakteristisk funktion φ(θ) = e θt θ/2 for alle θ R n. Ved at henvise til sætning ser vi at Y får karakteristisk funktion ψ(θ) = e iθt ξ e (BT θ) T B T θ/2 = e iθt ξ e θt Σθ/2 for alle θ R n. At skrive de forskellige normalfordelinger som affine transformationer af standard normalfordelinger tillader os at give en meningsfuld fortolkning af de to parametre i definition 17.33: Sætning Lad Y være en stokastisk variabel på R n, der følger en N n (ξ, Σ)- fordeling. Da har Y både 1. og 2. moment, og EY = ξ, VY = Σ. (17.28)

23 366 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Lad X være standard normalfordelt på R k, og lad Z = ξ + BX, hvor B opfylder at Σ = BB T. Af beviset for lemma fremgår det at Z er N n (ξ, Σ)-fordelt - Z og Y er ikke nødvendigvis lig med hinanden, men de har samme fordeling, og dermed må de have de samme momenter. Ud fra definition er det klart at Det følger nu af sætning at EX = 0, VX = I. EZ = ξ + B0 = ξ, VZ = BIB T = Σ. Sætning Lad X være en stokastisk variabel med værdier R n, og antag at X er N n (ξ, Σ)-fordelt. Hvis C er en m n matrix, og hvis η er en vektor i R m, så er CX + η N m ( Cξ + η, CΣC T ). BEVIS: Dette resultat er i virkeligheden en triviel indsættelse. Vi ved at X har karakteristisk funktion φ(θ) = e i θt ξ e θt Σ θ/2 for alle θ R n. Ifølge sætning har Y derfor karakteristisk funktion ψ(θ) = e i θt η φ(c T θ) = e i θt η e i θt C ξ e θt C Σ C T θ/2 for alle θ R m. Og det genkender vi som den karakteristiske funktion for normalfordelingen på R m med middelværdi Cξ + η og variansmatrix CΣC T. Hvis vi vender tilbage til de regulære normalfordelinger fra afsnit 16.2, så er det naturligt at spørge hvordan de passer ind i det billede, vi er ved at tegne. Vi skal i eksempel se at de regulære normalfordelinger på R n kan skrives som affine transformationer Y = ξ + BX af standard normalfordelingen på R n, hvor matricen B er invertibel. Derfor er de regulære normalfordelinger også normalfordelinger, forstået ud fra definition 17.33, og de kan karakteriseres som de normalfordelinger, der har invertible (eller i denne sammenhæng: positivt definitte) variansmatricer.

24 17.7. Entydighed af karakteristiske funktioner 367 Normalfordelinger på R n med ikke-invertible variansmatricer kaldes ofte singulære normalfordelinger, og det er forholdsvis ubehagelige objekter: de lever på en hyperplan (eller en mængde af endnu lavere dimension) og har ikke tæthed med hensyn til m n Den eneste konkrete måde at få hold på dem på, er faktisk via deres karakteristiske funktion Entydighed af karakteristiske funktioner Indtil nu har vi givet en række resultater, der fortæller hvordan man kan regne karakteristiske funktioner ud i forskellige sammenhænge, når man kender visse andre karakteristiske funktioner. Men vi har ikke sagt meget om hvad det er, de karakteristiske funktioner egentlig karakteriserer. På samme måde som i én dimension kan man uddrage kvalitativ (og kvantitativ) information om sandsynlighedsmålets haleegenskaber ved at studere den karakteristiske funktions opførsel inde omkring 0, og man kan omvendt få information om sandsynlighedsmålets lokale regularitet ved at studere den karakteristiske funktions haleopførsel. Nu er begrebet haleopførsel noget vanskeligere at forholde sig til i flere dimensioner end én, og vi vil ikke forfølge emnet - den interesserede læser henvises til standardværket Lukacs (1970). Men vi vil dog bevise at et sandsynlighedsmål på R n er entydigt givet ved sin karakteristiske funktion. Det er muligt at angive eksplicitte omvendingsintegraler, som i sætning Men vi vælger i stedet vejen via uniform approksimation af kontinuerte funktioner med trigonometriske polynomier - argumenterne her er trin for trin gentagelser af argumenterne i det etdimensionale tilfælde. Det fylder et par sider at skrive ned, men de eneste komplikationer er i virkeligheden af notationsmæssig art. Vi betegner systemet af kontinuerte, begrænsede reelle funktioner defineret på R n med C b (R n ). For at vise at integralet af C b (R n )-funktioner bestemmer et sandsynlighedsmål, så har vi brug for C b -funktioner, der er indikatorfunktionsagtige. En C b -funktion kaldes en bumpfunktion hvis den kun antager værdier i [0, 1]. Hvis K V er henholdsvis en kompakt og en åben mængde i R k, skriver vi K f V, hvis f er en bumpfunktion der opfylder at f (x) = 1 for alle x K, f (x) = 0 for alle x V c.

25 368 Kapitel 17. Deskriptiv teori i flere dimensioner Hvis [a i, b i ] (c i, d i ) for i = 1,..., n, kan vi finde etdimensionale bumpfunktioner f i der opfylder at [a i, b i ] f i (c i, d i ) for i = 1,..., n. Vi kan f.eks. bruge stykkevist affine funktioner som i (13.23), men detaljerne spiller i virkeligheden ingen rolle. Da vil funktionen f 1... f n : R n R givet ved f 1... f n (x 1,..., x n ) = n f i (x i ) i=1 tydeligvis opfylde at [a 1, b 1 ]... [a n, b n ] f 1... f n (c 1, d 1 )... (c n, d n ). Sætning Lad ν og λ være to sandsynlighedsmål på (R n, B n ). Hvis f (x) dν(x) = f (x) dλ(x) for alle f C b (R n ), (17.29) så er ν = λ. BEVIS: Lad (a 1, b 1 ) (a n, b n ) være en åben kasse. For hvert m > max i 2/(b i a i ) vælges en bumpfunktion f m, der opfylder at [ n i=1 a i + 1 m, b i 1 ] f m n i=1 m (a i, b i ) Da vil f m 1 i (a i,b i ), majoriseret af konstanten 1. Så majorantsætningen giver at f m (x) dν(x) 1 i (a i,b i )(x) dν(x) = ν ( n i=1 (a i, b i ) ) for m. Samme type grænseresultat gælder naturligvis for λ-integraler, og da f m -funktionerne alle er kontinuerte og begrænsede, ser vi at ν ( n i=1 (a i, b i ) ) = lim f m (x) dν(x) = lim f m (x) dλ(x) = λ ( n m m i=1 (a i, b i ) ). De åbne kasser udgør et fællesmængdestabilt frembringersystem for Borelalgebraen på R n, så det følger af entydighedssætningen for sandsynlighedsmål at ν = λ.

26 17.7. Entydighed af karakteristiske funktioner 369 Et komplekst trigonometrisk polynomium i n variable er en funktion af formen (θ 1,..., θ n ) N k 1,...,k n = N c k1,...,k n e i (k 1θ k n θ n ), hvor koefficienterne er komplekse tal. Et reelt trigonometrisk polynomium af n variable er et komplekst trigonometrisk polynomium hvis imaginærdel er identisk nul. Principielt kan man selvfølgelig godt skrive definitionen af et reelt trigonometrisk polynomium op ved hjælp af sinus er og cosinus er, men det bliver skrækindjagende at se på, fordi der kommer alle mulige blandingsled, hvor man har produkter af sinus af nogle variable og cosinus af andre. Bemærk at et komplekst trigonometrisk polynomium er periodisk i hver variabel med periode 2π. En måde at få et trigonometrisk polynomium i to variable frem på, er at tage et almindelige polynomium r(x 1, x 2, x 3, x 4 ) i fire variable, og se på p(θ 1, θ 2 ) = r(cos θ 1, sin θ 1, cos θ 2, sin θ 2 ). Helt generelt vil rigtige polynomier, regnet ud i variable af formen cos θ i og sin θ i være trigonometriske polynomier. En måde at se det på er at observere at enhver elementær trigonometrisk funktion selv er et trigonometrisk polynomium, og at klassen af trigonometriske polynomier er stabil over for multiplikation og addition. Sætning Lad f : [ π, π] n R være en kontinuert funktion, der opfylder periodicitetsbetingelsen at f ( π, x 2,..., x n ) = f (π, x 2,..., x n ) f (x 1, π,..., x n ) = f (x 1, π,,..., x n ) for alle x 2,..., x n for alle x 1, x 3,..., x n. f (x 1,..., x n 1, π) = f (x 1,..., x n 1, π) for alle x 1,..., x n 1. Da findes en følge af reelle trigonometriske polynomier p 1, p 2,... på R n så sup f (z) p m (z) 0 for m. z [ π,π] n BEVIS: Argumentationen er stort set som i sætning 15.20, så vi nøjes med en skitse. Først identificeres f med en kontinuert funktion F : S 1 S 1 R, ved at sætte F(cos θ 1, sin θ 1,..., cos θ n, sin θ n ) = f (θ 1,..., θ n ).

27 370 Kapitel 17. Deskriptiv teori i flere dimensioner Definitionen giver mening på grund af periodicitetsbetingelsen. Den nye funktion F udvides til en kontinuert funktion F, defineret på hele R 2n, og den udvidede funktion approksimeres med polynomier q 1, q 2,... af 2n variable, på en sådan måde at approksimationen er uniform over den kompakte terning [ 1, 1] 2n. Des mere er approksimationen uniform over S 1... S 1, og derfor vil sup f (θ 1,..., θ n ) q m (cos θ 1, sin θ 1,..., cos θ n, sin θ n ) 0. (θ 1,...,θ n ) [ π,π] n Men polynomierne q m regnet ud i alle disse sinus er og cosinus er, er netop hvad vi har kaldt et trigonometrisk polynomium. Eftersom q m er et reelt polynomium, konstaterer vi smertefrit at vi faktisk har approksimeret f uniformt med reelle trigonometriske polynomier. Som i én dimension håndterer vi uniform approksimation over store kasser ved at transformere den store kasse ned til [ π, π] n med en lineær transformation, foretage approksimationen på denne skala, og derefter transformere tilbage. Det leder naturligt til at vi indfører de generaliserede trigonometriske polynomier. Det er udtryk af formen N (θ 1,..., θ n ) c k e i (α k1θ α kn θ n ), k=1 hvor c 1,..., c N er komplekse tal, og hvor α 11,... α Nn er vilkårlige reelle tal. Denne klasse af funktioner er stabil over for lineære transformationer, i modsætning til de ægte trigonometriske polynomier. Korollar Lad f : R n R være en kontinuert, begrænset funktion. For hvert K > 0 findes en følge af generaliserede reelle trigonometrisk polynomier i n variable p 1, p 2,... så sup θ [ K,K] n f (θ) p n (θ) 0 for n. Vi kan antage at p n f + 1 for alle n N. BEVIS: Vi går frem som i beviset for korollar Ved at gøre den kasse vi vil approksimere over lidt større, kan vi lade som om f er nul på kassens rand. Vi kan f.eks. lade g være en bumpfunktion, der opfylder at [ K, K] n g ( K 1, K + 1 ) n,

28 17.7. Entydighed af karakteristiske funktioner 371 og sætte f (θ) = g(θ) f (θ) for alle θ R. Den nye funktion f er selvfølgelig kontinuert, og den er identisk 0 uden for den åbne kasse ( K 1, K + 1) n. Specielt opfylder den at f ( K 1, x 2,..., x n ) = f (K + 1, x 2,..., x n ) = 0, og tilsvarende betingelser i de andre variable. Endvidere er f lig med f på kassen [ K, K] n hvor vores hovedinteresse ligger, og endelig er f f. Vi kan nu finde en følge af trigonometriske polynomier, q 1, q 2,..., så ( ) sup f (K + 1)θ q m (θ) π 0 for m. θ [ π,π] n Disse q er kan antages at være periodiske i hver variabel med periode 2π, så de antager deres numerisk største værdier i kassen [ π, π] n. Ved i værste fald at droppe de første endeligt mange q er, ser vi at q m f + f q m f + 1 f + 1. De generaliserede trigonometriske polynomier ( πθ ) r m (θ) = q m K + 1 (17.30) opfylder at Og da sup f (θ) r m (θ) 0 for m. θ [ K 1,K+1] n sup f (θ) r m (θ) = θ [ K,K] n sup f (θ) r m (θ) θ [ K,K] n sup f (θ) r m (θ), θ [ K 1,K+1] n har vi vist det ønskede. Sætning Lad ν og λ være to sandsynlighedsmål på (R n, B n ) med karakteristisk funktion henholdsvis φ og ψ. Hvis φ = ψ, så er ν = λ.

29 372 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Vi viser at antagelsen om at ν og λ har samme karakteristiske funktion medfører at f dν = f dλ for alle f C b (R n ). At ν og λ er samme sandsynlighedsmål, følger herefter af sætning Lad q(θ) = N k=1 c k e i j α k j θ j være et generaliseret trigonometrisk polynomium. Da er N q(θ) dν(θ) = c k e i N j α k j θ j dν(θ) = c k φ(α k1,..., α kn ). k=1 Vi ser at ν-integralet af et generaliseret trigonometrisk polynomium er givet ved den karakteristiske funktion. Da ν og λ har samme karakteristiske funktion, har vi altså at q(θ) dν(θ) = q(θ) dλ(θ). k=1 Så lad f være en C b (R n )-funktion. Ifølge korollar kan vi finde generaliserede trigonometriske polynomier q 1, q 2,... så sup θ [ m,m] n f (θ) q m (θ) < 1 m og så g m f + 1 for alle m. Vi ser heraf at q m (θ) f (θ) for alle θ, majoriseret af f + 1, og majorantsætningen fortæller os at q m dν f dν for m. Samme type grænseresultat gælder for λ-integraler, og derfor har vi at f dν = lim q m dν = lim q m dλ f dλ. m m 17.8 Noter Flerdimensionale fordelingsfunktioner er meget vanskelige at få noget fornuft ud af. De tjener ikke noget formål i tabelleringssammenhænge, og der er ikke rigtig noget

30 17.9. Opgaver 373 associeret fraktilbegreb - medmindre man har lyst til at tale om fraktilmangfoldigheder... Ikke desto mindre har en moderne variant af ideen, de såkaldte copulaer, haft en vis succes i forbindelse med modelbygning i de senere år, se Nelsen (1999). Store tals lov er en af hjørnestenene i sandsynlighedsregning. Sætning kaldes ofte den svage store tals lov, fordi der findes andre sætninger der med svagere forudsætninger giver stærkere konklusioner, se Ash (1972), Billingsley (1995), Dudley (1989) og Hoffmann-Jørgensen (1994). En af de skarpe varianter er Glivenko- Cantellis sætning, der fortæller at den empiriske fordelingsfunktion dannet ud fra uafhængige, identisk fordelte reelle variable, med sandsynlighed 1 vil konvergere uniformt mod den sande fordelingsfunktion. Der er en stor forskningsmæssig industri, der producerer varianter af store tals lov for variable der har en specifik form for afhængighed, eller som måske ikke er helt identisk fordelte Opgaver OPGAVE Lad (X 1, X 2 ) have en todimensional Gumbel eksponentialfordeling med parameter θ. SPGM 17.1(a). Find P(1 < X 1 < 2, 1 < X 2 < 3). SPGM 17.1(b). Find P(x 1 < X 1 < x 1 + 1, x 2 < X 2 < x ). SPGM 17.1(c). Vis at konvergerer mod for 1 0, 2 0. P(x 1 < X 1 < x 1 + 1, x 2 < X 2 < x ) 1 2 e (x 1+x 2 +θx 1 x 2 ) ( (1 + θx 1 )(1 + θx 2 ) θ ) (17.31) SPGM 17.1(d). Gør rede for at fordelingen af (X 1, X 2 ) har tæthed (17.31) med hensyn til det todimensionale Lebesguemål. OPGAVE Lad (X 1, X 2 ) være Dirichletfordelt med parametre (λ 1, λ 2, λ). SPGM 17.2(a). Vis at E(X 1 X 2 ) = λ 1 λ 2 (λ 1 + λ 2 + λ)(λ 1 + λ 2 + λ + 1).

31 374 Kapitel 17. Deskriptiv teori i flere dimensioner SPGM 17.2(b). Vis at SPGM 17.2(c). Vis at λ 1 λ 2 Cov(X 1, X 2 ) = (λ 1 + λ 2 + λ) 2 (λ 1 + λ 2 + λ + 1). λ 1 λ 2 corr(x 1, X 2 ) = (λ 1 + λ)(λ 2 + λ). Giv en intuitiv forklaring på fortegnet for korrelationen. Lad nu (X 1,..., X n ) være Dirichletfordelt med parametre (λ 1,..., λ n, λ). SPGM 17.2(d). Find for i j kovarians og korrelation mellem X i og X j. OPGAVE Antag at (X 1, X 2 ) har fordelingen fra eksempel 16.3, altså tæthed f (x 1, x 2 ) = 1 2π e (x2 1 +2x2 2 2x 1 x 2 )/2 for alle (x 1, x 2 ) R 2. SPGM 17.3(a). Vis eksplicit at f er en sandsynlighedstæthed. SPGM 17.3(b). Vis eksplicit at X 1 er N(0, 2)-fordelt, mens X 2 er N(0, 1)-fordelt. SPGM 17.3(c). Find Cov(X 1, X 2 ) og corr(x 1, X 2 ). OPGAVE Lad Σ være en symmetrisk, positivt semidefinit n n matrix. Vis at der findes en n-dimensional stokastisk variabel X = (X 1,..., X n ) T, så VX = Σ. OPGAVE Lad x 1,..., x n være n punkter i R 2. Lad µ være det empiriske mål i disse punkter. Den empiriske kovarians af disse punkter defineres som kovariansen af det empiriske mål µ. Vis at den empiriske kovarians er 1 n n x i1 x i2 1 n i=1 n x i1 1 n i=1 n x i2. OPGAVE Lad X og Y være reelle stokastiske variable, der kun antager værdierne 0 og 1, og lad P(X = 1) = 1 P(X = 0) = p 1, P(Y = 1) = 1 P(Y = 0) = p 2. Bemærk at vi ikke antager at X og Y er uafhængige. i=1

32 17.9. Opgaver 375 SPGM 17.6(a). Vis at Z = XY er binomialfordelt med længde 1, og at successandsynligheden p opfylder at 0 p min(p 1, p 2 ). SPGM 17.6(b). Find korrelationen mellem X og Y, og gør rede for at sålænge p 1 og p 2 holdes fast, så er corr(x, Y) en en voksende, affin funktion af p. SPGM 17.6(c). Find for fastholdt p 1 og p 2 den øvre og nedre grænse for corr(x, Y) udtrykt ved de to såkaldte odds, θ 1 = p 1 1 p 1, θ 2 = p 2 1 p 2, SPGM 17.6(d). Benyt p = 1 P(XY = 0) til vise at p p 1 + p 2 1. Brug denne vurdering til at skærpe den nedre grænse for korrelationen mellem X og Y i tilfældet hvor p 1 + p 2 > 1.

Deskriptiv teori i flere dimensioner

Deskriptiv teori i flere dimensioner Kapitel 17 Deskriptiv teori i flere dimensioner I kapitel 13 og 14 udviklede vi en række deskriptive værktøjer til at beskrive sandsynlighedsmål på (R, B) Vi vil i dette kapitel forsøge at udvikle varianter

Læs mere

standard normalfordelingen på R 2.

standard normalfordelingen på R 2. Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

Eksamen 2014/2015 Mål- og integralteori

Eksamen 2014/2015 Mål- og integralteori Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt

Læs mere

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive

Læs mere

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag. Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er

Læs mere

Reeksamen 2014/2015 Mål- og integralteori

Reeksamen 2014/2015 Mål- og integralteori Reeksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål. Ved bedømmelsen indgår de spørgsmål med samme vægt.

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en

Læs mere

Deskriptiv teori: den karakteristiske funktion

Deskriptiv teori: den karakteristiske funktion Kapitel 15 Deskriptiv teori: den karakteristiske funktion Når man forsøger at karakterisere et sandsynlighedsmål ν på R ved hjælp af dets momenter, fortæller man essentielt hvordan man skal integrere polynomier

Læs mere

Taylors formel. Kapitel Klassiske sætninger i en dimension

Taylors formel. Kapitel Klassiske sætninger i en dimension Kapitel 3 Taylors formel 3.1 Klassiske sætninger i en dimension Sætning 3.1 (Rolles sætning) Lad f : [a, b] R være kontinuert, og antag at f er differentiabel i det åbne interval (a, b). Hvis f (a) = f

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Lineære transformationer, middelværdi og varians Helle Sørensen Uge 8, onsdag SaSt2 (Uge 8, onsdag) Lineære transf. og middelværdi 1 / 15 Program I formiddag: Fordeling

Læs mere

Svag konvergens. Kapitel Historisk indledning

Svag konvergens. Kapitel Historisk indledning Kapitel 4 Svag konvergens 4.1 Historisk indledning I første halvdel af 1700-tallet var stort set al sandsynlighedsregning af kombinatorisk natur. Hovedværker fra perioden er Abraham de Moivres The Doctrine

Læs mere

hvor a og b er konstanter. Ved middelværdidannelse fås videre

hvor a og b er konstanter. Ved middelværdidannelse fås videre Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte

Læs mere

af om en given kombination af binomialkoefficienter svarer til en stor eller en lille sandsynlighed.

af om en given kombination af binomialkoefficienter svarer til en stor eller en lille sandsynlighed. Kapitel 22 Svag konvergens I første halvdel af 1700-tallet var stort set al sandsynlighedsregning af kombinatorisk natur. Hovedværker fra perioden er Abraham de Moivres The octrine of Chances; or, a Method

Læs mere

Integration m.h.t. mål med tæthed

Integration m.h.t. mål med tæthed Integration m.h.t. mål med tæthed Sætning (EH 11.7) Lad ν = f µ på (X, E). For alle g M + (X, E) gælder at gdν = g f dµ. Bevis: Standardbeviset: 1) indikatorfunktioner 2) simple funktioner 3) M + -funktioner.

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag I formiddag: Tætheder og fordelingsfunktioner kort resume fra i mandags og et par eksempler mere om sammenhængen

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag SaSt2 (Uge 6, onsdag) Middelværdi og varians 1 / 18 Program I formiddag: Tætheder og fordelingsfunktioner kort resume

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 9 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske variable,

Læs mere

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20.

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20. Foldning af sandsnlighedsmål Lad µ og ν være to sandsnlighedsmål på (R, B). Fortolkning Lad φ : R R være φ(, ) = + for (, ) R. Lad X og Y være to reelle stokastiske variable defineret på (Ω, F, P). Definition

Læs mere

INSTITUT FOR MATEMATISKE FAG c

INSTITUT FOR MATEMATISKE FAG c INSTITUT FOR MATEMATISKE FAG c AALBORG UNIVERSITET FREDRIK BAJERS VEJ 7 G 9220 AALBORG ØST Tlf.: 96 35 89 27 URL: www.math.aau.dk Fax: 98 15 81 29 E-mail: bjh@math.aau.dk Dataanalyse Sandsynlighed og stokastiske

Læs mere

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning Sandsynlighedstætheder og kontinuerte fordelinger på R Varians og middelværdi Normalfordelingen Susanne Ditlevsen Uge 48, tirsdag Tætheder og fordelingsfunktioner

Læs mere

Sandsynlighedsregning Oversigt over begreber og fordelinger

Sandsynlighedsregning Oversigt over begreber og fordelinger Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)

Læs mere

Flerdimensionale transformationer

Flerdimensionale transformationer Kapitel 18 Flerdimensionale transformationer Når man i praksis skal opstille en sandsynlighedsmodel for et eksperiment, vil man altid tage udgangspunkt i uafhængighed. Ofte kan man tænke på det udførte

Læs mere

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås 5.3. Konvergens i sandsynlighed 55 BEVIS: Lad φ 1, φ 2,... og φ være de karakteristiske funktioner for X 1, X 2,... og X. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås φ X,v

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Integration m.h.t. mål med tæthed

Integration m.h.t. mål med tæthed Integration m.h.t. mål med tæthed Sætning (EH 11.7) Lad ν = f µ på (X, E). For alle g M + (X, E) gælder at gdν = g f dµ. Bevis: Standardbeviset: 1) indikatorfunktioner 2) simple funktioner 3) M + -funktioner.

Læs mere

Den todimensionale normalfordeling

Den todimensionale normalfordeling Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives

Læs mere

Betingning med en uafhængig variabel

Betingning med en uafhængig variabel Betingning med en uafhængig variabel Sætning Hvis X er en reel stokastisk variabel med første moment og Y er en stokastisk variabel uafhængig af X, så er E(X Y ) = EX. Bevis: Observer at D σ(y ) har formen

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Kontinuerte fordelinger Simultane fordelinger Kovarians og korrelation Uafhængighed Betingede fordelinger - Middelværdi og varians - Sammenhæng med uafhængighed 1 Figur 1: En tæthedsfunktion

Læs mere

Et eksperiment beskrives af et udfaldsrum udstyret med et. alle mulige resultater af eksperimentet

Et eksperiment beskrives af et udfaldsrum udstyret med et. alle mulige resultater af eksperimentet Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål, (X, E, ν). Udfaldsrummet X indeholder alle mulige resultater af eksperimentet men ofte også yderligere elementer

Læs mere

Sandsynlighedsteori. Sandsynlighedsteori. Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et. Et Bayesiansk argument

Sandsynlighedsteori. Sandsynlighedsteori. Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et. Et Bayesiansk argument Sandsynlighedsteori Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål, (, E, ν). Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål,

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

Borel-σ-algebraen. Definition (EH 1.23)

Borel-σ-algebraen. Definition (EH 1.23) Borel-σ-algebraen Definition (EH 1.23) Borel-σ-algebraen B k på R k er σ-algebraen frembragt af de åbne mængder O k. Andre frembringersystemer for B k : De afsluttede mængder. De åbne kasser I k (k = 1,

Læs mere

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Efterår Dagens program Dagens program Afsnit 6.1. Ligefordelinger, fra sidst Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler

Læs mere

Susanne Ditlevsen Institut for Matematiske Fag susanne

Susanne Ditlevsen Institut for Matematiske Fag     susanne Statistik og Sandsynlighedsregning 1 Repetition MS kapitel 1 3 Susanne Ditlevsen Institut for Matematiske Fag Email: susanne@math.ku.dk http://math.ku.dk/ susanne Hvad er sandsynlighed? - beskriver systemer

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Afsnit 6.1 Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler Lineære transformationer

Læs mere

Transformation: tætheder pår k

Transformation: tætheder pår k Kapitel 19 Transformation: tætheder pår k I dette kapitel vil vi angribe følgende version af transformationsproblemet: Lad X 1,, X k være reelle stokastiske variable, defineret på (Ω,F, P), sådan at den

Læs mere

Karakteristiske funktioner og Den Centrale Grænseværdisætning

Karakteristiske funktioner og Den Centrale Grænseværdisætning E6 efterår 1999 Notat 10 Jørgen Larsen 20. oktober 1999 Karakteristiske funktioner og Den Centrale Grænseværdisætning Karakteristiske funktioner som er nære slægtninge til Fourier-transformationen) er

Læs mere

Klassisk Taylors formel

Klassisk Taylors formel p. 1/17 Klassisk Taylors formel Sætning Lad f : (a, b) R være n gange differentiabel. For x 0, x (a, b) findes et ξ mellem x 0 og x der opfylder at f(x) = f(x 0 )+ f (x 0 ) 1! (x x 0 )+...+ f(n 1) (x 0

Læs mere

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige længde: z = 1 n hvor z i = xi 2 + yi 2. n z i = 1 n i=1 n i=1 x 2 i + y 2 i Indfør tabellen samt vægtene Da er a k = #{i

Læs mere

Matematisk modellering og numeriske metoder. Lektion 5

Matematisk modellering og numeriske metoder. Lektion 5 Matematisk modellering og numeriske metoder Lektion 5 Morten Grud Rasmussen 19. september, 2013 1 Euler-Cauchy-ligninger [Bogens afsnit 2.5, side 71] 1.1 De tre typer af Euler-Cauchy-ligninger Efter at

Læs mere

StatDataN: Middelværdi og varians

StatDataN: Middelværdi og varians StatDataN: Middelværdi og varians JLJ StatDataN: Middelværdi og varians p. 1/33 Repetition Stokastisk variabel: funktion fra udfaldsrum over i de hele tal eller over i de reelle tal Ex: Ω = alle egetræer,

Læs mere

Betingede fordelinger

Betingede fordelinger Kapitel 21 Betingede fordelinger Hvis man i et eksperiment observerer to stokastiske variable, X og Y, er det ofte hensigtsmæssigt at skrue sin sandsynlighedsteoretiske model sammen på en sådan måde at

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Note om Monte Carlo metoden

Note om Monte Carlo metoden Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at

Læs mere

3 Stokastiske variable 3.1 Diskrete variable

3 Stokastiske variable 3.1 Diskrete variable 3 Stokastiske variable 3.1 Diskrete variable Punktsandsnligheden benævnes P(x) = P(X = x). {x, P(x)} er en sandsnlighedsfordeling for den stokastiske variabel, X, hvis 1) P(x) $ 0 for alle værdier af x.

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n. Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),

Læs mere

Trykfejlsliste - alle fejl Asymptotisk teori

Trykfejlsliste - alle fejl Asymptotisk teori 9. januar 2005 Stat 2A / EH Trykfejlsliste - alle fejl Asymptotisk teori Denne liste indeholder alle de regulære fejl, slåfejl og stavefejl der er fundet i 2A-noterne indtil nu. 9 1 Forkert: x C x ro alle

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Normalfordelingen og transformation af kontinuerte fordelinger Helle Sørensen Uge 7, mandag SaSt2 (Uge 7, mandag) Normalford. og transformation 1 / 16 Program Paretofordelingen,

Læs mere

Teoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts.

Teoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts. Teoretisk Statistik, 9 marts 2005 Empiriske analoger (Kap. 3.7) Normalfordelingen (Kap. 3.12) Opsamling på Kap. 3 nb. Det forventes ikke, at alt materialet dækkes d. 9. marts. 1 Empiriske analoger Betragt

Læs mere

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Motivation Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Rasmus Waagepetersen October 26, 2018 Eksempel: En landmåler får til opgave at måle længden λ fra A til B. Entreprenøren

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 28 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner Stokastiske variable: udfald

Læs mere

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige. Histogrammetoden. Histogrammetoden.

Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige. Histogrammetoden. Histogrammetoden. For ( i, y i ) R 2, i =,, n, ser vi på den gennemsnitlige længde: z = n hvor z i = i 2 + yi 2 Indfør tabellen samt vægtene Da er z i = n 2 i + y 2 i a k = #{i 00z i = k}, k N 0 z ned := ν k = a k n 00kν

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4 NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4 Sættet består af 3 opgaver med ialt 15 delopgaver. Besvarelsen vil blive forkastet, medmindre der er gjort et

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3 Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april

Læs mere

Sandsynlighed og Statistik

Sandsynlighed og Statistik 36 Sandsynlighed og Statistik 6.1 Indledning Denne note beskriver de statistiske begreber og formler som man med rimelig sandsynlighed kan komme ud for i eksperimentelle øvelser. Alt er yderst korfattet,

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte

Læs mere

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ.

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ. Statistiske modeller (Definitioner) Statistik og Sandsynlighedsregning 2 IH kapitel 0 og En observation er en vektor af tal x (x,..., x n ) E, der repræsenterer udfaldet af et (eller flere) eksperimenter.

Læs mere

Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner Stokastiske variable:

Læs mere

Del II. Den lineære normale model

Del II. Den lineære normale model Del II Den lineære normale model 301 302 Kapitel 9 Normalfordelinger på vektorrum Vi vil i dette kapitel give en fremstilling af teorien for normalfordelinger (også kaldet Gaussiske fordelinger) på endeligdimensionale

Læs mere

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan

Læs mere

Opgaver i sandsynlighedsregning

Opgaver i sandsynlighedsregning Afdeling for Teoretisk Statistik STATISTIK Institut for Matematiske Fag Preben Blæsild Aarhus Universitet 9. januar 005 Opgaver i sandsynlighedsregning Opgave Lad A og B være hændelser således at P(A)

Læs mere

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x) Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen

Læs mere

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Sandsynlighedsregning 11. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 11. forelæsning Bo Friis Nielsen Sandsynlighedsregning 11. forelæsning Bo Friis Nielsen Matematik og Computer Science Danmarks Tekniske Universitet 28 Kgs. Lyngby Danmark Email: bfni@imm.dtu.dk Dagens nye emner afsnit 6.3 (og 6.4 Betingede

Læs mere

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable Landmålingens fejlteori - lidt om kurset Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet Kursusholder

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

For nemheds skyld: m = 2, dvs. interesseret i fordeling af X 1 og X 2. Nemt at generalisere til vilkårligt m.

For nemheds skyld: m = 2, dvs. interesseret i fordeling af X 1 og X 2. Nemt at generalisere til vilkårligt m. 1 Uge 11 Teoretisk Statistik 8. marts 2004 Kapitel 3: Fordeling af en stokastisk variabel, X Kapitel 4: Fordeling af flere stokastiske variable, X 1,,X m (på en gang). NB: X 1,,X m kan være gentagne observationer

Læs mere

Tonelli light. Eksistensbeviset for µ ν gav målet. for G E K ved succesiv integration. Alternativ definition:

Tonelli light. Eksistensbeviset for µ ν gav målet. for G E K ved succesiv integration. Alternativ definition: Tonelli light Eksistensbeviset for µ ν gav målet ( ) λ(g) = G (x, y)dν(y) dµ(x) for G E K ved succesiv integration. Alternativ definition: ( ) λ(g) = G (x, y)dµ(x) dν(y). Som λ(a B) = µ(a)ν(b) gælder λ(a

Læs mere

Polynomier. Indhold. Georg Mohr-Konkurrencen. 1 Polynomier 2. 2 Polynomiumsdivision 4. 3 Algebraens fundamentalsætning og rødder 6

Polynomier. Indhold. Georg Mohr-Konkurrencen. 1 Polynomier 2. 2 Polynomiumsdivision 4. 3 Algebraens fundamentalsætning og rødder 6 Indhold 1 Polynomier 2 Polynomier 2 Polynomiumsdivision 4 3 Algebraens fundamentalsætning og rødder 6 4 Koefficienter 8 5 Polynomier med heltallige koefficienter 9 6 Mere om polynomier med heltallige koefficienter

Læs mere

Uge 10 Teoretisk Statistik 1. marts 2004

Uge 10 Teoretisk Statistik 1. marts 2004 1 Uge 10 Teoretisk Statistik 1. marts 004 1. u-fordelingen. Normalfordelingen 3. Middelværdi og varians 4. Mere normalfordelingsteori 5. Grafisk kontrol af normalfordelingsantagelse 6. Eksempler 7. Oversigt

Læs mere

Supplerende opgaver. S1.3.1 Lad A, B og C være delmængder af X. Vis at

Supplerende opgaver. S1.3.1 Lad A, B og C være delmængder af X. Vis at Supplerende opgaver Analyse Jørgen Vesterstrøm Forår 2004 S.3. Lad A, B og C være delmængder af X. Vis at (A B C) (A B C) (A B) C og find en nødvendig og tilstrækkelig betingelse for at der gælder lighedstegn

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30 Områdeestimator X (Ω, F) (X, E) x 01 01 P θ ν θ θ Θ 0000 1111 000000 111111 0000 1111 0000 1111 C(x) En områdeestimator er en afbildning C : X P(Θ).. p.1/30 Konfidensområde En områdestimator C : X P(Θ)

Læs mere

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition

Læs mere

ANALYSE 1, 2014, Uge 5

ANALYSE 1, 2014, Uge 5 ANALYSE, 204, Uge 5 Afleveringsfrist for Prøve 2 er Tirsdag den 20/5 kl 0:5. Forelæsninger Tirsdag Vi går videre med Afsnit 4 om uniform konvergens af Fourierrækker, hvor hovedsætningen er Sætning 4.3.

Læs mere

Statistiske modeller

Statistiske modeller Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere

DANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr)

DANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr) DANMARKS TEKNISKE UNIVERSITET Side af 7 sider Skriftlig prøve, den: 9. maj 05 Kursus nr : 0405 Kursus navn: Sandsynlighedsregning Varighed : 4 timer Tilladte hjælpemidler: Alle Dette sæt er besvaret af:

Læs mere

Definition. Definitioner

Definition. Definitioner Definition Landmålingens fejlteori Lektion Diskrete stokastiske variable En reel funktion defineret på et udfaldsrum (med sandsynlighedsfordeling) kaldes en stokastisk variabel. - kkb@math.aau.dk http://people.math.aau.dk/

Læs mere

Komplekse tal og algebraens fundamentalsætning.

Komplekse tal og algebraens fundamentalsætning. Komplekse tal og algebraens fundamentalsætning. Michael Knudsen 10. oktober 2005 1 Ligningsløsning Lad N = {0,1,2,...} betegne mængden af de naturlige tal og betragt ligningen ax + b = 0, a,b N,a 0. Findes

Læs mere

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater

Læs mere

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat.

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. Estimation Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. En estimator er en gætteregel.. p.1/22 Estimation X acements

Læs mere

Den Brownske Bevægelse

Den Brownske Bevægelse Den Brownske Bevægelse N.J. Nielsen 1 Notation I dette notesæt vil vi generelt benytte samme notation som i det øvrige undervisningsmateriale i MM23. For ethvert n N betegner B n Borelalgebraen på R, og

Læs mere

Landmålingens fejlteori - Lektion 5 - Fejlforplantning

Landmålingens fejlteori - Lektion 5 - Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke

Læs mere

Statistisk model. Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål

Statistisk model. Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål Statistisk model Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål på (X, E). Modellen er parametriseret hvis der findes en parametermængde Θ og

Læs mere

Løsning til prøveeksamen 1

Løsning til prøveeksamen 1 IMM - DTU 020 Probability 2006-2-8 BFN/bfn Løsning til prøveeksamen Spørgsmål ) For en indikatorvariabel I A for hændelsen A gælder E(I A ) = P(A) (se for eksemepl side 68). Således er E(X) = P(N ) = =

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/41 Landmålingens fejlteori - lidt om kurset

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Normalfordelingens venner og bekendte Helle Sørensen Uge 9, onsdag SaSt2 (Uge 9, onsdag) Normalfordelingens venner 1 / 20 Program Resultaterne fra denne uge skal bruges

Læs mere

Lidt om fordelinger, afledt af normalfordelingen

Lidt om fordelinger, afledt af normalfordelingen IMM, 2002-10-10 Poul Thyregod Lidt om fordelinger, afledt af normalfordelingen 1 Introduktion I forbindelse med inferens i normalfordelinger optræder forskellige fordelinger, der er afledt af normalfordelingen,

Læs mere