Deskriptiv teori i flere dimensioner
|
|
- Bjarne Lauritsen
- 5 år siden
- Visninger:
Transkript
1 Kapitel 17 Deskriptiv teori i flere dimensioner I kapitel 13 og 14 udviklede vi en række deskriptive værktøjer til at beskrive sandsynlighedsmål på (R, B). Vi vil i dette kapitel forsøge at udvikle varianter af disse værktøjer, der er egnede til at beskrive sandsynlighedsmål på (R n, B n ). Lad os fra starten advare mod for stor tiltro til projektet: mål på flerdimensionale rum er notorisk svære at sige noget begavet om, og det er svært at opsummere hvilke ligheder og forskelle to konkrete mål har Flerdimensionale fordelingsfunktioner Definition 17.1 Lad ν være et sandsynlighedsmål på (R n, B n ). Fordelingsfunktionen for ν er funktionen F : R n R givet ved F ( x 1,..., x n ) = ν ( (, x1 ]... (, x n ] ), (x 1,..., x n ) R n. Indholdet af denne definition er illustreret på figur For n = 1 stemmer definitionen overens med definition Og som i én dimension gælder generelt at fordelingsfunktionen entydigt fastlægger sandsynlighedsmålet. 344
2 17.1. Flerdimensionale fordelingsfunktioner 345 (x, y) Figur 17.1: Hvis ν er et sandsynlighedsmål på R 2, med tilhørende fordelingsfunktion F, så er F s værdi i punktet (x, y) ν-målet af det skraverede område. Sætning 17.2 Et sandsynlighedsmål på (R n, B n ) er entydigt bestemt ved sin fordelingsfunktion. BEVIS: Hvis to sandsynlighedsmål ν 1 og ν 2 på (R n, B n ) har samme fordelingsfunktion, så stemmer de overens på alle mængder af formen (, x 1 ]... (, x n ], (x 1,..., x n ) R n. Man kan (med et vist besvær) vise at disse mængder udgør et fællesmængdestabilt frembringersystem for B n. Og dermed følger sætningen af entydighedssætningen for sandsynlighedsmål. En af de nyttige egenskaber ved fordelingsfunktioner på R er at de muliggør en effektiv tabellering af et sandsynlighedsmål. Noget lignende gør sig ikke rigtig gældende i flere dimensioner. Dels selvfølgelig fordi det er svært at tabellere funktioner af flere variable. Men også fordi det er svært at udtrykke sandsynligheden af konkrete mængder ud fra fordelingsfunktionen. Eksempel 17.3 Lad F være fordelingsfunktion for et sandsynlighedsmål ν på (R 2, B 2 ). Lad A = (a 1, b 1 ] (a 2, b 2 ] være en standardkasse, altså et produkt af to standardintervaller. Vi ser at F(b 1, y) F(a 1, y) = ν ( (a 1, b 1 ] (, y] ),
3 346 Kapitel 17. Deskriptiv teori i flere dimensioner for alle y R, og dermed at (F(b 1, b 2 ) F(a 1, b 2 )) (F(b 1, a 2 ) F(a 1, a 2 )) = ν ( (a 1, b 1 ] (a 2, b 2 ] ). Det er altså lykkedes os at udtrykke ν(a) ved hjælp af fordelingsfunktionen for ν, om end formlen ikke er særligt smuk. Man kan helt generelt udtrykke sandsynligheden af en standardkasse i vilkårlig dimension ud fra sandsynlighedsmålets fordelingsfunktion ved følgende uskønne inklusion/eksklusions-formel: ν ( (a 1, b 1 ]... (a n, b n ] ) = ( 1) K F(d1 K,..., dk n ), (17.1) K {1,...,n} hvor K betegner antallet af elementer i K, og hvor di K a i hvis i K, = b i hvis i K. Højre side af (17.1) kaldes F s tilvækst over kassen (a 1, b 1 ]... (a n, b n ]. I én dimension ved vi at fordelingsfunktioner er voksende. Den analoge egenskab for en flerdimensional fordelingsfunktion, er at den har en ikke-negativ tilvækst over enhver standardkasse. Denne egenskab er så uigennemskuelig, at fordelingsfunktioner som begreb betragtet mister det meste af sin umiddelbare appel. Men egenskaben har dog forståelige konsekvenser. I to dimensioner følger det således at x F(x, y) er voksende for hvert fastholdt y og at y F(x, y) er voksende for hvert fastholdt x - vi siger at F er voksende på akseparallelle liniestykker. Tilsvarende bliver kontinuitetsegenskaberne for flerdimensionale fordelingsfunktioner så komplicerede at selve kontinuitetsbegrebet taber betydning. En flerdimensional fordelingsfunktion F er ganske vist altid højrekontinuert, med den rigtige definition af dette begreb. F.eks. vil lim F(x 1,..., x i 1, x i m, x i+1,..., x n ) F(x 1,..., x i 1, x i, x i+1,..., x n ), m hvis x i m x i for m, en egenskab vi kunne kalde akseparallel højrekontinuitet. Men en diskontinuitet kan ikke længere fortolkes som en punkt med positiv masse - der kan være mange andre grunde til at højrekontinuiteten ikke bliver til rigtig kontinuitet. Og det er heller ikke muligt at sige at der højst er tælleligt mange diskontinuitetspunkter.
4 17.1. Flerdimensionale fordelingsfunktioner 347 Sætning 17.4 Lad X 1,..., X n være reelle stokastiske variable, defineret på (Ω, F, P). Lad F være fordelingsfunktionen for den simultane fordeling af (X 1,..., X n ). Fordelingsfunktionen for X 1 er da G(x) = lim F(x, m,..., m). m BEVIS: Lad x R. På grund af sandsynlighedsmåls kontinuitetsegenskaber er G(x) = P(X 1 x) = lim m P(X 1 x, X 2 m,..., X n m) = lim m F(x, m,..., m), præcis som ønsket. Sætning 17.5 Lad X 1,..., X n være uafhængige reelle stokastiske variable, defineret på (Ω, F, P). Lad F i være den etdimensionale fordelingsfunktionen for X i, F i (x) = P(X i x) for i = 1,..., n. Fordelingsfunktionen F for den simultane fordeling af (X 1,..., X n ) er da F(x 1,..., x n ) = n F i (x i ). i=1 BEVIS: For x 1,..., x n R er F(x 1,..., x n ) = P(X 1 x 1,..., X n x n ) = n P(X i x i ) = i=1 n F i (x i ), i=1 præcis som ønsket. Eksempel 17.6 Gumbels todimensionale eksponentialfordeling med parameter θ [0, 1] har fordelingsfunktion F(x 1, x 2 ) = 1 e x 1 e x 2 + e (x 1+x 2 +θx 1 x 2 ) for x 1 > 0, x 2 > 0. (17.2)
5 348 Kapitel 17. Deskriptiv teori i flere dimensioner Det kan vises at dette virkelig er fordelingsfunktionen for et sandsynlighedsmål i planen. Vi ser at lim x 2 F(x 1, x 2 ) = 1 e x 1 for x 1 > 0, uanset værdien af θ, og dette genkendes som fordelingsfunktionen for den sædvanlige eksponentialfordeling. Hvis (X 1, X 2 ) har fordelingsfunktion (17.2), så er X 1 - og tilsvarende X 2 - altså standard eksponentialfordelte. Produktet af de to etdimensionale fordelingsfunktioner er (1 e x 1 )(1 e x 2 ) = 1 e x 1 e x 2 + e (x 1+x 2 ) for x 1 > 0, x 2 > 0. Hvis θ > 0 er dette produkt forskelligt fra (17.2), og derfor må X 1 og X 2 være afhængige. Hvis θ = 0 er Gumbels fordelingsfunktion produktet af to fordelingsfunktioner for eksponentialfordelinger, og derfor vil X 1 og X 2 i denne situation være uafhængige Kovarians Når man snakker om kovarianser, og mere generelt om flerdimensionale momenter, så er ideen at integrere visse polynomier af flere variable. Definition 17.7 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P), og antag at begge variable har 1. moment. Den sammenbundtede variabel (X, Y) har kovarians hvis produktet XY har 1. moment. I bekræftende fald er kovariansen mellem X og Y givet ved Cov(X, Y) = E ( (X EX)(Y EY) ). (17.3) Bemærk at (X EX)(Y EY) = X Y X EY Y EX + EX EY. (17.4) Når X og Y begge har 1. moment, ser vi heraf at XY har 1. moment hvis og kun hvis produktet af de centrerede variable, (X EX)(Y EY), har 1. moment. Så definition 17.7 giver god mening. Integreres led for led i (17.4) ser vi endvidere at Cov(X, Y) = EXY EX EY EX EY + EX EY = EXY EX EY. (17.5)
6 17.2. Kovarians 349 Sætning 17.8 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y begge har 2. moment, så har (X, Y) kovarians. BEVIS: Bemærk at X og Y begge har 1. moment. Der gælder at 0 ( X Y ) 2 = X 2 + Y 2 2 X Y, så vi ser at X Y X2 + Y 2. 2 Det følger heraf at X Y har 1. moment. Vi bemærker at hvis X har 2. moment, så har (X, X) kovarians, og Cov(X, X) = VX. Sætning 17.9 Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y er uafhængige, og begge har 1. moment, så har X Y 1. moment, og Specielt har (X, Y) kovarians, og Cov(X, Y) = 0. EX Y = EX EY. (17.6) BEVIS: Vi skal bruge to varianter af samme argument, dels til at vise at X Y har 1. moment, og dels til at finde dette moment. Vi koncentrerer os om den første variant. Integraltransformationsformlen giver at X Y dp = x y d(x, Y)(P)(x, y) = x y dx(p) Y(P)(x, y). Ved hjælp af Tonellis sætning kan vi nu få at X Y dp = x y dy(p)(y) dx(p)(x). Regner vi på det inderste integral, kan vi sætte x ud, og får ved hjælp af integraltransformationsformlen at y dy(p)(y) = Y dp = E Y.
7 350 Kapitel 17. Deskriptiv teori i flere dimensioner Hermed ser vi at X Y dp = E Y x dx(p)(x) = E X E Y <. Altså har X Y 1. moment. Hvis vi gennemfører regningerne en gang til, uden numerisktegn denne gang, og med referencen til Tonellis sætning erstattet af en reference til Fubinis sætning, så opnår vi (17.6). At kovariansen er nul, følger ved indsættelse i (17.5). Hvis Cov(X, Y) = 0 siger vi at X og Y er ukorrelerede. Resultatet ovenfor formuleres ofte på den måde at uafhængige variable er ukorrelerede. Vi ser således at en numerisk stor kovarians mellem X og Y er et sikkert tegn på afhængighed. Det findes dog visse former for afhængighed, som kovariansen ikke kan opdage. Eksempel Lad X være ligefordelt på (0, 1), og lad Y = X(1 X). Da er X og Y meget kraftigt afhængige - Y er deterministisk, hvis man kender X. Alligevel ser vi at Cov(X, Y) = E(X 2 (1 X)) EX E(X X 2 ) = ( ) = 0, 3 så X og Y er ukorrelerede. Vi bemærker at sammenhængen mellem X og Y er kraftigt ikke-lineær. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis (X, Y) har kovarians, så er Endvidere gælder for alle α, β R at Cov(X, Y) = Cov(Y, X). (17.7) Cov(α + β X, Y) = βcov(x, Y). (17.8) BEVIS: Det er klart at udtrykket E ( (X EX)(Y EY) ) er symmetrisk i X og Y, så (17.7) følger. Hvad angår (17.8), skal vi centrere den nye X-variabel, og får (α + β X) E(α + β X) = α + β X α βex = β(x EX). Nu følger (17.8) nemt.
8 17.2. Kovarians 351 Vi kan naturligvis kombinere (17.8) med (17.7) og opnå at Cov(α 1 + β 1 X 1, α 2 + β 2 X 2 ) = β 1 β 2 Cov(X 1, X 2 ). (17.9) Lemma Lad X, Y og Z være reelle stokastiske variable, defineret på (Ω, F, P). Hvis både (X, Z) og (Y, Z) har kovarians, så har (X + Y, Z) kovarians og Cov(X + Y, Z) = Cov(X, Z) + Cov(Y, Z). (17.10) BEVIS: Vi ser at produktet af de centrerede variable er ((X + Y) E(X + Y)) (Z EZ) = (X EX)(Z EZ) + (Y EY)(Z EZ). De ønskede resultater følger nu ved integration. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X har 2. moment, så er Cov(X, X) = VX. (17.11) Hvis både X og Y har 2. moment, så er V(X + Y) = VX + VY + 2Cov(X, Y). (17.12) Hvis X og Y er uafhængige og har 2. moment, gælder der at V(X + Y) = VX + VY. (17.13) BEVIS: Vi har allerede set at (17.11) er en triviel konsekvens af (17.5). Og nu ser vi at V(X + Y) = Cov(X + Y, X + Y) = Cov(X, X) + Cov(X, Y) + Cov(Y, X) + Cov(Y, Y) = VX + VY + 2Cov(X, Y). Formel (17.13) følger nu direkte, når man husker at uafhængige variable er ukorrelerede.
9 352 Kapitel 17. Deskriptiv teori i flere dimensioner Eksempel Lad (X 1, X 2, X 3 ) være polynomialfordelt med længde n og sandsynlighedsparameter (p 1, p 2, p 3 ). Da er Cov(X 1, X 2 ) = n p 1 p 2. Bemærkningerne efter lemma fortæller nemlig at de tre variable X 1, X 2 og X 1 + X 2 alle er binomialfordelte med længde n og successandsynlighed henholdsvis p 1, p 2 og p 1 + p 2. Dermed giver (17.12) i kombination med eksempel 13.17, at Cov(X 1, X 2 ) = 1 ( ) V(X1 + X 2 ) VX 1 VX 2 2 = n ( (p1 + p 2 )(1 p 1 p 2 ) p 1 (1 p 1 ) p 2 (1 p 2 ) ) 2 = n p 1 p 2. Hvis (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ) giver helt tilsvarende regninger at for i j er Cov(X i, X j ) = n p i p j. (17.14) Vi konstaterer altså at variablene i en polynomialfordeling er afhængige - fortegnet i (17.14) betyder at hvis X i er stor, så vil X j typisk være lille etc. Vi siger at X i og X j er negativt korrelerede. Det er ikke særligt mystisk: vi ved jo at X X N = n, så hvis én af variablene er større end forventet, må det kompenseres af at andre er mindre end forventet Store tals lov Definition En følge X 1, X 2,... af stokastiske variable siges at konvergere i P sandsynlighed mod en konstant ξ, skrevet X n ξ, hvis det for alle ɛ > 0 gælder at P ( X n ξ > ɛ) 0 for n. (17.15) Konvergens i sandsynlighed betyder at fordelingen af X n bliver mere og mere koncentreret om ξ. Hvis vi for et fast p (0, 1) lader x n være p-fraktilen for fordelingen af X n, vil der således gælde at x n ξ for n, uanset hvor ekstremt et p vi har fat på.
10 17.3. Store tals lov 353 Lemma Lad Y 1, Y 2,... være en følge af reelle stokastiske variable med 2. moment. Hvis EY n = ξ for alle n, og VY n 0 for n, så vil Y n P ξ. BEVIS: Lad ɛ > 0 være givet. Ifølge Chebyshevs ulighed vil P( Y n ξ > ɛ) VY n ɛ 2, og denne øvre grænse konvergerer tydeligvis mod nul. Sætning (Store tals lov) Lad X 1,..., X n være uafhængige, identisk fordelte reelle stokastiske variable med middelværdi ξ og varians σ 2. Da vil 1 n n P X i ξ. (17.16) i=1 BEVIS: Vi ser at E 1 n n X i = 1 n i=1 n EX i = ξ for alle n. Uafhængigheden mellem variablene sikrer endvidere at V 1 n n X i = 1 n 2 i=1 n i=1 i=1 VX i = n σ2 n 2 = σ2 n. Resultatet følger nu af lemma Ud fra store tals lov kan vi gøre rede for at den frekventistiske holdning til sandsynlighedsregning er selvkonsistent. Lad X 1, X 2,... være uafhængige, identisk fordelte
11 354 Kapitel 17. Deskriptiv teori i flere dimensioner reelle variable med fordeling ν, svarende til uafhængige replikationer af et eksperiment, der beskrives af ν. Den empiriske frekvens af en hændelse A B er 1 n n 1 A (X i ). i=1 Det er en stokastisk variabel, som ifølge store tals lov konvergerer i sandsynlighed mod grænseværdien ν(a). Så der vil altså være meget stor sandsynlighed for at den empiriske frekvens af hændelsen A ligger tæt på ν(a), i hvert fald hvis n er stor Korrelation Lemma (Cauchy-Schwarz ulighed) Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis både X og Y har 2. moment, er ( EXY ) 2 EX 2 EY 2. (17.17) BEVIS: For alle t R er 0 E ( (X + ty) 2) = EY 2 t EXY t + EX 2. Et vist andengradspolynomium i t er altså ikke-negativt. Men et andengradspolynomium kan kun være ikke-negativt hvis diskriminanten er ikke-positiv. Altså må ( 2EXY ) 2 4 EX 2 EY 2 0, hvilket præcis er (17.17). Bruges Cauchy-Schwarz ulighed på variablene X EX og Y EY, fås at Cov(X, Y) 2 VX VY. (17.18) Dette leder os naturligt til indførelse af en standardiseret kovarians.
12 17.4. Korrelation 355 Definition Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Hvis X og Y er ikke-udartede og har 2. moment, defineres korrelationen mellem dem som Cov(X, Y) corr(x, Y) =. VX VY Korrelationen er et udtryk for det samme som kovariansen. Men denne gang måler vi det på en skala bestemt af variabiliteten af de to variable, og derfor er den faktiske værdi af korrelationen i et vist omfang fortolkelig. Bemærk at (17.18) medfører at 1 corr(x, Y) 1. Bemærk også at corr(x, X) = 1. Lemma Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Antag at X og Y er ikke-udartede og har 2. moment. Da gælder at og For alle α R, β > 0 gælder endvidere at corr(x, Y) = corr(y, X), (17.19) corr(x, Y) = corr(x, Y). (17.20) corr(α + βx, Y) = corr(x, Y). (17.21) BEVIS: Formel (17.19) og (17.20) er direkte udtryk for kovariansens symmetri og linearitet. Også (17.21) følger af kovariansens linearitet: corr(α + βx, Y) = = Cov(α + βx, Y) V(α + βx) VY = Cov(X, Y) VX VY = corr(x, Y). βcov(x, Y) β 2 VX VY
13 356 Kapitel 17. Deskriptiv teori i flere dimensioner Vi observerer at for β > 0 er corr(x, α + βx) = corr(x, X) = 1. Tilsvarende ser vi at for β < 0 er corr(x, α + βx) = 1. Sætning Lad X og Y være reelle stokastiske variable, defineret på (Ω, F, P). Antag at X og Y er ikke-udartede og har 2. moment. Hvis corr(x, Y) = 1 eller corr(x, Y) = 1 så findes α, β R så Y = α + βx P-næsten sikkert. BEVIS: Lad os først antage at korrelationen er 1. Vi indfører de standardiserede variable X = X EX VX, Ỹ = Y EY VY, der har middelværdi 0 og varians 1. De standardiserede variable er blot en affin transformation af de oprindelige variable, så E X Ỹ = Cov( X, Ỹ) = corr( X, Ỹ) = corr(x, Y). Vi kan altså slutte at E X Ỹ = 1. Så gælder der at E( X Ỹ) 2 = E X 2 + EỸ 2 2E X Ỹ = = 0. Da ( X Ỹ) 2 0, kan dette kun lade sig gøre hvis integranden er nul næsten sikkert, dvs. hvis X = Ỹ næsten sikkert. Men i så fald har vi med sandsynlighed 1 at Y = VYỸ + EY = VY VY VY X + EY = VX X + EY VX EX. Altså er Y en affin transformation af X. Hvis corr(x, Y) = 1, så er corr( X, Y) = 1, og vi har derfor lige vist at Y = α βx P-n.s. for passende α og β. Med denne sætning in mente, er det almindeligt at korrelationer tæt ved ±1 fortolkes som næsten lineær afhængighed, og mere generelt siger man at korrelation måler
14 17.5. Flerdimensionale momenter 357 den lineære afhængighed mellem to variable, skønt begrebet ikke kan gives præcis mening. Eksempel Hvis (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ), så følger det af eksempel at for i j er n p i p j corr(x i, X j ) = n pi (1 p i ) n p j (1 p j ) = p i p j (1 p i ) (1 p j ) Flerdimensionale momenter Definition Lad X 1,..., X n være reelle stokastiske variable, defineret på et fælles baggrundsrum (Ω, F, P). Hvis alle variablene har 1. moment, så siger vi at den sammenbundtede variabel X = (X 1,..., X n ) har 1. moment, og vi indfører middelværdien af X som R n -vektoren EX 1 EX =.. EX n Tilsvarende, hvis alle variablene X 1,..., X n har 2. moment, så siger vi at X har 2. moment, og vi indfører variansen af X som n n matricen VX 1 Cov(X 1, X 2 )... Cov(X 1, X n ) Cov(X VX = 2, X 1 ) VX 2... Cov(X 2, X n ) Cov(X n, X 1 ) Cov(X n, X 2 )... VX n Vi konstaterer at VX er en symmetrisk n n matrix. Den kaldes også variansmatricen, eller kovariansmatricen.
15 358 Kapitel 17. Deskriptiv teori i flere dimensioner Eksempel Hvis X = (X 1,..., X N ) er polynomialfordelt med længde n og sandsynlighedsparameter (p 1,..., p N ), så følger det af eksempel at X har både middelværdi og varians. Vi ser at middelværdien er p 1 mens variansmatricen er EX = n p 2. p n p 1 (1 p 1 ) p 1 p 2... p 1 p n VX = n p 2 p 1 p 2 (1 p 2 )... p 2 p n p n p 1 p n p 2... p n (1 p n ). Som man ser af eksempel 17.24, er flerdimensionale middelværdier og varianser blot et værktøj til at hjælpe med bogholderiet over de forskellige parvise kovarianser. Men det er et nyttigt værktøj, blandt andet fordi det passer så fint sammen med lineære transformationer, som vi skal se. I forbindelse med lineær algebra kan det være nødvendigt at sondre mellem rækkevektorer og søjlevektorer. Vi vil da insistere på at en sammenbundtning af n reelle variable altid skal opfattes som en søjle. Uheldigvis fylder søjler meget i trykt form, og derfor skriver man ofte x = (x 1,..., x n ) T når man mener at x er en n-søjle. Vi skriver altså x som en række, der transponeres. Sætning Lad X = (X 1,..., X n ) T være en stokastisk variabel med værdier i R n, defineret på (Ω, F, P). Lad a R k være en vektor, lad B være en k n matrix, og sæt Y = a + BX. Hvis X har 1. moment, så har Y 1. moment, og EY = a + B EX. (17.22) Hvis X har 2. moment, så har Y 2. moment, og VY = B VX B T. (17.23)
16 17.5. Flerdimensionale momenter 359 BEVIS: Lad a = a 1 a 2. a m, B = b 11 b b 1n b 21 b b 2n b m1 b m2... b mn. Definitionen på Y = (Y 1,..., Y m ) T er da simpelthen en kompakt måde at skrive m forskellige variable på: Y i = a i + n b i j X j, i = 1,..., m. j=1 Det følger af lemma at hvis X j erne alle har k te moment, så har Y i også k te moment. Hvis 1. momenterne eksisterer, ser vi at EY i = a i + n b i j EX j = ( a + B EX) i, i = 1,..., m. j=1 Tilsvarende, hvis 2. momenterne eksisterer, ser vi at n Cov(Y i, Y k ) = Cov a i + b i j X j, a k + n = j=1 l=1 j=1 l=1 n b k l X l n b i j b k l Cov(X j, X l ) = ( B VX B T ) ik. Vi husker at variansen for en reel stokastisk variabel er ikke-negativ, og faktisk er strengt positiv medmindre variablen er konstant. Noget lignende gælder for flerdimensionale variable, hvor begrebet positivt semidefinit matrix (se p. 594 for en definition) er den relevante generalisering af et ikke-negativt reelt tal: Sætning Lad X = (X 1,..., X n ) T være en stokastisk variabel med værdier i R n, defineret på (Ω, F, P). Hvis X har 2. moment, så er VX positivt semidefinit. Faktisk er VX positivt definit, medmindre der findes en ikke-triviel linearkombination af X 1,..., X n der er konstant.
17 360 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Lad x R n være en søjlevektor, altså en n 1 matrix. Betragt den lineære afbildning R n R givet ved y x T y. Sæt Z = x T X. Det følger af sætning 17.25, at Z har 2. moment. Men Z er en reel variabel, så variansen er blot et tal - endda et ikke-negativt tal. Derfor har vi ifølge (17.23) 0 VZ = x T VX (x T ) T = x T VX x, og vi kan nu slutte at VX er positivt semidefinit. Antag at VX ikke er positivt definit. Der findes da et x R n, så x 0 og så x T VX x = 0. Ifølge (17.23) har Z = x T X da varians 0, dvs. Z er en konstant stokastisk variabel. Og Z er netop en ikke-triviel linearkombination af X i erne Flerdimensionale karakteristiske funktioner Definition Lad ν være et sandsynlighedsmål på (R n, B n ). Den karakteristiske funktion for ν er funktionen φ : R n C givet som φ(θ) = e i θt x dν(x) for θ R n. (17.24) Vi tænker på R n som bestående af søjlevektorer, ikke rækkevektorer, og størrelsen θ T x i eksponenten af (17.24) er derfor et reelt tal. For n = 1 stemmer denne definition naturligvis overens med definition Hvis X = (X 1,..., X n ) T er en stokastisk variabel med værdier i R n, taler man ofte om X s karakteristiske funktion når man i virkeligheden mener den karakteristiske funktion for X s fordeling. Den definerende formel er altså φ(θ) = e i θt x dx(p)(x) = e i θt X dp, hvor sidste udtryk fremkommer ved hjælp af integraltransformationssætningen. For at få disse formler til at give mening er det vigtigt at vi tænker på X som en stokastisk søjlevektor, ikke som en rækkevektor.
18 17.6. Flerdimensionale karakteristiske funktioner 361 Som i afsnit 15.2 ser vi at den karakteristiske funktion φ for et sandsynlighedsmål ν på R n opfylder at φ(θ) 1 for θ R n og φ(0) = 1. Ved at kopiere beviset for lemma 15.7 ser vi at φ er konjugeret symmetrisk, φ( θ) = φ(θ) for alle θ R n. Og ved at kopiere beviset for sætning 15.8 ser vi at φ er uniformt kontinuert. Sætning Lad X være en stokastisk variabel med værdier i R n, og lad φ være variablens karakteristisk funktion. Hvis a R k er en vektor og hvis B er en k n matrix, så har den stokastiske variabel a + BX karakteristisk funktion ψ(θ) = e i θt a φ(b T θ) for alle θ R k. BEVIS: Hvis ψ betegner den karakteristiske funktion for a + BX, så er ψ(θ) = e i θt (a+bx) dp = e i θt a+i (B T θ) T X dp = e i θt a φ(b T θ), for alle θ R k, præcis som ønsket. Eksempel Lad X og Y være to reelle stokastiske variable, og antag at den sammenbundtede variabel (X, Y) T har karakteristisk funktion φ : R 2 C. Variablen X er en lineær transformation af (X, Y) T, og derfor kan vi finde dens karakteristiske funktion ψ ved at sætte ind i sætning Vi har at ( ) X X = (1 0). Y og derfor er ψ(θ) = φ ( (1 0) T θ ) (( 1 = φ 0 ) ) (( θ θ = φ 0 )) for θ R. Tager man ikke helt strengt på formalia, vil man typisk formulere dette resultat på formen ψ(θ) = φ(θ, 0) - det fylder mindre, og er ikke overdynget med overflødige
19 362 Kapitel 17. Deskriptiv teori i flere dimensioner parenteser. Men når man skal udlede det, har man behov for at holde nøje styr over hvad der er rækker og hvad der er søjler. Variablen Y får tilsvarende karakteristisk funktion θ φ(0, θ) for θ R, og det er klart at vi kan udvide teknikken til at dække mange andre former for marginaliseringer. Hvis φ er karakteristisk funktion for en tredimensional variabel (X, Y, Z) T, så har (X, Z) karakteristisk funktion (θ 1, θ 2 ) φ(θ 1, 0, θ 2 ) og så videre. Lemma Lad (X, E, µ) og (Y, F, ν) være to σ-endelige målrum. Hvis der er givet to komplekse integrable funktioner f L C (X) og g L C (Y), så er funktionen f g : X Y C givet ved f g(x, y) = f (x)g(y) for alle x X, y Y, integrabel med hensyn til µ ν, og der gælder at f g dµ ν = f dµ g dν. BEMÆRK: Ved første øjekast virker resultatet som en velkendt konsekvens af Fubinis sætning. Vi har da også brugt en tilsvarende formel for reelle funktioner mange gange, f.eks. i sætning 17.9, uden at gøre et større nummer ud af det. Når der er noget at argumentere for her, er det fordi der er tale om kompleks multiplikation, både inde i integranden af venstre side og mellem integralerne på højre. BEVIS: Eftersom f (x)g(y) = f (x) g(y) følger det af Tonellis sætning at f g er integrabel. Så det er kun selve integrationsformlen, der kræver omhu. Lad f = f 1 +i f 2 og g = g 1 + ig 2 være en opsplitning af f og g i real- og imaginærdel. Da er f g(x, y) = f 1 (x)g 1 (y) f 2 (x)g 2 (y) i ( f 1 (x)g 2 (y) + f 2 (x)g 1 (y) ). og derfor er f g dµ ν = f 1 (x)g 1 (y) f 2 (x)g 2 (y) dµ ν(x, y) + i f 1 (x)g 2 (y) + f 2 (x)g 1 (y) dµ ν(x, y).
20 17.6. Flerdimensionale karakteristiske funktioner 363 Integreres led for led fås fire integraler, og de kan alle regnes ud ved hjælp af Fubinis sætning, f g dµ ν = f 1 dµ g 1 dν f 2 dµ g 2 dν ( ) + i f 1 dµ g 2 dν + f 2 dµ g 2 dν. På den anden side kan vi starte med produktet ( ) ( f dµ g dν = f 1 dµ + i f 2 dµ g 1 dν + i ) g 2 dν. Ganger vi ud, får vi præcis det samme som ovenfor. Sætning Lad X og Y være to reelle stokastiske variable, med karakteristiske funktioner φ 1 og φ 2. Hvis X og Y er uafhængige, så har den sammenbundtede variabel (X, Y) T karakteristisk funktion (( )) θ1 φ = φ 1 (θ 1 ) φ 2 (θ 2 ) for alle θ 1, θ 2 R. (17.25) θ 2 BEVIS: Ved at henvise til integraltransformationsformlen og eksponentialfunktionens funktionalligning ser vi at (( )) θ1 φ = e i (θ 1X+θ 2 Y) dp = e i (θ 1x+θ 2 y) d(x, Y)(P)(x, y) θ 2 = e i θ1x e i θ2y dx(p) Y(P)(x, y). Resultatet følger nu ved hjælp af lemma Hvis vi har behov for en mere kompakt notation, vil vi ikke nødvendigvis føle os hævet over at skrive formel (17.25) som φ(θ 1, θ 2 ) = φ 1 (θ 1 )φ 2 (θ 2 ), skønt det naturligvis kan give anledning til formelle problemer. Det er klart at teknikken bag sætning kan bruges mere generelt: der er ikke behov for at de to indgående variable er reelle.
21 364 Kapitel 17. Deskriptiv teori i flere dimensioner Hvis X har værdier i R k og Y har værdier i R m, så sikrer uafhængighed mellem dem at den karakteristiske funktion for sammenbundtningen (X, Y) T kan skrives på formen (17.25), hvor argumentet på venstre side skal opfattes som en bekvem skrivemåde for en vektor i R k+m. Ved successiv brug af dette generelle princip, ser vi at hvis X 1,..., X n er uafhængige reelle variable med karakteristiske funktioner φ 1,..., φ n, så har den sammenbundtede variabel (X 1,..., X n ) T karakteristisk funktion θ 1 n φ. = φ i (θ i ) for alle θ 1,..., θ n R. θ i=1 n Eksempel Lad X 1,..., X n være uafhængige N(0, 1)-fordelte reelle stokastiske variable. Den karakteristiske funktion for den simultane fordeling af (X 1,..., X n ) er θ 1 n φ. = e θ i 2 /2 = e n i=1 θ 2 i /2. θ i=1 n Vi foretrækker normalt dette resultat skrevet op på formen φ(θ) = e θt θ/2 for alle θ R n, (17.26) der jo i det mindste har fordelen af at være ganske kompakt. Vi har i afsnit 16.2 indført regulære normalfordelinger på R n som fordelinger med en tæthed, der giver mindelser om den klassiske normalfordelingstæthed. Det viser sig at man kan indføre en endnu mere vidtrækkende generalisering af det etdimensionale normalfordelingsbegreb ved at fokusere på at den karakteristiske funktion skal se ud omtrent som den karakteristiske funktion i eksempel 17.32: Definition For en vektor ξ R n og en symmetrisk, positivt semidefinit n n matrix Σ er normalfordelingen N n (ξ, Σ) det sandsynlighedsmål på (R n, B n ) der har karakteristisk funktion φ(θ) = e i θt ξ e θt Σ θ/2 for alle θ R n. (17.27)
22 17.6. Flerdimensionale karakteristiske funktioner 365 Vi viser i næste afsnit at den karakteristiske funktion bestemmer sandsynlighedsmålet entydigt, så der kan højst være ét sandsynlighedsmål på R n der har den karakteristiske funktion (17.27). Men det er næppe klart at der findes sådan et sandsynlighedsmål. Det skal vi dog overbevise os om at der gør. Eksempel Hvis X 1,..., X n er uafhængige N(0, 1)-fordelte reelle variable, så følger sammenbundtningen X = (X 1,..., X n ) T en N n (0, I)-fordeling. Her betegner 0 nulvektoren og I er n n enhedsmatricen. Dette resultat følger umiddelbart når man sammenligner den karakteristiske funktion fra eksempel med definition Man refererer ofte til fordelingen af X som standard normalfordelingen på R n. Lemma Lad ξ R n være en vektor og lad Σ være en symmetrisk, positivt semidefinit n n matrix. Sandsynlighedsmålet N n (ξ, Σ) findes. BEVIS: Udfordringen består i at producere en stokastisk variabel med den rigtige karakteristiske funktion. Ved hjælp af spektralsætningen for symmetriske n n matricer kan man vise, at når Σ er positivt semidefinit så har den en matrixkvadratrod - der findes altså en n n matrix B så Σ = BB T. Lad X = (X 1,..., X n ) T være en sammenbundtning af uafhængige N(0, 1)-fordelte reelle variable, og sæt Y = ξ + BX. Ifølge eksempel har X karakteristisk funktion φ(θ) = e θt θ/2 for alle θ R n. Ved at henvise til sætning ser vi at Y får karakteristisk funktion ψ(θ) = e iθt ξ e (BT θ) T B T θ/2 = e iθt ξ e θt Σθ/2 for alle θ R n. At skrive de forskellige normalfordelinger som affine transformationer af standard normalfordelinger tillader os at give en meningsfuld fortolkning af de to parametre i definition 17.33: Sætning Lad Y være en stokastisk variabel på R n, der følger en N n (ξ, Σ)- fordeling. Da har Y både 1. og 2. moment, og EY = ξ, VY = Σ. (17.28)
23 366 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Lad X være standard normalfordelt på R k, og lad Z = ξ + BX, hvor B opfylder at Σ = BB T. Af beviset for lemma fremgår det at Z er N n (ξ, Σ)-fordelt - Z og Y er ikke nødvendigvis lig med hinanden, men de har samme fordeling, og dermed må de have de samme momenter. Ud fra definition er det klart at Det følger nu af sætning at EX = 0, VX = I. EZ = ξ + B0 = ξ, VZ = BIB T = Σ. Sætning Lad X være en stokastisk variabel med værdier R n, og antag at X er N n (ξ, Σ)-fordelt. Hvis C er en m n matrix, og hvis η er en vektor i R m, så er CX + η N m ( Cξ + η, CΣC T ). BEVIS: Dette resultat er i virkeligheden en triviel indsættelse. Vi ved at X har karakteristisk funktion φ(θ) = e i θt ξ e θt Σ θ/2 for alle θ R n. Ifølge sætning har Y derfor karakteristisk funktion ψ(θ) = e i θt η φ(c T θ) = e i θt η e i θt C ξ e θt C Σ C T θ/2 for alle θ R m. Og det genkender vi som den karakteristiske funktion for normalfordelingen på R m med middelværdi Cξ + η og variansmatrix CΣC T. Hvis vi vender tilbage til de regulære normalfordelinger fra afsnit 16.2, så er det naturligt at spørge hvordan de passer ind i det billede, vi er ved at tegne. Vi skal i eksempel se at de regulære normalfordelinger på R n kan skrives som affine transformationer Y = ξ + BX af standard normalfordelingen på R n, hvor matricen B er invertibel. Derfor er de regulære normalfordelinger også normalfordelinger, forstået ud fra definition 17.33, og de kan karakteriseres som de normalfordelinger, der har invertible (eller i denne sammenhæng: positivt definitte) variansmatricer.
24 17.7. Entydighed af karakteristiske funktioner 367 Normalfordelinger på R n med ikke-invertible variansmatricer kaldes ofte singulære normalfordelinger, og det er forholdsvis ubehagelige objekter: de lever på en hyperplan (eller en mængde af endnu lavere dimension) og har ikke tæthed med hensyn til m n Den eneste konkrete måde at få hold på dem på, er faktisk via deres karakteristiske funktion Entydighed af karakteristiske funktioner Indtil nu har vi givet en række resultater, der fortæller hvordan man kan regne karakteristiske funktioner ud i forskellige sammenhænge, når man kender visse andre karakteristiske funktioner. Men vi har ikke sagt meget om hvad det er, de karakteristiske funktioner egentlig karakteriserer. På samme måde som i én dimension kan man uddrage kvalitativ (og kvantitativ) information om sandsynlighedsmålets haleegenskaber ved at studere den karakteristiske funktions opførsel inde omkring 0, og man kan omvendt få information om sandsynlighedsmålets lokale regularitet ved at studere den karakteristiske funktions haleopførsel. Nu er begrebet haleopførsel noget vanskeligere at forholde sig til i flere dimensioner end én, og vi vil ikke forfølge emnet - den interesserede læser henvises til standardværket Lukacs (1970). Men vi vil dog bevise at et sandsynlighedsmål på R n er entydigt givet ved sin karakteristiske funktion. Det er muligt at angive eksplicitte omvendingsintegraler, som i sætning Men vi vælger i stedet vejen via uniform approksimation af kontinuerte funktioner med trigonometriske polynomier - argumenterne her er trin for trin gentagelser af argumenterne i det etdimensionale tilfælde. Det fylder et par sider at skrive ned, men de eneste komplikationer er i virkeligheden af notationsmæssig art. Vi betegner systemet af kontinuerte, begrænsede reelle funktioner defineret på R n med C b (R n ). For at vise at integralet af C b (R n )-funktioner bestemmer et sandsynlighedsmål, så har vi brug for C b -funktioner, der er indikatorfunktionsagtige. En C b -funktion kaldes en bumpfunktion hvis den kun antager værdier i [0, 1]. Hvis K V er henholdsvis en kompakt og en åben mængde i R k, skriver vi K f V, hvis f er en bumpfunktion der opfylder at f (x) = 1 for alle x K, f (x) = 0 for alle x V c.
25 368 Kapitel 17. Deskriptiv teori i flere dimensioner Hvis [a i, b i ] (c i, d i ) for i = 1,..., n, kan vi finde etdimensionale bumpfunktioner f i der opfylder at [a i, b i ] f i (c i, d i ) for i = 1,..., n. Vi kan f.eks. bruge stykkevist affine funktioner som i (13.23), men detaljerne spiller i virkeligheden ingen rolle. Da vil funktionen f 1... f n : R n R givet ved f 1... f n (x 1,..., x n ) = n f i (x i ) i=1 tydeligvis opfylde at [a 1, b 1 ]... [a n, b n ] f 1... f n (c 1, d 1 )... (c n, d n ). Sætning Lad ν og λ være to sandsynlighedsmål på (R n, B n ). Hvis f (x) dν(x) = f (x) dλ(x) for alle f C b (R n ), (17.29) så er ν = λ. BEVIS: Lad (a 1, b 1 ) (a n, b n ) være en åben kasse. For hvert m > max i 2/(b i a i ) vælges en bumpfunktion f m, der opfylder at [ n i=1 a i + 1 m, b i 1 ] f m n i=1 m (a i, b i ) Da vil f m 1 i (a i,b i ), majoriseret af konstanten 1. Så majorantsætningen giver at f m (x) dν(x) 1 i (a i,b i )(x) dν(x) = ν ( n i=1 (a i, b i ) ) for m. Samme type grænseresultat gælder naturligvis for λ-integraler, og da f m -funktionerne alle er kontinuerte og begrænsede, ser vi at ν ( n i=1 (a i, b i ) ) = lim f m (x) dν(x) = lim f m (x) dλ(x) = λ ( n m m i=1 (a i, b i ) ). De åbne kasser udgør et fællesmængdestabilt frembringersystem for Borelalgebraen på R n, så det følger af entydighedssætningen for sandsynlighedsmål at ν = λ.
26 17.7. Entydighed af karakteristiske funktioner 369 Et komplekst trigonometrisk polynomium i n variable er en funktion af formen (θ 1,..., θ n ) N k 1,...,k n = N c k1,...,k n e i (k 1θ k n θ n ), hvor koefficienterne er komplekse tal. Et reelt trigonometrisk polynomium af n variable er et komplekst trigonometrisk polynomium hvis imaginærdel er identisk nul. Principielt kan man selvfølgelig godt skrive definitionen af et reelt trigonometrisk polynomium op ved hjælp af sinus er og cosinus er, men det bliver skrækindjagende at se på, fordi der kommer alle mulige blandingsled, hvor man har produkter af sinus af nogle variable og cosinus af andre. Bemærk at et komplekst trigonometrisk polynomium er periodisk i hver variabel med periode 2π. En måde at få et trigonometrisk polynomium i to variable frem på, er at tage et almindelige polynomium r(x 1, x 2, x 3, x 4 ) i fire variable, og se på p(θ 1, θ 2 ) = r(cos θ 1, sin θ 1, cos θ 2, sin θ 2 ). Helt generelt vil rigtige polynomier, regnet ud i variable af formen cos θ i og sin θ i være trigonometriske polynomier. En måde at se det på er at observere at enhver elementær trigonometrisk funktion selv er et trigonometrisk polynomium, og at klassen af trigonometriske polynomier er stabil over for multiplikation og addition. Sætning Lad f : [ π, π] n R være en kontinuert funktion, der opfylder periodicitetsbetingelsen at f ( π, x 2,..., x n ) = f (π, x 2,..., x n ) f (x 1, π,..., x n ) = f (x 1, π,,..., x n ) for alle x 2,..., x n for alle x 1, x 3,..., x n. f (x 1,..., x n 1, π) = f (x 1,..., x n 1, π) for alle x 1,..., x n 1. Da findes en følge af reelle trigonometriske polynomier p 1, p 2,... på R n så sup f (z) p m (z) 0 for m. z [ π,π] n BEVIS: Argumentationen er stort set som i sætning 15.20, så vi nøjes med en skitse. Først identificeres f med en kontinuert funktion F : S 1 S 1 R, ved at sætte F(cos θ 1, sin θ 1,..., cos θ n, sin θ n ) = f (θ 1,..., θ n ).
27 370 Kapitel 17. Deskriptiv teori i flere dimensioner Definitionen giver mening på grund af periodicitetsbetingelsen. Den nye funktion F udvides til en kontinuert funktion F, defineret på hele R 2n, og den udvidede funktion approksimeres med polynomier q 1, q 2,... af 2n variable, på en sådan måde at approksimationen er uniform over den kompakte terning [ 1, 1] 2n. Des mere er approksimationen uniform over S 1... S 1, og derfor vil sup f (θ 1,..., θ n ) q m (cos θ 1, sin θ 1,..., cos θ n, sin θ n ) 0. (θ 1,...,θ n ) [ π,π] n Men polynomierne q m regnet ud i alle disse sinus er og cosinus er, er netop hvad vi har kaldt et trigonometrisk polynomium. Eftersom q m er et reelt polynomium, konstaterer vi smertefrit at vi faktisk har approksimeret f uniformt med reelle trigonometriske polynomier. Som i én dimension håndterer vi uniform approksimation over store kasser ved at transformere den store kasse ned til [ π, π] n med en lineær transformation, foretage approksimationen på denne skala, og derefter transformere tilbage. Det leder naturligt til at vi indfører de generaliserede trigonometriske polynomier. Det er udtryk af formen N (θ 1,..., θ n ) c k e i (α k1θ α kn θ n ), k=1 hvor c 1,..., c N er komplekse tal, og hvor α 11,... α Nn er vilkårlige reelle tal. Denne klasse af funktioner er stabil over for lineære transformationer, i modsætning til de ægte trigonometriske polynomier. Korollar Lad f : R n R være en kontinuert, begrænset funktion. For hvert K > 0 findes en følge af generaliserede reelle trigonometrisk polynomier i n variable p 1, p 2,... så sup θ [ K,K] n f (θ) p n (θ) 0 for n. Vi kan antage at p n f + 1 for alle n N. BEVIS: Vi går frem som i beviset for korollar Ved at gøre den kasse vi vil approksimere over lidt større, kan vi lade som om f er nul på kassens rand. Vi kan f.eks. lade g være en bumpfunktion, der opfylder at [ K, K] n g ( K 1, K + 1 ) n,
28 17.7. Entydighed af karakteristiske funktioner 371 og sætte f (θ) = g(θ) f (θ) for alle θ R. Den nye funktion f er selvfølgelig kontinuert, og den er identisk 0 uden for den åbne kasse ( K 1, K + 1) n. Specielt opfylder den at f ( K 1, x 2,..., x n ) = f (K + 1, x 2,..., x n ) = 0, og tilsvarende betingelser i de andre variable. Endvidere er f lig med f på kassen [ K, K] n hvor vores hovedinteresse ligger, og endelig er f f. Vi kan nu finde en følge af trigonometriske polynomier, q 1, q 2,..., så ( ) sup f (K + 1)θ q m (θ) π 0 for m. θ [ π,π] n Disse q er kan antages at være periodiske i hver variabel med periode 2π, så de antager deres numerisk største værdier i kassen [ π, π] n. Ved i værste fald at droppe de første endeligt mange q er, ser vi at q m f + f q m f + 1 f + 1. De generaliserede trigonometriske polynomier ( πθ ) r m (θ) = q m K + 1 (17.30) opfylder at Og da sup f (θ) r m (θ) 0 for m. θ [ K 1,K+1] n sup f (θ) r m (θ) = θ [ K,K] n sup f (θ) r m (θ) θ [ K,K] n sup f (θ) r m (θ), θ [ K 1,K+1] n har vi vist det ønskede. Sætning Lad ν og λ være to sandsynlighedsmål på (R n, B n ) med karakteristisk funktion henholdsvis φ og ψ. Hvis φ = ψ, så er ν = λ.
29 372 Kapitel 17. Deskriptiv teori i flere dimensioner BEVIS: Vi viser at antagelsen om at ν og λ har samme karakteristiske funktion medfører at f dν = f dλ for alle f C b (R n ). At ν og λ er samme sandsynlighedsmål, følger herefter af sætning Lad q(θ) = N k=1 c k e i j α k j θ j være et generaliseret trigonometrisk polynomium. Da er N q(θ) dν(θ) = c k e i N j α k j θ j dν(θ) = c k φ(α k1,..., α kn ). k=1 Vi ser at ν-integralet af et generaliseret trigonometrisk polynomium er givet ved den karakteristiske funktion. Da ν og λ har samme karakteristiske funktion, har vi altså at q(θ) dν(θ) = q(θ) dλ(θ). k=1 Så lad f være en C b (R n )-funktion. Ifølge korollar kan vi finde generaliserede trigonometriske polynomier q 1, q 2,... så sup θ [ m,m] n f (θ) q m (θ) < 1 m og så g m f + 1 for alle m. Vi ser heraf at q m (θ) f (θ) for alle θ, majoriseret af f + 1, og majorantsætningen fortæller os at q m dν f dν for m. Samme type grænseresultat gælder for λ-integraler, og derfor har vi at f dν = lim q m dν = lim q m dλ f dλ. m m 17.8 Noter Flerdimensionale fordelingsfunktioner er meget vanskelige at få noget fornuft ud af. De tjener ikke noget formål i tabelleringssammenhænge, og der er ikke rigtig noget
30 17.9. Opgaver 373 associeret fraktilbegreb - medmindre man har lyst til at tale om fraktilmangfoldigheder... Ikke desto mindre har en moderne variant af ideen, de såkaldte copulaer, haft en vis succes i forbindelse med modelbygning i de senere år, se Nelsen (1999). Store tals lov er en af hjørnestenene i sandsynlighedsregning. Sætning kaldes ofte den svage store tals lov, fordi der findes andre sætninger der med svagere forudsætninger giver stærkere konklusioner, se Ash (1972), Billingsley (1995), Dudley (1989) og Hoffmann-Jørgensen (1994). En af de skarpe varianter er Glivenko- Cantellis sætning, der fortæller at den empiriske fordelingsfunktion dannet ud fra uafhængige, identisk fordelte reelle variable, med sandsynlighed 1 vil konvergere uniformt mod den sande fordelingsfunktion. Der er en stor forskningsmæssig industri, der producerer varianter af store tals lov for variable der har en specifik form for afhængighed, eller som måske ikke er helt identisk fordelte Opgaver OPGAVE Lad (X 1, X 2 ) have en todimensional Gumbel eksponentialfordeling med parameter θ. SPGM 17.1(a). Find P(1 < X 1 < 2, 1 < X 2 < 3). SPGM 17.1(b). Find P(x 1 < X 1 < x 1 + 1, x 2 < X 2 < x ). SPGM 17.1(c). Vis at konvergerer mod for 1 0, 2 0. P(x 1 < X 1 < x 1 + 1, x 2 < X 2 < x ) 1 2 e (x 1+x 2 +θx 1 x 2 ) ( (1 + θx 1 )(1 + θx 2 ) θ ) (17.31) SPGM 17.1(d). Gør rede for at fordelingen af (X 1, X 2 ) har tæthed (17.31) med hensyn til det todimensionale Lebesguemål. OPGAVE Lad (X 1, X 2 ) være Dirichletfordelt med parametre (λ 1, λ 2, λ). SPGM 17.2(a). Vis at E(X 1 X 2 ) = λ 1 λ 2 (λ 1 + λ 2 + λ)(λ 1 + λ 2 + λ + 1).
31 374 Kapitel 17. Deskriptiv teori i flere dimensioner SPGM 17.2(b). Vis at SPGM 17.2(c). Vis at λ 1 λ 2 Cov(X 1, X 2 ) = (λ 1 + λ 2 + λ) 2 (λ 1 + λ 2 + λ + 1). λ 1 λ 2 corr(x 1, X 2 ) = (λ 1 + λ)(λ 2 + λ). Giv en intuitiv forklaring på fortegnet for korrelationen. Lad nu (X 1,..., X n ) være Dirichletfordelt med parametre (λ 1,..., λ n, λ). SPGM 17.2(d). Find for i j kovarians og korrelation mellem X i og X j. OPGAVE Antag at (X 1, X 2 ) har fordelingen fra eksempel 16.3, altså tæthed f (x 1, x 2 ) = 1 2π e (x2 1 +2x2 2 2x 1 x 2 )/2 for alle (x 1, x 2 ) R 2. SPGM 17.3(a). Vis eksplicit at f er en sandsynlighedstæthed. SPGM 17.3(b). Vis eksplicit at X 1 er N(0, 2)-fordelt, mens X 2 er N(0, 1)-fordelt. SPGM 17.3(c). Find Cov(X 1, X 2 ) og corr(x 1, X 2 ). OPGAVE Lad Σ være en symmetrisk, positivt semidefinit n n matrix. Vis at der findes en n-dimensional stokastisk variabel X = (X 1,..., X n ) T, så VX = Σ. OPGAVE Lad x 1,..., x n være n punkter i R 2. Lad µ være det empiriske mål i disse punkter. Den empiriske kovarians af disse punkter defineres som kovariansen af det empiriske mål µ. Vis at den empiriske kovarians er 1 n n x i1 x i2 1 n i=1 n x i1 1 n i=1 n x i2. OPGAVE Lad X og Y være reelle stokastiske variable, der kun antager værdierne 0 og 1, og lad P(X = 1) = 1 P(X = 0) = p 1, P(Y = 1) = 1 P(Y = 0) = p 2. Bemærk at vi ikke antager at X og Y er uafhængige. i=1
32 17.9. Opgaver 375 SPGM 17.6(a). Vis at Z = XY er binomialfordelt med længde 1, og at successandsynligheden p opfylder at 0 p min(p 1, p 2 ). SPGM 17.6(b). Find korrelationen mellem X og Y, og gør rede for at sålænge p 1 og p 2 holdes fast, så er corr(x, Y) en en voksende, affin funktion af p. SPGM 17.6(c). Find for fastholdt p 1 og p 2 den øvre og nedre grænse for corr(x, Y) udtrykt ved de to såkaldte odds, θ 1 = p 1 1 p 1, θ 2 = p 2 1 p 2, SPGM 17.6(d). Benyt p = 1 P(XY = 0) til vise at p p 1 + p 2 1. Brug denne vurdering til at skærpe den nedre grænse for korrelationen mellem X og Y i tilfældet hvor p 1 + p 2 > 1.
Deskriptiv teori i flere dimensioner
Kapitel 17 Deskriptiv teori i flere dimensioner I kapitel 13 og 14 udviklede vi en række deskriptive værktøjer til at beskrive sandsynlighedsmål på (R, B) Vi vil i dette kapitel forsøge at udvikle varianter
Læs merestandard normalfordelingen på R 2.
Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder
Læs mereEksamen 2014/2015 Mål- og integralteori
Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt
Læs mereMomenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål
Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive
Læs mereHvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.
Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er
Læs mereReeksamen 2014/2015 Mål- og integralteori
Reeksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål. Ved bedømmelsen indgår de spørgsmål med samme vægt.
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en
Læs mereDeskriptiv teori: den karakteristiske funktion
Kapitel 15 Deskriptiv teori: den karakteristiske funktion Når man forsøger at karakterisere et sandsynlighedsmål ν på R ved hjælp af dets momenter, fortæller man essentielt hvordan man skal integrere polynomier
Læs mereTaylors formel. Kapitel Klassiske sætninger i en dimension
Kapitel 3 Taylors formel 3.1 Klassiske sætninger i en dimension Sætning 3.1 (Rolles sætning) Lad f : [a, b] R være kontinuert, og antag at f er differentiabel i det åbne interval (a, b). Hvis f (a) = f
Læs mereLineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable
E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Lineære transformationer, middelværdi og varians Helle Sørensen Uge 8, onsdag SaSt2 (Uge 8, onsdag) Lineære transf. og middelværdi 1 / 15 Program I formiddag: Fordeling
Læs mereSvag konvergens. Kapitel Historisk indledning
Kapitel 4 Svag konvergens 4.1 Historisk indledning I første halvdel af 1700-tallet var stort set al sandsynlighedsregning af kombinatorisk natur. Hovedværker fra perioden er Abraham de Moivres The Doctrine
Læs merehvor a og b er konstanter. Ved middelværdidannelse fås videre
Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte
Læs mereaf om en given kombination af binomialkoefficienter svarer til en stor eller en lille sandsynlighed.
Kapitel 22 Svag konvergens I første halvdel af 1700-tallet var stort set al sandsynlighedsregning af kombinatorisk natur. Hovedværker fra perioden er Abraham de Moivres The octrine of Chances; or, a Method
Læs mereIntegration m.h.t. mål med tæthed
Integration m.h.t. mål med tæthed Sætning (EH 11.7) Lad ν = f µ på (X, E). For alle g M + (X, E) gælder at gdν = g f dµ. Bevis: Standardbeviset: 1) indikatorfunktioner 2) simple funktioner 3) M + -funktioner.
Læs mereEn martingalversion af CLT
Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske
Læs mereProgram. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål
Program Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag I formiddag: Tætheder og fordelingsfunktioner kort resume fra i mandags og et par eksempler mere om sammenhængen
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag SaSt2 (Uge 6, onsdag) Middelværdi og varians 1 / 18 Program I formiddag: Tætheder og fordelingsfunktioner kort resume
Læs mereEn martingalversion af CLT
Kapitel 9 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske variable,
Læs mereFortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20.
Foldning af sandsnlighedsmål Lad µ og ν være to sandsnlighedsmål på (R, B). Fortolkning Lad φ : R R være φ(, ) = + for (, ) R. Lad X og Y være to reelle stokastiske variable defineret på (Ω, F, P). Definition
Læs mereINSTITUT FOR MATEMATISKE FAG c
INSTITUT FOR MATEMATISKE FAG c AALBORG UNIVERSITET FREDRIK BAJERS VEJ 7 G 9220 AALBORG ØST Tlf.: 96 35 89 27 URL: www.math.aau.dk Fax: 98 15 81 29 E-mail: bjh@math.aau.dk Dataanalyse Sandsynlighed og stokastiske
Læs mereProgram. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål
Program Statistik og Sandsynlighedsregning Sandsynlighedstætheder og kontinuerte fordelinger på R Varians og middelværdi Normalfordelingen Susanne Ditlevsen Uge 48, tirsdag Tætheder og fordelingsfunktioner
Læs mereSandsynlighedsregning Oversigt over begreber og fordelinger
Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)
Læs mereFlerdimensionale transformationer
Kapitel 18 Flerdimensionale transformationer Når man i praksis skal opstille en sandsynlighedsmodel for et eksperiment, vil man altid tage udgangspunkt i uafhængighed. Ofte kan man tænke på det udførte
Læs mere5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås
5.3. Konvergens i sandsynlighed 55 BEVIS: Lad φ 1, φ 2,... og φ være de karakteristiske funktioner for X 1, X 2,... og X. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås φ X,v
Læs mereEt eksempel på en todimensional normalfordeling Anders Milhøj September 2006
Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af
Læs mereStatistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen
Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager
Læs mereIntegration m.h.t. mål med tæthed
Integration m.h.t. mål med tæthed Sætning (EH 11.7) Lad ν = f µ på (X, E). For alle g M + (X, E) gælder at gdν = g f dµ. Bevis: Standardbeviset: 1) indikatorfunktioner 2) simple funktioner 3) M + -funktioner.
Læs mereDen todimensionale normalfordeling
Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives
Læs mereBetingning med en uafhængig variabel
Betingning med en uafhængig variabel Sætning Hvis X er en reel stokastisk variabel med første moment og Y er en stokastisk variabel uafhængig af X, så er E(X Y ) = EX. Bevis: Observer at D σ(y ) har formen
Læs mereKvantitative Metoder 1 - Forår Dagens program
Dagens program Kontinuerte fordelinger Simultane fordelinger Kovarians og korrelation Uafhængighed Betingede fordelinger - Middelværdi og varians - Sammenhæng med uafhængighed 1 Figur 1: En tæthedsfunktion
Læs mereEt eksperiment beskrives af et udfaldsrum udstyret med et. alle mulige resultater af eksperimentet
Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål, (X, E, ν). Udfaldsrummet X indeholder alle mulige resultater af eksperimentet men ofte også yderligere elementer
Læs mereSandsynlighedsteori. Sandsynlighedsteori. Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et. Et Bayesiansk argument
Sandsynlighedsteori Sandsynlighedsteori Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål, (, E, ν). Et eksperiment beskrives af et udfaldsrum udstyret med et sandsynlighedsmål,
Læs mereSupplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable
IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret
Læs mereBorel-σ-algebraen. Definition (EH 1.23)
Borel-σ-algebraen Definition (EH 1.23) Borel-σ-algebraen B k på R k er σ-algebraen frembragt af de åbne mængder O k. Andre frembringersystemer for B k : De afsluttede mængder. De åbne kasser I k (k = 1,
Læs mereKvantitative Metoder 1 - Efterår Dagens program
Dagens program Afsnit 6.1. Ligefordelinger, fra sidst Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler
Læs mereSusanne Ditlevsen Institut for Matematiske Fag susanne
Statistik og Sandsynlighedsregning 1 Repetition MS kapitel 1 3 Susanne Ditlevsen Institut for Matematiske Fag Email: susanne@math.ku.dk http://math.ku.dk/ susanne Hvad er sandsynlighed? - beskriver systemer
Læs mereKvantitative Metoder 1 - Forår Dagens program
Dagens program Afsnit 6.1 Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler Lineære transformationer
Læs mereTransformation: tætheder pår k
Kapitel 19 Transformation: tætheder pår k I dette kapitel vil vi angribe følgende version af transformationsproblemet: Lad X 1,, X k være reelle stokastiske variable, defineret på (Ω,F, P), sådan at den
Læs mereKarakteristiske funktioner og Den Centrale Grænseværdisætning
E6 efterår 1999 Notat 10 Jørgen Larsen 20. oktober 1999 Karakteristiske funktioner og Den Centrale Grænseværdisætning Karakteristiske funktioner som er nære slægtninge til Fourier-transformationen) er
Læs mereKlassisk Taylors formel
p. 1/17 Klassisk Taylors formel Sætning Lad f : (a, b) R være n gange differentiabel. For x 0, x (a, b) findes et ξ mellem x 0 og x der opfylder at f(x) = f(x 0 )+ f (x 0 ) 1! (x x 0 )+...+ f(n 1) (x 0
Læs mereHistogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige
Histogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige længde: z = 1 n hvor z i = xi 2 + yi 2. n z i = 1 n i=1 n i=1 x 2 i + y 2 i Indfør tabellen samt vægtene Da er a k = #{i
Læs mereMatematisk modellering og numeriske metoder. Lektion 5
Matematisk modellering og numeriske metoder Lektion 5 Morten Grud Rasmussen 19. september, 2013 1 Euler-Cauchy-ligninger [Bogens afsnit 2.5, side 71] 1.1 De tre typer af Euler-Cauchy-ligninger Efter at
Læs mereStatDataN: Middelværdi og varians
StatDataN: Middelværdi og varians JLJ StatDataN: Middelværdi og varians p. 1/33 Repetition Stokastisk variabel: funktion fra udfaldsrum over i de hele tal eller over i de reelle tal Ex: Ω = alle egetræer,
Læs mereBetingede fordelinger
Kapitel 21 Betingede fordelinger Hvis man i et eksperiment observerer to stokastiske variable, X og Y, er det ofte hensigtsmæssigt at skrue sin sandsynlighedsteoretiske model sammen på en sådan måde at
Læs mereMLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som
MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,
Læs mereNote om Monte Carlo metoden
Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at
Læs mere3 Stokastiske variable 3.1 Diskrete variable
3 Stokastiske variable 3.1 Diskrete variable Punktsandsnligheden benævnes P(x) = P(X = x). {x, P(x)} er en sandsnlighedsfordeling for den stokastiske variabel, X, hvis 1) P(x) $ 0 for alle værdier af x.
Læs mereDefinition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.
Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:
Læs mereAntag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.
Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),
Læs mereTrykfejlsliste - alle fejl Asymptotisk teori
9. januar 2005 Stat 2A / EH Trykfejlsliste - alle fejl Asymptotisk teori Denne liste indeholder alle de regulære fejl, slåfejl og stavefejl der er fundet i 2A-noterne indtil nu. 9 1 Forkert: x C x ro alle
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Normalfordelingen og transformation af kontinuerte fordelinger Helle Sørensen Uge 7, mandag SaSt2 (Uge 7, mandag) Normalford. og transformation 1 / 16 Program Paretofordelingen,
Læs mereTeoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts.
Teoretisk Statistik, 9 marts 2005 Empiriske analoger (Kap. 3.7) Normalfordelingen (Kap. 3.12) Opsamling på Kap. 3 nb. Det forventes ikke, at alt materialet dækkes d. 9. marts. 1 Empiriske analoger Betragt
Læs mereMotivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser
Motivation Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Rasmus Waagepetersen October 26, 2018 Eksempel: En landmåler får til opgave at måle længden λ fra A til B. Entreprenøren
Læs mereInstitut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med
Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X
Læs mereSandsynlighedsregning 3. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 28 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner Stokastiske variable: udfald
Læs mereHistogrammetoden For (x i, y i ) R 2, i = 1,..., n, ser vi på den gennemsnitlige. Histogrammetoden. Histogrammetoden.
For ( i, y i ) R 2, i =,, n, ser vi på den gennemsnitlige længde: z = n hvor z i = i 2 + yi 2 Indfør tabellen samt vægtene Da er z i = n 2 i + y 2 i a k = #{i 00z i = k}, k N 0 z ned := ν k = a k n 00kν
Læs mereNATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4
NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. MI 2007 Obligatorisk opgave 4 Sættet består af 3 opgaver med ialt 15 delopgaver. Besvarelsen vil blive forkastet, medmindre der er gjort et
Læs mereOm hypoteseprøvning (1)
E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;
Læs mereLandmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3
Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april
Læs mereSandsynlighed og Statistik
36 Sandsynlighed og Statistik 6.1 Indledning Denne note beskriver de statistiske begreber og formler som man med rimelig sandsynlighed kan komme ud for i eksperimentelle øvelser. Alt er yderst korfattet,
Læs mereKvantitative Metoder 1 - Forår 2007
Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte
Læs mereOverheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ.
Statistiske modeller (Definitioner) Statistik og Sandsynlighedsregning 2 IH kapitel 0 og En observation er en vektor af tal x (x,..., x n ) E, der repræsenterer udfaldet af et (eller flere) eksperimenter.
Læs mereSandsynlighedsregning 3. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 3. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner Stokastiske variable:
Læs mereDel II. Den lineære normale model
Del II Den lineære normale model 301 302 Kapitel 9 Normalfordelinger på vektorrum Vi vil i dette kapitel give en fremstilling af teorien for normalfordelinger (også kaldet Gaussiske fordelinger) på endeligdimensionale
Læs mereFejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning
Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan
Læs mereOpgaver i sandsynlighedsregning
Afdeling for Teoretisk Statistik STATISTIK Institut for Matematiske Fag Preben Blæsild Aarhus Universitet 9. januar 005 Opgaver i sandsynlighedsregning Opgave Lad A og B være hændelser således at P(A)
Læs mereRegneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)
Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen
Læs mereLandmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable
Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:
Læs mereModulpakke 3: Lineære Ligningssystemer
Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system
Læs mereDesignMat Uge 1 Gensyn med forårets stof
DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P
Læs mereSandsynlighedsregning 11. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 11. forelæsning Bo Friis Nielsen Matematik og Computer Science Danmarks Tekniske Universitet 28 Kgs. Lyngby Danmark Email: bfni@imm.dtu.dk Dagens nye emner afsnit 6.3 (og 6.4 Betingede
Læs mere1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable
Landmålingens fejlteori - lidt om kurset Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet Kursusholder
Læs mereTema. Dagens tema: Indfør centrale statistiske begreber.
Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i
Læs mereFor nemheds skyld: m = 2, dvs. interesseret i fordeling af X 1 og X 2. Nemt at generalisere til vilkårligt m.
1 Uge 11 Teoretisk Statistik 8. marts 2004 Kapitel 3: Fordeling af en stokastisk variabel, X Kapitel 4: Fordeling af flere stokastiske variable, X 1,,X m (på en gang). NB: X 1,,X m kan være gentagne observationer
Læs mereTonelli light. Eksistensbeviset for µ ν gav målet. for G E K ved succesiv integration. Alternativ definition:
Tonelli light Eksistensbeviset for µ ν gav målet ( ) λ(g) = G (x, y)dν(y) dµ(x) for G E K ved succesiv integration. Alternativ definition: ( ) λ(g) = G (x, y)dµ(x) dν(y). Som λ(a B) = µ(a)ν(b) gælder λ(a
Læs merePolynomier. Indhold. Georg Mohr-Konkurrencen. 1 Polynomier 2. 2 Polynomiumsdivision 4. 3 Algebraens fundamentalsætning og rødder 6
Indhold 1 Polynomier 2 Polynomier 2 Polynomiumsdivision 4 3 Algebraens fundamentalsætning og rødder 6 4 Koefficienter 8 5 Polynomier med heltallige koefficienter 9 6 Mere om polynomier med heltallige koefficienter
Læs mereUge 10 Teoretisk Statistik 1. marts 2004
1 Uge 10 Teoretisk Statistik 1. marts 004 1. u-fordelingen. Normalfordelingen 3. Middelværdi og varians 4. Mere normalfordelingsteori 5. Grafisk kontrol af normalfordelingsantagelse 6. Eksempler 7. Oversigt
Læs mereSupplerende opgaver. S1.3.1 Lad A, B og C være delmængder af X. Vis at
Supplerende opgaver Analyse Jørgen Vesterstrøm Forår 2004 S.3. Lad A, B og C være delmængder af X. Vis at (A B C) (A B C) (A B) C og find en nødvendig og tilstrækkelig betingelse for at der gælder lighedstegn
Læs mereTænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.
Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og
Læs mereOmrådeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30
Områdeestimator X (Ω, F) (X, E) x 01 01 P θ ν θ θ Θ 0000 1111 000000 111111 0000 1111 0000 1111 C(x) En områdeestimator er en afbildning C : X P(Θ).. p.1/30 Konfidensområde En områdestimator C : X P(Θ)
Læs mereRepetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable
Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition
Læs mereANALYSE 1, 2014, Uge 5
ANALYSE, 204, Uge 5 Afleveringsfrist for Prøve 2 er Tirsdag den 20/5 kl 0:5. Forelæsninger Tirsdag Vi går videre med Afsnit 4 om uniform konvergens af Fourierrækker, hvor hovedsætningen er Sætning 4.3.
Læs mereStatistiske modeller
Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder
Læs mereHilbert rum. Chapter 3. 3.1 Indre produkt rum
Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E
Læs mereDANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr)
DANMARKS TEKNISKE UNIVERSITET Side af 7 sider Skriftlig prøve, den: 9. maj 05 Kursus nr : 0405 Kursus navn: Sandsynlighedsregning Varighed : 4 timer Tilladte hjælpemidler: Alle Dette sæt er besvaret af:
Læs mereDefinition. Definitioner
Definition Landmålingens fejlteori Lektion Diskrete stokastiske variable En reel funktion defineret på et udfaldsrum (med sandsynlighedsfordeling) kaldes en stokastisk variabel. - kkb@math.aau.dk http://people.math.aau.dk/
Læs mereKomplekse tal og algebraens fundamentalsætning.
Komplekse tal og algebraens fundamentalsætning. Michael Knudsen 10. oktober 2005 1 Ligningsløsning Lad N = {0,1,2,...} betegne mængden af de naturlige tal og betragt ligningen ax + b = 0, a,b N,a 0. Findes
Læs mereAgenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede
Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater
Læs mereEstimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat.
Estimation Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. En estimator er en gætteregel.. p.1/22 Estimation X acements
Læs mereDen Brownske Bevægelse
Den Brownske Bevægelse N.J. Nielsen 1 Notation I dette notesæt vil vi generelt benytte samme notation som i det øvrige undervisningsmateriale i MM23. For ethvert n N betegner B n Borelalgebraen på R, og
Læs mereLandmålingens fejlteori - Lektion 5 - Fejlforplantning
Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke
Læs mereStatistisk model. Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål
Statistisk model Definition: En statistisk model består af et repræsentationsrum (X, E) og en familie P af sandsynlighedsmål på (X, E). Modellen er parametriseret hvis der findes en parametermængde Θ og
Læs mereLøsning til prøveeksamen 1
IMM - DTU 020 Probability 2006-2-8 BFN/bfn Løsning til prøveeksamen Spørgsmål ) For en indikatorvariabel I A for hændelsen A gælder E(I A ) = P(A) (se for eksemepl side 68). Således er E(X) = P(N ) = =
Læs mereModule 1: Lineære modeller og lineær algebra
Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........
Læs mereLandmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable
Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/41 Landmålingens fejlteori - lidt om kurset
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Normalfordelingens venner og bekendte Helle Sørensen Uge 9, onsdag SaSt2 (Uge 9, onsdag) Normalfordelingens venner 1 / 20 Program Resultaterne fra denne uge skal bruges
Læs mereLidt om fordelinger, afledt af normalfordelingen
IMM, 2002-10-10 Poul Thyregod Lidt om fordelinger, afledt af normalfordelingen 1 Introduktion I forbindelse med inferens i normalfordelinger optræder forskellige fordelinger, der er afledt af normalfordelingen,
Læs mere