Markovkæder med endeligt tilstandsrum
|
|
- Egil Astrup
- 6 år siden
- Visninger:
Transkript
1 Kapitel 9 Markovkæder med endeligt tilstandsrum En følge af stokastiske variable {X t } = {X 0, X 1, X 2,...} kaldes en stokastisk proces. Vi kan nemlig tænke på de stokastiske variable som tilstanden til tidspunkterne t = 0, 1, 2,... af et system, der udvikler sig tilfældigt. Det kan f.eks. være daglige målinger af temperaturen på Rådhuspladsen, månedlige observationer af markedsrenten på et tre-årigt lån, målinger hver minut af vindhastigheden i Kastrup eller det årlige antal stormskader der indberettes til et forsikringsselskab. Mængden af mulige værdier af de stokastiske variable kaldes processens tilstandsrum. Den enkleste type stokastisk proces er den, hvor det antages at de stokastiske variable {X t } er uafhængige. En anden relativt enkel type stokastisk proces er Markovkæderne med endeligt tilstandsrum, som er emnet i dette kapitel. 9.1 Definition og eksempler Om et isoleret dynamisk system bestående af partikler gælder, at hvis man kender partiklernes positioner og hastigheder til et vist tidspunkt t 0, så kan systemets tilstand på ethvert senere tidspunkt t > t 0 beregnes, og kendskab til systemets opførsel før tid t 0 er overflødig. En Markovkæde er en sandsynlighedsteoretisk model med en tilsvarende egenskab. Definition Lad {X t } = {X 0, X 1, X 2,...} være en følge af stokastiske variable, der alle antager værdier i den endelige mængde S =
2 242 Markovkæder med endeligt tilstandsrum {a 1,...,a k }. Hvis der for alle (i, j) {1,...,k} 2 findes et tal p ij [0, 1], så P(X t+1 = a j X t = a i, X tm = a im,...,x t1 = a i1 ) = p ij (9.1.1) for alle a i1,...,a im S, alle 0 t 1 < < t m < t og alle m {1,..., t}, kaldes følgen {X t } en Markovkæde med tilstandsrum S. Bemærk at P(X t+1 = a j X t = a i ) = P(X t+1 = a j, X t = a i, X t 1 = a i1 ) /P(X t = a i ) = i 1 =1 i 1 =1 P(X t+1 = a j X t = a i, X t 1 = a i1 )P(X t 1 = a i1 X t = a i ) = p ij P(X t 1 = a i1 X t = a i ) = p ij. i 1 =1 Vi ser altså, at den betingede sandsynlighed for at X t+1 = a j givet at X t = a i er lig p ij, uanset hvad vi måtte vide om værdierne af X 1,..., X t 1. Bemærk, at denne sandsynlighed ikke afhænger af tidspunktet t. Man understreger ofte denne egenskab ved at tale om en homogen Markovkæde. Sandsynlighederne p ij kaldes overgangssandsynlighederne. Ligningen (9.1.1) kaldes Markovegenskaben. Eksempel Bernoulli-Laplace modellen for diffusion. Følgende model blev foreslået af Daniel Bernoulli i 1769 som en sandsynlighedsteoretisk analog til strømmen af to usammentrykkelige vædsker mellem to beholdere. Modellen blev analyseret af Laplace i Antag at vi har 2 partikler, hvoraf er hvide og er sorte. Partiklerne er fordelt i to beholdere med i hver beholder. Mellem tidspunkterne t 1 og t trækkes der en partikel tilfældigt fra hver beholder og de to partikler bytter plads. Lad X t være antallet af hvide partikler i den første beholder. Da er {X t } en Markovkæde med tilstandsrum {0, 1,..., } og overgangssandsynligheder givet ved P(X t = j 1 X t 1 = j) = ( j ) 2
3 9.1 Definition og eksempler 243 P(X t = j X t 1 = j) = P(X t = j + 1 X t 1 = j) = 2j( j) 2 ( j ) 2 P(X t = k X t 1 = j) = 0 hvis j k > 1, hvor j = 0, 1,...,. Overvej dette. Bemærk, at når X t = j, er der j sorte partikler i den første beholder, og henholdsvis j og j hvide og sorte partikler i den anden beholder. Eksempel En genetisk model. I en population af individer vil vi studere to allele gener A og a (A er dominant, mens a er recessivt (vigende)). Ethvert individ har netop to af disse gener og er af en af de følgende tre genotyper: AA, Aa, aa. Vi følger populationen fra generation til generation. Antallet af individer,, antages at være det samme i alle generationer. Lad X t betegne antallet af A-gener i den t te generation. Da der er ialt 2 gener, er antallet af a-gener lig 2 X t. Processen {X t } er en Markovkæde med tilstandrum {0, 1,..., 2}. Hvis vi antager at der er tilfældig parring og ingen selektion i populationen, er P(X t = j X t 1 = i) = ( 2 j ) ( ) i j ( 1 i ) 2 j. 2 2 Hvis altså X t 1 = i, er antallet af A-gener i næste generation binomialfordelt med antalsparameter 2 og sandsynlighedsparameter i/(2). Specielt er P(X t = 0 X t 1 = 0) = 1 P(X t = 2 X t 1 = 2) = 1. Eksempel En kømodel. En kø ved et ekspeditionssted antages at udvikle sig på følgende måde. Køen har pladser. Imellem tid t 1 og t ankommer et antal kunder Z t, hvor Z 1, Z 2,... er uafhængige stokastiske
4 244 Markovkæder med endeligt tilstandsrum variable, som alle er Poisson-fordelte med parameter λ > 0. Hvis køen er fuld, når en kunde ankommer, går kunden igen. Hvis der til tid t er kunder i køen, ekspederes den forreste kunde med sandsynlighed p, mens der er sandsynlighed 1 p for, at der ikke påbegyndes en ny ekspedition til tid t (for eksempel fordi den ekspedition, der startede til tid t 1, ikke er afsluttet). Hvis der ikke er nogen i køen, sker der selvfølgelig ingen ekspedition. Om første kunde i køen til tid t ekspederes eller ej antages uafhængigt af de stokastiske variable Z 1, Z 2,.... Ordene ekspeditionssted og kunde skal ikke tages for bogstavligt. Ekspeditionsstedet kan f.eks. være en internetserver og kunderne kan være ankommende pakker, der står i kø for at blive ekspederet videre af serveren og tabes, hvis køen er fuld. Lad X t betegne antallet af kunder i køen til tid t lige før ekspeditionen af den forreste kunde påbegyndes (hvis dette sker). Da er {X t } en Markovkæde (overvej hvorfor). De mulige værdier af X t er {0, 1,..., }, som altså er tilstandsrummet. Lad os finde overgangssandsynlighederne. Vi vil først finde P(X t = j X t 1 = i) for j i 1. Overgangen fra i til j kan ske på to måder. Enten bliver den forreste kunde i køen ekspederet til tid t 1, og der ankommer der j i + 1 kunder mellem tid t 1 og t, eller den forreste kunde i køen bliver ikke ekspederet til tid t 1, og der ankommer der j i kunder mellem tid t 1 og t. D.v.s. for > j i 1 er P(X t = j X t 1 = i) = pp(z t = j i + 1) + (1 p)p(z t = j i) mens λ j i+1 = p (j i + 1)! e λ + (1 p) λj i (j i)! e λ λ j i ( ) pλ = (j i)! e λ 1 p +, j i + 1 P(X t = X t 1 = i) = pp(z t i + 1) + (1 p)p(z t i) = P(Z t i + 1) + (1 p)p(z t = i) λ j λ i = j! e λ + (1 p) ( i)! e λ, j= i+1 for i 1. Læseren bør ved tilsvarende overvejelser overbevise sig
5 9.1 Definition og eksempler 245 om, at de øvrige overgangssandsynligheder er som følger: P(X t = j X t 1 = 0) = λj j! e λ for j = 0, 1,... 1 P(X t = X t 1 = 0) = j= λ j j! e λ P(X t = i 1 X t 1 = i) = pe λ for i = 1, 2,... P(X t = j X t 1 = i) = 0 for 0 j i 2. Eksempel En populationsmodel. Lad X t betegne antallet af individer i en population, der udvikler sig på følgende simple vis. Mellem tidspunkterne t 1 og t får hvert individ i populationen uafhængigt af hinanden et enkelt afkom med sandsynlighed p(x t 1 ), hvor α(1 x/k) hvis 0 x K p(x) = 0 ellers. Her er K II den største bæredygtige populationsstørrelse i det miljø, som populationen lever i, mens α [0, 1] for at sikre, at p(x) [0, 1]. Med sandsynlighed 1 p(x t 1 ) får et individ ikke noget afkom mellem tidspunkterne t 1 og t. Der kan naturligvis også ske dødsfald i populationen. For at forenkle modellen antages det, at der mellem tidspunkterne t 1 og t dør netop et individ. Det antages at fødsler sker før dødsfald, så det individ, der dør i et bestemt tidsinterval, også har mulighed for at få et afkom i samme tidsinterval. Disse antagelser kan formaliseres ved at antage, at X t = X t 1 + F t 1, hvor den betingede fordeling af den stokastiske variable F t givet X t 1 = x er en binomialfordeling med antalsparameter x og sandsynlighedparameter p(x). Processen {X t } er tydeligvis en Markovkæde. Så længe X t 1
6 246 Markovkæder med endeligt tilstandsrum K 1, er den størst mulige værdi af X t lig 2X t 1 1, mens X t = X t 1 1 hvis X t 1 K. Derfor er tilstandsrummet {0, 1,..., 2K 3}. Vi har følgende overgangssandsynligheder (overvej hvorfor). For i = 1, 2,...K 1 og i 1 j 2i 1 er mens P(X t = j X t 1 = i) = ( i j i + 1 P(X t = 0 X t 1 = 0) = 1 ) p(i) j i+1 (1 p(i)) 2i j 1, P(X t = i 1 X t 1 = i) = 1 for i = K, K + 1,...2K ogle regneregler I dette afsnit gennemgås nogle grundlæggende resultater for Markovkæder med endeligt tilstandsrum. Vi begynder med at finde fordelingen af den stokastiske vektor (X 0, X 1,...,X n ). Som i forrige afsnit betegnes elementerne i tilstandsrummet med S = {a 1,...,a k }. Sætning Den simultane sandsynlighedsfunktion for den stokastiske vektor (X 0, X 1,...,X n ) er p(x 0, x 1,..., x n ) = q(x 0 ) k k i=1 j=1 p n ij ij, (9.2.1) hvor q er sandsynlighedsfunktionen for X 0, og hvor n ij er lig antallet af overgange fra a i til a j i vektoren (x 0, x 1,...,x n ), det vil sige n ij = #{(x t 1, x t ) x t 1 = a i, x t = a j, t = 1,..., n}. (9.2.2) Bevis: Ved at bruge Markovegenskaben (9.1.1) fås for ethvert m II P(X m = x m, X m 1 = x m 1,...,X 0 = x 0 ) = P(X m = x m X m 1 = x m 1,...,X 0 = x 0 ) P(X m 1 = x m 1,...,X 0 = x 0 ) = P(X m = x m X m 1 = x m 1 )P(X m 1 = x m 1,...,X 0 = x 0 ).
7 9.2 ogle regneregler 247 Bruges dette resultat nu n gange (for m = n, n 1,...,1), ser vi at p(x 0, x 1,...,x n ) = P(X n = x n, X n 1 = x n 1,...,X 0 = x 0 ) = P(X n = x n X n 1 = x n 1 )P(X n 1 = x n 1,...,X 0 = x 0 ). = P(X n = x n X n 1 = x n 1 )P(X n 1 = x n 1 X n 1 = x n 2 ) P(X 1 = x 1 X 0 = x 0 )P(X 0 = x 0 ). Resultatet (9.2.1) følger nu ved for hvert i og j at samle de faktorer, hvor x t 1 = a i og x t = a j, og hvor derfor P(X t = x t X t 1 = x t 1 ) = p ij. Matricen P = {p ij } (k k-matrix) kaldes Markovkædens overgangsmatrix. Bemærk at da p ij = 1, (9.2.3) j=1 p ij = P(X t+1 = a j X t = a i ) = P(X t+1 S X t = a i ) = 1 j=1 j=1 En k k-matrix {p ij } er overgangsmatrix for en Markovkæde, hvis alle dens elementer er ikke-negative og (9.2.3) er opfyldt. For ethvert m II defineres m-trins overgangssandsynlighederne ved og m-trins overgangsmatricen ved p (m) ij = P(X t+m = a j X t = a i ) (9.2.4) P (m) = { p (m) } ij. Specielt er P (1) = P. Ved hjælp af m-trins overgangssandsynlighederne kan vi finde sandsynlighedsfunktionen for X m.
8 248 Markovkæder med endeligt tilstandsrum Sætning Sandsynlighedsfunktionen for X t er givet ved p t (a j ) = i=1 p (t) ij q(a i ), for j = 1,...,k, (9.2.5) hvor q er sandsynlighedsfunktionen for X 0. Hvis p t betegner rækkevektoren (p t (a 1 ),...,p t (a k )) og q rækkevektoren (q(a 1 ),...,q(a k )) kan (9.2.5) også udtrykkes således: p t = qp (t). Bevis: Ifølge (1.4.3) er P(X t = a j ) = P(X t = a j X 0 = a i )P(X 0 = a i ) = p (t) ij q(a i ). i=1 i=1 æste sætning siger, at Markovegenskaben også gælder for m-trins overgange. Det følger af sætningen, at {X tm } = {X 0, X m, X 2m, X 3m...} er en Markovkæde. Sætning For alle a i, a j, a i1,...,a in S og alle 0 t 1 < < t n < t er P(X t+m = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = p (m) ij. (9.2.6) Bevis: For m = 2 er P(X t+2 = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j, X t+1 S X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j, X t+1 = a j1 X t = a i, X tn = a in,...,x t1 = a i1 ) = j 1 =1 j 1 =1 P(X t+2 = a j X t+1 = a j1, X t = a i, X tn = a in,...,x t1 = a i1 ) P(X t+1 = a j1 X t = a i, X tn = a in,...,x t1 = a i1 ),
9 9.2 ogle regneregler 249 hvor vi til sidst har brugt formlen P(A B C) = P(A B C)P(B C) (eftervis denne formel, som bruges gang på gang i teorien for Markovkæder). Anvender vi nu Markovegenskaben (9.1.1), fås P(X t+2 = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j X t+1 = a j1 )P(X t+1 = a j1 X t = a i ) = = j 1 =1 j 1 =1 j 1 =1 P(X t+2 = a j X t+1 = a j1, X t = a i )P(X t+1 = a j1 X t = a i ) P(X t+2 = a j, X t+1 = a j1 X t = a i ) = P(X t+2 = a j X t = a i ) = p (2) ij. For generelt m følger sætningen nu ved induktion i m under brug af tilsvarende regnerier. Det viser sig, at det er let at finde m-trinsovergangssandsynligheder ved hjælp af matrixmultiplikation. Sætning For alle m, n II gælder, at P (m+n) = P (m) P (n), (9.2.7) hvor betegner matrixmultiplikation. For alle m II er Specielt er for alle l 1,...,l m 1 {1,...,k}. Bevis: p (m+n) P (m) = P m. (9.2.8) p (m) ij p il1 p l1 l 2 p lm 2 l m 1 p lm 1 j (9.2.9) ij = P(X m+n = a j X 0 = a i ) = P(X m+n = a j, X m S X 0 = a i ) = P(X m+n = a j, X m = a l X 0 = a i ) l=1
10 250 Markovkæder med endeligt tilstandsrum = = P(X m+n = a j X m = a l, X 0 = a i )P(X m = a l X 0 = a i ) l=1 p (n) lj p(m) il, l=1 hvor vi har brugt Markovegenskaben (9.2.6). Ved at anvende (9.2.7) m gange, fås P (m) = P P (m 1) = = P } {{ P}. m Endelig følger (9.2.9) af (9.2.8), som netop siger at p (m) ij er lig summen af alle de mulige værdier af højresiden af (9.2.9), og dermed større end eller lig et enkelt led i denne sum af ikke-negative størrelser. Ligningerne (9.2.7) kaldes Chapman-Kolmogorov ligningerne. Eksempel Betragt en Markovkæde med to tilstande. Da har overgangsmatricen formen { } 1 p p P =, (9.2.10) α 1 α hvor p, α [0, 1], og P 2 = { (1 p) 2 + pα p(2 p α) α(2 p α) pα + (1 α) 2 For eksempel er p (2) 12 = p(2 p α). Vi antager, at p og α ikke begge er lig nul. Ved induktion kan det vises, at P m = 1 p + α { α p α p } + (1 p α)m p + α }. { } p p, (9.2.11) α α for alle m II. For eksempel er altså p (m) 12 = p(1 (1 p α) m )/(p+α). Vi slutter dette afsnit med et resultat, som mere klart viser, at den betingede sandsynlighed for at X t+m = a j givet at X t = a i er lig p (m) ij, helt uanset hvad vi måtte vide om værdierne af X 1,..., X t 1.
11 9.3 Ergodicitet og stationær fordeling 251 Sætning For alle delmængder A il S, l = 1,, n og alle 0 t 1 < < t n < t er Bevis: P(X t+m = a j X t = a i, X tn A in,..., X t1 A i1 ) = p (m) ij. (9.2.12) P(X t+m = a j X t = a i, X tn A in,...,x t1 A i1 ) = P(X t+m = a j, X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,..., X t1 A i1 ) nl=1 x = l A l P(X t+m = a j, X t = a i, X tn = x n,...,x t1 = x 1 ) = p(m) ij = p (m) ij P(X t = a i, X tn A in,..., X t1 A i1 ) nl=1 x l A l P(X t = a i, X tn = x n,...,x t1 = x 1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) = p(m) Det tredie lighedstegn følger, fordi P(X t+m = a j, X t = a i, X tn = x n,...,x t1 = x 1 ) ij. = P(X t+m = a j X t = a i, X tn = x n,...,x t1 = x 1 ) P(X t = a i, X tn = x n,..., X t1 = x 1 ) = p (m) ij P(X t = a i, X tn = x n,...,x t1 = x 1 ), hvor vi har brugt Markovegenskaben (9.2.6). 9.3 Ergodicitet og stationær fordeling I dette afsnit behandles det helt centrale begreb en stationær fordeling, som spiller en vigtig rolle i mange anvendelser af teorien for Markovkæder. For eksempel er det den grundlæggende idé i søgemaskinen Google. Vi begynder med et par definitioner. Man siger, at en tilstand a i fører til en anden tilstand a j (og skriver a i a j ), hvis der eksisterer et m II, så p (m) ij > 0, altså hvis der er
12 252 Markovkæder med endeligt tilstandsrum positiv sandsynlighed for at komme til a j på et eller andet tidspunkt, givet at vi starter i tilstanden a i. Det følger af (9.2.7), at Hvis a i a j og a j a l, så gælder at a i a l. En Markovkæde kaldes irreducibel, hvis enhver tilstand fører til enhver anden, d.v.s. hvis a i a j for alle i, j = 1,...,k. En tilstand a i kaldes absorberende, hvis p ii = 1, fordi dermed p ij = 0 for alle j i. Det følger af (9.2.9), at p (m) ii = 1 for alle m II. Dermed er p (m) ij = 0 for alle j i. Hvis en Markovkæde har en absorberende tilstand, kan den altså ikke være irreducibel. Definition En irreducibel Markovkæde kaldes ergodisk, hvis der eksisterer p j 0, så for alle i, j = 1,...k. lim m p(m) ij = p j (9.3.1) Bemærk, at grænseværdien er uafhængig af i. Da p (t) ij er sandsynlighedsfunktionen for den betingede fordeling af X t givet at X 0 = i, betyder (9.3.1), at fordelingen af X t hverken afhænger af t eller begyndelsestilstanden i, når t er tilstrækkeligt stor. Sætning Lad {X t } være en ergodisk Markovkæde med grænseværdier p j, j = 1,...,k. Da er p j = 1 (9.3.2) j=1 og for j = 1,..., k. lim P(X t = a j ) = p j (9.3.3) t Bevis: p j = lim m p(m) ij = lim m j=1 j=1 j=1 p (m) ij = 1.
13 9.3 Ergodicitet og stationær fordeling 253 Hvis q betegner sandsynlighedsfunktionen for X 0, så følger det af (9.2.5), at lim P(X t = a j ) = t lim t p(t) ij q(a i ) = p j q(a i ) = p j q(a i ) = p j. i=1 i=1 i=1 Eksempel (fortsat). For en Markovkæde med to tilstande med overgangsmatrix (9.2.10), hvor p og α ikke begge er lig nul, er m-trins overgangsmatricen lig P (m) = 1 p + α { α p α p } + (1 p α)m p + α { } p p. α α Hvis p og α heller ikke begge er lig en, er 1 p α < 1, så lim m Pm = 1 { } α p. p + α α p Hvis p og α begge er forskellige fra nul, og de ikke begge er lig en, er denne Markovkæde irreducibel og ergodisk med p 1 = Ligning (9.3.2) er klart opfyldt. α p + α og p 2 = p p + α. Definition En fordeling på tilstandsrummet S kaldes stationær, hvis dens sandsynlighedsfunktion π opfylder, at π(a i )p ij = π(a j ), j = 1,..., k. (9.3.4) i=1 Ifølge (9.2.5) siger (9.3.4), at hvis X 0 har sandsynlighedsfunktion π, så har også X 1 sandsynlighedsfunktion π. Eller mere generelt, hvis X t har sandsynlighedsfunktion π, så har også X t+1 sandsynlighedsfunktion π. Hvis π betegner rækkevektoren (π(a 1 ),...,π(a k )), kan (9.3.4) skrives som πp = π, (9.3.5)
14 254 Markovkæder med endeligt tilstandsrum hvoraf det ved multiplikation med P fra venstre og ved at anvende (9.2.8) ses at πp (m) = π (9.3.6) for alle m II. Den sidste ligning kan mere detaljeret skrives som følger i=1 π(a i )p (m) ij = π(a j ), j = 1,..., k, m II. (9.3.7) Hvis der findes en stationær fordeling, kan man finde den ud fra overgangssandsynlighederne ved at løse ligningssystemet (9.3.4) suppleret med ligningen k i=1 π(a i ) = 1 med hensyn til (π(a 1 ),..., π(a k )). Den næste sætning belyser, hvorfor det er rimeligt at kalde en fordeling, som opfylder (9.3.4), stationær. Sætning Lad π være en stationær fordeling, og antag at fordelingen af X 0 har sandsynlighedsfunktion π. Da er P(X t = a j ) = π(a j ) for alle t II og j = 1,...,k, (9.3.8) og den simultane fordelingen af den stokastiske vektor (X t, X t+1,...,x t+n ) er for alle t II og alle n II lig fordelingen af (X 0, X 1,...,X n ). Bevis: (9.3.8) følger umiddelbart af (9.2.5) og (9.3.7). Helt på samme måde som beviset for Sætning 9.2.1, ses det at sandsynlighedsfunktionen for (X t, X t+1,...,x t+n ) er P(X t+n = x n, X t+n 1 = x n 1,..., X t = x 0 ) = P(X t = x 0 ) k k i=1 j=1 p n ij ij, hvor n ij er givet ved (9.2.2). Da P(X t = x 0 ) = π(x 0 ), er dette ifølge (9.2.1) lig sandsynlighedsfunktionen for (X 0, X 1,...,X n ). En stokastisk process {X t }, som opfylder at den simultane fordeling af (X t, X t+1,...,x t+n ) er lig fordelingen af (X 0, X 1,...,X n ) for alle t II og alle n II, kaldes en stationær proces.
15 9.3 Ergodicitet og stationær fordeling 255 Eksempel (fortsat). Fordelingen givet ved ( ) 2 π(j) = j ( ), j = 0,..., 2 er stationær fordeling for Bernoulli-Laplace modellen for diffusion. Dette ses af følgende regneri: π(i)p ij = π(j 1)p j 1,j + π(j)p j,j + π(j + 1)p j+1,j i=0 ( ) 2 ( ) 2 ( ) 2 ( ) j ( ) j 1 j( j) j j j + 1 = ( ) ( ) + ( ) 2 2 ( ) 2 ( )( ) ( ) j 1 j 1 j j = ( ) 2 = (( ) 1 j 1 ( )) j ) = ( 2 ( ) 2 j ( ) = π(j). 2 Til slut brugte vi formel (B.3.2) (Pascals trekant). Bemærk at den stationære fordeling er en hypergeometrisk fordeling med parametre 2, og. Sætning Antag Markovkæden {X t } er ergodisk med grænseværdier p j, j = 1,...,k. Da eksisterer der en entydig stationær fordeling, som er givet ved π(a j ) = p j, j = 1,...,k. Endvidere er π(a j ) > 0 for alle j = 1,...,k.
16 256 Markovkæder med endeligt tilstandsrum Bevis: Først vises eksistensen af en stationær fordeling. Ifølge (9.2.7) er Heraf følger, at p (n+1) ij = l=1 p (n) il p lj. p j = lim p (n+1) n ij = lim n p(n) il p lj = p l p lj, l=1 l=1 hvoraf det ses, at fordelingen med sandsynlighedsfunktion π(a j ) = p j, j = 1,...,k, er stationær. Dernæst skal det vises, at den stationære fordeling er entydig. Antag derfor at r er sandsynlighedsfunktion for en stationær fordeling, og lad {X t } være en Markovkæde med overgangssandsynligheder {p ij} og med begyndelsesfordeling P(X 0 = a j ) = r(a j ) for j = 1,..., k. Ifølge Sætning er P(X n = a j ) = r(a j ), j = 1,..., k, for alle n II, så ved at anvende Sætning ser vi, at r(a j ) = lim n P(X n = a j) = p j. Altså er r = π. Til slut vises det, at p j > 0 for j = 1,...,k. Bemærk, at da k j=1 p j = 1, må der findes et j 0, så p j0 > 0. Lad videre i være vilkårlig. Da en ergodisk Markovkæde er irreducibel, findes der et m II, så p (m) j 0 i > 0. Dermed er p i = j=1 p (m) ji p j p (m) j 0 i p j0 > 0. Eksempel (fortsat). Lad os checke at grænsefordelingen givet ved π(1) = α p + α og π(2) = p p + α. (9.3.9)
17 9.3 Ergodicitet og stationær fordeling 257 er den stationære fordeling for en Markovkæde med to tilstande. Dette ses af at α π(1)p 11 + π(2)p 21 = (1 p) + p p + α p + α α = α p + α = π(1) π(1)p 12 + π(2)p 22 = α p + α p + p (1 α) = p p + α p + α = π(2) Eksempel (fortsat). Den genetiske model er ikke nogen irreducibel Markovkæde, da både 0 og 2 er absorberende tilstande. For denne Markovkæde er fordelingen givet ved π θ (0) = θ, π θ (2) = 1 θ, π θ (j) = 0, j = 1,...2 1, en stationær foredeling for ethvert θ [0, 1]. Der er altså uendeligt mange stationære fordelinger. Og ingen af dem opfylder det sidste udsagn i Sætning Irreducibilitet er altså en vigtig forudsætning for denne sætnings udsagn om entydighed og positivitet af den stationære fordeling. At π θ er stationær ses af at For 0 < j < 2 er For j = 0, 2 er 2 i=0 = π θ (i)p ij = θp 0j + (1 θ)p 2,j. θp 0j + (1 θ)p 2,j = 0 = π θ (j). θp 00 + (1 θ)p 2,0 = θp 00 = θ = π θ (0) θp 0,2 + (1 θ)p 2,2 = (1 θ)p 2,2 = 1 θ = π θ (2). Man kan vise, at fra et vist stokastisk tidspunkt vil Markovkæden være konstant lig enten 0 eller 2, således at det ene gen fuldstændigt forsvinder fra populationen. Den betingede sandsynlighed for at ende i tilstanden 2 givet at X 0 = j er lig j/(2). Dermed er den betingede sandsynlighed for at ende i tilstanden 0 lig 1 j/(2).
18 258 Markovkæder med endeligt tilstandsrum En irreducibel Markovkæde er ergodisk, hvis den opfylder en ekstra betingelse, som er givet i følgende definition. Definition En irreducibel Markovkæde kaldes aperiodisk, hvis der for ethvert i, j = 1,..., k findes et m 0, så p (m) ij > 0 for alle m m 0. Bemærk, at det på grund af det sidste resultat i Sætning er en nødvendig forudsætning for, at en irreducibel Markovkæde er ergodisk, at den er aperiodisk. At det også er en tilstrækkelig betingelse, fremgår af det følgende hovedresultat om ergodicitet af Markovkæder med endeligt tilstandsrum. Sætning En irredicibel og aperiodisk Markovkæde {X t } er ergodisk, og der eksisterer et c > 0 og et ρ (0, 1), så og p (t) ij π(a j ) cρ t (9.3.10) P(X t = a j ) π(a j ) cρ t (9.3.11) for alle i, j = 1,...,k og alle t II, hvor π betegner sandsynlighedsfunktionen for den stationære fordeling. Bemærk, at Sætningen ikke kun fortæller os, at {X t } er ergodisk, men også at konvergensen mod π(a j ) i (9.3.1) og (9.3.3) går eksponentielt hurtigt. Det betyder, at man i praksis kan benytte approximationen P(X t = a j ) π(a j ), selv når t ikke er særligt stor. Før vi beviser Sætning 9.3.7, vender vi lige tilbage til nogle af eksemplerne for at illustrere nogle pointer. Eksempel (fortsat). Vi har tidligere ved direkte beregninger set, at m-trins overgangssandsynlighederne konvergerer for en Markovkæde med to tilstande med overgangsmatrix (9.2.10), forudsat at p og α ikke begge er nul, og heller ikke begge er en. Hvis et af disse tal er lig nul, er den tilsvarende tilstand absorberende, og Markovkæden er derfor ikke irreducibel. Hvis p > 0 og α > 0, og hvis de ikke begge er lig en, ses det af (9.2.11), at Markovkæden er irreducibel og aperiodisk.
19 9.3 Ergodicitet og stationær fordeling 259 Hvis p = α = 1, er overgangsmatricen P = { d.v.s. processen springer frem og tilbage mellem de to tilstande. I dette tilfælde er processen irreducibel, men den er ikke aperiodisk. For eksempel er p (m) 11 = 0 for alle ulige m. Da m-trins overgangsmatricen ifølge (9.2.11) er lig P (m) = } + ( 1)m, ser vi, at P (m) ikke konvergerer i dette tilfælde. Processen er altså ikke ergodisk, hvad der heller ikke var grund til at forvente. Eksempel (fortsat). Lad os eftervise, at Bernoulli-Laplace modellen for diffusion er irreducibel og aperiodisk. For > j > i er ifølge (9.2.9) p (n+j i) ij p i,i+1 p i+1,i+2 p j 1,j p n jj > 0 for alle n II. Alle andre kombinationer af i og j klares på lignende vis, således at vi kan konkludere, at p (m) ij > 0 for alle m >. Processen er dermed både irreducibel og aperiodisk, således at (9.3.11) sikrer, at når t er stor nok, er ( ) 2 1 2, P(X t = j) j ( ), j = 0,..., 2 Den fysiske fortolkning af dette resultat er, at uanset hvor mange hvide partikler der oprindeligt var i den første beholder, så vil der med tiden (og
20 260 Markovkæder med endeligt tilstandsrum ret hurtigt med mindre der startes i en meget ekstrem tilstand) indstille sig en statistisk ligevægt, hvor antallet af hvide partikler i den første beholder er hypergeometrisk fordelt med parametre 2, og. u vil i praksis være et meget stort tal, så ifølge Sætning er fordelingen af X t godt tilnærmet af en binomialfordeling med antalsparameter og sandsynlighedsparameter 1/2. Og igen fordi er meget stor, kan vi slutte af den centrale grænseværdisætning at fordelingen af X t også approximeres godt af en normalfordeling med middelværdi /2 og varians /4. Eksempel (fortsat). Kømodellen er irreducibel og aperiodisk. Da p ij > 0 for j i, giver (9.2.9) at p (m) ij pii m 1 p ij > 0 for alle m II, når j i. Da p j,j 1 > 0 for j = 1,...,, gælder endvidere, at p (n+k) j,j k pn jj p j,j 1 p j k+1,j k > 0 for alle n II 0, k = 1,..., j og j = 1,...,. Vi har dermed vist, at p (m) ij > 0 for alle m, således at Markovkæden er irreducibel og aperiodisk. Den er derfor ergodisk, og der eksisterer en entydig stationær fordeling, men et eksplicit udtryk for denne fordeling er særdeles kompliceret. For konkrete værdier af parametrene λ og p kan den stationære fordeling, som vi har set, findes ved at løse et lineært ligningssystem. Ved dimensionering af køsystemer, spiller den stationære fordeling π en vigtig rolle. Man vil naturligvis gerne sikre, at π() er meget lille, da det er sandsynligheden for at køen er fuld, således at kunderne går uden at handle eller internetpakker går tabt. En kunde vil sætte pris på at π(0) er stor, mens forretningen måske synes det er spild af arbejdskraft. år er meget lille, er udtrykket for den stationære fordeling til at håndtere. For = 1 har kømodellen kun to tilstande, hvorfor vi allerede har fundet udtrykket (9.3.9) for den stationære fordeling. Da overgangsmatricen for kømodellen med = 1 er { e λ 1 e P = λ } pe λ 1 pe λ,
21 9.3 Ergodicitet og stationær fordeling 261 så den stationære fordeling er givet ved π(0) = pe λ 1 e λ + pe λ og π(1) = 1 e λ 1 e λ + pe λ. Vi skal nu i gang med at bevise Sætning Det gør vi ved hjælp af den såkaldte koblingsmetode. Til det formål lader vi {X t } og {Y t } være to uafhængige Markovkæder med samme overgangssandsynligheder {p ij }, men med forskellige begyndelsesbetingelser. Det antages at P(X 0 = a i ) = q 1 (a i ) og P(Y 0 = a i ) = q 2 (a i ) for i = 1,...,k, hvor q 1 og q 2 er sandsynlighedsfunktioner på S. Koblingsmetoden benytter det første tidspunkt, hvor de to Markovkæder er i samme tilstand. Definer derfor den stokastiske variable T i = inf{t 0 X t = a i og Y t = a i }. (9.3.12) Som sædvanlig sættes inf =, så er som udgangspunkt en mulig værdi af T i. Vi vil nu bevise to lemmaer, der giver os det rigtige værktøj til at bevise Sætning Lemma For alle i = 1,..., k og alle t II gælder, at P(X t = a j ) P(Y t = a j ) 2P(T i t). (9.3.13) j=1 Bevis: Ifølge (1.3.14) er P(X t = a j ) = og for t > n er P(T i = n, X t = a j ) t 1 n=1 P(T i = n, X t = a j ) + P(T i t, X t = a j ), = P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i ), X t = a j ) = P(X t = a j (X n, Y n ) = (a i, a i ), (X r, Y r ) (a i, a i ), r = 0,...,n 1) P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i )) = p (t n) ij P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i )) = p (t n) ij P(T i = n),
22 262 Markovkæder med endeligt tilstandsrum hvor vi har brugt Markovegenskaben (9.2.12) og at {X t } og {Y t } er to uafhængige. Dermed er P(X t = a j ) = t 1 n=1 På tilsvarende måde vises at P(Y t = a j ) = t 1 n=1 således at det følger af trekantsuligheden, at p (t n) ij P(T i = n) + P(T i t, X t = a j ). p (t n) ij P(T i = n) + P(T i t, Y t = a j ), P(X t = a j ) P(Y t = a j ) P(T i t, X t = a j ) + P(T i t, Y t = a j ). u følger (9.3.13) af (1.3.14) ved summation over j. For at kunne udnytte uligheden (9.3.13), skal vi kunne sige noget om størrelsen af P(T i t). Følgende lemma er lige, hvad vi skal bruge. Lemma Antag at {X t } er irreducibel og aperiodisk. Da eksisterer der et c > 0 og et ρ (0, 1), så for alle t II. P(T i t) cρ t (9.3.14) Bevis: Da {X t } er aperiodisk, findes der et m 0 og et δ (0, 1), så p (m 0) ij > δ for alle i, j = 1,..., k. Lad A i = S 2 \{(a i, a i )}. Da er for alle t II {T i > nm 0 } {(X lm0, Y lm0 ) A i, l = 1,...n}, således at u er P(T i > nm 0 ) P((X lm0, Y lm0 ) A i, l = 1,...n). P((X lm0, Y lm0 ) A i, l = 1,...n) n 1 = P((X nm0, Y nm0 ) A i, (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i n 1 = P((X nm0, Y nm0 ) A i (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i P((X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1).
23 9.3 Ergodicitet og stationær fordeling 263 og P((X nm0, Y nm0 ) A i (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) = 1 P((X nm0, Y nm0 ) = (a i, a i ) (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) = 1 P((X nm0 = a i X lm0 = x l, l < n) P(Y nm0 = a i Y lm0 = y l, l < n) = 1 P((X nm0 = a i X (n 1)m0 = x n 1 ) P(Y nm0 = a i Y (n 1)m0 = y n 1 ) 1 δ 2. Læseren bør overbevise sig om rigtigheden af det andet lighedstegn ved hjælp af elementære regneregler for sandsynligheder fra Kapitel 1. Sammenfattende har vi, at P((X lm0, Y lm0 ) A i, l = 1,...n) n 1 (1 δ 2 ) P((X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i = (1 δ 2 ) P((X lm0, Y lm0 ) A i, l = 1,...n 1). Ved at gentage disse argumenter n 1 gange mere, fås P(T i > nm 0 ) P((X lm0, Y lm0 ) A i, l = 1,...n) (1 δ 2 ) n. Vælg nu det hele tal n, så t/m 0 > n t/m 0 1. Da er P(T i t) P(T i > nm 0 ) (1 δ 2 ) n (1 δ 2 ) (t/m 0 1), som er på den ønskede form med ρ = (1 δ 2 ) 1/m 0. Bemærk, at (9.3.14) medfører at for alle t II således at P(T i = ) P(T i t) cρ t P(T i = ) lim t cρ t = 0. Vi kan nu vise dette afsnits hovedresultat, Sætning om ergodicitet af Markovkæder.
24 264 Markovkæder med endeligt tilstandsrum Bevis for Sætning 9.3.7: Følgen (p (n) 11, p (n) 12,...,p (n) kk ) i den kompakte mængde [0, 1] k2 har en konvergent delfølge (p (nt) 11, p (nt) 12,...,p (nt) kk ), hvor n t. D.v.s. der findes c ij, så lim n p(nt) ij = c ij t for alle i, j = 1,..., k. Vi anvender nu Lemmaerne og med begyndelsesfordelingerne for {X t } og {Y t } givet ved q 1 (a r ) = 1 og q 2 (a s ) = 1, hvor r og s er vilkårlige tal i {1,..., k}. Ifølge (9.2.5) er P(X nt = a j ) = p (nt) rj og P(Y nt = a j ) = p (nt) sj, så Lemmaerne og giver at c rj c sj = lim n p(nt) rj p (nt) sj = 0. t Dermed har vi vist er c rj = c sj for alle r, s = 1,..., k. Grænseværdien lim nt p (nt) ij afhænger altså ikke af i, og vi betegner den med p j. Det følger nu på helt samme måde som i beviset for Sætning at k j=1 p j = 1. Vi kan derfor anvende Lemmaerne og med begyndelsesfordelingen for {Y t } givet ved q 2 (a j ) = p j, j = 1,...,k, mens begyndelsesfordelingen for {X t } er givet ved q 1 (a i ) = 1, hvor i er et vilkårligt tal i {1,..., k}. Da er P(X t = a j ) = p (m) ij, og ifølge Sætning er P(Y t = a j ) = p j, så p (m) ij p j cρ t 0 for t. Dermed har vi vist at {X t } er ergodisk, og ifølge Sætning er den stationære fordeling givet ved π(a j ) = p j, j = 1,...,k. Lader vi nu begyndelsesfordelingen for {X t } er vilkårlig, mens begyndelsesfordelingen for {Y t } igen er den stationære fordeling, får vi (9.3.11) 9.4 Sammenfatning Vi har i dette kapitel set nogle typiske eksempler på Markovkæder med endeligt tilstandsrum. Dernæst blev nogle vigtige regneregler etableret.
25 9.5 Opgaver 265 Herunder hvordan man kan finde fordelingen af en observeret Markovkæde ud fra overgangssandsynlighederne og begyndelsesfordelingen, og hvordan man kan finde m-trins overgangssandsynlighederne ud fra 1-trins overgangssandsynlighederne ved hjælp af Chapman-Kolmogorov ligningerne. Endelig blev de vigtige begreber ergodicitet og stationær fordeling behandlet. Vi så at grænsefordelingen for en ergodisk Markovkæde med endeligt tilstandsrum er en entydig stationær fordeling, samt at h- vis begyndelsesfordelingen for en Markovkæde er stationær, så er hele processen stationær. Til slut blev der givet betingelser, som sikrer at en Markovkæde med endeligt tilstandsrum er ergodisk, og at konvergensen mod grænsefordelingen går eksponentielt hurtigt. 9.5 Opgaver 9.1 En bærbar PCs trådløse LA-kort rapporterer hvert sekund radioforbindelsens tilstand. Der er tre muligheder: dårlig, rimelig, god. Hvis forbindelsen er dårlig, er dens tilstand næste sekund enten dårlig eller rimelig, og de to muligheder er da lige sandsynlige. H- vis tilstanden er rimelig eller god, er tilstanden næste sekund med sandsynlighed 0.9 uændret, mens sandsynligheden for at tilstanden næste sekund er dårlig er (a) Opskriv overgangsmatricen. (b) Find den stationære fordeling. (c) Er Markovkæden irreducibel og aperiodisk? 9.2 Betragt en Markovkæde med tre tilstande og med overgangsmatrix P = 1 p p 0 1 p 0 p 0 1 p p (a) Find 2-trins overgangssandsynlighederne., (b) Gør dernæst rede for, at Markovkæden er irreducibel og aperiodisk. (c) Find til slut den stationære fordeling for kæden.
26 266 Markovkæder med endeligt tilstandsrum 9.3 Rentens udvikling er vigtig i mange finansielle problemer, for eksempel i livsforsikring. Ofte benyttes en Markovproces som model for rentens udvikling. Her er en simpel model. Antag at renten kun kan have tre niveauer: 2, 4 og 6 procent, og at den er konstant hele året. Overgangssandsynlighederne er som følger. Uanset tilstanden er renten med sandsynlighed 0.6 uændret næste år. Hvis renten et år er 2 procent, er sandsynligheden for at den næste år er 4 procent lig 0.3, mens den med sandsynlighed 0.1 er 6 procent næste år. Hvis renten et år er 4 procent, er der samme sandsynlighed for at den går op og ned næste år. Hvis endelig renten er 6 procent, er der sandsynlighed 0.3 for at den næste år er gået ned til 4 procent, mens der er sandsynlighed 0.1 for at den er hoppet helt ned på 2 procent. (a) Opskriv overgangsmatricen. (b) Givet at renten et år er 2 procent, hvad er da sandsynligheden for, at den tre år senere er 6 procent? (c) Gør rede for, at Markovkæden er irreducibel og aperiodisk. (d) Find den stationære fordeling for kæden. 9.4 Julie har to paraplyer. Hvis det regner, når hun om morgenen skal på arbejde, tager hun en paraply med, hvis der er en paraply i hendes lejlighed. Hvis det ikke regner, tager hun ikke en paraply med. På samme måde, når hun skal hjem fra arbejde om aftenen. Hvis det regner, tager hun en paraply med, såfremt mindst en af hendes paraplyer ligger på hendes kontor. Hvis det ikke regner, lader hun sin paraply/sine paraplyer ligge på kontoret. Sandsynligheden for at det regner, når hun skal på arbejde, er 0.1. Der er samme sandsyndsynlighed for regn, når hun skal hjem fra arbejde. Dette har stået på i meget lang tid. Hvad er sandsynligheden for, at Julie en morgen må gå på arbejde i regnvejr uden paraply. Vink: Lad X t være antallet af paraplyer i Julies lejlighed efter hun er kommet hjem fra arbejde den t-te aften. 9.5 Markovkæder kan benyttes til at finde sandsynligheder, der er vigtige i forbindelse med livsforsikringskontrakter. Vi betragter en kontrakt, hvor der ud over udbetalingen i forbindelse med død også
27 9.5 Opgaver 267 er en årlig udbetaling i forbindelse med invalidering. Størrelsen af udbetalingen ved invalidering afhænger af graden af invalidering. En forsikringstager kan være i fire mulige tilstande: rask, lettere invalid, stærkt invalid og død. Vi betegner disse tilstande med henholdsvis 1, 2, 3 og 4. Antag at forsikringstagerens tilstand kan modelleres ved en Markovkæde med overgangsmatrix Her svarer første række/søjle til tilstand 1 og så videre. (a) Find sandsynligheden for, at en lettere invalideret forsikringstager efter tre år er død. (b) Er Markovkæden irreducibel? Den betingede kæde, hvor der betinges med, at forsikringstageren ikke er død har (efter afrunding) overgangsmatricen (c) Overvej, hvordan den sidste overgangsmatrix er fremkommet fra den første. (d) Gør rede for, at Markovkæden svarende til den sidste overgangsmatrix er irreducibel og aperiodisk, og find den stationære fordeling. 9.6 Følgende er en generalisering af Bernoulli-Laplace modellen for diffusion til en situation, hvor der ikke er lige meget af de to vædsker. Antag at vi har 2 partikler, hvoraf H er hvide og H er sorte. Partiklerne er fordelt i to beholdere med i hver beholder. Mellem tidspunkterne t 1 og t trækkes der en partikel tilfældigt fra hver beholder og de to partikler bytter plads. Lad X t være antallet af hvide partikler i den første beholder.
28 268 Markovkæder med endeligt tilstandsrum (a) Gør rede for at {X t } er en Markovkæde med tilstandsrum {0, 1,..., } og find overgangssandsynlighederne. (b) Vis dernæst at Markovkæden er ergodisk og find den stationære fordeling. (c) Diskuter til slut approximationer til den stationære fordeling. 9.7 Lad X t være en Markovkæde med tilstandsrum {1, 2,..., k} og overgangssandsynligheder p ij. Vis at det for alle t II gælder, at P(X t = 1, X t 1 = 1,...,X 1 = 1 X 0 = 1) = p t 11. Definer en stokastisk variable T ved, at den er lig t II 0, hvis X 1 = = X t = 1 og X t+1 1. Det er altså ventetiden på at forlade tilstand 1. Vis at den betingede fordeling af T givet at X 0 = 1 er den geometriske fordeling med parameter 1 p 11, d.v.s. at P(T = t X 0 = 1) = p t 11(1 p 11 ) for alle t II Lad {X t } = {X 0, X 1, X 2,...} være en følge af stokastiske variable, der alle antager værdier i den endelige mængde S = {a 1,...,a k }. Antag at der for alle (i, j, l) {1,..., k} 3 findes et tal p ijl [0, 1], så P(X t+1 = a l X t = a i, X t 1 = a j, X tm = a im,...,x t1 = a i1 ) = p ijl for alle a i1,...,a im S og alle 0 t 1 < < t m < t 1. Tilstanden af processen {X t } afhænger altså af de to forrige tilstande. Den er således ikke en Markovkæde, men kaldes en anden-ordens Markovkæde. Definer en ny proces ved Y t = (X t, X t 1 ). Vis at {Y t } er en Markovkæde med tilstandsrum S 2 og overgangssandsynligheder p ijl hvis i = n q (i,j)(l,n) = 0 hvis i n.
Plan. Markovkæder Matematisk modelling af kølængde, yatzy, smittespredning og partikelbevægelser. Materiale mm.
Institut for Matematiske Fag Plan Markovkæder Matematisk modelling af kølængde, yatzy, smittespredning og partikelbevægelser Helle Sørensen Eftermiddagen vil være bygget om 3 4 eksempler: A. B. Random
Læs mere13 Markovprocesser med transitionssemigruppe
13 Markovprocesser med transitionssemigruppe I nærværende kapitel vil vi antage at tilstandsrummet er polsk, hvilket sikrer, at der findes regulære betingede fordelinger. Vi skal se på eksistensen af Markovprocesser.
Læs mereBinomialfordelingen. Binomialfordelingen. Binomialfordelingen
Statistik og Sandsynlighedsregning 1 MS kapitel 3 Susanne Ditlevsen Institut for Matematiske Fag Email: susanne@math.ku.dk http://math.ku.dk/ susanne Definition 3.2.1 Lad X 1, X 2,..., X n være uafhængige
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder
Læs mere1 Beviser for fornyelsessætningen
Hvordan beviser man fornyelsessætningen? 1 1 Beviser for fornyelsessætningen I dette notat skal vi diskutere, hvorman man kan bevise fornyelsessætningen. Vi vil starte med at se på tilfældet, hvor ventetidsfordelingen
Læs mereOversigt over nyttige fordelinger
Oversigt over nyttige fordelinger Helene Regitze Lund Wandsøe November 14, 2011 1 Bernoulli-fordelingen 1 Når et eksperiment har to mulige udfald: succes eller fiasko. X er en stokastisk variabel med følgende
Læs mereOm hypoteseprøvning (1)
E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;
Læs mereVejledende løsninger til opgaver i kapitel 6
Vejledende løsninger til opgaver i kapitel Opgave 1: a) Den stokastiske variabel, X, der angiver, om en elev består, X = 1, eller dumper, X =, sin eksamen i statistik. b) En binomialfordelt variabel fremkommer
Læs mereProdukt og marked - matematiske og statistiske metoder
Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 11, 2016 1/22 Kursusindhold: Sandsynlighedsregning og lagerstyring
Læs mereLidt supplerende køteori (ikke pensum)
H.Keiding: Operationsanalyse MØK 205II Note om køteori, side. Lidt mere om M/M/ Lidt supplerende køteori (ikke pensum).. Rate-equality. I den første note endte vi de generelle betragtninger med en hurtig
Læs mereNoget om en symmetrisk random walks tilbagevenden til udgangspunktet
Random Walk-kursus 2014 Jørgen Larsen 14. oktober 2014 Noget om en symmetrisk random walks tilbagevenden til udgangspunktet Dette notat giver et bevis for at en symmetrisk random walk på Z eller Z 2 og
Læs mereStatistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model
Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab Statistisk Model Indhold Binomialfordeling Sandsynlighedsfunktion Middelværdi og spredning 1 Aalen: Innføring i statistik med medisinske eksempler
Læs mereWigner s semi-cirkel lov
Wigner s semi-cirkel lov 12. december 2009 Eulers Venner Steen Thorbjørnsen Institut for Matematiske Fag Århus Universitet Diagonalisering af selvadjungeret matrix Lad H være en n n matrix med komplekse
Læs mereStokastiske processer og køteori
Stokastiske processer og køteori 2. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 STOKASTISK MODEL FOR KØSYSTEM Population Ankomst Kø Ekspedition Output Ankomstproces
Læs mereKursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.
Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 9, 2015 Sandsynlighedsregning og lagerstyring Normalfordelingen
Læs mereHvad skal vi lave i dag?
p. 1/1 Hvad skal vi lave i dag? Repeterer lidt om diskrete sv. Standardfordelinger (binomial, Poisson, geometrisk) Stokastiske vektorer Diskrete stokastiske vektorer p. 2/1 Repetition Heltallige sv er
Læs mereMatematisk model for køsystem
Matematisk model for køsystem Ankomstproces T 1, T 2,... (ankomsttid per kunde). Kødisciplin (rækkefølge for service). Ekspeditionstidsproces S 1, S 2,... (servicetid per kunde). Dagens emne: ankomstprocesser.
Læs mereSandsynlighedsregning 4. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse
Læs mereKursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.
Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen
Læs mereStokastiske processer og køteori
Stokastiske processer og køteori 7. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 OVERBLIK Sidste gang: M/M/(m, n m)-køsystemet: ligevægtsfordeling; performancestørrelser;
Læs mereUdvikling af operations karakteristika/performance mål for køsystemer
Chapter 2: Genstandsområde: Køteori Analyse af køsystemer Formål: Udvikling af operations karakteristika/performance mål for køsystemer > ssh for 0 enheder i system > gns # enheder i køen > gns # enheder
Læs mere1 Palm teori. Palm teori 1
Palm teori 1 1 Palm teori Lad X = {X(t)} t 0 være en stokastisk proces defineret på et måleligt rum (Ω, F), og lad T = {T n } n N0 være en voksende følge af ikke-negative stokastiske variable herpå. Vi
Læs mereSandsynlighedsregning 4. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse
Læs mereSandsynlighedsregning 4. forelæsning Bo Friis Nielsen
Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse
Læs mereMatricer og lineære ligningssystemer
Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix
Læs mereKvantitative Metoder 1 - Forår 2007
Dagens program Kapitel 4: Diskrete fordelinger Hypergeometrisk fordeling, Afsnit 4.3 Multinomial fordeling, Afsnit 4.8 Geometrisk fordeling og Negativ binomialfordeling (Inverse Sampling), Afsnit 4.4 Approksimation
Læs mereMLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som
MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,
Læs mereVi har beskæftiget os indgående med ankomst- og servicetidsprocesser. Disse karakteriserer input til et køsystem. Andre karakteriserende størrelser?
Dagens emner Kvalitative egenskaber og karakteristiske størrelser i generelle køsystemer. Little s formel. Repetition af hopdiagrammer og Markovprocesser. Fødsels- og dødskøsystemer. AGR/PSE (I17) VS7-5.
Læs mereSandsynlighedsregning Oversigt over begreber og fordelinger
Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)
Læs mereDesignMat Uge 1 Gensyn med forårets stof
DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P
Læs mereOversigt [LA] 3, 4, 5
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereDefinition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereNøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte
Læs mereAgenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede
Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater
Læs mereKarakteristiske funktioner og Den Centrale Grænseværdisætning
E6 efterår 1999 Notat 10 Jørgen Larsen 20. oktober 1999 Karakteristiske funktioner og Den Centrale Grænseværdisætning Karakteristiske funktioner som er nære slægtninge til Fourier-transformationen) er
Læs mereDet Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version
Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Opgaven består af et antal delopgaver Disse er af varierende omfang Der er også en
Læs mereForelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)
Kursus 02402 Introduktion til Statistik Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske
Læs mereDANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr)
DANMARKS TEKNISKE UNIVERSITET Side af 7 sider Skriftlig prøve, den: 9. maj 05 Kursus nr : 0405 Kursus navn: Sandsynlighedsregning Varighed : 4 timer Tilladte hjælpemidler: Alle Dette sæt er besvaret af:
Læs mereBinomialfordelingen. X ~ bin(n,p): X = antal "succeser" i n uafhængige forsøg, der alle har samme sandsynlighed p for at ende med succes.
Uge 9 Teoretisk Statistik 23. februar 24 1. Binomialfordelingen 2. Den hypergeometriske fordeling 3. Poissonfordelingen 4. Den negative binomialfordeling 5. Gammafordelingen Binomialfordelingen X ~ bin(n,p):
Læs mereMomenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål
Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive
Læs mereHvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.
Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er
Læs mereLineære ligningssystemer
enote 2 1 enote 2 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.
Læs mereRettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler
Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni 2007 4 timers prøve med hjælpemidler Opgaven består af re delopgaver, som alle skal besvares. De re opgaver indgår med samme vægt. Opgaverne
Læs mereKvantitative Metoder 1 - Forår 2007
Dagens program Kapitel 4: Diskrete fordelinger Afsnit 4.1-4.2, 4.7: Bernoulli fordeling Binomial fordeling Store Tals Lov (Laws of Averages, Laws of Large Numbers) 1 Bernoulli fordeling Kvantitative Metoder
Læs mereKursusgang 3 Matrixalgebra Repetition
Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem
Læs mereKvantitative Metoder 1 - Efterår Dagens program
Dagens program Approksimation af binomialsandsynligheder, Afsnit 4.5 Multinomial fordeling, Afsnit 4.8 Negativ binomialfordeling, Afsnit 4.4 Poisson fordeling og Poisson process, Afsnit 4.6 Kontinuerte
Læs mereANALYSE 1, 2014, Uge 5
ANALYSE, 204, Uge 5 Afleveringsfrist for Prøve 2 er Tirsdag den 20/5 kl 0:5. Forelæsninger Tirsdag Vi går videre med Afsnit 4 om uniform konvergens af Fourierrækker, hvor hovedsætningen er Sætning 4.3.
Læs mereOpgaver i sandsynlighedsregning
Afdeling for Teoretisk Statistik STATISTIK Institut for Matematiske Fag Preben Blæsild Aarhus Universitet 9. januar 005 Opgaver i sandsynlighedsregning Opgave Lad A og B være hændelser således at P(A)
Læs mereStokastiske processer og køteori
Stokastiske processer og køteori 5. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 DAGENS EMNER Kvalitative egenskaber og karakteristiske størrelser i generelle køsystemer.
Læs mereStatistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen
Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager
Læs mereStatistiske modeller
Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder
Læs mereKalkulus 2 - Grænseovergange, Kontinuitet og Følger
Kalkulus - Grænseovergange, Kontinuitet og Følger Mads Friis 8. januar 05 Indhold Grundlæggende uligheder Grænseovergange 3 3 Kontinuitet 9 4 Følger 0 5 Perspektivering 4 Grundlæggende uligheder Sætning
Læs mereChapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning
Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis
Læs mereLøsning til prøveeksamen 1
IMM - DTU 020 Probability 2006-2-8 BFN/bfn Løsning til prøveeksamen Spørgsmål ) For en indikatorvariabel I A for hændelsen A gælder E(I A ) = P(A) (se for eksemepl side 68). Således er E(X) = P(N ) = =
Læs mereModul 2: Sandsynlighedsmodeller og diskrete stokastiske variable
Forskningsenheden for Statistik ST501: Science Statistik Bent Jørgensen Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable 2.1 Sandsynlighedsbegrebet............................... 1 2.1.1
Læs mereNøgleord og begreber
Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel
Læs meren=1 er veldefineret for alle følger for hvilke højresiden er endelig. F.eks. tilhører følgen
2 Hilbert rum 2. Eksempler på Hilbert rum Vi skal nu først forsøge at begrunde, at de indre produkt rum af funktioner eller følger, som blev indført i Kapitel, ikke er omfattende nok til vores formål.
Læs mereNote om Monte Carlo metoden
Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at
Læs mereHilbert rum. Chapter 3. 3.1 Indre produkt rum
Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E
Læs mereEksamen 2014/2015 Mål- og integralteori
Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt
Læs mereModulpakke 3: Lineære Ligningssystemer
Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system
Læs mereANALYSE 1. Uge 7, 4. juni juni, 2007
ANALYSE 1 Uge 7, 4. juni - 10. juni, 2007 Forelæsninger Mandag 4. juni Formålet med denne dags forelæsninger er at etablere en overgang til emnet metriske rum, hvis hovedformål er at udvide begreber som
Læs mereI dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd
I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt
Læs mereTeoretisk Statistik, 13 april, 2005
Poissonprocessen Teoretisk Statistik, 13 april, 2005 Setup og antagelser Fordelingen af X(t) og et eksempel Ventetider i poissonprocessen Fordeling af ventetiden T 1 til første ankomst Fortolkning af λ
Læs mereKvantitative Metoder 1 - Forår 2007
Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte
Læs mereProgram. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål
Program Statistik og Sandsynlighedsregning Sandsynlighedstætheder og kontinuerte fordelinger på R Varians og middelværdi Normalfordelingen Susanne Ditlevsen Uge 48, tirsdag Tætheder og fordelingsfunktioner
Læs mereRettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007
Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave
Læs mereEt eksempel: Blomsterpopulation med to co-dominante gener for kronbladenes farve
Populationsgenetik I populationsgenetik beskæftiger man sig med at undersøge hyppigheden af forskellige gener samt fordeligen af fænotyper og genotyper i forskellige populationer. For en ordens skyld:
Læs mereNATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.
NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2003 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive
Læs mereAffine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2
Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket
Læs mereSkriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)
SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige
Læs mereProgram. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål
Program Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag I formiddag: Tætheder og fordelingsfunktioner kort resume fra i mandags og et par eksempler mere om sammenhængen
Læs mereTænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.
Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag SaSt2 (Uge 6, onsdag) Middelværdi og varians 1 / 18 Program I formiddag: Tætheder og fordelingsfunktioner kort resume
Læs mereFortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20.
Foldning af sandsnlighedsmål Lad µ og ν være to sandsnlighedsmål på (R, B). Fortolkning Lad φ : R R være φ(, ) = + for (, ) R. Lad X og Y være to reelle stokastiske variable defineret på (Ω, F, P). Definition
Læs merestandard normalfordelingen på R 2.
Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet
Læs mereDesignMat Uge 1 Repetition af forårets stof
DesignMat Uge 1 Repetition af forårets stof Preben Alsholm Efterår 008 01 Lineært ligningssystem Lineært ligningssystem Et lineært ligningssystem: a 11 x 1 + a 1 x + + a 1n x n = b 1 a 1 x 1 + a x + +
Læs mereINSTITUT FOR MATEMATISKE FAG c
INSTITUT FOR MATEMATISKE FAG c AALBORG UNIVERSITET FREDRIK BAJERS VEJ 7 G 9220 AALBORG ØST Tlf.: 96 35 89 27 URL: www.math.aau.dk Fax: 98 15 81 29 E-mail: bjh@math.aau.dk Dataanalyse Sandsynlighed og stokastiske
Læs mereNotation for parallelforbundne ekspeditionssystemer
Køsystemer notation Notation for parallelforbundne ekspeditionssystemer X /Y (m, q). Ankomstproces X og ekspeditionstidsproces Y kan antage værdier: M: Uafhængige og eksponentialfordelte ventetider. Dvs.
Læs mereLineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable
E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt
Læs mereMatrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra
Matrx-vektor produkt [ ] 1 2 3 1 0 2 1 10 4 Rotationsmatrix Sæt A θ = [ ] cosθ sinθ sinθ cosθ At gange vektor v R 2 med A θ svarer til at rotere vektor v med vinkelen θ til vektor w: [ ][ ] [ ] [ ] cosθ
Læs mereBilledbehandling og mønstergenkendelse: Lidt elementær statistik (version 1)
; C ED 6 > Billedbehandling og mønstergenkendelse Lidt elementær statistik (version 1) Klaus Hansen 24 september 2003 1 Elementære empiriske mål Hvis vi har observationer kan vi udregne gennemsnit og varians
Læs mereLineære ligningssystemer
enote 6 1 enote 6 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.
Læs mereDefinition. Definitioner
Definition Landmålingens fejlteori Lektion Diskrete stokastiske variable En reel funktion defineret på et udfaldsrum (med sandsynlighedsfordeling) kaldes en stokastisk variabel. - kkb@math.aau.dk http://people.math.aau.dk/
Læs mereEn martingalversion af CLT
Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske
Læs mereMM501 forelæsningsslides
MM501 forelæsningsslides uge 40, 2010 Produceret af Hans J. Munkholm bearbejdet af JC 1 Separabel 1. ordens differentialligning En generel 1. ordens differentialligning har formen s.445-8 dx Eksempler
Læs mereIndledning. 1 Martingalerepræsentationssætningen
Indledning I disse noter vil uddybe nogle af Øksendals resultater i afsnittene 4 og 7 samt give andre beviser for dem. Disse resultater er gennemgået til forelæsningerne. 1 Martingalerepræsentationssætningen
Læs mereIntroduktion til Laplace transformen (Noter skrevet af Nikolaj Hess-Nielsen sidst revideret marts 2013)
Introduktion til Laplace transformen (oter skrevet af ikolaj Hess-ielsen sidst revideret marts 23) Integration handler ikke kun om arealer. Tværtimod er integration basis for mange af de vigtigste værktøjer
Læs mereBetingning med en uafhængig variabel
Betingning med en uafhængig variabel Sætning Hvis X er en reel stokastisk variabel med første moment og Y er en stokastisk variabel uafhængig af X, så er E(X Y ) = EX. Bevis: Observer at D σ(y ) har formen
Læs mereRepetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable
Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition
Læs mereKursusgang 3 Matrixalgebra fortsat
Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse
Læs merePotensrækker. Morten Grud Rasmussen 1 10. november 2015. Definition 1 (Potensrække). En potensrække er en uendelig række på formen
Potensrækker Morten Grud Rasmussen 1 10 november 2015 Definition og konvergens af potensrækker Definition 1 Potensrække) En potensrække er en uendelig række på formen a n pz aq n, 1) hvor afsnittene er
Læs mere1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier
MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober 2017 Miniprojekt: Lineær algebra på polynomier Grupperne forventes at regne de små opgaver i afsnittene 1 5 i løbet af de første 4 halve dage. Dernæst tilføjes
Læs mereKapitel 4 Sandsynlighed og statistiske modeller
Kapitel 4 Sandsynlighed og statistiske modeller Peter Tibert Stoltze stat@peterstoltze.dk Elementær statistik F2011 1 / 22 Generalisering fra stikprøve til population Idé: Opstil en model for populationen
Læs mereStatistik og Sandsynlighedsregning 2
Statistik og Sandsynlighedsregning 2 Lineære transformationer, middelværdi og varians Helle Sørensen Uge 8, onsdag SaSt2 (Uge 8, onsdag) Lineære transf. og middelværdi 1 / 15 Program I formiddag: Fordeling
Læs mere3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.
PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve
Læs mereLineær Algebra F08, MØ
Lineær Algebra F08, MØ Vejledende besvarelser af udvalgte opgaver fra Ugeseddel 3 og 4 Ansvarsfraskrivelse: Den følgende vejledning er kun vejledende. Opgaverne kommer i vilkårlig rækkefølge. Visse steder
Læs mere