Markovkæder med endeligt tilstandsrum

Størrelse: px
Starte visningen fra side:

Download "Markovkæder med endeligt tilstandsrum"

Transkript

1 Kapitel 9 Markovkæder med endeligt tilstandsrum En følge af stokastiske variable {X t } = {X 0, X 1, X 2,...} kaldes en stokastisk proces. Vi kan nemlig tænke på de stokastiske variable som tilstanden til tidspunkterne t = 0, 1, 2,... af et system, der udvikler sig tilfældigt. Det kan f.eks. være daglige målinger af temperaturen på Rådhuspladsen, månedlige observationer af markedsrenten på et tre-årigt lån, målinger hver minut af vindhastigheden i Kastrup eller det årlige antal stormskader der indberettes til et forsikringsselskab. Mængden af mulige værdier af de stokastiske variable kaldes processens tilstandsrum. Den enkleste type stokastisk proces er den, hvor det antages at de stokastiske variable {X t } er uafhængige. En anden relativt enkel type stokastisk proces er Markovkæderne med endeligt tilstandsrum, som er emnet i dette kapitel. 9.1 Definition og eksempler Om et isoleret dynamisk system bestående af partikler gælder, at hvis man kender partiklernes positioner og hastigheder til et vist tidspunkt t 0, så kan systemets tilstand på ethvert senere tidspunkt t > t 0 beregnes, og kendskab til systemets opførsel før tid t 0 er overflødig. En Markovkæde er en sandsynlighedsteoretisk model med en tilsvarende egenskab. Definition Lad {X t } = {X 0, X 1, X 2,...} være en følge af stokastiske variable, der alle antager værdier i den endelige mængde S =

2 242 Markovkæder med endeligt tilstandsrum {a 1,...,a k }. Hvis der for alle (i, j) {1,...,k} 2 findes et tal p ij [0, 1], så P(X t+1 = a j X t = a i, X tm = a im,...,x t1 = a i1 ) = p ij (9.1.1) for alle a i1,...,a im S, alle 0 t 1 < < t m < t og alle m {1,..., t}, kaldes følgen {X t } en Markovkæde med tilstandsrum S. Bemærk at P(X t+1 = a j X t = a i ) = P(X t+1 = a j, X t = a i, X t 1 = a i1 ) /P(X t = a i ) = i 1 =1 i 1 =1 P(X t+1 = a j X t = a i, X t 1 = a i1 )P(X t 1 = a i1 X t = a i ) = p ij P(X t 1 = a i1 X t = a i ) = p ij. i 1 =1 Vi ser altså, at den betingede sandsynlighed for at X t+1 = a j givet at X t = a i er lig p ij, uanset hvad vi måtte vide om værdierne af X 1,..., X t 1. Bemærk, at denne sandsynlighed ikke afhænger af tidspunktet t. Man understreger ofte denne egenskab ved at tale om en homogen Markovkæde. Sandsynlighederne p ij kaldes overgangssandsynlighederne. Ligningen (9.1.1) kaldes Markovegenskaben. Eksempel Bernoulli-Laplace modellen for diffusion. Følgende model blev foreslået af Daniel Bernoulli i 1769 som en sandsynlighedsteoretisk analog til strømmen af to usammentrykkelige vædsker mellem to beholdere. Modellen blev analyseret af Laplace i Antag at vi har 2 partikler, hvoraf er hvide og er sorte. Partiklerne er fordelt i to beholdere med i hver beholder. Mellem tidspunkterne t 1 og t trækkes der en partikel tilfældigt fra hver beholder og de to partikler bytter plads. Lad X t være antallet af hvide partikler i den første beholder. Da er {X t } en Markovkæde med tilstandsrum {0, 1,..., } og overgangssandsynligheder givet ved P(X t = j 1 X t 1 = j) = ( j ) 2

3 9.1 Definition og eksempler 243 P(X t = j X t 1 = j) = P(X t = j + 1 X t 1 = j) = 2j( j) 2 ( j ) 2 P(X t = k X t 1 = j) = 0 hvis j k > 1, hvor j = 0, 1,...,. Overvej dette. Bemærk, at når X t = j, er der j sorte partikler i den første beholder, og henholdsvis j og j hvide og sorte partikler i den anden beholder. Eksempel En genetisk model. I en population af individer vil vi studere to allele gener A og a (A er dominant, mens a er recessivt (vigende)). Ethvert individ har netop to af disse gener og er af en af de følgende tre genotyper: AA, Aa, aa. Vi følger populationen fra generation til generation. Antallet af individer,, antages at være det samme i alle generationer. Lad X t betegne antallet af A-gener i den t te generation. Da der er ialt 2 gener, er antallet af a-gener lig 2 X t. Processen {X t } er en Markovkæde med tilstandrum {0, 1,..., 2}. Hvis vi antager at der er tilfældig parring og ingen selektion i populationen, er P(X t = j X t 1 = i) = ( 2 j ) ( ) i j ( 1 i ) 2 j. 2 2 Hvis altså X t 1 = i, er antallet af A-gener i næste generation binomialfordelt med antalsparameter 2 og sandsynlighedsparameter i/(2). Specielt er P(X t = 0 X t 1 = 0) = 1 P(X t = 2 X t 1 = 2) = 1. Eksempel En kømodel. En kø ved et ekspeditionssted antages at udvikle sig på følgende måde. Køen har pladser. Imellem tid t 1 og t ankommer et antal kunder Z t, hvor Z 1, Z 2,... er uafhængige stokastiske

4 244 Markovkæder med endeligt tilstandsrum variable, som alle er Poisson-fordelte med parameter λ > 0. Hvis køen er fuld, når en kunde ankommer, går kunden igen. Hvis der til tid t er kunder i køen, ekspederes den forreste kunde med sandsynlighed p, mens der er sandsynlighed 1 p for, at der ikke påbegyndes en ny ekspedition til tid t (for eksempel fordi den ekspedition, der startede til tid t 1, ikke er afsluttet). Hvis der ikke er nogen i køen, sker der selvfølgelig ingen ekspedition. Om første kunde i køen til tid t ekspederes eller ej antages uafhængigt af de stokastiske variable Z 1, Z 2,.... Ordene ekspeditionssted og kunde skal ikke tages for bogstavligt. Ekspeditionsstedet kan f.eks. være en internetserver og kunderne kan være ankommende pakker, der står i kø for at blive ekspederet videre af serveren og tabes, hvis køen er fuld. Lad X t betegne antallet af kunder i køen til tid t lige før ekspeditionen af den forreste kunde påbegyndes (hvis dette sker). Da er {X t } en Markovkæde (overvej hvorfor). De mulige værdier af X t er {0, 1,..., }, som altså er tilstandsrummet. Lad os finde overgangssandsynlighederne. Vi vil først finde P(X t = j X t 1 = i) for j i 1. Overgangen fra i til j kan ske på to måder. Enten bliver den forreste kunde i køen ekspederet til tid t 1, og der ankommer der j i + 1 kunder mellem tid t 1 og t, eller den forreste kunde i køen bliver ikke ekspederet til tid t 1, og der ankommer der j i kunder mellem tid t 1 og t. D.v.s. for > j i 1 er P(X t = j X t 1 = i) = pp(z t = j i + 1) + (1 p)p(z t = j i) mens λ j i+1 = p (j i + 1)! e λ + (1 p) λj i (j i)! e λ λ j i ( ) pλ = (j i)! e λ 1 p +, j i + 1 P(X t = X t 1 = i) = pp(z t i + 1) + (1 p)p(z t i) = P(Z t i + 1) + (1 p)p(z t = i) λ j λ i = j! e λ + (1 p) ( i)! e λ, j= i+1 for i 1. Læseren bør ved tilsvarende overvejelser overbevise sig

5 9.1 Definition og eksempler 245 om, at de øvrige overgangssandsynligheder er som følger: P(X t = j X t 1 = 0) = λj j! e λ for j = 0, 1,... 1 P(X t = X t 1 = 0) = j= λ j j! e λ P(X t = i 1 X t 1 = i) = pe λ for i = 1, 2,... P(X t = j X t 1 = i) = 0 for 0 j i 2. Eksempel En populationsmodel. Lad X t betegne antallet af individer i en population, der udvikler sig på følgende simple vis. Mellem tidspunkterne t 1 og t får hvert individ i populationen uafhængigt af hinanden et enkelt afkom med sandsynlighed p(x t 1 ), hvor α(1 x/k) hvis 0 x K p(x) = 0 ellers. Her er K II den største bæredygtige populationsstørrelse i det miljø, som populationen lever i, mens α [0, 1] for at sikre, at p(x) [0, 1]. Med sandsynlighed 1 p(x t 1 ) får et individ ikke noget afkom mellem tidspunkterne t 1 og t. Der kan naturligvis også ske dødsfald i populationen. For at forenkle modellen antages det, at der mellem tidspunkterne t 1 og t dør netop et individ. Det antages at fødsler sker før dødsfald, så det individ, der dør i et bestemt tidsinterval, også har mulighed for at få et afkom i samme tidsinterval. Disse antagelser kan formaliseres ved at antage, at X t = X t 1 + F t 1, hvor den betingede fordeling af den stokastiske variable F t givet X t 1 = x er en binomialfordeling med antalsparameter x og sandsynlighedparameter p(x). Processen {X t } er tydeligvis en Markovkæde. Så længe X t 1

6 246 Markovkæder med endeligt tilstandsrum K 1, er den størst mulige værdi af X t lig 2X t 1 1, mens X t = X t 1 1 hvis X t 1 K. Derfor er tilstandsrummet {0, 1,..., 2K 3}. Vi har følgende overgangssandsynligheder (overvej hvorfor). For i = 1, 2,...K 1 og i 1 j 2i 1 er mens P(X t = j X t 1 = i) = ( i j i + 1 P(X t = 0 X t 1 = 0) = 1 ) p(i) j i+1 (1 p(i)) 2i j 1, P(X t = i 1 X t 1 = i) = 1 for i = K, K + 1,...2K ogle regneregler I dette afsnit gennemgås nogle grundlæggende resultater for Markovkæder med endeligt tilstandsrum. Vi begynder med at finde fordelingen af den stokastiske vektor (X 0, X 1,...,X n ). Som i forrige afsnit betegnes elementerne i tilstandsrummet med S = {a 1,...,a k }. Sætning Den simultane sandsynlighedsfunktion for den stokastiske vektor (X 0, X 1,...,X n ) er p(x 0, x 1,..., x n ) = q(x 0 ) k k i=1 j=1 p n ij ij, (9.2.1) hvor q er sandsynlighedsfunktionen for X 0, og hvor n ij er lig antallet af overgange fra a i til a j i vektoren (x 0, x 1,...,x n ), det vil sige n ij = #{(x t 1, x t ) x t 1 = a i, x t = a j, t = 1,..., n}. (9.2.2) Bevis: Ved at bruge Markovegenskaben (9.1.1) fås for ethvert m II P(X m = x m, X m 1 = x m 1,...,X 0 = x 0 ) = P(X m = x m X m 1 = x m 1,...,X 0 = x 0 ) P(X m 1 = x m 1,...,X 0 = x 0 ) = P(X m = x m X m 1 = x m 1 )P(X m 1 = x m 1,...,X 0 = x 0 ).

7 9.2 ogle regneregler 247 Bruges dette resultat nu n gange (for m = n, n 1,...,1), ser vi at p(x 0, x 1,...,x n ) = P(X n = x n, X n 1 = x n 1,...,X 0 = x 0 ) = P(X n = x n X n 1 = x n 1 )P(X n 1 = x n 1,...,X 0 = x 0 ). = P(X n = x n X n 1 = x n 1 )P(X n 1 = x n 1 X n 1 = x n 2 ) P(X 1 = x 1 X 0 = x 0 )P(X 0 = x 0 ). Resultatet (9.2.1) følger nu ved for hvert i og j at samle de faktorer, hvor x t 1 = a i og x t = a j, og hvor derfor P(X t = x t X t 1 = x t 1 ) = p ij. Matricen P = {p ij } (k k-matrix) kaldes Markovkædens overgangsmatrix. Bemærk at da p ij = 1, (9.2.3) j=1 p ij = P(X t+1 = a j X t = a i ) = P(X t+1 S X t = a i ) = 1 j=1 j=1 En k k-matrix {p ij } er overgangsmatrix for en Markovkæde, hvis alle dens elementer er ikke-negative og (9.2.3) er opfyldt. For ethvert m II defineres m-trins overgangssandsynlighederne ved og m-trins overgangsmatricen ved p (m) ij = P(X t+m = a j X t = a i ) (9.2.4) P (m) = { p (m) } ij. Specielt er P (1) = P. Ved hjælp af m-trins overgangssandsynlighederne kan vi finde sandsynlighedsfunktionen for X m.

8 248 Markovkæder med endeligt tilstandsrum Sætning Sandsynlighedsfunktionen for X t er givet ved p t (a j ) = i=1 p (t) ij q(a i ), for j = 1,...,k, (9.2.5) hvor q er sandsynlighedsfunktionen for X 0. Hvis p t betegner rækkevektoren (p t (a 1 ),...,p t (a k )) og q rækkevektoren (q(a 1 ),...,q(a k )) kan (9.2.5) også udtrykkes således: p t = qp (t). Bevis: Ifølge (1.4.3) er P(X t = a j ) = P(X t = a j X 0 = a i )P(X 0 = a i ) = p (t) ij q(a i ). i=1 i=1 æste sætning siger, at Markovegenskaben også gælder for m-trins overgange. Det følger af sætningen, at {X tm } = {X 0, X m, X 2m, X 3m...} er en Markovkæde. Sætning For alle a i, a j, a i1,...,a in S og alle 0 t 1 < < t n < t er P(X t+m = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = p (m) ij. (9.2.6) Bevis: For m = 2 er P(X t+2 = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j, X t+1 S X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j, X t+1 = a j1 X t = a i, X tn = a in,...,x t1 = a i1 ) = j 1 =1 j 1 =1 P(X t+2 = a j X t+1 = a j1, X t = a i, X tn = a in,...,x t1 = a i1 ) P(X t+1 = a j1 X t = a i, X tn = a in,...,x t1 = a i1 ),

9 9.2 ogle regneregler 249 hvor vi til sidst har brugt formlen P(A B C) = P(A B C)P(B C) (eftervis denne formel, som bruges gang på gang i teorien for Markovkæder). Anvender vi nu Markovegenskaben (9.1.1), fås P(X t+2 = a j X t = a i, X tn = a in,...,x t1 = a i1 ) = P(X t+2 = a j X t+1 = a j1 )P(X t+1 = a j1 X t = a i ) = = j 1 =1 j 1 =1 j 1 =1 P(X t+2 = a j X t+1 = a j1, X t = a i )P(X t+1 = a j1 X t = a i ) P(X t+2 = a j, X t+1 = a j1 X t = a i ) = P(X t+2 = a j X t = a i ) = p (2) ij. For generelt m følger sætningen nu ved induktion i m under brug af tilsvarende regnerier. Det viser sig, at det er let at finde m-trinsovergangssandsynligheder ved hjælp af matrixmultiplikation. Sætning For alle m, n II gælder, at P (m+n) = P (m) P (n), (9.2.7) hvor betegner matrixmultiplikation. For alle m II er Specielt er for alle l 1,...,l m 1 {1,...,k}. Bevis: p (m+n) P (m) = P m. (9.2.8) p (m) ij p il1 p l1 l 2 p lm 2 l m 1 p lm 1 j (9.2.9) ij = P(X m+n = a j X 0 = a i ) = P(X m+n = a j, X m S X 0 = a i ) = P(X m+n = a j, X m = a l X 0 = a i ) l=1

10 250 Markovkæder med endeligt tilstandsrum = = P(X m+n = a j X m = a l, X 0 = a i )P(X m = a l X 0 = a i ) l=1 p (n) lj p(m) il, l=1 hvor vi har brugt Markovegenskaben (9.2.6). Ved at anvende (9.2.7) m gange, fås P (m) = P P (m 1) = = P } {{ P}. m Endelig følger (9.2.9) af (9.2.8), som netop siger at p (m) ij er lig summen af alle de mulige værdier af højresiden af (9.2.9), og dermed større end eller lig et enkelt led i denne sum af ikke-negative størrelser. Ligningerne (9.2.7) kaldes Chapman-Kolmogorov ligningerne. Eksempel Betragt en Markovkæde med to tilstande. Da har overgangsmatricen formen { } 1 p p P =, (9.2.10) α 1 α hvor p, α [0, 1], og P 2 = { (1 p) 2 + pα p(2 p α) α(2 p α) pα + (1 α) 2 For eksempel er p (2) 12 = p(2 p α). Vi antager, at p og α ikke begge er lig nul. Ved induktion kan det vises, at P m = 1 p + α { α p α p } + (1 p α)m p + α }. { } p p, (9.2.11) α α for alle m II. For eksempel er altså p (m) 12 = p(1 (1 p α) m )/(p+α). Vi slutter dette afsnit med et resultat, som mere klart viser, at den betingede sandsynlighed for at X t+m = a j givet at X t = a i er lig p (m) ij, helt uanset hvad vi måtte vide om værdierne af X 1,..., X t 1.

11 9.3 Ergodicitet og stationær fordeling 251 Sætning For alle delmængder A il S, l = 1,, n og alle 0 t 1 < < t n < t er Bevis: P(X t+m = a j X t = a i, X tn A in,..., X t1 A i1 ) = p (m) ij. (9.2.12) P(X t+m = a j X t = a i, X tn A in,...,x t1 A i1 ) = P(X t+m = a j, X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,..., X t1 A i1 ) nl=1 x = l A l P(X t+m = a j, X t = a i, X tn = x n,...,x t1 = x 1 ) = p(m) ij = p (m) ij P(X t = a i, X tn A in,..., X t1 A i1 ) nl=1 x l A l P(X t = a i, X tn = x n,...,x t1 = x 1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) P(X t = a i, X tn A in,...,x t1 A i1 ) = p(m) Det tredie lighedstegn følger, fordi P(X t+m = a j, X t = a i, X tn = x n,...,x t1 = x 1 ) ij. = P(X t+m = a j X t = a i, X tn = x n,...,x t1 = x 1 ) P(X t = a i, X tn = x n,..., X t1 = x 1 ) = p (m) ij P(X t = a i, X tn = x n,...,x t1 = x 1 ), hvor vi har brugt Markovegenskaben (9.2.6). 9.3 Ergodicitet og stationær fordeling I dette afsnit behandles det helt centrale begreb en stationær fordeling, som spiller en vigtig rolle i mange anvendelser af teorien for Markovkæder. For eksempel er det den grundlæggende idé i søgemaskinen Google. Vi begynder med et par definitioner. Man siger, at en tilstand a i fører til en anden tilstand a j (og skriver a i a j ), hvis der eksisterer et m II, så p (m) ij > 0, altså hvis der er

12 252 Markovkæder med endeligt tilstandsrum positiv sandsynlighed for at komme til a j på et eller andet tidspunkt, givet at vi starter i tilstanden a i. Det følger af (9.2.7), at Hvis a i a j og a j a l, så gælder at a i a l. En Markovkæde kaldes irreducibel, hvis enhver tilstand fører til enhver anden, d.v.s. hvis a i a j for alle i, j = 1,...,k. En tilstand a i kaldes absorberende, hvis p ii = 1, fordi dermed p ij = 0 for alle j i. Det følger af (9.2.9), at p (m) ii = 1 for alle m II. Dermed er p (m) ij = 0 for alle j i. Hvis en Markovkæde har en absorberende tilstand, kan den altså ikke være irreducibel. Definition En irreducibel Markovkæde kaldes ergodisk, hvis der eksisterer p j 0, så for alle i, j = 1,...k. lim m p(m) ij = p j (9.3.1) Bemærk, at grænseværdien er uafhængig af i. Da p (t) ij er sandsynlighedsfunktionen for den betingede fordeling af X t givet at X 0 = i, betyder (9.3.1), at fordelingen af X t hverken afhænger af t eller begyndelsestilstanden i, når t er tilstrækkeligt stor. Sætning Lad {X t } være en ergodisk Markovkæde med grænseværdier p j, j = 1,...,k. Da er p j = 1 (9.3.2) j=1 og for j = 1,..., k. lim P(X t = a j ) = p j (9.3.3) t Bevis: p j = lim m p(m) ij = lim m j=1 j=1 j=1 p (m) ij = 1.

13 9.3 Ergodicitet og stationær fordeling 253 Hvis q betegner sandsynlighedsfunktionen for X 0, så følger det af (9.2.5), at lim P(X t = a j ) = t lim t p(t) ij q(a i ) = p j q(a i ) = p j q(a i ) = p j. i=1 i=1 i=1 Eksempel (fortsat). For en Markovkæde med to tilstande med overgangsmatrix (9.2.10), hvor p og α ikke begge er lig nul, er m-trins overgangsmatricen lig P (m) = 1 p + α { α p α p } + (1 p α)m p + α { } p p. α α Hvis p og α heller ikke begge er lig en, er 1 p α < 1, så lim m Pm = 1 { } α p. p + α α p Hvis p og α begge er forskellige fra nul, og de ikke begge er lig en, er denne Markovkæde irreducibel og ergodisk med p 1 = Ligning (9.3.2) er klart opfyldt. α p + α og p 2 = p p + α. Definition En fordeling på tilstandsrummet S kaldes stationær, hvis dens sandsynlighedsfunktion π opfylder, at π(a i )p ij = π(a j ), j = 1,..., k. (9.3.4) i=1 Ifølge (9.2.5) siger (9.3.4), at hvis X 0 har sandsynlighedsfunktion π, så har også X 1 sandsynlighedsfunktion π. Eller mere generelt, hvis X t har sandsynlighedsfunktion π, så har også X t+1 sandsynlighedsfunktion π. Hvis π betegner rækkevektoren (π(a 1 ),...,π(a k )), kan (9.3.4) skrives som πp = π, (9.3.5)

14 254 Markovkæder med endeligt tilstandsrum hvoraf det ved multiplikation med P fra venstre og ved at anvende (9.2.8) ses at πp (m) = π (9.3.6) for alle m II. Den sidste ligning kan mere detaljeret skrives som følger i=1 π(a i )p (m) ij = π(a j ), j = 1,..., k, m II. (9.3.7) Hvis der findes en stationær fordeling, kan man finde den ud fra overgangssandsynlighederne ved at løse ligningssystemet (9.3.4) suppleret med ligningen k i=1 π(a i ) = 1 med hensyn til (π(a 1 ),..., π(a k )). Den næste sætning belyser, hvorfor det er rimeligt at kalde en fordeling, som opfylder (9.3.4), stationær. Sætning Lad π være en stationær fordeling, og antag at fordelingen af X 0 har sandsynlighedsfunktion π. Da er P(X t = a j ) = π(a j ) for alle t II og j = 1,...,k, (9.3.8) og den simultane fordelingen af den stokastiske vektor (X t, X t+1,...,x t+n ) er for alle t II og alle n II lig fordelingen af (X 0, X 1,...,X n ). Bevis: (9.3.8) følger umiddelbart af (9.2.5) og (9.3.7). Helt på samme måde som beviset for Sætning 9.2.1, ses det at sandsynlighedsfunktionen for (X t, X t+1,...,x t+n ) er P(X t+n = x n, X t+n 1 = x n 1,..., X t = x 0 ) = P(X t = x 0 ) k k i=1 j=1 p n ij ij, hvor n ij er givet ved (9.2.2). Da P(X t = x 0 ) = π(x 0 ), er dette ifølge (9.2.1) lig sandsynlighedsfunktionen for (X 0, X 1,...,X n ). En stokastisk process {X t }, som opfylder at den simultane fordeling af (X t, X t+1,...,x t+n ) er lig fordelingen af (X 0, X 1,...,X n ) for alle t II og alle n II, kaldes en stationær proces.

15 9.3 Ergodicitet og stationær fordeling 255 Eksempel (fortsat). Fordelingen givet ved ( ) 2 π(j) = j ( ), j = 0,..., 2 er stationær fordeling for Bernoulli-Laplace modellen for diffusion. Dette ses af følgende regneri: π(i)p ij = π(j 1)p j 1,j + π(j)p j,j + π(j + 1)p j+1,j i=0 ( ) 2 ( ) 2 ( ) 2 ( ) j ( ) j 1 j( j) j j j + 1 = ( ) ( ) + ( ) 2 2 ( ) 2 ( )( ) ( ) j 1 j 1 j j = ( ) 2 = (( ) 1 j 1 ( )) j ) = ( 2 ( ) 2 j ( ) = π(j). 2 Til slut brugte vi formel (B.3.2) (Pascals trekant). Bemærk at den stationære fordeling er en hypergeometrisk fordeling med parametre 2, og. Sætning Antag Markovkæden {X t } er ergodisk med grænseværdier p j, j = 1,...,k. Da eksisterer der en entydig stationær fordeling, som er givet ved π(a j ) = p j, j = 1,...,k. Endvidere er π(a j ) > 0 for alle j = 1,...,k.

16 256 Markovkæder med endeligt tilstandsrum Bevis: Først vises eksistensen af en stationær fordeling. Ifølge (9.2.7) er Heraf følger, at p (n+1) ij = l=1 p (n) il p lj. p j = lim p (n+1) n ij = lim n p(n) il p lj = p l p lj, l=1 l=1 hvoraf det ses, at fordelingen med sandsynlighedsfunktion π(a j ) = p j, j = 1,...,k, er stationær. Dernæst skal det vises, at den stationære fordeling er entydig. Antag derfor at r er sandsynlighedsfunktion for en stationær fordeling, og lad {X t } være en Markovkæde med overgangssandsynligheder {p ij} og med begyndelsesfordeling P(X 0 = a j ) = r(a j ) for j = 1,..., k. Ifølge Sætning er P(X n = a j ) = r(a j ), j = 1,..., k, for alle n II, så ved at anvende Sætning ser vi, at r(a j ) = lim n P(X n = a j) = p j. Altså er r = π. Til slut vises det, at p j > 0 for j = 1,...,k. Bemærk, at da k j=1 p j = 1, må der findes et j 0, så p j0 > 0. Lad videre i være vilkårlig. Da en ergodisk Markovkæde er irreducibel, findes der et m II, så p (m) j 0 i > 0. Dermed er p i = j=1 p (m) ji p j p (m) j 0 i p j0 > 0. Eksempel (fortsat). Lad os checke at grænsefordelingen givet ved π(1) = α p + α og π(2) = p p + α. (9.3.9)

17 9.3 Ergodicitet og stationær fordeling 257 er den stationære fordeling for en Markovkæde med to tilstande. Dette ses af at α π(1)p 11 + π(2)p 21 = (1 p) + p p + α p + α α = α p + α = π(1) π(1)p 12 + π(2)p 22 = α p + α p + p (1 α) = p p + α p + α = π(2) Eksempel (fortsat). Den genetiske model er ikke nogen irreducibel Markovkæde, da både 0 og 2 er absorberende tilstande. For denne Markovkæde er fordelingen givet ved π θ (0) = θ, π θ (2) = 1 θ, π θ (j) = 0, j = 1,...2 1, en stationær foredeling for ethvert θ [0, 1]. Der er altså uendeligt mange stationære fordelinger. Og ingen af dem opfylder det sidste udsagn i Sætning Irreducibilitet er altså en vigtig forudsætning for denne sætnings udsagn om entydighed og positivitet af den stationære fordeling. At π θ er stationær ses af at For 0 < j < 2 er For j = 0, 2 er 2 i=0 = π θ (i)p ij = θp 0j + (1 θ)p 2,j. θp 0j + (1 θ)p 2,j = 0 = π θ (j). θp 00 + (1 θ)p 2,0 = θp 00 = θ = π θ (0) θp 0,2 + (1 θ)p 2,2 = (1 θ)p 2,2 = 1 θ = π θ (2). Man kan vise, at fra et vist stokastisk tidspunkt vil Markovkæden være konstant lig enten 0 eller 2, således at det ene gen fuldstændigt forsvinder fra populationen. Den betingede sandsynlighed for at ende i tilstanden 2 givet at X 0 = j er lig j/(2). Dermed er den betingede sandsynlighed for at ende i tilstanden 0 lig 1 j/(2).

18 258 Markovkæder med endeligt tilstandsrum En irreducibel Markovkæde er ergodisk, hvis den opfylder en ekstra betingelse, som er givet i følgende definition. Definition En irreducibel Markovkæde kaldes aperiodisk, hvis der for ethvert i, j = 1,..., k findes et m 0, så p (m) ij > 0 for alle m m 0. Bemærk, at det på grund af det sidste resultat i Sætning er en nødvendig forudsætning for, at en irreducibel Markovkæde er ergodisk, at den er aperiodisk. At det også er en tilstrækkelig betingelse, fremgår af det følgende hovedresultat om ergodicitet af Markovkæder med endeligt tilstandsrum. Sætning En irredicibel og aperiodisk Markovkæde {X t } er ergodisk, og der eksisterer et c > 0 og et ρ (0, 1), så og p (t) ij π(a j ) cρ t (9.3.10) P(X t = a j ) π(a j ) cρ t (9.3.11) for alle i, j = 1,...,k og alle t II, hvor π betegner sandsynlighedsfunktionen for den stationære fordeling. Bemærk, at Sætningen ikke kun fortæller os, at {X t } er ergodisk, men også at konvergensen mod π(a j ) i (9.3.1) og (9.3.3) går eksponentielt hurtigt. Det betyder, at man i praksis kan benytte approximationen P(X t = a j ) π(a j ), selv når t ikke er særligt stor. Før vi beviser Sætning 9.3.7, vender vi lige tilbage til nogle af eksemplerne for at illustrere nogle pointer. Eksempel (fortsat). Vi har tidligere ved direkte beregninger set, at m-trins overgangssandsynlighederne konvergerer for en Markovkæde med to tilstande med overgangsmatrix (9.2.10), forudsat at p og α ikke begge er nul, og heller ikke begge er en. Hvis et af disse tal er lig nul, er den tilsvarende tilstand absorberende, og Markovkæden er derfor ikke irreducibel. Hvis p > 0 og α > 0, og hvis de ikke begge er lig en, ses det af (9.2.11), at Markovkæden er irreducibel og aperiodisk.

19 9.3 Ergodicitet og stationær fordeling 259 Hvis p = α = 1, er overgangsmatricen P = { d.v.s. processen springer frem og tilbage mellem de to tilstande. I dette tilfælde er processen irreducibel, men den er ikke aperiodisk. For eksempel er p (m) 11 = 0 for alle ulige m. Da m-trins overgangsmatricen ifølge (9.2.11) er lig P (m) = } + ( 1)m, ser vi, at P (m) ikke konvergerer i dette tilfælde. Processen er altså ikke ergodisk, hvad der heller ikke var grund til at forvente. Eksempel (fortsat). Lad os eftervise, at Bernoulli-Laplace modellen for diffusion er irreducibel og aperiodisk. For > j > i er ifølge (9.2.9) p (n+j i) ij p i,i+1 p i+1,i+2 p j 1,j p n jj > 0 for alle n II. Alle andre kombinationer af i og j klares på lignende vis, således at vi kan konkludere, at p (m) ij > 0 for alle m >. Processen er dermed både irreducibel og aperiodisk, således at (9.3.11) sikrer, at når t er stor nok, er ( ) 2 1 2, P(X t = j) j ( ), j = 0,..., 2 Den fysiske fortolkning af dette resultat er, at uanset hvor mange hvide partikler der oprindeligt var i den første beholder, så vil der med tiden (og

20 260 Markovkæder med endeligt tilstandsrum ret hurtigt med mindre der startes i en meget ekstrem tilstand) indstille sig en statistisk ligevægt, hvor antallet af hvide partikler i den første beholder er hypergeometrisk fordelt med parametre 2, og. u vil i praksis være et meget stort tal, så ifølge Sætning er fordelingen af X t godt tilnærmet af en binomialfordeling med antalsparameter og sandsynlighedsparameter 1/2. Og igen fordi er meget stor, kan vi slutte af den centrale grænseværdisætning at fordelingen af X t også approximeres godt af en normalfordeling med middelværdi /2 og varians /4. Eksempel (fortsat). Kømodellen er irreducibel og aperiodisk. Da p ij > 0 for j i, giver (9.2.9) at p (m) ij pii m 1 p ij > 0 for alle m II, når j i. Da p j,j 1 > 0 for j = 1,...,, gælder endvidere, at p (n+k) j,j k pn jj p j,j 1 p j k+1,j k > 0 for alle n II 0, k = 1,..., j og j = 1,...,. Vi har dermed vist, at p (m) ij > 0 for alle m, således at Markovkæden er irreducibel og aperiodisk. Den er derfor ergodisk, og der eksisterer en entydig stationær fordeling, men et eksplicit udtryk for denne fordeling er særdeles kompliceret. For konkrete værdier af parametrene λ og p kan den stationære fordeling, som vi har set, findes ved at løse et lineært ligningssystem. Ved dimensionering af køsystemer, spiller den stationære fordeling π en vigtig rolle. Man vil naturligvis gerne sikre, at π() er meget lille, da det er sandsynligheden for at køen er fuld, således at kunderne går uden at handle eller internetpakker går tabt. En kunde vil sætte pris på at π(0) er stor, mens forretningen måske synes det er spild af arbejdskraft. år er meget lille, er udtrykket for den stationære fordeling til at håndtere. For = 1 har kømodellen kun to tilstande, hvorfor vi allerede har fundet udtrykket (9.3.9) for den stationære fordeling. Da overgangsmatricen for kømodellen med = 1 er { e λ 1 e P = λ } pe λ 1 pe λ,

21 9.3 Ergodicitet og stationær fordeling 261 så den stationære fordeling er givet ved π(0) = pe λ 1 e λ + pe λ og π(1) = 1 e λ 1 e λ + pe λ. Vi skal nu i gang med at bevise Sætning Det gør vi ved hjælp af den såkaldte koblingsmetode. Til det formål lader vi {X t } og {Y t } være to uafhængige Markovkæder med samme overgangssandsynligheder {p ij }, men med forskellige begyndelsesbetingelser. Det antages at P(X 0 = a i ) = q 1 (a i ) og P(Y 0 = a i ) = q 2 (a i ) for i = 1,...,k, hvor q 1 og q 2 er sandsynlighedsfunktioner på S. Koblingsmetoden benytter det første tidspunkt, hvor de to Markovkæder er i samme tilstand. Definer derfor den stokastiske variable T i = inf{t 0 X t = a i og Y t = a i }. (9.3.12) Som sædvanlig sættes inf =, så er som udgangspunkt en mulig værdi af T i. Vi vil nu bevise to lemmaer, der giver os det rigtige værktøj til at bevise Sætning Lemma For alle i = 1,..., k og alle t II gælder, at P(X t = a j ) P(Y t = a j ) 2P(T i t). (9.3.13) j=1 Bevis: Ifølge (1.3.14) er P(X t = a j ) = og for t > n er P(T i = n, X t = a j ) t 1 n=1 P(T i = n, X t = a j ) + P(T i t, X t = a j ), = P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i ), X t = a j ) = P(X t = a j (X n, Y n ) = (a i, a i ), (X r, Y r ) (a i, a i ), r = 0,...,n 1) P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i )) = p (t n) ij P((X r, Y r ) (a i, a i ), r = 0,...,n 1, (X n, Y n ) = (a i, a i )) = p (t n) ij P(T i = n),

22 262 Markovkæder med endeligt tilstandsrum hvor vi har brugt Markovegenskaben (9.2.12) og at {X t } og {Y t } er to uafhængige. Dermed er P(X t = a j ) = t 1 n=1 På tilsvarende måde vises at P(Y t = a j ) = t 1 n=1 således at det følger af trekantsuligheden, at p (t n) ij P(T i = n) + P(T i t, X t = a j ). p (t n) ij P(T i = n) + P(T i t, Y t = a j ), P(X t = a j ) P(Y t = a j ) P(T i t, X t = a j ) + P(T i t, Y t = a j ). u følger (9.3.13) af (1.3.14) ved summation over j. For at kunne udnytte uligheden (9.3.13), skal vi kunne sige noget om størrelsen af P(T i t). Følgende lemma er lige, hvad vi skal bruge. Lemma Antag at {X t } er irreducibel og aperiodisk. Da eksisterer der et c > 0 og et ρ (0, 1), så for alle t II. P(T i t) cρ t (9.3.14) Bevis: Da {X t } er aperiodisk, findes der et m 0 og et δ (0, 1), så p (m 0) ij > δ for alle i, j = 1,..., k. Lad A i = S 2 \{(a i, a i )}. Da er for alle t II {T i > nm 0 } {(X lm0, Y lm0 ) A i, l = 1,...n}, således at u er P(T i > nm 0 ) P((X lm0, Y lm0 ) A i, l = 1,...n). P((X lm0, Y lm0 ) A i, l = 1,...n) n 1 = P((X nm0, Y nm0 ) A i, (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i n 1 = P((X nm0, Y nm0 ) A i (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i P((X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1).

23 9.3 Ergodicitet og stationær fordeling 263 og P((X nm0, Y nm0 ) A i (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) = 1 P((X nm0, Y nm0 ) = (a i, a i ) (X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) = 1 P((X nm0 = a i X lm0 = x l, l < n) P(Y nm0 = a i Y lm0 = y l, l < n) = 1 P((X nm0 = a i X (n 1)m0 = x n 1 ) P(Y nm0 = a i Y (n 1)m0 = y n 1 ) 1 δ 2. Læseren bør overbevise sig om rigtigheden af det andet lighedstegn ved hjælp af elementære regneregler for sandsynligheder fra Kapitel 1. Sammenfattende har vi, at P((X lm0, Y lm0 ) A i, l = 1,...n) n 1 (1 δ 2 ) P((X lm0, Y lm0 ) = (x l, y l ), l = 1,...n 1) l=1 (x l,y l ) A i = (1 δ 2 ) P((X lm0, Y lm0 ) A i, l = 1,...n 1). Ved at gentage disse argumenter n 1 gange mere, fås P(T i > nm 0 ) P((X lm0, Y lm0 ) A i, l = 1,...n) (1 δ 2 ) n. Vælg nu det hele tal n, så t/m 0 > n t/m 0 1. Da er P(T i t) P(T i > nm 0 ) (1 δ 2 ) n (1 δ 2 ) (t/m 0 1), som er på den ønskede form med ρ = (1 δ 2 ) 1/m 0. Bemærk, at (9.3.14) medfører at for alle t II således at P(T i = ) P(T i t) cρ t P(T i = ) lim t cρ t = 0. Vi kan nu vise dette afsnits hovedresultat, Sætning om ergodicitet af Markovkæder.

24 264 Markovkæder med endeligt tilstandsrum Bevis for Sætning 9.3.7: Følgen (p (n) 11, p (n) 12,...,p (n) kk ) i den kompakte mængde [0, 1] k2 har en konvergent delfølge (p (nt) 11, p (nt) 12,...,p (nt) kk ), hvor n t. D.v.s. der findes c ij, så lim n p(nt) ij = c ij t for alle i, j = 1,..., k. Vi anvender nu Lemmaerne og med begyndelsesfordelingerne for {X t } og {Y t } givet ved q 1 (a r ) = 1 og q 2 (a s ) = 1, hvor r og s er vilkårlige tal i {1,..., k}. Ifølge (9.2.5) er P(X nt = a j ) = p (nt) rj og P(Y nt = a j ) = p (nt) sj, så Lemmaerne og giver at c rj c sj = lim n p(nt) rj p (nt) sj = 0. t Dermed har vi vist er c rj = c sj for alle r, s = 1,..., k. Grænseværdien lim nt p (nt) ij afhænger altså ikke af i, og vi betegner den med p j. Det følger nu på helt samme måde som i beviset for Sætning at k j=1 p j = 1. Vi kan derfor anvende Lemmaerne og med begyndelsesfordelingen for {Y t } givet ved q 2 (a j ) = p j, j = 1,...,k, mens begyndelsesfordelingen for {X t } er givet ved q 1 (a i ) = 1, hvor i er et vilkårligt tal i {1,..., k}. Da er P(X t = a j ) = p (m) ij, og ifølge Sætning er P(Y t = a j ) = p j, så p (m) ij p j cρ t 0 for t. Dermed har vi vist at {X t } er ergodisk, og ifølge Sætning er den stationære fordeling givet ved π(a j ) = p j, j = 1,...,k. Lader vi nu begyndelsesfordelingen for {X t } er vilkårlig, mens begyndelsesfordelingen for {Y t } igen er den stationære fordeling, får vi (9.3.11) 9.4 Sammenfatning Vi har i dette kapitel set nogle typiske eksempler på Markovkæder med endeligt tilstandsrum. Dernæst blev nogle vigtige regneregler etableret.

25 9.5 Opgaver 265 Herunder hvordan man kan finde fordelingen af en observeret Markovkæde ud fra overgangssandsynlighederne og begyndelsesfordelingen, og hvordan man kan finde m-trins overgangssandsynlighederne ud fra 1-trins overgangssandsynlighederne ved hjælp af Chapman-Kolmogorov ligningerne. Endelig blev de vigtige begreber ergodicitet og stationær fordeling behandlet. Vi så at grænsefordelingen for en ergodisk Markovkæde med endeligt tilstandsrum er en entydig stationær fordeling, samt at h- vis begyndelsesfordelingen for en Markovkæde er stationær, så er hele processen stationær. Til slut blev der givet betingelser, som sikrer at en Markovkæde med endeligt tilstandsrum er ergodisk, og at konvergensen mod grænsefordelingen går eksponentielt hurtigt. 9.5 Opgaver 9.1 En bærbar PCs trådløse LA-kort rapporterer hvert sekund radioforbindelsens tilstand. Der er tre muligheder: dårlig, rimelig, god. Hvis forbindelsen er dårlig, er dens tilstand næste sekund enten dårlig eller rimelig, og de to muligheder er da lige sandsynlige. H- vis tilstanden er rimelig eller god, er tilstanden næste sekund med sandsynlighed 0.9 uændret, mens sandsynligheden for at tilstanden næste sekund er dårlig er (a) Opskriv overgangsmatricen. (b) Find den stationære fordeling. (c) Er Markovkæden irreducibel og aperiodisk? 9.2 Betragt en Markovkæde med tre tilstande og med overgangsmatrix P = 1 p p 0 1 p 0 p 0 1 p p (a) Find 2-trins overgangssandsynlighederne., (b) Gør dernæst rede for, at Markovkæden er irreducibel og aperiodisk. (c) Find til slut den stationære fordeling for kæden.

26 266 Markovkæder med endeligt tilstandsrum 9.3 Rentens udvikling er vigtig i mange finansielle problemer, for eksempel i livsforsikring. Ofte benyttes en Markovproces som model for rentens udvikling. Her er en simpel model. Antag at renten kun kan have tre niveauer: 2, 4 og 6 procent, og at den er konstant hele året. Overgangssandsynlighederne er som følger. Uanset tilstanden er renten med sandsynlighed 0.6 uændret næste år. Hvis renten et år er 2 procent, er sandsynligheden for at den næste år er 4 procent lig 0.3, mens den med sandsynlighed 0.1 er 6 procent næste år. Hvis renten et år er 4 procent, er der samme sandsynlighed for at den går op og ned næste år. Hvis endelig renten er 6 procent, er der sandsynlighed 0.3 for at den næste år er gået ned til 4 procent, mens der er sandsynlighed 0.1 for at den er hoppet helt ned på 2 procent. (a) Opskriv overgangsmatricen. (b) Givet at renten et år er 2 procent, hvad er da sandsynligheden for, at den tre år senere er 6 procent? (c) Gør rede for, at Markovkæden er irreducibel og aperiodisk. (d) Find den stationære fordeling for kæden. 9.4 Julie har to paraplyer. Hvis det regner, når hun om morgenen skal på arbejde, tager hun en paraply med, hvis der er en paraply i hendes lejlighed. Hvis det ikke regner, tager hun ikke en paraply med. På samme måde, når hun skal hjem fra arbejde om aftenen. Hvis det regner, tager hun en paraply med, såfremt mindst en af hendes paraplyer ligger på hendes kontor. Hvis det ikke regner, lader hun sin paraply/sine paraplyer ligge på kontoret. Sandsynligheden for at det regner, når hun skal på arbejde, er 0.1. Der er samme sandsyndsynlighed for regn, når hun skal hjem fra arbejde. Dette har stået på i meget lang tid. Hvad er sandsynligheden for, at Julie en morgen må gå på arbejde i regnvejr uden paraply. Vink: Lad X t være antallet af paraplyer i Julies lejlighed efter hun er kommet hjem fra arbejde den t-te aften. 9.5 Markovkæder kan benyttes til at finde sandsynligheder, der er vigtige i forbindelse med livsforsikringskontrakter. Vi betragter en kontrakt, hvor der ud over udbetalingen i forbindelse med død også

27 9.5 Opgaver 267 er en årlig udbetaling i forbindelse med invalidering. Størrelsen af udbetalingen ved invalidering afhænger af graden af invalidering. En forsikringstager kan være i fire mulige tilstande: rask, lettere invalid, stærkt invalid og død. Vi betegner disse tilstande med henholdsvis 1, 2, 3 og 4. Antag at forsikringstagerens tilstand kan modelleres ved en Markovkæde med overgangsmatrix Her svarer første række/søjle til tilstand 1 og så videre. (a) Find sandsynligheden for, at en lettere invalideret forsikringstager efter tre år er død. (b) Er Markovkæden irreducibel? Den betingede kæde, hvor der betinges med, at forsikringstageren ikke er død har (efter afrunding) overgangsmatricen (c) Overvej, hvordan den sidste overgangsmatrix er fremkommet fra den første. (d) Gør rede for, at Markovkæden svarende til den sidste overgangsmatrix er irreducibel og aperiodisk, og find den stationære fordeling. 9.6 Følgende er en generalisering af Bernoulli-Laplace modellen for diffusion til en situation, hvor der ikke er lige meget af de to vædsker. Antag at vi har 2 partikler, hvoraf H er hvide og H er sorte. Partiklerne er fordelt i to beholdere med i hver beholder. Mellem tidspunkterne t 1 og t trækkes der en partikel tilfældigt fra hver beholder og de to partikler bytter plads. Lad X t være antallet af hvide partikler i den første beholder.

28 268 Markovkæder med endeligt tilstandsrum (a) Gør rede for at {X t } er en Markovkæde med tilstandsrum {0, 1,..., } og find overgangssandsynlighederne. (b) Vis dernæst at Markovkæden er ergodisk og find den stationære fordeling. (c) Diskuter til slut approximationer til den stationære fordeling. 9.7 Lad X t være en Markovkæde med tilstandsrum {1, 2,..., k} og overgangssandsynligheder p ij. Vis at det for alle t II gælder, at P(X t = 1, X t 1 = 1,...,X 1 = 1 X 0 = 1) = p t 11. Definer en stokastisk variable T ved, at den er lig t II 0, hvis X 1 = = X t = 1 og X t+1 1. Det er altså ventetiden på at forlade tilstand 1. Vis at den betingede fordeling af T givet at X 0 = 1 er den geometriske fordeling med parameter 1 p 11, d.v.s. at P(T = t X 0 = 1) = p t 11(1 p 11 ) for alle t II Lad {X t } = {X 0, X 1, X 2,...} være en følge af stokastiske variable, der alle antager værdier i den endelige mængde S = {a 1,...,a k }. Antag at der for alle (i, j, l) {1,..., k} 3 findes et tal p ijl [0, 1], så P(X t+1 = a l X t = a i, X t 1 = a j, X tm = a im,...,x t1 = a i1 ) = p ijl for alle a i1,...,a im S og alle 0 t 1 < < t m < t 1. Tilstanden af processen {X t } afhænger altså af de to forrige tilstande. Den er således ikke en Markovkæde, men kaldes en anden-ordens Markovkæde. Definer en ny proces ved Y t = (X t, X t 1 ). Vis at {Y t } er en Markovkæde med tilstandsrum S 2 og overgangssandsynligheder p ijl hvis i = n q (i,j)(l,n) = 0 hvis i n.

Plan. Markovkæder Matematisk modelling af kølængde, yatzy, smittespredning og partikelbevægelser. Materiale mm.

Plan. Markovkæder Matematisk modelling af kølængde, yatzy, smittespredning og partikelbevægelser. Materiale mm. Institut for Matematiske Fag Plan Markovkæder Matematisk modelling af kølængde, yatzy, smittespredning og partikelbevægelser Helle Sørensen Eftermiddagen vil være bygget om 3 4 eksempler: A. B. Random

Læs mere

13 Markovprocesser med transitionssemigruppe

13 Markovprocesser med transitionssemigruppe 13 Markovprocesser med transitionssemigruppe I nærværende kapitel vil vi antage at tilstandsrummet er polsk, hvilket sikrer, at der findes regulære betingede fordelinger. Vi skal se på eksistensen af Markovprocesser.

Læs mere

Binomialfordelingen. Binomialfordelingen. Binomialfordelingen

Binomialfordelingen. Binomialfordelingen. Binomialfordelingen Statistik og Sandsynlighedsregning 1 MS kapitel 3 Susanne Ditlevsen Institut for Matematiske Fag Email: susanne@math.ku.dk http://math.ku.dk/ susanne Definition 3.2.1 Lad X 1, X 2,..., X n være uafhængige

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

1 Beviser for fornyelsessætningen

1 Beviser for fornyelsessætningen Hvordan beviser man fornyelsessætningen? 1 1 Beviser for fornyelsessætningen I dette notat skal vi diskutere, hvorman man kan bevise fornyelsessætningen. Vi vil starte med at se på tilfældet, hvor ventetidsfordelingen

Læs mere

Oversigt over nyttige fordelinger

Oversigt over nyttige fordelinger Oversigt over nyttige fordelinger Helene Regitze Lund Wandsøe November 14, 2011 1 Bernoulli-fordelingen 1 Når et eksperiment har to mulige udfald: succes eller fiasko. X er en stokastisk variabel med følgende

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Vejledende løsninger til opgaver i kapitel 6

Vejledende løsninger til opgaver i kapitel 6 Vejledende løsninger til opgaver i kapitel Opgave 1: a) Den stokastiske variabel, X, der angiver, om en elev består, X = 1, eller dumper, X =, sin eksamen i statistik. b) En binomialfordelt variabel fremkommer

Læs mere

Produkt og marked - matematiske og statistiske metoder

Produkt og marked - matematiske og statistiske metoder Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 11, 2016 1/22 Kursusindhold: Sandsynlighedsregning og lagerstyring

Læs mere

Lidt supplerende køteori (ikke pensum)

Lidt supplerende køteori (ikke pensum) H.Keiding: Operationsanalyse MØK 205II Note om køteori, side. Lidt mere om M/M/ Lidt supplerende køteori (ikke pensum).. Rate-equality. I den første note endte vi de generelle betragtninger med en hurtig

Læs mere

Noget om en symmetrisk random walks tilbagevenden til udgangspunktet

Noget om en symmetrisk random walks tilbagevenden til udgangspunktet Random Walk-kursus 2014 Jørgen Larsen 14. oktober 2014 Noget om en symmetrisk random walks tilbagevenden til udgangspunktet Dette notat giver et bevis for at en symmetrisk random walk på Z eller Z 2 og

Læs mere

Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model

Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab Statistisk Model Indhold Binomialfordeling Sandsynlighedsfunktion Middelværdi og spredning 1 Aalen: Innføring i statistik med medisinske eksempler

Læs mere

Wigner s semi-cirkel lov

Wigner s semi-cirkel lov Wigner s semi-cirkel lov 12. december 2009 Eulers Venner Steen Thorbjørnsen Institut for Matematiske Fag Århus Universitet Diagonalisering af selvadjungeret matrix Lad H være en n n matrix med komplekse

Læs mere

Stokastiske processer og køteori

Stokastiske processer og køteori Stokastiske processer og køteori 2. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 STOKASTISK MODEL FOR KØSYSTEM Population Ankomst Kø Ekspedition Output Ankomstproces

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 9, 2015 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Hvad skal vi lave i dag?

Hvad skal vi lave i dag? p. 1/1 Hvad skal vi lave i dag? Repeterer lidt om diskrete sv. Standardfordelinger (binomial, Poisson, geometrisk) Stokastiske vektorer Diskrete stokastiske vektorer p. 2/1 Repetition Heltallige sv er

Læs mere

Matematisk model for køsystem

Matematisk model for køsystem Matematisk model for køsystem Ankomstproces T 1, T 2,... (ankomsttid per kunde). Kødisciplin (rækkefølge for service). Ekspeditionstidsproces S 1, S 2,... (servicetid per kunde). Dagens emne: ankomstprocesser.

Læs mere

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Stokastiske processer og køteori

Stokastiske processer og køteori Stokastiske processer og køteori 7. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 OVERBLIK Sidste gang: M/M/(m, n m)-køsystemet: ligevægtsfordeling; performancestørrelser;

Læs mere

Udvikling af operations karakteristika/performance mål for køsystemer

Udvikling af operations karakteristika/performance mål for køsystemer Chapter 2: Genstandsområde: Køteori Analyse af køsystemer Formål: Udvikling af operations karakteristika/performance mål for køsystemer > ssh for 0 enheder i system > gns # enheder i køen > gns # enheder

Læs mere

1 Palm teori. Palm teori 1

1 Palm teori. Palm teori 1 Palm teori 1 1 Palm teori Lad X = {X(t)} t 0 være en stokastisk proces defineret på et måleligt rum (Ω, F), og lad T = {T n } n N0 være en voksende følge af ikke-negative stokastiske variable herpå. Vi

Læs mere

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse

Læs mere

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Sandsynlighedsregning 4. forelæsning Bo Friis Nielsen Anvendt Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner: Afsnit 3.3 og 3.4 Varians/standardafvigelse

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 4: Diskrete fordelinger Hypergeometrisk fordeling, Afsnit 4.3 Multinomial fordeling, Afsnit 4.8 Geometrisk fordeling og Negativ binomialfordeling (Inverse Sampling), Afsnit 4.4 Approksimation

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Vi har beskæftiget os indgående med ankomst- og servicetidsprocesser. Disse karakteriserer input til et køsystem. Andre karakteriserende størrelser?

Vi har beskæftiget os indgående med ankomst- og servicetidsprocesser. Disse karakteriserer input til et køsystem. Andre karakteriserende størrelser? Dagens emner Kvalitative egenskaber og karakteristiske størrelser i generelle køsystemer. Little s formel. Repetition af hopdiagrammer og Markovprocesser. Fødsels- og dødskøsystemer. AGR/PSE (I17) VS7-5.

Læs mere

Sandsynlighedsregning Oversigt over begreber og fordelinger

Sandsynlighedsregning Oversigt over begreber og fordelinger Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte

Læs mere

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater

Læs mere

Karakteristiske funktioner og Den Centrale Grænseværdisætning

Karakteristiske funktioner og Den Centrale Grænseværdisætning E6 efterår 1999 Notat 10 Jørgen Larsen 20. oktober 1999 Karakteristiske funktioner og Den Centrale Grænseværdisætning Karakteristiske funktioner som er nære slægtninge til Fourier-transformationen) er

Læs mere

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Opgaven består af et antal delopgaver Disse er af varierende omfang Der er også en

Læs mere

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Kursus 02402 Introduktion til Statistik Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske

Læs mere

DANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr)

DANMARKS TEKNISKE UNIVERSITET Side 1 af 17 sider. Skriftlig prøve, den: 29. maj 2015 Kursus nr : (navn) (underskrift) (bord nr) DANMARKS TEKNISKE UNIVERSITET Side af 7 sider Skriftlig prøve, den: 9. maj 05 Kursus nr : 0405 Kursus navn: Sandsynlighedsregning Varighed : 4 timer Tilladte hjælpemidler: Alle Dette sæt er besvaret af:

Læs mere

Binomialfordelingen. X ~ bin(n,p): X = antal "succeser" i n uafhængige forsøg, der alle har samme sandsynlighed p for at ende med succes.

Binomialfordelingen. X ~ bin(n,p): X = antal succeser i n uafhængige forsøg, der alle har samme sandsynlighed p for at ende med succes. Uge 9 Teoretisk Statistik 23. februar 24 1. Binomialfordelingen 2. Den hypergeometriske fordeling 3. Poissonfordelingen 4. Den negative binomialfordeling 5. Gammafordelingen Binomialfordelingen X ~ bin(n,p):

Læs mere

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive

Læs mere

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag. Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er

Læs mere

Lineære ligningssystemer

Lineære ligningssystemer enote 2 1 enote 2 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.

Læs mere

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni 2007 4 timers prøve med hjælpemidler Opgaven består af re delopgaver, som alle skal besvares. De re opgaver indgår med samme vægt. Opgaverne

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 4: Diskrete fordelinger Afsnit 4.1-4.2, 4.7: Bernoulli fordeling Binomial fordeling Store Tals Lov (Laws of Averages, Laws of Large Numbers) 1 Bernoulli fordeling Kvantitative Metoder

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem

Læs mere

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Efterår Dagens program Dagens program Approksimation af binomialsandsynligheder, Afsnit 4.5 Multinomial fordeling, Afsnit 4.8 Negativ binomialfordeling, Afsnit 4.4 Poisson fordeling og Poisson process, Afsnit 4.6 Kontinuerte

Læs mere

ANALYSE 1, 2014, Uge 5

ANALYSE 1, 2014, Uge 5 ANALYSE, 204, Uge 5 Afleveringsfrist for Prøve 2 er Tirsdag den 20/5 kl 0:5. Forelæsninger Tirsdag Vi går videre med Afsnit 4 om uniform konvergens af Fourierrækker, hvor hovedsætningen er Sætning 4.3.

Læs mere

Opgaver i sandsynlighedsregning

Opgaver i sandsynlighedsregning Afdeling for Teoretisk Statistik STATISTIK Institut for Matematiske Fag Preben Blæsild Aarhus Universitet 9. januar 005 Opgaver i sandsynlighedsregning Opgave Lad A og B være hændelser således at P(A)

Læs mere

Stokastiske processer og køteori

Stokastiske processer og køteori Stokastiske processer og køteori 5. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 DAGENS EMNER Kvalitative egenskaber og karakteristiske størrelser i generelle køsystemer.

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Statistiske modeller

Statistiske modeller Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder

Læs mere

Kalkulus 2 - Grænseovergange, Kontinuitet og Følger

Kalkulus 2 - Grænseovergange, Kontinuitet og Følger Kalkulus - Grænseovergange, Kontinuitet og Følger Mads Friis 8. januar 05 Indhold Grundlæggende uligheder Grænseovergange 3 3 Kontinuitet 9 4 Følger 0 5 Perspektivering 4 Grundlæggende uligheder Sætning

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Løsning til prøveeksamen 1

Løsning til prøveeksamen 1 IMM - DTU 020 Probability 2006-2-8 BFN/bfn Løsning til prøveeksamen Spørgsmål ) For en indikatorvariabel I A for hændelsen A gælder E(I A ) = P(A) (se for eksemepl side 68). Således er E(X) = P(N ) = =

Læs mere

Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable

Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable Forskningsenheden for Statistik ST501: Science Statistik Bent Jørgensen Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable 2.1 Sandsynlighedsbegrebet............................... 1 2.1.1

Læs mere

Nøgleord og begreber

Nøgleord og begreber Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

n=1 er veldefineret for alle følger for hvilke højresiden er endelig. F.eks. tilhører følgen

n=1 er veldefineret for alle følger for hvilke højresiden er endelig. F.eks. tilhører følgen 2 Hilbert rum 2. Eksempler på Hilbert rum Vi skal nu først forsøge at begrunde, at de indre produkt rum af funktioner eller følger, som blev indført i Kapitel, ikke er omfattende nok til vores formål.

Læs mere

Note om Monte Carlo metoden

Note om Monte Carlo metoden Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere

Eksamen 2014/2015 Mål- og integralteori

Eksamen 2014/2015 Mål- og integralteori Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

ANALYSE 1. Uge 7, 4. juni juni, 2007

ANALYSE 1. Uge 7, 4. juni juni, 2007 ANALYSE 1 Uge 7, 4. juni - 10. juni, 2007 Forelæsninger Mandag 4. juni Formålet med denne dags forelæsninger er at etablere en overgang til emnet metriske rum, hvis hovedformål er at udvide begreber som

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Teoretisk Statistik, 13 april, 2005

Teoretisk Statistik, 13 april, 2005 Poissonprocessen Teoretisk Statistik, 13 april, 2005 Setup og antagelser Fordelingen af X(t) og et eksempel Ventetider i poissonprocessen Fordeling af ventetiden T 1 til første ankomst Fortolkning af λ

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte

Læs mere

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning Sandsynlighedstætheder og kontinuerte fordelinger på R Varians og middelværdi Normalfordelingen Susanne Ditlevsen Uge 48, tirsdag Tætheder og fordelingsfunktioner

Læs mere

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007 Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave

Læs mere

Et eksempel: Blomsterpopulation med to co-dominante gener for kronbladenes farve

Et eksempel: Blomsterpopulation med to co-dominante gener for kronbladenes farve Populationsgenetik I populationsgenetik beskæftiger man sig med at undersøge hyppigheden af forskellige gener samt fordeligen af fænotyper og genotyper i forskellige populationer. For en ordens skyld:

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2003 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02) SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige

Læs mere

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag I formiddag: Tætheder og fordelingsfunktioner kort resume fra i mandags og et par eksempler mere om sammenhængen

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag SaSt2 (Uge 6, onsdag) Middelværdi og varians 1 / 18 Program I formiddag: Tætheder og fordelingsfunktioner kort resume

Læs mere

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20.

Fortolkning. Foldning af sandsynlighedsmål. Foldning af tætheder. Foldning af Γ-fordelinger Eksempel: Hvis X og Y er uafhængige og. Sætning (EH 20. Foldning af sandsnlighedsmål Lad µ og ν være to sandsnlighedsmål på (R, B). Fortolkning Lad φ : R R være φ(, ) = + for (, ) R. Lad X og Y være to reelle stokastiske variable defineret på (Ω, F, P). Definition

Læs mere

standard normalfordelingen på R 2.

standard normalfordelingen på R 2. Standard normalfordelingen på R 2 Lad f (x, y) = 1 x 2 +y 2 2π e 2. Vi har så f (x, y) = 1 2π e x2 2 1 2π e y2 2, og ved Tonelli f dm 2 = 1. Ved µ(a) = A f dm 2 defineres et sandsynlighedsmål på R 2 målet

Læs mere

DesignMat Uge 1 Repetition af forårets stof

DesignMat Uge 1 Repetition af forårets stof DesignMat Uge 1 Repetition af forårets stof Preben Alsholm Efterår 008 01 Lineært ligningssystem Lineært ligningssystem Et lineært ligningssystem: a 11 x 1 + a 1 x + + a 1n x n = b 1 a 1 x 1 + a x + +

Læs mere

INSTITUT FOR MATEMATISKE FAG c

INSTITUT FOR MATEMATISKE FAG c INSTITUT FOR MATEMATISKE FAG c AALBORG UNIVERSITET FREDRIK BAJERS VEJ 7 G 9220 AALBORG ØST Tlf.: 96 35 89 27 URL: www.math.aau.dk Fax: 98 15 81 29 E-mail: bjh@math.aau.dk Dataanalyse Sandsynlighed og stokastiske

Læs mere

Notation for parallelforbundne ekspeditionssystemer

Notation for parallelforbundne ekspeditionssystemer Køsystemer notation Notation for parallelforbundne ekspeditionssystemer X /Y (m, q). Ankomstproces X og ekspeditionstidsproces Y kan antage værdier: M: Uafhængige og eksponentialfordelte ventetider. Dvs.

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra Matrx-vektor produkt [ ] 1 2 3 1 0 2 1 10 4 Rotationsmatrix Sæt A θ = [ ] cosθ sinθ sinθ cosθ At gange vektor v R 2 med A θ svarer til at rotere vektor v med vinkelen θ til vektor w: [ ][ ] [ ] [ ] cosθ

Læs mere

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 1)

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 1) ; C ED 6 > Billedbehandling og mønstergenkendelse Lidt elementær statistik (version 1) Klaus Hansen 24 september 2003 1 Elementære empiriske mål Hvis vi har observationer kan vi udregne gennemsnit og varians

Læs mere

Lineære ligningssystemer

Lineære ligningssystemer enote 6 1 enote 6 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.

Læs mere

Definition. Definitioner

Definition. Definitioner Definition Landmålingens fejlteori Lektion Diskrete stokastiske variable En reel funktion defineret på et udfaldsrum (med sandsynlighedsfordeling) kaldes en stokastisk variabel. - kkb@math.aau.dk http://people.math.aau.dk/

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

MM501 forelæsningsslides

MM501 forelæsningsslides MM501 forelæsningsslides uge 40, 2010 Produceret af Hans J. Munkholm bearbejdet af JC 1 Separabel 1. ordens differentialligning En generel 1. ordens differentialligning har formen s.445-8 dx Eksempler

Læs mere

Indledning. 1 Martingalerepræsentationssætningen

Indledning. 1 Martingalerepræsentationssætningen Indledning I disse noter vil uddybe nogle af Øksendals resultater i afsnittene 4 og 7 samt give andre beviser for dem. Disse resultater er gennemgået til forelæsningerne. 1 Martingalerepræsentationssætningen

Læs mere

Introduktion til Laplace transformen (Noter skrevet af Nikolaj Hess-Nielsen sidst revideret marts 2013)

Introduktion til Laplace transformen (Noter skrevet af Nikolaj Hess-Nielsen sidst revideret marts 2013) Introduktion til Laplace transformen (oter skrevet af ikolaj Hess-ielsen sidst revideret marts 23) Integration handler ikke kun om arealer. Tværtimod er integration basis for mange af de vigtigste værktøjer

Læs mere

Betingning med en uafhængig variabel

Betingning med en uafhængig variabel Betingning med en uafhængig variabel Sætning Hvis X er en reel stokastisk variabel med første moment og Y er en stokastisk variabel uafhængig af X, så er E(X Y ) = EX. Bevis: Observer at D σ(y ) har formen

Læs mere

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition

Læs mere

Kursusgang 3 Matrixalgebra fortsat

Kursusgang 3 Matrixalgebra fortsat Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse

Læs mere

Potensrækker. Morten Grud Rasmussen 1 10. november 2015. Definition 1 (Potensrække). En potensrække er en uendelig række på formen

Potensrækker. Morten Grud Rasmussen 1 10. november 2015. Definition 1 (Potensrække). En potensrække er en uendelig række på formen Potensrækker Morten Grud Rasmussen 1 10 november 2015 Definition og konvergens af potensrækker Definition 1 Potensrække) En potensrække er en uendelig række på formen a n pz aq n, 1) hvor afsnittene er

Læs mere

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober 2017 Miniprojekt: Lineær algebra på polynomier Grupperne forventes at regne de små opgaver i afsnittene 1 5 i løbet af de første 4 halve dage. Dernæst tilføjes

Læs mere

Kapitel 4 Sandsynlighed og statistiske modeller

Kapitel 4 Sandsynlighed og statistiske modeller Kapitel 4 Sandsynlighed og statistiske modeller Peter Tibert Stoltze stat@peterstoltze.dk Elementær statistik F2011 1 / 22 Generalisering fra stikprøve til population Idé: Opstil en model for populationen

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Lineære transformationer, middelværdi og varians Helle Sørensen Uge 8, onsdag SaSt2 (Uge 8, onsdag) Lineære transf. og middelværdi 1 / 15 Program I formiddag: Fordeling

Læs mere

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven. PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve

Læs mere

Lineær Algebra F08, MØ

Lineær Algebra F08, MØ Lineær Algebra F08, MØ Vejledende besvarelser af udvalgte opgaver fra Ugeseddel 3 og 4 Ansvarsfraskrivelse: Den følgende vejledning er kun vejledende. Opgaverne kommer i vilkårlig rækkefølge. Visse steder

Læs mere