Formelsamling og noter. Statistisk fysik

Størrelse: px
Starte visningen fra side:

Download "Formelsamling og noter. Statistisk fysik"

Transkript

1 Formelsamling og noter. Statistisk fysik 19. juni 01 Dennis Hansen P A BI P B AI P B I P A I ρλ BI P B λi P B I ρλ I ρλ BI ρb λi ρb I ρλ I P AB I P A BIP B I P A + B I P A I + P B I P AB I P A I 1 P A I Z konf. e k λ kf k δu T δs pδv S ln Z + k λ k F k δq T δs ln Z λ k F k G T ln Z a S F k λ k H U + a λ a F a λ a F a

2 INDHOLD Indhold 1 Forord og indledning 4 Sandsynlighedsteori 5.1 Logik og Boolsk algebra Sandsynlighed Bayes sætning Sandsynlighedstætheder Bayes sætning for tætheder Statistik og parameterbestemmelse Diskrete fordelinger Moment-genererende funktion Kontinuerte fordelinger Moment-genererende funktion Eksperimentielle usikkerheder; én måling Inddirekte måling Ophobningsloven, afhængige målinger Parameterbestemmelse Flere uafhængige målinger af en størrelse Direkte måling Lineær sammenhæng mellem målinger; Bedste rette linje Lineær regression Modelsammenligning Sandsynlighedsfordelinger 4.1 Binomialfordeling Multinomialfordeling Poisson-fordeling Normalfordeling Multivariant normalfordeling Student's t-fordeling Maksimal entropi-metoden 7 6 Statistisk klassisk mekanik/termodynamik Det kanoniske ensemble Egenskaber for temperaturen T Klassisk idealgas i det kanoniske ensemble Tryk ensemblet Egenskaber for trykket p Det store kanoniske ensemble Egenskaber for det kemiske potential µ Termodynamikkens første lov Termodynamikkens anden lov af 53

3 INDHOLD 6.6 Ligefordelingsloven, Ækvipartitionstheoremet Det generelle tilfælde: Systemvariable Frie energier Entalpier Maxwell relationer Princippet om minimum energi Statistisk kvantemekanik Formalisme Kendt Hamiltonoperator Énpartikel systemer Fri partikel Harmonisk oscillator Mangepartikel systemer Antal af tilstande og tilstandstæthed for frie partikler Fermioner Degenereret Fermi-gas Degenereret ideal Fermi-gas Bosoner Bose-Einstein kondensation A Appendix 5 A.1 Konstanter og omregning A. Vigtige integraler A..1 Eksponentiale- og gaussiske integraler A.. Trigonometriske integraler A..3 Bose-integraler A.3 Vigtige aedte A.3.1 Hyperbolske funktioner A.4 Vigtige summe af 53

4 1 FORORD OG INDLEDNING 1 Forord og indledning Denne formelsamling slash notesamling er gældende til Statistisk Fysik i det Herrens år 01. Noterne er skrevet af Mig til Mig, og andre skal ikke forvente at noget godt kommer ud af at læse dem. Dispositionen af indholdet i kurset er lidt anderledes ind Per Hedegårds noter, da dette passer bedre til min smag. Dennis Hansen 4 af 53

5 SANDSYNLIGHEDSTEORI Sandsynlighedsteori.1 Logik og Boolsk algebra Boolsk algebra er en måde at regne med udsagn som enten kan være sande eller falske - ingen andre muligheder er tilladte. Boolsk algebra er baseret på tre grundlæggende operationer mellem udsagn: + eller, og, A ikke A. De tre har sandhedstabellerne givet ved A B A + B AB A Operatorerne og, eller kommuterer, dvs. Kommutative lov AB BA, A + B B + A. Desuden er operationerne også associative, dvs. Associative lov ABC AB C A BC, A + B + C A + B + C A + B + C. Og sidst men ikke mindst gælder de distributive regneregler ogs så vi kan og'e og eller'e ind i parenteser: Distributive lov A B + C AB + AC, A + BC A + B A + C. To udsagn H 1 og H som evt. kunne bestå af andre udsagn forbundet gennem de tre ovenstående operationer siges at være ens eller logisk ækvivalente dvs. H 1 H, hvis de udgør en tautologi. Dvs. at skrives sandhedstabellerne op for hver af udtrykkene H 1 og H og kan man se at de begge er sande og falske på de samme parametreværdier, så er de logisk ækvivalente. For N udsagn, skal der i sandhedstabellerne være N rækker + titelbar. Eksempel 1 Vis at AB A + B. Vi skriver sandhedstabellen op: A B A B A + B AB AB Dermed er det vist at AB A + B da de har samme sandhedsværdier. Hvis et udtryk H altid er sandt, kan der lige så godt skrives H 1, mens hvis det altid er falsk, kan man ligeså skrive H 0. Dette kan bruges til at lave smarte omskrivninger med. Antal rækker i sandhedstabel. Altid sandt/falsk. 5 af 53

6 SANDSYNLIGHEDSTEORI Eksempel Vis at AB + AB B. Vi skriver sandhedstabellen op: A B A AB AB AB + AB Dermed er det vist at AB + AB B da de har samme sandhedsværdier. Dette kunne også indses ved at B B 1 B A + A AB + AB, da A + A altid er sandt. Udover de viste, gælder også følgende identiteter: AA A A + A A A + B AB AĀ 0 A + Ā 1 Semi-præudfyldt sandhedstabeller. variable: A B variable: A B C Sandsynlighed En sandsynlighedsfunktion P, er en surjektiv afbildning fra udfaldsrummet U til intervallet [0, 1] R, dvs. P : U [0, 1]. A U vil vi kalde en stokastisk variabel, eller et udsagn. Sandsynlighedsfunktionen P har to egenskaber som skal være opfyldt. 6 af 53

7 SANDSYNLIGHEDSTEORI i 0 P A 1 ii P X 1. X U Disse egenskaber intuitivt meget fair. Da en sandsynlighed ikke kan angives uden at der er gjort visse antagelser I A antagelsesrummet om forhåndsviden og andre ting, er der i realiteten kun betingede sandsynligheder, dvs. sandsynlighedsfunktioner givet antagelsen I A. Vi skriver derfor i stedet en sandsynlighed P A som P A P A I, der betyder Sandsynligheden for udsagnet A, givet antagelserne I 'hvad vi ellers ved'. Dermed når vi nu frem til bayesisk sandsynlighedsregning, hvor sandsynlighedsfunktionen afhænger af hvilke af de uendelig? mange mulige antagelser vi har gjort os. Bemærk at P A I P A I I I, dvs. at gør man de samme antagelser, vil sandsynligheden man tildeler et udsagn A være den samme. Herfra kommer følgende fundamentale regneregler: P A I 1 P A I 1 P AB I P A BIP B I P B AIP A I P A + B I P A I + P B I P AB I 3 Eksempel 3 Sandsynligheden for at blive stukket af en bi når man spiser is, er 10%. Sandsynligheden for at man spiser en is på en sommerdag, er 50%. Hvad er sandsynligheden for at blive stykket på en sommerdag?. Det giver god mening at udsagnet A 'blive stykket af en bi når man spiser is' ikke afhænger af B 'spise en is på en sommerdag', og det er således uafhængige sandsynligheder. Produktreglen giver da P AB I P A BIP B I P A IP B I %..3 Bayes sætning Fra produktreglen haves Bayes sætning, som siger Bayes sætning 7 af 53

8 SANDSYNLIGHEDSTEORI P A BI P B AI P A I. 4 P B I Bayes sætning er en måde at vende beregningen af en betinget sandsynlighed, såfremt at man ikke kender sandsynligheden for at A givet BI, men kun B givet AI fx at man kender sandsynligheden for at blive spist af en haj i havet, men ikke sandsynligheden for at man er i havet når man spises af en haj, som man så gerne vil kende. Dette koster så blot nogle ekstra faktorer, hvis værdi nemmere kan regnes ud. Bayes sætning danner på en måde grundlag for hele den videnskabelige praksis, idet hvis vi sætter A 'Teori' og B 'Data', så kan man på denne måde udregne sandsynligheden for teoriens rigtighed, givet data. Af denne grund har de forskellige led i Bayes sætning fået passende navne: P A BI } {{ } Efter SS P B AI P B I } {{ } Likelihood P A I } {{ } F/or SS Eksempel 4 Hvad er sandsynligheden for at det er en sommerdag, givet man er blevet stukket af en bi. Det antages at vi ved at sandsynligheden for at blive stukket på en sommerdag er 10%, og 1% ellers, og man ingen ide har om det er sommer eller vinter.. Dener følgende udsagn: S 'Det er en sommerdag', B 'Stukket af en bi', V 'Det er en vinterdag'. Vi ved således P B SI 0.1 og P B V I 0.01, og da der er 1/4 sommerdage på et år og 3/4 vinterdage på et år synes det som i Danmark ihvertfald!, sætter vi P S I 0.5 og P V I Vi er ude efter P S BI. Bayes sætning siger da: P S BI P B SI P B I P S I Bemærk at vi har 1 S + V, da hvis det ikke er sommer er vores danske forståelse ihvert af begreberne sommer/vinter at det så er vinter. Dermed kan vi skrive P S BI P B SI P B S + V I P S I P B SI P BS I + P BV I P S I P B SI P B SIP S I + P B V IP V I P S I % Dvs. det er ret sandsynligt at det er en sommerdag man blev stykket af en bi, selvom der ikke er så mange sommerdage i Danmark. 8 af 53

9 SANDSYNLIGHEDSTEORI Eksempel 5 Til en fest er 0 % af deltagerne fysikere. Under festen lykkes det 5 % af deltagerne at score. % af scoringerne blev udført af en fysiker. Hvor mange procent af fysikerne scorede?. Dener følgende udsagn: F 'Fysiker', S 'Scorer'. Vi ved således P F I 0.0 og P F SI 0.0, P S I Vi ønsker at bestemme P S F I og Bayes' sætning giver da P S F I Dvs. ikke så mange fysikere scorer... P F SI P F I P S I Eksempel 6 På et studium går der 30 % piger. Af pigerne er 4 % nørder. Af alle nørdede studerende er % piger. Hvor mange procent af alle de studerende er nørder?. Dener følgende udsagn: N 'Nørd', P 'Piger', D 'Drenge'. Det må gælde at de studerende S er enten piger eller drenge, dvs. S P + D 1. Vi ved således P P I 0.30 og P N P I 0.04, P P NI 0.0. Bayes' sætning giver da P P NI P N P I P P I P N I Vi kan se at den eneste ubekendte i Bayes sætning er P N I P N SI, dvs. procentsatsen af alle studerende som er nørder. Vi har da ved isolering: P N P I P N I P P I P P NI Dvs. der er sq ret mange nørder på det studium, og grunden til at vi får et sådant højt tal, er at pigerne er en lille gruppe af de samlede studerende..4 Sandsynlighedstætheder Haves udsagn P som med god mening kan siges at afhænge kontinuert af en parameter λ som fx længden af et træ, P λ I, giver det god mening at indføre en sandsynlighedstætheder ρλ I, der skal integreres/kontinuert eller'es for at give en sandsynlighed, i stedet for at summe/diskret eller'e udsagn. Dermed spørger man med såddanne situationer ikke hvad sandsynligheden for er når parameteren er λ c, men hvad sandsynligheden når λ [a, b]. Dette betyder at sandsynlighedstætheder ρλ I opfylder: 9 af 53

10 SANDSYNLIGHEDSTEORI P λ [a, b] I ˆ b a ρλ Idλ. Der skal naturligvis gælde at integreres der over mængden af alle mulige værdier som λ kan antage, U, haves naturligvis ˆ P λ U I U ρλ Idλ 1, dvs. at sandsynlighedstætheder skal være normeret. Ellers gælder der de samme regneregler og det hele for sandsynlighedstætheder også, selvom de skrives lidt anderledes: Normering ρλ I 1 ρλ I P λ [a, b] I 1 P λ / [a, b] I 5 ρλa I ρλ AIP A I P A λiρλ I 6 P λ [a, b] + λ [c, d] I P λ [a, b] I + P λ [c, d] I P λ [a, b] [c, d] I 7 Sandsynlighedstætheder af N variable N-dimensionale fordelinger kan der ligeledes let generaliseres til. Her gælder der således at sandsynligheden for at parametrene λ 1,..., λ N A U R N er givet ved ˆ P λ 1,..., λ N I A I A ρ λ 1,..., λ N I d N λ. For en N-dimensionel fordeling, kan man ligeså lave den til en 1-dimensionel fordeling af en af parametrenene λ i ved bare at integrere de andre parametre væk, dvs. lade dem antage alle de mulige værdier U, så sandsynligheden langs delmængden af de andre parametre er 1. Dermed have fx ˆ ρ λ i I A I ρ λ 1,..., λ N I d N 1 λ 1,..., λ i 1, λ i+1,... λ N. U Dette trick bruges meget når man i termodynamikken fx blot vil viden hvordan én partikels hastighedsfordeling ser ud, og derudfra nde middelværdi osv. for en enkelt måling. 10 af 53

11 SANDSYNLIGHEDSTEORI Eksempel 7 Givet at man har en D sandsynlighedsfordeling ρx, y I ρx, y C 1 y exp x 3y, nd sandsynlighedsfordelingen i x U R, når y's udfaldsrum U er R hhv. R +. Det totale udfaldsrum er U U U Vi har C U ρx, yd x U U ρx, ydydx. For udfaldsrummet U R har vi at den normerede sandsynlighedsfordeling er givet ved C π 3 e x 18. Vi har da ρx I R ρx, ydy π. For udfaldsrummet U R + har vi at den normerede sandsynlighedsfordeling er givet ved C π 3 e x 36. Vi har da ρx I R ρx, ydy π. Dette kan tolkes som at tætheden bliver større langs x-aksen, fordi udfaldsrummet bliver mindre i y-retningen..4.1 Bayes sætning for tætheder For sandsynlighedstætheder, er der faktisk ere forskellige versioner af Bayes sætning, som kan bruges, hvor det enten er sandsynligheden eller sandsynlighedstætheden der indgår i likelihood. Vi har Bayes sætning ρλ BI P B λi ρλ I, 8 P B I ρλ BI ρb λi ρλ I. 9 ρb I 11 af 53

12 SANDSYNLIGHEDSTEORI Eksempel 8 Givet at man kun har en række målinger {x 1,..., x N } af et fænomen og ikke aner noget om usikkerheden spredningen σ eller middelværdien µ på disse, giv da et estimat på usikkerheden af målingerne ved middelværdien σ, og variansen af variansen af målingerne σ σ σ σ.. Vi ved kan udledes med maksimum-entropi metoden at en måleserie højest sandsynligt vil være normalfordelt såfremt at vi kun kender σ og µ, dvs. ρd σµi er normalfordelt. Sæt D {x 1,..., x N } 'Data som vi kender'; ved at bruge Bayes' sætning på kontinuert form kan vi da vende sandsynlighedsfordelingen rundt så vi kan udtrykke en sandsynlighedstæthed for σ, µ givet vi kender data. Bayes sætning giver da da ρσµ DI ρd σµi ρd I ρσµ I. Såfremt at vi intet ved om den rigtige spredning og middelværdi, er udfaldsrummene da pr. denition σ R + og µ R, og ρσµ I konstant. ρd I må ligeledes være konstant, da dataene jo er givet. Vi har da at siden målingerne må være uafhængige at sandsynlighedsfordelingen ρd σµi må være en sandsynlighedsfordeling i hver af de N målinger, som er uafhængige, dvs. ρd σµi N i1 1 exp x i µ πσ σ σ N π N/ exp σ N exp 1 σ 1 σ N x i µ i1 N x i µ i1 Sættes x 1 N N i1 x i og x 1 N N i1 x i, får vi ved at udregne parentesen i eksponenten at vi kan skrive ρσµ DI som ρσµ DI C 1 ρd σµi σ N exp N µ σ x µ + x Sandsynlighedstætheden for σ er da givet ved at integrere over hele udfaldsrummet for µ der er et gaussisk integral og let at regne ud. Vi har således: ˆ ρσ DI C 1 ρd σµidµ R ˆ σ N exp N µ R σ x µ + x dµ σ N exp N x σ x C 1 σ N exp N x σ, 1 af 53

13 SANDSYNLIGHEDSTEORI hvor vi har indført den observerede x x x varians. Sidste skridt er at normere sandsynlighedsfordelingen for σ, der er et lidt sværere integral og lettest gøres på Maple. Vi har da C ˆ R + ρσ DIdσ N 1 N x 1 N 3! N 3 ˆ 0 σ N exp N x σ dσ, N 3, Ved at løse integralet nder man ud af at N 3 for at variansen giver mening, hvilket er meget intuitivt, da vi skal have et par målinger for at kunne sige noget om hvor meget de er spredt fra hinanden. Dermed bliver den totale sandsynlighedsfordeling i σ givet ved ρσ DI N N 1 x 1 N 3! σ N exp N x σ. N 3 Middelværdien af spredningen på målingenerne σ er givet ved σ ˆ R + σρσ DIdσ x for N 1. Γ 1 N + 1 N N Γ 1 N 1 x Ligeledes er variansen på målingerne σ σ ˆ R + σ σ ρσ DIdσ ΥN x 3 x N for N 1, hvor ΥN er en kompliceret funktion af en masse gammafunktioner, der går asymptotisk mod 3N 1 for N. Dette betyder at foretager vi mange målinger, får vi også en god ide om hvad usikkerheden på målingerne var i første omgang selvom vi ikke kender den, da σσ 0 for N. 13 af 53

14 3 Statistik og parameterbestemmelse 3.1 Diskrete fordelinger 3 STATISTIK OG PARAMETERBESTEMMELSE Haves en sandsynlighedsfordeling, der er sum af en parameter M A R, så vi kan danne en sandsynlighedsfunktion ved den sammensatte funktion 1 P : A U R, kan vi denere middelværdien af M for denne fordeling ved M M A MP A M I. Ligeledes kan man denere variansen af M ved Middelværdi Varians σ M M P AM I, M M A og der gælder ligeldes for variansen, at denne kan skrives som σ M M. M Forventningsværdi Generelt så er forventningsværdien af en funktion af M, fm, givet ved f M A Moment-genererende funktion fmp A M I. Én variabel For en diskret fordeling kan vi denere en såkaldt Moment-genererende funktion ikke det samme som tilstandsummen, selvom de også bliver kaldt det Zξ ved Moment-genererende funktion Zξ e ξm M A e ξm P A M I. Den moment-genererende funktion har følgende egenskaber: Z0 1, Z 0 M, Z 0 M, Z n 0 M n, hvor M n er det n'te moment for fordelingen. Det smarte ved denne funktion er at kan vi beregne summen, har vi en let måde at få adgang til middelværdier og varianser. N variable For diskrete fordelinger af N variable M M 1,..., M N, vil den moment generende funktion have N parametre ξ ξ 1,..., ξ N, og så generaliseres summen nu til Zξ e ξ M M A e ξ M P A M I 1 Vi har udsagnene givet ved AM : A U, og P A M er den tilhørende sandsynlighed. 14 af 53

15 3 STATISTIK OG PARAMETERBESTEMMELSE Vi har her at de partielt aedte af ZM giver momenter og koblingsmomenter, der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder Zξ ξ i M i, Zξ ξ i ξ j M i M j, ξi ξi Zξ M i M j 3. Kontinuerte fordelinger Alle formler der gælder for de diskrete fordelinger, kan umiddelbart generaliseres til kontinuerte fordelinger af 1- og ere variable også. Middelværdien af for en kontinuert fordeling af en parameter λ i et udfaldsrum U, λ, er givet ved Middelværdi λ ˆ U λρλ Idλ Ligeledes er variansen af en sandsynlighedsfordeling af parameteren λ givet ved Varians σ λ ˆ λ λ ρλ Idλ U Generelt så er forventningsværdien af en funktion af λ, fλ, givet ved f ˆ U fλρλ Idλ 3..1 Moment-genererende funktion Én variabel For en kontinuert fordeling med én parameter kan vi denere en såkaldt Moment-genererende funktion, eller Tilstandssum Zξ ved Zξ e ξm ˆ e ξm ρλ Idλ. Den moment-genererende funktion har følgende egenskaber: U Forventningsværdi Moment-genererende funktion Z0 1, Z 0 λ, Z 0 λ, Z n 0 λ n Flere variable N variable For sandsynlighedsfordelinger af N variable λ λ 1,..., λ N, vil den moment generende funktion have N parametre ξ ξ 1,..., ξ N, og så lyder formlerne Zξ e ξ λ ˆ U e ξ λ ρλ Id N λ Vi har her at de partielt aedte af ZM giver momenter og koblingsmomenter, der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder Zξ ξ i λ i, Zξ ξ i ξ j λ i λ j, ξi ξi Zξ λ i λ j 15 af 53

16 3 STATISTIK OG PARAMETERBESTEMMELSE 3.3 Eksperimentielle usikkerheder; én måling Det kan på makroskopisk niveau hvor den klassiske fysik er en fremragende approksimation antages at betragter man en størrelse, ndes der en sand værdi for denne x s. Foretager man en måling af størrelsen og får man værdien x, kan man derfor knytte en sandsynlighed til at målingen af x giver den sande værdi x s, givet at måleusikkerheden er δx. Således kan vi skrive en sandsynlighedsfordeling som P x x s δxi, hvor denne sandsynlighedsfordeling skal opfylde at Krav til fordeling x xs, x xs δx. 10 Måler man en kontinuert størrelse, skal man gå over i sandsynlighedstætheder. Det kan vises at med mindre man ved mere end værdien af en måling, så er en normalfordelingen ρx x s δxi 1 exp x x s πδx δx, den mest sandsynlige fordeling for x, som her opfylder x R og de to krav til en sandsynlighedsfordeling 10. Bemærk at sandsynlighedsfordelingen her er givet Kender vi x s? at vi kender den sande værdi x s - Dette er ALDRIG tilfældet i fysikken! I stedet kan man med Bayes' sætning vende fordelingen om, således at vi får en sandsynlighedsfordeling for x s, givet at vi har nogle målinger. Kun én måling! Bemærk at alle disse formler i denne sektion er givet at man kun foretager én måling af en størrelse. Hvad der sker når man foretager ere målinger, kan ses i næste afsnit Inddirekte måling Haves at man måler en størrelse x, men i virkeligheden gerne vil nde frem til sandsynligheden for en størrelse fx, kan det vises ved at Taylorudvikle omkring den sande værdi x s at denne størrelse også er normalfordelt med middelværdi f s fx s, og at der gælder ρf x s δxi 1 exp fx fx s πδf δf, δf f x s δx 3.3. Ophobningsloven, afhængige målinger Haves en størrelse f som afhænger af en masse uafhængige målinger x x 1, x,..., x n, dvs. de kan måles uden at påvirke hinanden, så gælder det at usikkerheden på f er givet ved δf n fx δx i 11 x i i1 16 af 53

17 3 STATISTIK OG PARAMETERBESTEMMELSE Hvis målingerne er afhængige eller man ikke er sikker på at alle målingerne er uafhængige, gælder det n δf fx x i δx i. i1 3.4 Parameterbestemmelse Vil man nde de mest sandsynlige værdier af et sæt af parametre givet data D maksimere likelihood, er den generelle metode til at nde disse at omskrive udtrykket for sandsynlighedstæthederne til at være på formen ρ D λ 1s λ s... λ Ns I ρ D λ s I exp Sλ s, og derefter maksimere entropien Sλ s funktion af de sande parameterværdier ved at løse de N ligninger fra λs fλ s 0 for parametrene λ s, der så er dem med størst sandsynlighed. Dette gøres ofte under en række bibetingelser se afsnittet om maksimal entropi, hvor man bruger Lagranges metode. Vil man derimod nde middelværdier og varianser, skal man nde sandsynlighedsfordelingerne for én af parametrene ved at integrere de andre variable væk. Derefter kan middelværdi og varianser beregnes på vanlig vis. For en del fordelinger er middelværdien og den mest sandsynlige fordeling dog sammenfaldende. Generel metode Entropi 3.5 Flere uafhængige målinger af en størrelse Direkte måling Haves en størrelse x som man har foretaget N målinger i par målingens resultat og usikkerheden m i {x i, σ i } af D {m 1, m,..., m N } 'Data', hvor ρx i σ i x s I er normalfordelt. Bayes' sætning 9 giver da at sandsynligheden for den sande værdi x s givet Data er givet ved ρ x s DI ρ D x si ρd I ρx s I. Er målingerne uafhængige har vi jf. produktreglen ρ D x s I ρ {{x 1, σ 1 }, {x, σ },..., {x N, σ N }} x s I ρ x 1 σ 1 x s I ρ x N σ N x s I. N ρ x i σ i x s I i1 Da hver af normalfordelingerne er normeret, har vi dermed at 17 af 53

18 3 STATISTIK OG PARAMETERBESTEMMELSE ρ x s DI ρx s I ρd I ρx s I ρd I N ρ x i σ i x s I i1 N i1 1 πσi exp 1 N x i x s. i1 σ i Eksponenten er et polynomium i x s der er den eneste variabel, og da ethvert polynomium kan skrives på formen a + b x s x t, hvor x t er toppunktet for polynomiet, a er værdien i toppunktet, og b er krumningen. Toppunktet ndes ved d dx s N x i x s i1 σ i xsx t 0 x t N i1 x i σ i N i1 1 σ i Krumningen fås ved at dierentiere to gange:. 1 N 1 b σ i1 i N σ0. Vi indfører det vægtede gennemsnit af en variabel A ved: Vægtet gennemsnit A N i1 A i N k1 1/σ i 1/σ k N w i A i. i1 Værdien i toppunktet fås ved at evaluere polynomiet: a N x i x t N σ0 i1 Dermed bliver sandsynlighedsfordelingen nu ρ x s DI ρx s I N ρd I ρx s I ρd I ρx s I ρd I i1 N i1 σ i 1 πσi 1 πσi exp exp πσ 0 /N exp πσi N i1 x x N σ0 x. 1 a + b x s x t N σ0 x N σ0 x s x t N σ0 x exp N σ0 x s x t. Såfremt at ρx s I er meget bred evt. konstant som hvis vi ikke anede noget om værdien af x s, er fordelingen bestemt af sidste faktor, og dette en normalfordeling for x s med middelværdi 18 af 53

19 3 STATISTIK OG PARAMETERBESTEMMELSE og varians xs xt N i1 x i σ i N i1 1 σ i, σ σ 0 N. Dermed ses det, at x s bliver mere og mere velbestemt desto ere målinger vi foretager. Dog er formlerne kun gyldige såfremt at målingerne virkelig er uafhængige Lineær sammenhæng mellem målinger; Bedste rette linje Haves situationen hvor vi har N sæt målinger D {{x 1, y 1, σ 1 },... {x N, y N, σ N }}, hvor σ er usikkerheden på y i den samme for alle og usikkerheden på x i antages at være nul, og det vides eller antages at sammenhængen mellem x og y er lineær, dvs. y Ax + B, Så kan produktreglen og Bayes' sætning hjælpe med at nde de bedste værdier af parametrene A, B og deres usikkerhed. Vi har for et datasæt D i at produktreglen 6 giver ρ D i ABI ρ {x i, y i, σ} ABI ρ y i x i σabi P x i σ ABI ρ y i x i σabi Da den sande værdi er y s i Ax i + B, da der antages ingen usikkerhed på x i, har vi da at ρ D i ABI er en normalfordeling i y s da målinger er normalfordelt, kan skrives som ρ D i ABσI 1 exp y s y i πσ σ 1 exp Ax i + B y i πσ σ Hvis målingerne er uafhængige, har vi da ρ D ABI ρ y 1 x 1 σabi ρ y N x N σabi. Bayes' sætning siger såfremt det antages at vi intet ved om parametrene, og ρ AB I derfor er konstant, at 19 af 53

20 3 STATISTIK OG PARAMETERBESTEMMELSE ρ AB DI ρ D ABI ρ AB I ρ D I ρ D ABI ρ y 1 x 1 σabi ρ y N x N σabi N Ax i + B y i exp σ. i1 Eksponenten er en todimensional polynomium sin funktion af A og B, og bruges ikke-vægtet gennemsnit af størrelser, har disse toppunkt i xy x y x y x xy A 0 x, B 0 x, og sandsynlighedsfordelingen kan nu efter normering skrives som ρ AB DI N x πσ exp N σ A A 0 B B 0 x x x 1 A A 0 B B 0. Sandsynlighedsfordelingen for hver af parametrene A og B kan nu ndes ved at integrere den anden parameter væk hvert integral er gaussisk. Vi har eksplicit at ˆ ρ A DI ˆ ρ B DI R R ρ AB DI db ρ AB DI da Derfra kan standardafvigelser og dermed fx kondensintervaller på parametrene Lineær regression Metoden med den rette linje hvor der antages at sammenhængen mellem målinger og størrelse er y Ax + B, kan generaliseres helt og aldeles. Antages det for målinger D {{x 1, y 1, σ 1 },... {x N, y N, σ N }}, hvor σ er usikkerheden på y i den samme for alle og usikkerheden på x i antages at være nul, at sammenhængen mellem dem er på formen y i M a m f m x i, m1, hvor f m er vilkårlige funktioner, kan man bruge samme fremgangsmåde som i forrige afsnit, såfremt at målingerne antages at være uafhængige og normalfordelt. Sættes a a 1,..., a, har vi først for den i'te måling med produktreglen at 0 af 53

21 3 STATISTIK OG PARAMETERBESTEMMELSE ρ D i ABI ρ {x i, y i, σ} ai ρ y i x i σai P x i σ ai ρ y i x i σai 1 exp πσ y i M m1 a mf m x i σ 1 exp y i M m1 a mf m x i πσ σ. Bayes' sætning giver da for alle N målinger ρ a DI ρ D ai ρ D I ρ AB I ρ D ai ρ y 1 x 1 σai ρ y N x N σai N y i M m1 a mf m x i exp σ i1 exp N σ La.. Vil vi gerne nde de mest sandsynlige værdier for parametrene, skal vi således maksimere La. Vi kan først omskrive lidt på La: La 1 N y i M a m f m x i m1 y M + M a m f m f m a m a m yf m m,m 1 m1 y + a F a a b, hvor vi har indført matricen F og vektoren b der har elementer givet ved F mm f m f m 1 N N f m x i f m x i i1 b m yf m 1 N Maksimerer man funktionen La, får man N y i f m x i i1 1 af 53

22 4 SANDSYNLIGHEDSFORDELINGER a La F a max b 0 a max F 1 b. Vi kan indføre korrelationskoecienten R ved Korrelationskoecient b F 1 b y R 1 y 1 b F 1 b y y y. Korrelationskoecienten ligger i intervallet 0 R 1, og giver et godt mål for hvor godt ttet er. Desto bedre t, desto tættere er R på 1. En R -værdi kan dog ikke stå alene, som vi skal se i næste afsnit, da man i princippet blot kunne tilføje uendelig mange parametre og derved opnå perfekt t altid. 3.6 Modelsammenligning Haves to teorier T 1 hhv. T af den lineære type y 1 i M 1 m1 a 1 m f 1 m x i hhv. y i M m1 a m f m x i, med M 1 hhv. M parametre, og hvor f i er vilkårlige funktioner. Hver af disse skal nu forklare en dataserie D {{x 1, y 1, σ 1 },... {x N, y N, σ N }}, hvor σ i er usikkerheden på y i og usikkerheden på x i antages at være nul, dvs. at vi vil undersøge hvor sandsynlig teoriernes resultater er ift. hinanden givet data. Der fås hvis alle usikkerhederne er ens at P T 1 DI P T DI } {{ } A posteori ss πσ M 1 M w M w M 1 det F det F 1 N 1 } {{ } Occam-faktor [ N y exp R σ 1 R ] } {{ } Fit-faktor P T 1 I P T I } {{ } A priori ss Occam-faktoren favoriserer teorier med ere parametre straer brugen af parametre, og Fit-faktoren favoratiserer teorien med det bedste t til data. Normalvis er tfaktoren den afgørende, med mindre man bruger overdrevent mange parametre. 4 Sandsynlighedsfordelinger 4.1 Binomialfordeling Haves en diskret udfaldsrum der kun har to elementer fx en serie af sandt/falskt udsagn, og man kun bekymrer sig om hvor mange der ud af N udfald har den ene værdi og hvor mange der har den anden, vil dette være binomialfordelt. Der vil N N! nemlig være M!N M! måder at få M ud af N mulige. Haves element 1 M sandsynligheden p for at ske, har element sandsynligheden for at ske 1 p. Givet af 53

23 4 SANDSYNLIGHEDSFORDELINGER at der i en udfaldsserie er M ud af N udfald af type 1 og de er uafhængige, vil den samlede sandsynlighed for at dette sker være givet ved P M NI N M Den karakteristiske funktion er givet ved Deraf fås Zξ M0 p M 1 p N M N e ξm N p M 1 p N M M N ke ξ + p M Z 0 Np 4. Multinomialfordeling σ M M Np 1 p En binomialfordeling er et specialtilfælde af den mere generelle multinomialfordeling. Her består det diskrete udfaldsrum nu af N muligheder der hver har en sandsynlighed p i for at ske. Hvis kun antallet af de mulige udfald betyder noget, vil der være Bn 1,..., n N N! n 1! n N! mulige måder at opnå denne serie på. Dermed er sandsynligheden for en konguration n 1,..., n N da P n 1,..., n N NI Bn 1,..., n N p n 1 1 pn N N Den karakteristiske funktion er givet ved N! n 1! n N! pn 1 1 pn N N. Zξ e ξ n P n 1,..., n N NI n 1,..., n N e ξ n N! n n 1,..., n 1! n N! pn 1 1 pn N N N N N p i e i ξ. i1 Derfra haves Zξ ξ j ξ i Zξ ξ i n i Np i, ξ0 n j n i N N 1 p i p j + Np i δ ij, ξ0 3 af 53

24 4 SANDSYNLIGHEDSFORDELINGER og variansen af i er givet ved σ i Np i 1 p i 4.3 Poisson-fordeling Poissonfordelingen er en approksimation af binomialfordelingen i grænsen hvor der er rigtig mange totale udfald, fx radioaktivt henfald. Et atom kan enten henfalde eller ikke henfalde, og man kan så spørge om hvad sandsynligheden for at M ud af de N atomer er henfaldet til et givet, fastholdt tidspunkt, når sandsynligheden for at ét atom henfalder er p. Vi har µ M Np I approksimationen µ N haves da at sandsynligheden for at M atomer er henfaldet er P M NI P M µi µm M! e µ Den karakteristiske funktion er givet ved Deraf fås Zξ M0 [ ] e ξm P M NI exp µ e ξ 1 M Z 0 Np µ, σ M M µ. 4.4 Normalfordeling Normalfordelingen/Gauÿfordelingen/klokkekurvefordelingen for en kendt middelværdi µ og varians σ har en sandsynlighedstæthedsfordeling i x R U givet ved ρx µσi Den karakteristiske funktion er givet ved 1 exp x µ πσ σ. Normalfordeling Zξ e ξx ˆ e ξx ρx µσidx. R µ + ξσ µ exp Deraf fås ved udregning at middelværdien er µ og variansenσ, som det blev deneret i starten. σ 4 af 53

25 4 SANDSYNLIGHEDSFORDELINGER Det kan vises omkring normalfordelingen, at kendes kun µ og σ, vil den bedste fordeling til at beskrive disse størrelser være normalfordelingen central limit theorem/central grænseværdi sætningen Multivariant normalfordeling En N-dimensionel normalfordeling er en fordeling i N uafhængige variable hver med middelværdien µ i og varians σi, hvor hver variabel er normalfordelt, er blot produktet af alle disses 1D normalfordelinger. Her er udfaldsrummet U R N og for x R N er sandsynlighedstætheden når middelværdierne og usikkerhederne samles i vektorerne µ og σ således Flere variable ρx µσi N ρx i µ i σ i I i1 N π N/ 1 exp x i µ i σ i1 i σi N π N/ 1 N x i µ i exp π N/ det σ i1 i i1 σ i Σ 1/ exp x ξ Σ 1 x ξ, hvor vi har indført matricen Σ, hvis elementer er givet ved Σ ij Covx i, x j x i x j x i x j For sandsynlighedsfordelingen vil den moment generende funktion have N parametre ξ ξ 1,..., ξ N, og er givet ved Zξ exp µ ξ + 1 ξ Σ ξ Vi har her at de partielt aedte af Zξ giver momenter og koblingsmomenter, der kan bruges til at beregne fx varianser og kovarianser. Vi har at der gælder Zξ ξ i x i, Zξ ξ i ξ j x i x j, ξi ξi Zξ x i x j 4.5 Student's t-fordeling Student's t-fordeling er en fordeling der giver et estimat på middelværdien og usikkerheden på middelværdien, som ikke er det samme som variansen af en fordeling af en fordeling, givet at vi kun kender dataene D {x 1,..., x N }, dvs. intet kendskab har til usikkerheder eller noget. I dette tilfælde bliver fordelingen Γ N x N 1 ρ µ DI πγ N 1 µ N/, x + x hvor x N 1 x N 1 x N 1. Middelværdien er 5 af 53

26 4 SANDSYNLIGHEDSFORDELINGER µ x og variansen der kan fortolkes som usikkerheden på estimatet af µ er σµ x N 3, dvs. at fordelingen er først rigtig veldeneret for N > 3. 6 af 53

27 5 Maksimal entropi-metoden 5 MAKSIMAL ENTROPI-METODEN Haves situationen hvor man kun kender middelværdien F k f k af en størrelse f k, og derefter ud fra dette alene vil nde den mest sandsynlige fordeling p {p 1, p,..., p N }, er et tilfælde af forrige kapitels parameterbestemmelse. Dette kan gøres til en meget maskiniel metode, hvor man kun skal sætte ting ind i formler, summe og integrere. Man skal kende den underliggende struktur af f k 'erne, dvs. vide hvordan disse opstår. Dette svarer i fysiske situationer at man fx skal kende energien f k x i som et system har, hvis det er i en bestemt konguration x i, såfremt at man kender middelenergien F k. Kender man denne underliggende struktur og har adgang til middelværdier, kan den mest sandsynlige konguration bestemmes ved at maksimere entropien Sp i p i ln p i, hvor man her summer over hele sandsynlighedsfordelingen i, for en given sandsynlighedsfordeling p. Denne entropi skal maksimeres under bibetingelserne at middelværdierne er de rigtige, og at sandsynlighedsfordelingen er normeret, dvs. F k i fx i p i, 1 i p i. Haves kendskab til m middelværdier F k, skal vi således optimere Lagrangefunktionen Lp med m + 1 lagrangemultiplikatorer λ i. Lp Sp + m λ k F k i k1 f k x i p i + λ 0 1 i p i Ser vi bort fra de konstante biddrag, der alligevel snart går ud, har vi Lp Sp i m λ k f k x i p i λ 0 k1 p i ln p i i i p i m λ k f k x i p i λ 0 p i, k1 der optimeres og løses for plp 0, dvs. for hver p i har vi Lp p i p i i p i ln p i ln p i 1 λ 0 i m λ k f k x i p i λ 0 p i k1 m λ k f k x i 0 k1 og dermed fås den optimale sandsynlighedsfordelign p max givet ved komponenterne i i i 7 af 53

28 5 MAKSIMAL ENTROPI-METODEN p max i exp 1 λ 0 m λ k f k x i k1 exp 1 + λ 0 exp 1 Z exp m λ k f k x i k1 m λ k f k x i, k1 hvor vi har at tilstandssummen Z er givet ved Tilstandssummen Z exp 1 + λ 0 Da sandsynlighedsfordelingen skal være normeret må vi have 1 i Z i p max i 1 m exp λ k f k x i Z i k1 m exp λ k f k x i, k1 som oftest er den man bruger til at udregne tilstandssummen, der oftest er et integral over kongurationerne, når de ligger tæt i kongurationsrummet. Her har vi Z 1 h ˆ konf. dx exp m λ k f k x, hvor h er størrelsen af cellerne i kongurationsrummet. Vi ser også at Z er en funktion af lagrangemultiplikatorerne λ {λ 1,..., λ m }. Man summer således over alle kongurationer x i som systemet kan være i for hver af størrelserne f k. Man kan derfor tolke lagrangemultiplikatorerne λ som de størrelser, der gør at middelværdierne F 1,..., F k bliver rigtige. Derfor giver en ændring i middelværdierne også en ændring i λ. Man kan yderligere vise at den funde løsning p max faktisk altid har den maksimale entropi. Sættes p max ind i denitionen af entropien, er den maksimale entropi da k1 Maksimum entropi m S S p max ln Z + λ k F k. Den maksimale entropifordeling gælder følgende helt generelle resultater k1 Derudover gælder ln Z λ k F k, S F k λ k. ln Z λ k λ l f k f l fk fl. 8 af 53

29 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK Dvs. der kan regnes varianser osv. ud alene fra tilstandssummen. Det ses at lagrangemultiplikatorerne giver et udtryk for hvor meget entropien ændrer sig, hvis middelværdierne ændrer sig. Ændringen i logaritmen af tilstandssummen er dierentialet tilhørende ln Z, dvs. ændringerne i ln Z i hver parameter regnet til første orden lineært, er givet ved [ δ ln Z 1 m ] m λ k δf k x i f k x i δλ k exp λ l f l x i Z i k1 m λk δfk + fk δλk k1 Ændringen i entropien er da givet ved l1 δs δ ln Z + m λ k δf k + F k δλ k k1 m λ k δ fk δfk k1 m λ k δq k. k1 Som det ses afhænger entropien ikke af ændringen i lagrangemultiplikatorerne, men kun i ændringen i δq k som svarer til ændringen af den underliggende fysiske situation. Faktisk så er δq k en ændring af sandsynlighedsfordelingen. Da har vi δ f k δfk + fx i δp i, i δq k δ f k δfk fx i δp i. Bemærk at sidste ligning sjældent er brugbar i praksis, da vi ikke aner hvordan sandsynlighederne ændrer sig, men det er mere fortolkningen vi bruger, da δs er noget lettere at beregne, og man gennem den vej kan få adgang til δq k. i 6 Statistisk klassisk mekanik/termodynamik Afhængigt af hvilke middelværdier vi kender for et system, kan vi denere forskellige ensembler, som giver forskellige statistiske fordelinger for systemet. 6.1 Det kanoniske ensemble Her kender vi kun middelværdien af energien for systemet, dvs. U E er kendt. Derudover antages volumet V og antallet af partikler N at være helt velbestemt. Energifunktion 9 af 53

30 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK For at kunne beregne tilstandssummen, skal man kende energien E i af en konguration i, hvor E i kaldes for energifunktionen, eller Hamiltonfunktionen. Generelt er denne givet ved E i N n1 p ni m i + V r n, i Tilstandssummen for et sådan system er da Zβ konfig. e βe i. Tilstanden af én partikel er bestemt af 6 punkter i faserummet. Kan man approksimere at faserummet er delt ind i små celler x p h, hvilket man altid kan i klassisk mekanik, kan summen laves om til et integral, og vi har således for N partikler at Er, p Zβ 1 h 3N ˆ ˆ N n1 p n m i + V r n d 3N rd 3N pe βer,p. Bemærk at grænserne skal vælges rigtigt og afhænger af situationen. Der er oftest ingen begrænsning på p i j j'te komponent af impulsen for den i'te partikel, så vi har at p i j R,, mens der oftest er en begrænsning i stedkoordinaterne, da pariklerne er fanget i en kasse, eller en potentialbarriere gør at r i j 0 fx. Maksimum entropi sandsynlighedsfordelingen i 6N variable er givet ved ρr, p e βer,p Zβ Middelenergien er da givet ved den generelle maksimum entropi teori ved U ln Z β. Z Z 1 β Entropien for den mest sandsynlige konguration er ligeledes givet ved Den generelle teori siger desuden at S ln Z + βu β S U. Varmekapaciteten her for fastholdt volumen, C V er da givet ved C V Q T T S T β U β β ln Z β. Til det kanoniske ensemble er det naturligt at knytte den fri Helmholtz energi F, hvor man trækker varmen fra, således at ændringen i F når temperaturen er konstant, netop er lige med det arbejde systemet kan udføre. Vi sætter Fri Helmholtz energi 30 af 53

31 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK og ændringen i F er F 1 β ln Z U T S δf δu SδT T δs SδT δw Egenskaber for temperaturen T Haves to systemer med hver deres tilstandssum Z 1 β 1 og Z β, så vil det system med højest T i 1/β i afgive energi til det andet system, når de bringes sammen så de får fælles β når de kommer i ligevægt igen Klassisk idealgas i det kanoniske ensemble For den ideelle gas, som er en samling af N identiske partikler med massen m, hvor al interaktion mellem partiklerne negliceres, bliver Hamiltonfunktionen Er, p N n1 p n m. Tilstandssummen er da 3N gange det samme gaussiske integral, samt N gange et integral over volumen da det er her i faserummet partiklerne alle skal bende sig Zβ Derfra haves middelenergien Entropien er Varmefylden C V ˆ ˆ 1 h 3N 1 V N h 3N V N πm h β U ln Z β 3N S ln Z + βu N ln er givet ved d 3N rd 3N pe βer,p ˆ 3N/. ln β β 3N [ V 3N p β dpe m 1 β 3N T. ] πm 3/ h + 3N β. og under konstant tryk har vi C V 3 N, C p 5 N. Bemærk at N C p C V, hvilket gælder hvor enhver klassisk ideal gas, også selvom der tages indre frihedsgrader med ved at modicere Hamiltonfunktionen. 31 af 53

32 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK For den klassiske idealgas kan det også fra tryk ensemblet udledes idealgasligningen som altid gælder: 6. Tryk ensemblet pv NT. Her kender vi middelværdien af energien for systemet, dvs. U E og middelværdien af volumen V 0 V er kendt. Derudover antages at antallet af partikler N er helt velbestemt. Tilstandssummen for et sådan system er da Zβ, p konfig. e βe i+αv i konfig. e βe i+pv i, hvor vi i stedet for den til V tilhørende Lagrangemultiplier α vælger at skrive denne som α βp, da det viser sig at p er trykket. Laves summen om til et integral, og vi har således for N partikler at Zβ, p 1 v 0 h 3N ˆ 0 ˆ ˆ d 3N rd 3N pdv e βer,p,v +pv. Maksimum entropi sandsynlighedsfordelingen i 6N variable er givet ved ρr, p, V e βer,p,v +pv Zβ, p Middelenergien plus den pv 0 er da givet ved den generelle maksimum entropi teori ved. Derudover har vi også at U + pv 0 ln Z β U ln Z β pv 0 βv 0 ln Z p Z Z 1 β Entropien for den mest sandsynlige konguration er ligeledes givet ved S ln Z + β U + pv 0 Varmekapaciteten her for fastholdt tryk, C p er da givet ved C p Q T T S T U + pv 0 β H p β T. Til tryk ensemblet er det naturligt at knytte den fri Gibbs energi G, hvor man trækker varmen fra under konstant tryk, således at ændringen i G når temperaturen og trykket er konstant, netop er lige med det arbejde systemet kan udføre. Vi sætter Fri Gibbs energi 3 af 53

33 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK og ændringen i G er G 1 ln Z U + pv T S β δg δu + V δp + pδv SδT T δs SδT + V δp δw 6..1 Egenskaber for trykket p Haves to systemer med hver deres tilstandssum Z 1 β, p 1 og Z β, p bemærk ved samme temperatur, så vil det system med højest p i stjæle volumen fra det andet system, når de bringes sammen så de får fælles p når de kommer i ligevægt igen. 6.3 Det store kanoniske ensemble I det store kanoniske ensemble har vi her at vi kender middelværdien af energien for systemet, dvs. U E og middelværdien af antallet af partikler i systemet er kendt, N 0 N. Derudover antages at volumet V er helt velbestemt. Tilstandssummen for et sådan system er da Zβ, µ konfig. e βe i+γn i konfig. e βe i+µn i, hvor vi i stedet for den til N tilhørende Lagrangemultiplier γ vælger at skrive denne som γ βµ, da det viser sig at µ er det kemiske potential. Laves summen om til et integral for {r, p} delen, og vi har således for N partikler at Zβ, µ 1 h 3N ˆ ˆ N0 d 3N rd 3N pe βer,p,n µn. Maksimum entropi sandsynlighedsfordelingen i 6N variable er givet ved ρr, p, N e βer,p,n µn Zβ, µ Middelenergien plus den pv 0 er da givet ved den generelle maksimum entropi teori ved. Derudover har vi også at U µn 0 ln Z β U ln Z β + µn 0 βn 0 ln Z µ Z Z 1 β Entropien for den mest sandsynlige konguration er ligeledes givet ved 33 af 53

34 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK Den generelle teori siger desuden at S ln Z + β U µn 0 µ 1 β S N 0, β S U. Varmekapaciteten her for fastholdt partikeltal, C µ er da givet ved C µ Q T T S T U µn 0 β H µ β T. Termodynamisk potential Til det store kanoniske ensemble er det naturligt at knytte den fri energi Ω, kaldet 'Det termodynamiske potential', hvor man trækker varmen fra under konstant partikeltal, således at ændringen i Ω når temperaturen og trykket er konstant, netop er lige med det arbejde systemet kan udføre. Vi sætter Ω 1 ln Z U µn T S β pv Specielt at Ω pv bruges i den statistiske kvantemekanik. Ændringen i Ω er δω δu µδn Nδµ SδT T δs SδT Nδµ δw. Holdes µ og T konstant, er ændringen i Ω netop lig med det udførte arbejde bortset fra et fortegn Egenskaber for det kemiske potential µ Haves to systemer med hver deres tilstandssum Z 1 β, µ 1 og Z β, µ bemærk ved samme temperatur, så vil det system med højest µ i afgive partikler til det andet system, når de bringes sammen så de får fælles µ når de kommer i ligevægt igen. 6.4 Termodynamikkens første lov Fra den teori for Maksimal entropi har vi δu δ E δ i E i p i i p i δe i + i E i δp i δe + i E i δp i δw + δq 34 af 53

35 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK Vi har deneret tilført varme δq i E iδp i, der således er en ændring af sandsynlighederne, ikke en ændring i kongurationsenergierne. Ligeledes har vi deneret δw som det arbejde som systemet udfører på omgivelserne. Dette er en ændring i energierne fx fordi energiintegralet bliver større når volumen bliver mindre, og derfor erδw < 0. Da ændringen i entropien jf. den generelle teori er givet ved δs m λ k δq k, k1 så har vi at hvis alle andre variable end energierne holdes konstant, og dette er netop hvad vi oftest har, da volumenet eller partikeltallet ikke ændres så meget når sandsynlighedene ændrer sig eller oftest er neglicigbelt for små ændringer. Helt generelt gælder der så at δq T δs. En stor varmetilførsel er derfor lig med en stor ændring i sandsynlighedsfordelingen, som er lig med en stor ændring af entropien, kort summeret op. Termodynamikkens første hovedsætning siger da blot at δu δq δw T δs δw. 6.5 Termodynamikkens anden lov Lad os sige at vi har et system i en tilstand i med entropien for den mest sandsynlige tilstand, forstås S i, hvor systemet er så stort at antallet af partikler, volumen, middelenergien og alle andre parametre er konstant vælg fx Universet som system. Foretages en-eller-anden ændring af systemet, vil denne nye tilstand f af systemet med maksimum entropi metoden have entropien S f for den mest sandsynlige tilstand. Den gamle sandsynlighedsfordeling med entropien S i vil ligeså være en sandsynlighedsfordeling med de rette middelværdier; thi således valgtes systemet for argumentet. Den generelle teori siger da at f er sandsynlighedsfordelingen med højest entropi, og der gælder således S f S i S 0, for et sådant system, uanset hvilke ændringer, er entropien altså altid voksende for en tidspil pegende mod fremtiden. Dette er termodynamikkens anden lov. Bemærk dog strukturen i dette argument. Antages det at man havde kendskab til den rigtige konguration af systemet fx ved at løse Hamiltons ligninger for alle partikler, dvs. har information om alle partikler, må vi have at denne sandsynlighedsfordeling består af en masse δ-funktioner med forskellige argumenter i position, tid, impuls, da vi jo netop ved hvorledes systemet udvikler sig, og alle størrelser er 35 af 53

36 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK fuldstændig velbestemte. Dermed vil denne fordeling også være den bedste fordeling i tilstand f, og således har vi S 0. Termodynamikkens anden lov formuleret som at 'Entropien vil altid vokse' er dermed kun sand i tilfælde hvor vi har begrænset information, og entropi er et sandsynlighedsteoretisk begreb. 6.6 Ligefordelingsloven, Ækvipartitionstheoremet I den klassiske model for molekyler, antages det molekyler af forskellige atomer der opfattes som punktpartikler bundet til hinanden, men ellers antages at opføre sig som en ideal gas. De vil derfor have en række frihedsgrader, der er forbundet med vibration mellem atomerne her både den potentielle energi og kinetiske forbundet med det, rotation omkring det fælles massemidtpunkt, og translation af molekylet. Antallet af vibrationsfrihedsgrader f vib vil være lig summen af antallet af atomer der bundet til hinanden multipliceret med hvor mange bindinger de hver især har til andre atomer. For diatomige gasser har vi f vib 1. Antallet af rotationelle frihedsgrader f rot vil være lig antallet af akser som molekylet kan rotere omkring lovligt siden atomerne er punktformige; f rot 0 for monoatomige gasser, for diatomige, 3 for højere atomige gasser. Antallet af de translatoriske frihedsgrader vil være dimensionen af rummet gassen bevæger sig i, dvs. oftest f tr 3. Ligefordelingsloven fremkommer fordi alle disses bidrag til den samlede tilstandssum er kvadratiske. Dermed fås for en molekylær ideal gas med N molekyler med de givne frihedsgrader, at varmekapaciteten er givet ved Frihedsgrader C V 1 f vib + f rot + f tr N. Summen f vib + f rot + f tr f i kaldes også 'de indre frihedsgrader'. 6.7 Det generelle tilfælde: Systemvariable Haves et system, hvor vi kender middelværdierne af energien og af en række størrelser f k, kaldet systemvariablene F k f k, med tilhørende Lagrangemultiplikatorer βλk, er tilstandssummen Z konf. exp [ β E i + k λ k F k ]. Entropien er da jf. den generelle teori S ln Z + β U + k λ k F k Der gælder følgende relationer U + k λ k F k ln Z β, Det samme argument kan føres i statistisk kvantemekanik, selvom at position, impuls osv. ikke er fuldstændigt velbestemte, da vi da her i tilfældet af maksimal information har kendskab til bølgefunktionen dikteret af Schrödingerligningen. 36 af 53

37 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK F k 1 β ln Z λ i, β S U, βλ i S F i. En ændring af entropien når både systemvariablene og lagrangemultiplikatorerne ændres er da δs βδu + U + k λ k F k δβ + β k λ k δf k + k F k δλ k. Ændringen i entropien når middelværdierne af systemvariablene ændres, uden at temperaturen og de andre lagrangemultiplikatorer ændres, er da δs βδu + β k λ k δf k δu T δs }{{} Varme + k λ k δf k, } {{ } Arbejde som er i overensstemmelse med termodynamikkens første lov. Systemvariablene kan deles ind i to klasser a og b, som kan vælges vilkårligt, da det bare er at summe over først den ene klasse a med A led, og så summe over resten b med B K A led således at man alligevel har summet over alt. Vi har da K A + B, hvor K er antallet af system variable λ k F k a k λ a F a + b λ b F b 6.8 Frie energier Vi kan denere K + 1 frie energier G alle på formen G T ln Z a λ a F a U T S + b λ b F b Ændringen i G er da givet ved 37 af 53

38 6 STATISTISK KLASSISK MEKANIK/TERMODYNAMIK δg δu T δs SδT + δ b λ b F b δu T δs SδT + λ b δf b + F b δλ b b b δu T βδu + β λ k δf k SδT + k b λ b δf b + b F b δλ b k λ k δf k SδT + b λ b δf b + b F b δλ b SδT a λ a δf a + b F b δλ b. Det ses da at holdes T og λ b 'erne konstante, er ændringen i den fri energi netop lig med det udførte arbejde. Man kan sige at ved at denere de frie energier på den ovenstående måde går varmen ud. Eksempel 9 Trykensemblet og Gibbs fri energi. For trykensemblet er systemvariablene U, V 0 med lagrangemultiplikatorerne T, p. Vi kan denere en fri energi ved at vælge b-variablene til {p, V 0 }, hvor der så ingen a-variable er. Vi har da G U T S + pv 0, og ændringen i G er da δg SδT V 0 δp - vi får da intet fornuftigt ud denne relation. Vi kan i stedet denere en fri energi Gibbs fri energi ved at vælge a- variablene til {p, V 0 }, hvor der så ingen b-variable er. Vi har da G U T S, og ændringen i G er da δg SδT pδv 0 - her ses at holdes temperaturen konstant, er G netop det arbejde systemet kan udføre. 6.9 Entalpier Vi kan denere K + 1 entalpier H alle på formen H U + a λ a F a. Ændringen i H er da givet ved δh δu + δ a λ a F a δu + λ a δf a + F a δλ a a a T δs β λ k δf k F k δλ k + + k k a λ a δf a + a F a δλ a T δs + a F a δλ a b λ b δf b. Dermed har vi at hvis λ a 'erne og F b 'erne holdes konstant, vil δh δq, dvs. være lig med den tilførte varme. Vi kan derfor denere en række af varmekapaciteter ved 38 af 53

Benyttede bøger: Statistisk fysik 1, uredigerede noter, Per Hedegård, 2007.

Benyttede bøger: Statistisk fysik 1, uredigerede noter, Per Hedegård, 2007. Formelsamling Noter til Fysik 3 You can know the name of a bird in all the languages of the world, but when you re finished, you ll know absolutely nothing whatever about the bird... So let s look at the

Læs mere

Fysik 7 - Statistisk fysik Formelsamling til eksamen

Fysik 7 - Statistisk fysik Formelsamling til eksamen Fysik 7 - Statistisk fysik Formelsamling til eksamen Sebastian B. Simonsen og Lykke Pedersen 18. januar 2006 Indhold 1 Kapitel 1 - Indledning 2 2 Kapitel 2 - Sandsynlighedsfordelinger 3 2.1 Binomial fordeling........................

Læs mere

Statitisk fysik Minilex

Statitisk fysik Minilex Statitisk fysik Minilex Henrik Dahl 15. januar 006 Indhold 1 Sandsynlighedsteori Fordelinger 3 Eksperimentelle usikkerheder 3 4 Parameterbestemmelse 3 5 Priors, entropi 3 6 Termodynamik 4 6.1 Kanonisk

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en

Læs mere

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 1)

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 1) ; C ED 6 > Billedbehandling og mønstergenkendelse Lidt elementær statistik (version 1) Klaus Hansen 24 september 2003 1 Elementære empiriske mål Hvis vi har observationer kan vi udregne gennemsnit og varians

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Sandsynlighedsregning Oversigt over begreber og fordelinger

Sandsynlighedsregning Oversigt over begreber og fordelinger Tue Tjur Marts 2007 Sandsynlighedsregning Oversigt over begreber og fordelinger Stat. MØK 2. år Kapitel : Sandsynlighedsfordelinger og stokastiske variable En sandsynlighedsfunktion på en mængde E (udfaldsrummet)

Læs mere

4 Oversigt over kapitel 4

4 Oversigt over kapitel 4 IMM, 2002-09-14 Poul Thyregod 4 Oversigt over kapitel 4 Introduktion Hidtil har vi beskæftiget os med data. Når data repræsenterer gentagne observationer (i bred forstand) af et fænomen, kan det være bekvemt

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Sandsynlighed og Statistik

Sandsynlighed og Statistik 36 Sandsynlighed og Statistik 6.1 Indledning Denne note beskriver de statistiske begreber og formler som man med rimelig sandsynlighed kan komme ud for i eksperimentelle øvelser. Alt er yderst korfattet,

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 9, 2015 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Produkt og marked - matematiske og statistiske metoder

Produkt og marked - matematiske og statistiske metoder Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 19, 2016 1/26 Kursusindhold: Sandsynlighedsregning og lagerstyring

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Termodynamik. Esben Mølgaard. 5. april N! (N t)!t! Når to systemer sættes sammen bliver fordelingsfunktionen for det samlede system

Termodynamik. Esben Mølgaard. 5. april N! (N t)!t! Når to systemer sættes sammen bliver fordelingsfunktionen for det samlede system Termodynamik Esben Mølgaard 5. april 2006 1 Statistik Hvis man har N elementer hvoraf t er defekte, eller N elementer i to grupper hvor forskydningen fra 50/50 (spin excess) er 2s, vil antallet af mulige

Læs mere

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x) Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen

Læs mere

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

En oversigt over udvalgte kontinuerte sandsynlighedsfordelinger

En oversigt over udvalgte kontinuerte sandsynlighedsfordelinger Institut for Økonomi Aarhus Universitet Statistik 1, Forår 2001 Allan Würtz 4. April, 2001 En oversigt over udvalgte kontinuerte sandsynlighedsfordelinger Uniform fordeling Benyttes som model for situationer,

Læs mere

Statistiske modeller

Statistiske modeller Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Teoretisk Statistik, 16. februar Generel teori,repetition

Teoretisk Statistik, 16. februar Generel teori,repetition 1 Uge 8 Teoretisk Statistik, 16. februar 2004 1. Generel teori, repetition 2. Diskret udfaldsrum punktssh. 3. Fordelingsfunktionen 4. Tæthed 5. Transformationer 6. Diskrete vs. Kontinuerte stokastiske

Læs mere

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable Landmålingens fejlteori - lidt om kurset Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet Kursusholder

Læs mere

INSTITUT FOR MATEMATISKE FAG c

INSTITUT FOR MATEMATISKE FAG c INSTITUT FOR MATEMATISKE FAG c AALBORG UNIVERSITET FREDRIK BAJERS VEJ 7 G 9220 AALBORG ØST Tlf.: 96 35 89 27 URL: www.math.aau.dk Fax: 98 15 81 29 E-mail: bjh@math.aau.dk Dataanalyse Sandsynlighed og stokastiske

Læs mere

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Efterår Dagens program Dagens program Estimation: Kapitel 9.7-9.10 Estimationsmetoder kap 9.10 Momentestimation Maximum likelihood estimation Test Hypoteser kap. 10.1 Testprocedure kap 10.2 Teststørrelsen Testsandsynlighed 1

Læs mere

Løsning til prøveeksamen 1

Løsning til prøveeksamen 1 IMM - DTU 020 Probability 2006-2-8 BFN/bfn Løsning til prøveeksamen Spørgsmål ) For en indikatorvariabel I A for hændelsen A gælder E(I A ) = P(A) (se for eksemepl side 68). Således er E(X) = P(N ) = =

Læs mere

Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model

Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab Statistisk Model Indhold Binomialfordeling Sandsynlighedsfunktion Middelværdi og spredning 1 Aalen: Innføring i statistik med medisinske eksempler

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Produkt og marked - matematiske og statistiske metoder

Produkt og marked - matematiske og statistiske metoder Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 11, 2016 1/22 Kursusindhold: Sandsynlighedsregning og lagerstyring

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Bilag 7. SFA-modellen

Bilag 7. SFA-modellen Bilag 7 SFA-modellen November 2016 Bilag 7 Konkurrence- og Forbrugerstyrelsen Forsyningssekretariatet Carl Jacobsens Vej 35 2500 Valby Tlf.: +45 41 71 50 00 E-mail: kfst@kfst.dk Online ISBN 978-87-7029-650-2

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Institution Uddannelse Fag og niveau Lærer(e) Hold Termin hvori undervisningen afsluttes: Juni 2013 Roskilde

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Kontinuerte fordelinger Simultane fordelinger Kovarians og korrelation Uafhængighed Betingede fordelinger - Middelværdi og varians - Sammenhæng med uafhængighed 1 Figur 1: En tæthedsfunktion

Læs mere

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Uafhængighed og reelle transformationer Helle Sørensen Uge 8, mandag SaSt2 (Uge 8, mandag) Uafh. og relle transf. 1 / 16 Program I dag: Uafhængighed af kontinuerte

Læs mere

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen Landmålingens fejlteori Lektion Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet En stokastisk variabel er en variabel,

Læs mere

Definition. Definitioner

Definition. Definitioner Definition Landmålingens fejlteori Lektion Diskrete stokastiske variable En reel funktion defineret på et udfaldsrum (med sandsynlighedsfordeling) kaldes en stokastisk variabel. - kkb@math.aau.dk http://people.math.aau.dk/

Læs mere

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/41 Landmålingens fejlteori - lidt om kurset

Læs mere

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning Sandsynlighedstætheder og kontinuerte fordelinger på R Varians og middelværdi Normalfordelingen Susanne Ditlevsen Uge 48, tirsdag Tætheder og fordelingsfunktioner

Læs mere

Termodynamikkens første hovedsætning

Termodynamikkens første hovedsætning Statistisk mekanik 2 Side 1 af 13 Termodynamikkens første hovedsætning Inden for termodynamikken kan energi overføres på to måder: I form af varme Q: Overførsel af atomar/molekylær bevægelsesenergi på

Læs mere

Kvantitative Metoder 1 - Forår 2007. Dagens program

Kvantitative Metoder 1 - Forår 2007. Dagens program Dagens program Hypoteser: kap: 10.1-10.2 Eksempler på Maximum likelihood analyser kap 9.10 Test Hypoteser kap. 10.1 Testprocedure kap 10.2 Teststørrelsen Testsandsynlighed 1 Estimationsmetoder Kvantitative

Læs mere

Tilstandssummen. Ifølge udtryk (4.28) kan MB-fordelingen skrives , (5.1) og da = N, (5.2) . (5.3) Indføres tilstandssummen 1 , (5.

Tilstandssummen. Ifølge udtryk (4.28) kan MB-fordelingen skrives , (5.1) og da = N, (5.2) . (5.3) Indføres tilstandssummen 1 , (5. Statistisk mekanik 5 Side 1 af 10 ilstandssummen Ifølge udtryk (4.28) kan M-fordelingen skrives og da er μ N e e k = N g ε k, (5.1) N = N, (5.2) μ k N Ne g = e ε k. (5.3) Indføres tilstandssummen 1 Z g

Læs mere

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ.

Overheads til forelæsninger, mandag 5. uge På E har vi en mængde af mulige sandsynlighedsfordelinger for X, (P θ ) θ Θ. Statistiske modeller (Definitioner) Statistik og Sandsynlighedsregning 2 IH kapitel 0 og En observation er en vektor af tal x (x,..., x n ) E, der repræsenterer udfaldet af et (eller flere) eksperimenter.

Læs mere

Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable

Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable Forskningsenheden for Statistik ST501: Science Statistik Bent Jørgensen Modul 2: Sandsynlighedsmodeller og diskrete stokastiske variable 2.1 Sandsynlighedsbegrebet............................... 1 2.1.1

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Preben Blæsild og Jens Ledet Jensen

Preben Blæsild og Jens Ledet Jensen χ 2 Test Preben Blæsild og Jens Ledet Jensen Institut for Matematisk Fag Aarhus Universitet Egå Gymnasium, December 2010 Program 8.15-10.00 Forelæsning 10.15-12.00 Statlab: I arbejder, vi cirkler rundt

Læs mere

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ Normalfordelingen Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: f(x) = ( ) 1 exp (x µ)2 2πσ 2 σ 2 Frekvensen af observationer i intervallet

Læs mere

For nemheds skyld: m = 2, dvs. interesseret i fordeling af X 1 og X 2. Nemt at generalisere til vilkårligt m.

For nemheds skyld: m = 2, dvs. interesseret i fordeling af X 1 og X 2. Nemt at generalisere til vilkårligt m. 1 Uge 11 Teoretisk Statistik 8. marts 2004 Kapitel 3: Fordeling af en stokastisk variabel, X Kapitel 4: Fordeling af flere stokastiske variable, X 1,,X m (på en gang). NB: X 1,,X m kan være gentagne observationer

Læs mere

Skriftlig eksamen i Statistisk Mekanik den fra 9.00 til Alle hjælpemidler er tilladte. Undtaget er dog net-opkoblede computere.

Skriftlig eksamen i Statistisk Mekanik den fra 9.00 til Alle hjælpemidler er tilladte. Undtaget er dog net-opkoblede computere. Skriftlig eksamen i Statistisk Mekanik den 18-01-2007 fra 900 til 1300 lle hjælpemidler er tilladte Undtaget er dog net-opkoblede computere Opgave 1: I en beholder med volumen V er der rgon-atomer i gasfasen,

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Bernoulli og binomial fordelingerne Kontinuerte stokastiske variable Normalfordelingen

Bernoulli og binomial fordelingerne Kontinuerte stokastiske variable Normalfordelingen Bernoulli og binomial fordelingerne Kontinuerte stokastiske variable Normalfordelingen Repetition Lov om total sandsynlighed Bayes sætning P( B A) = P(A) = P(AI B) + P(AI P( A B) P( B) P( A B) P( B) +

Læs mere

Supplement til kapitel 7: Approksimationen til normalfordelingen, s. 136

Supplement til kapitel 7: Approksimationen til normalfordelingen, s. 136 Supplement til kapitel 7: Approksimationen til normalfordelingen, s. 36 Det er besværligt at regne med binomialfordelingen, og man vælger derfor ofte at bruge en approksimation med normalfordeling. Man

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

hvor a og b er konstanter. Ved middelværdidannelse fås videre

hvor a og b er konstanter. Ved middelværdidannelse fås videre Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den

Læs mere

Besvarelser til Calculus og Lineær Algebra Globale Forretningssystemer Eksamen - 8. Juni 2015

Besvarelser til Calculus og Lineær Algebra Globale Forretningssystemer Eksamen - 8. Juni 2015 Besvarelser til Calculus og Lineær Algebra Globale Forretningssystemer Eksamen - 8. Juni 05 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en

Læs mere

Statistisk mekanik 2 Side 1 af 10 Entropi, Helmholtz- og Gibbs-funktionen og enthalpi. Entropi

Statistisk mekanik 2 Side 1 af 10 Entropi, Helmholtz- og Gibbs-funktionen og enthalpi. Entropi Statistisk mekanik 2 Side 1 af 10 Entropi Entropi er en tilstandsvariabel 1, der løst formuleret udtrykker graden af uorden. Entropien er det centrale begreb i termodynamikkens anden hovedsætning (TII):

Læs mere

Teoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts.

Teoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts. Teoretisk Statistik, 9 marts 2005 Empiriske analoger (Kap. 3.7) Normalfordelingen (Kap. 3.12) Opsamling på Kap. 3 nb. Det forventes ikke, at alt materialet dækkes d. 9. marts. 1 Empiriske analoger Betragt

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

MM501 forelæsningsslides

MM501 forelæsningsslides MM501 forelæsningsslides uge 40, 2010 Produceret af Hans J. Munkholm bearbejdet af JC 1 Separabel 1. ordens differentialligning En generel 1. ordens differentialligning har formen s.445-8 dx Eksempler

Læs mere

Betingede sandsynligheder Aase D. Madsen

Betingede sandsynligheder Aase D. Madsen 1 Uge 12 Teoretisk Statistik 15. marts 2004 1. Betingede sandsynligheder Definition Loven om den totale sandsynlighed Bayes formel 2. Betinget middelværdi og varians 3. Kovarians og korrelationskoefficient

Læs mere

Løsning til eksaminen d. 14. december 2009

Løsning til eksaminen d. 14. december 2009 DTU Informatik 02402 Introduktion til Statistik 200-2-0 LFF/lff Løsning til eksaminen d. 4. december 2009 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition,

Læs mere

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3 Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april

Læs mere

Naturvidenskabelig Bacheloruddannelse Forår 2006 Matematisk Modellering 1 Side 1

Naturvidenskabelig Bacheloruddannelse Forår 2006 Matematisk Modellering 1 Side 1 Matematisk Modellering 1 Side 1 I nærværende opgavesæt er der 16 spørgsmål fordelt på 4 opgaver. Ved bedømmelsen af besvarelsen vægtes alle spørgsmål lige. Endvidere lægges der vægt på, at det af besvarelsen

Læs mere

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Center for Statistik. Multipel regression med laggede responser som forklarende variable Center for Statistik Handelshøjskolen i København MPAS Tue Tjur November 2006 Multipel regression med laggede responser som forklarende variable Ved en tidsrække forstås i almindelighed et datasæt, der

Læs mere

Deskriptiv statistik. Version 2.1. Noterne er et supplement til Vejen til matematik AB1. Henrik S. Hansen, Sct. Knuds Gymnasium

Deskriptiv statistik. Version 2.1. Noterne er et supplement til Vejen til matematik AB1. Henrik S. Hansen, Sct. Knuds Gymnasium Deskriptiv (beskrivende) statistik er den disciplin, der trækker de væsentligste oplysninger ud af et ofte uoverskueligt materiale. Det sker f.eks. ved at konstruere forskellige deskriptorer, d.v.s. regnestørrelser,

Læs mere

Sandsynlighedsregning

Sandsynlighedsregning Mogens Bladt www2.imm.dtu.dk/courses/02405 12. Oktober, 2007 Kontinuerte fordelinger Vi har hidtil set på fordelinger af stokastiske variable der højst kan antage tælleligt mange værdier (diskrete stokastiske

Læs mere

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007 Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave

Læs mere

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version university of copenhagen University of Copenhagen Notat om statistisk inferens Larsen, Martin Vinæs Publication date: 2014 Document Version Peer-review version Citation for published version (APA): Larsen,

Læs mere

Besvarelser til Calculus Ordinær Eksamen - 3. Januar 2017

Besvarelser til Calculus Ordinær Eksamen - 3. Januar 2017 Besvarelser til Calculus Ordinær Eksamen - 3. Januar 17 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

MATEMATIK B. Videooversigt

MATEMATIK B. Videooversigt MATEMATIK B Videooversigt 2. grads ligninger.... 2 CAS værktøj... 3 Differentialregning... 3 Eksamen... 5 Funktionsbegrebet... 5 Integralregning... 5 Statistik... 6 Vilkårlige trekanter... 7 71 videoer.

Læs mere

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni 2007 4 timers prøve med hjælpemidler Opgaven består af re delopgaver, som alle skal besvares. De re opgaver indgår med samme vægt. Opgaverne

Læs mere

Karakteristiske funktioner og Den Centrale Grænseværdisætning

Karakteristiske funktioner og Den Centrale Grænseværdisætning E6 efterår 1999 Notat 10 Jørgen Larsen 20. oktober 1999 Karakteristiske funktioner og Den Centrale Grænseværdisætning Karakteristiske funktioner som er nære slægtninge til Fourier-transformationen) er

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål

Program. Statistik og Sandsynlighedsregning 2 Middelværdi og varians. Eksempler fra sidst. Sandsynlighedstæthed og sandsynlighedsmål Program Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag I formiddag: Tætheder og fordelingsfunktioner kort resume fra i mandags og et par eksempler mere om sammenhængen

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Middelværdi og varians Helle Sørensen Uge 6, onsdag SaSt2 (Uge 6, onsdag) Middelværdi og varians 1 / 18 Program I formiddag: Tætheder og fordelingsfunktioner kort resume

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Skriftlig eksamen Science statistik- ST501

Skriftlig eksamen Science statistik- ST501 SYDDANSK UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Science statistik- ST501 Torsdag den 21. januar Opgavesættet består af 5 opgaver, med i alt 13 delspørgsmål, som vægtes ligeligt.

Læs mere

Besvarelser til Calculus Ordinær Eksamen Juni 2019

Besvarelser til Calculus Ordinær Eksamen Juni 2019 Besvarelser til Calculus Ordinær Eksamen - 14. Juni 2019 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Maj-juni, 2015/16 Institution Vid Gymnasier Uddannelse Fag og niveau Lærer(e) Hold hhx Matematik B Hasse Rasmussen

Læs mere

Opgaver i sandsynlighedsregning

Opgaver i sandsynlighedsregning Afdeling for Teoretisk Statistik STATISTIK Institut for Matematiske Fag Preben Blæsild Aarhus Universitet 9. januar 005 Opgaver i sandsynlighedsregning Opgave Lad A og B være hændelser således at P(A)

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Anvendt Statistik Lektion 2. Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger

Anvendt Statistik Lektion 2. Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger Anvendt Statistik Lektion 2 Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger Sandsynlighed: Opvarmning Udfald Resultatet af et eksperiment kaldes et udfald. Eksempler:

Læs mere

Sandsynlighedsfordelinger for kontinuerte data på interval/ratioskala

Sandsynlighedsfordelinger for kontinuerte data på interval/ratioskala 3 5% 5% 5% 0 3 4 5 6 7 8 9 0 Statistik for biologer 005-6, modul 5: Normalfordelingen opstår når mange forskellige faktorer uafhængigt af hinanden bidrager med additiv variation til. F.eks. Højde af rekrutter

Læs mere

Statistisk mekanik 2 Side 1 af 10 Entropi, Helmholtz- og Gibbs-funktionen og enthalpi. Entropi

Statistisk mekanik 2 Side 1 af 10 Entropi, Helmholtz- og Gibbs-funktionen og enthalpi. Entropi Statistisk mekanik 2 Side 1 af 10 Entropi Entropi er en tilstandsvariabel 1, der løst formuleret udtrykker graden af uorden i et system. Da der er mange flere uordnede (tilfældigt ordnede) mikrotilstande

Læs mere

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2)

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2) Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2) Klaus Hansen 23 september 24 Indhold Elementære empiriske mål 2 Lidt sandsynlighedsregning 3 3 Fordelinger 3 3 Grundlæggende

Læs mere

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2)

Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2) Billedbehandling og mønstergenkendelse: Lidt elementær statistik (version 2) Klaus Hansen 4. november 23 Indhold 1 Elementære empiriske mål 1 2 Lidt sandsynlighedsregning 3 3 Fordelinger 3 3.1 Grundlæggende

Læs mere

Note om Monte Carlo metoden

Note om Monte Carlo metoden Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at

Læs mere

Susanne Ditlevsen Institut for Matematiske Fag susanne

Susanne Ditlevsen Institut for Matematiske Fag     susanne Statistik og Sandsynlighedsregning 1 Repetition MS kapitel 1 3 Susanne Ditlevsen Institut for Matematiske Fag Email: susanne@math.ku.dk http://math.ku.dk/ susanne Hvad er sandsynlighed? - beskriver systemer

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Anvendt Statistik Lektion 2. Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger

Anvendt Statistik Lektion 2. Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger Anvendt Statistik Lektion 2 Sandsynlighedsregning Sandsynlighedsfordelinger Normalfordelingen Stikprøvefordelinger Sandsynlighed: Opvarmning Udfald Resultatet af et eksperiment kaldes et udfald. Eksempler:

Læs mere

Statistik II 4. Lektion. Logistisk regression

Statistik II 4. Lektion. Logistisk regression Statistik II 4. Lektion Logistisk regression Logistisk regression: Motivation Generelt setup: Dikotom(binær) afhængig variabel Kontinuerte og kategoriske forklarende variable (som i lineær reg.) Eksempel:

Læs mere

Sandsynlighedsregning 5. forelæsning Bo Friis Nielsen

Sandsynlighedsregning 5. forelæsning Bo Friis Nielsen Sandsynlighedsregning 5. forelæsning Bo Friis Nielsen Matematik og Computer Science Danmarks Tekniske Universitet 2800 Kgs. Lyngby Danmark Email: bfni@dtu.dk Dagens emner afsnit 3.5 og 4.1 Poissonfordelingen

Læs mere

Kombinatorik. Eksempel 2: En mand har 7 par bukser og 10 skjorter. Skal han både vælge en skjorte og et par bukser, så har han 10. 7=70 mulige valg.

Kombinatorik. Eksempel 2: En mand har 7 par bukser og 10 skjorter. Skal han både vælge en skjorte og et par bukser, så har han 10. 7=70 mulige valg. Noter til Biomat, 005. Kombinatorik. - eller kunsten at tælle. Alle tal i kombinatorik-afsnittet er hele og ikke-negative. Additionsprincippet enten - eller : Antag vi enten skal lave et valg med m muligheder

Læs mere