I den generelle regressionsmodel med homogen støj har observationerne formen

Størrelse: px
Starte visningen fra side:

Download "I den generelle regressionsmodel med homogen støj har observationerne formen"

Transkript

1 Kapitel 8 Regressionsmodeller Vi vil i dette kapitel diskutere eksempler på mere kompliceret modeller, med observationer, der nok er uahængige, men ikke identisk ordelte. I sådanne modeller kan der opstå et naturligt behov or reskaleringsskemaer, der er mere komplicerede end den sædvanlige n-skalering. 8. Ikke-lineær regression I den generelle regressionsmodel med homogen støj har observationerne ormen Y i = i (β+ǫ i or, 2,... (8. Her erβ R k en ukendt vektor a middelværdiparametre, ogǫ,ǫ 2,... er uahængige, identisk ordelte støjvariable med middelværdi (og et passende antal momenter. Funktionerne, 2,... antages kendte. Som regel er der til hver observation knyttet en vektor t a kovariater, og i erne er givet ved at i (β= (β, t i hvor er en unktion, der er ælles or alle observationerne. De lineære modeller remkommer hvis i (β= β, t i or, 2,... 39

2 4 Kapitel 8. Regressionsmodeller hvor t i er en kovariatvektor hørende til den i te observation. Men metamodellen (8. indeholder naturligvis mange andre modelklasser. For eksempel middelværdispeciikationer a ormen i (β=g ( β, t i or, 2,... hvor t i er en kovariatvektor hørende til den i te observation, og hvor g :R R er en såkaldt link unktion. I så ald bevæger vi os ind på området or generaliserede lineære modeller, ote orkortet GLM. Eksempel 8. Et vitterligt ikke-lineært eksempel er Michaelis-Menten unktionen ra enzymkinetik, i (α,β= β t i α+t i. (8.2 Her indgårβlineært, mensαindgår ikke-lineært. I anvendelser vil i repræsentere steady-state dannelseshastigheden a et kemisk produkt, når der i dannelsesreaktionen indgår en katalysator - altså et sto, der er nødvendigt or reaktionen, og som muligvis omdannes undervejs, men som ved reaktionens aslutning har samme orm som ved reaktionens begyndelse. I så ald vil produktionshastigheden ahænge dels a hvor meget katalysator, der er til stede - katalysatormængden udgør en slags laskehals or reaktionen. Og dels a hvor meget substrat der er til stede - substrat er betegnelsen or det sto, der omdannes til produkt i reaktionen. Michaelis-Menten unktionen beskriver produktionshastigheden som unktion a substratmængden t i, under antagelse a en ast mængde katalysator (proportional med parameteren β. Der er tale om en såkaldt steady state approksimation til den rigtige produktionshastighed, der kun svarer til virkeligheden i det omang produktionshastigheden er så lav at mængden a substrat essentielt ikke ændres. t Y t Y t Y Tabel 8.: Data ra et enzymkinetisk eksperiment. I hvert deleksperiment repræsenterer t en nøje avejet substratmængde, mens Y repræsenterer en eksperimentets respons: en målt produktionshastighed. Data er optegnet i igur 8..

3 8.. Ikke-lineær regression 4 Hastighed Substrat Figur 8.: Samhørende værdier a substratmængde og produktionshastighed ra tabel 8.. Der er også optegnet en estimeret Michaelis-Menten kurve, med ˆα=. og ˆβ=.7. Estimateterne er opnået ved at minimere den relevante version a (8.7 ved hjælp a en quasi-newton algoritme. I praksis kan det være lidt tvivlsomt at anvende (8. med Michaelis-Menten unktionen som regressionsunktion. Problemet er at der ote vil være variansheterogenitet: målinger med lave t-værdier vil have mindre varians end målinger med høje t-værdier. Man orsøger gerne at løse problemet ved at se på logaritmen a produktionshastighederne. Men det ører naturligvis til at man erstatter Michaelis-Menten unktionen med dens logaritme. Vi ved at or lineære modeller spilder designmatricen en stor rolle. Det er den n k matrix man år rem ved at samle kovariaterne or de n ørste observationer. Det viser sig at den såkaldte lokale designmatrix D (β=d n 2. n (β (8.3 i høj grad spiller den samme rolle i den generelle teori. Skriver man den lokale de-

4 42 Kapitel 8. Regressionsmodeller signmaterix ud i koordinater, ser man at D (β= n β 2 β 2. n β β 2... β k 2 β k β n β 2... n β k. For en lineær model er D n (β netop designmatricen. Vi kommer ote til at møde den lokale designmatrix i en lidt anderledes orm, nemlig via D n (β T D n (β. (8.4 Denne matrix er automatisk symmetrisk og positivt semideinit. En essentiel betingelse vil være at den er positivt deinit ra et vist trin, og dermed invertibel set som lineær abildning. Det er en ikke-trivialitetsbetingelse på de kovariater, der indgår i designet. Hvis man i praksis skal regne denne matrix ud, kan det være hensigstmæssigt at indøre notationen og observere at x y x y 2... x y k x x y= x y T 2 y x 2 y 2... x 2 y k = x k y x k y 2... x k y k D n (β T D n (β= or x, y R k (8.5 i (β i (β. (8.6 Rigtigheden a denne ormel indses ved at sammenligne matricerne på venstre og højre side og konstatere at de er ens koordinat or koordinat. Eksempel 8.2 Hvis vi ser på en simpel lineær regression a ormen i (α,β=α+β t i så er ( i (α,β= t i, i (α,β i (α,β= ( ti t i t 2 i Vi ser at i (α,β i (α,β har egenværdier +t 2 i og, og den er således positivt semi-deinit, men ikke positivt deinit. En egenvektor hørende til egenværdien er

5 8.. Ikke-lineær regression 43 ( ti. Det er klart at tager vi en sekvens t, t 2,... a kovariater, vil (8.4 være positivt deinit medmindre de enkelte matricers nul-rum er sammenaldende. Så medmindre alle kovariaterne er ens, vil vi å positiv deinithed når n 2. Eksempel 8.3 Hvis vi ser på en Michaelis-Menten model a ormen i (α,β= β t i α+t i så er i (α,β= βt i (α+t i 2 t i α+t i, i(α,β i (α,β= t 2 i (α+t i 2 β 2 β (α+t i 2 α+t i β α+t i β α+t i Vi ser at i (α,β i (α,β har egenværdier + β2 og, og den er således positivt (α+t i 2 ( semi-deinit, men ikke positivt deinit. En egenvektor hørende til egenværdien er. Det er klart at tager vi en sekvens t, t 2,... a kovariater, vil (8.4 være positivt deinit medmindre de enkelte matricers nul-rum er sammenaldende. Så medmindre alle kovariaterne er ens, vil vi å positiv deinithed når n 2. Foreløbig har vi ikke sagt noget om støjvariableneǫ,ǫ 2,... ud over at skal være iid og have middelværdi. Ote antager man at støjvariablene er normalordelte med ukendt varians. Vi har et højere ambitionsniveau, og vil gennemøre så meget som muligt a analysen uden at have en præcis beskrivelse a støjordelingen. Den ulde parameter involverer altsåβ R k og støjordelingen, men interesseparameteren er kunβ. Når vi skal opstille en konkordankombinant er det deror ristende at bruge h n (x,β= ( Yi i (β 2, (8.7 Hvisǫ i erne er normalordelt er h n ækvivalent med proilloglikelihoodunktionen or β, og den er således uomgængelig. Men også uden en normalordelingsantagelse giver h n god intuitiv mening. Det viser sig dog at der er aldgruber, når man orsøger at drage drage inerens omβ på denne baggrund. Selv i de lykkelige tilælde hvor man kan vise at M-estimatoren

6 44 Kapitel 8. Regressionsmodeller på baggrund a h n er asymptotisk normalordelt, så vil der i grænseordelingen optræde en skalaaktor som et udtryk or hvor stor støjen er - det kan vist ikke komme bag på nogen med eraring i lineære normale modeller. Denne skalaaktor er ukendt or os, og den har den orskellige beklagelige tekniske konsekvenser. For eksempel er regularitetsbetingelse D ikke er opyldt. Deror er deviancestørrelserne ikke asymptotiskχ 2 -ordelte, og testteknikkerne ungerer ikke uden videre. En ote brugt angrebsvinkel på dette problem er at producere en ekstern estimator a skalaaktoren, hvor vi med ekstern mener at estimatoren indes ved ad hoc metoder, nærmere end ved overvejelser om konkordanskombinanten. Hvis man kan producere en konsistent estimator a skalaaktoren, kan man ved håndkrat korrigere deviancestørrelserne, og dermed opnå teststørrelser der er asymptotiskχ 2 -ordelte. Vi vil i stedet inkludere skalaaktoren i interesseparameteren. Ikke ordi vi egentlig interesserer os or den, men ordi vi under alle omstændigheder er nødt til at sige noget om den. Vi antager deror atǫ i =σ U i hvor U, U 2,... er iid variable med middelværdi og varians. Vi betragter en udvidet interesseparameter a ormen (β,σ 2, og konkordanskombinanten h n (x,β,σ 2 = n 2 logσ2 + 2σ 2 ( Yi i (β 2. (8.8 Hvis U i erne er normalordelte er denne kombinant simpelthen loglikelihoodunktionen. I praksis er der meget lidt orskel på at arbejde med h n og h n: ved at gå rem som i den lineære normale model ser vi at man inder ˆβ n ved at minimere h n, og dereter sætte ˆ σ 2 = n ( Yi i (ˆβ n 2. (8.9 Problemet med den ukendte skalaparameter i den semi-parametriske ramme bliver or så vidt ikke løst på den denne måde - det bliver bare lyttet. I den asymptotiske normalordeling vil der nu indgå orskellige karakteristika or U-ordelingen, i særdeleshed κ 3 = E U 3 i, κ 4 = E U 4 i. Disse størrelser kan man så producere ad hoc estimatorer or. Men hvis vi er villige til at antage atκ 3 = (hvilket som regel ikke koster nogen tårer så skal vi se at man kan klare sig uden en ad hoc estimatorer orκ 4, så længe man indskrænker sig til at drage inerens om β. Det var jo det vi ville, så det kan næppe opattes som en alvorlig indskrænkning.

7 8.. Ikke-lineær regression 45 For at komme i gang med den asymptotiske analyse, må vi have at på et reskaleringsskema. Det viser sig at i denne sammenhæng er det rugtbart at vælge skemaet ud ra regularitetsbetingelse C, eller måske nærmere C. For at å mening i det, skal vi diskutere Hájeks CLT. Lemma 8.4 Lad Σ være en positivt deinit symmetrisk k k matrix. Da deinerer, givet ved A, B =Tr(AΣ B T or A, B M k et indre produkt påm k. BEVIS: Det er klart at den deinerede abildning er bilineær. Hvis vi lader e,...,e k være den kanoniske basis ir k ser vi at Hera ølger det at A, B = ( AΣB ii = AΣB e i, e i A, A = ΣA e i, A e i og da Σ er antaget at være positivt deinit, vil hver led i denne sum være ikke-negativt. Hvis summen er nul, må hver led være nul, det vil sige at A e i = or alle i. Men så må A være nulabildningen, og da må også A være nulmatricen. Vi ser umiddelbart ud ra lemma 8.4 at der or hver positivt deinit matrixσindes en konstant C= C Σ sådan at A 2 C Tr ( AΣ A T or alle A M k. (8. Her er A operatornormen påm k (eller en hvilken som helst anden norm, or den sags skyld. Husk at hvisσer en positivt deinit symmetrisk k k matrix, så har den en matrixkvadratrodσ /2, altså en ligeledes positivt deinit symmetrisk k k-matrix der opylder at Σ /2 Σ /2 =Σ. (8.

8 46 Kapitel 8. Regressionsmodeller Det er nemt at se atσ /2 må være injektiv som lineær abildning, og da matricen er kvadratisk må den oven i købet være invertibel. De inverse abildnig kaldesσ /2. Ved at gange relationen (8. ra højre og venstre medσ /2 år vi at Σ /2 ΣΣ /2 = I. (8.2 Sætning 8.5 (Hájek Lad Z, Z 2,... være iid variable med værdier ir k med 3. moment. Antag at E Z i = og at V Z i =Σ er positivt deinit. Lad D n være en ølge a m k matricer. Antag at n D i Σ D T i er positivt deinit ra et vist trin. Hvis /2 max,...,n D j Σ D T j D i or n (8.3 så vil j= D j Σ D T j j= /2 BEVIS: Vi ser på et trekantsskema (X nm hvor X nm = D j Σ D T j j= D i Z i D N(, I. /2 D m Z m Disse variable har alle middelværdi, og de har varians /2 V X nm = D j Σ D T j D m Σ D T m D j Σ D T j j= Deror er har rækkesummerne varians V X nm = D j Σ D T j m= j= /2 m= j= /2 D m Σ D T m D j Σ D T j j= /2 = I, iølge (8.2. Resultatet vil altså ølge, hvis vi kan vise at (X nm opylder Lyapounovs betingelse. Vi se at /2 3 /2 3 E m= D j ΣD T j D m Z m j= m= D j ΣD T j D m E Z m j= 3 /2 /2 2 max m=,...,n D j ΣD T j D m D j ΣD T j D m E Z 3 j= m= j=

9 8.. Ikke-lineær regression 47 Den ørste maksimumsaktor går mod nul per antagelse, og E Z 3 er konstant. Så hele udtrykket vil gå mod nul, hvis summen holder sig begrænset. Ved at bruge (8. ser vi at /2 2 /2 m= D j ΣD T j D m C Tr j= /2 D j ΣD T j D m ΣD T m D j ΣD T j m= j= j= = CTr D j ΣD T j /2 /2 D j ΣD T j D j ΣD T j j= = CTr(I=mC Den praktiske måde at etervise (8.3 på, ser som regel at udnytte at det or operatornormen gælder at B T B = B 2. Deror kan vi lige så godt vise at max D j ΣD T j D i or n (8.4,...,n DT i j= hvorved vi slipper uden om at inde matrixkvadratroden eksplicit. Lad os nu vende tilbage til analysen a konkordanskombinanten (8.8. Vi ser at j= j= h n β j = 2σ 2 2(Y i i (β i(β β j, h n σ 2=n 2 σ 2 2σ 4 ( Yi i (β 2, Deror kan vi stille h n op på blokorm som σ h n (X n,β= 2 i (β Der gælder at og at V E 2σ 4 Y i i (β ( Yi i (β 2 σ 2 = Y i i (β ( Yi i (β 2 σ 2 =Σ= Y i i (β ( Yi i (β 2 σ 2 σ 2 σ 3 κ 3 σ 3 κ 3 σ 4 (κ 4.

10 48 Kapitel 8. Regressionsmodeller Hvis vi vælger det parameterahængige reskaleringsskema σ A n = 2 i (β σ 2 σ 3 κ 3 σ 3 κ 3 σ 4 (κ 4 2σ 4 ser vi ra Hájeks sætning at σ 2 i (β 2σ 4 T /2 A n h n (X n,β N(, D I hvis vi kan gøre rede or at A n er invertibel ra et vist trin og or at den relevante version a betingelse (8.3 er opyldt. Det er svært at regne på A n helt generelt, så vi antager remover atκ 3 =. I så ald reducerer udtrykket til A n = Hermed antager (8.4 ølgende orm: max m=,...,n σ 2 n i (β i (β n (κ 4 4σ 4 σ 2 m (β T( n i (β i (β m (β /2 n σ 2 (κ 4 (8.5 Den nederste diagonalkoordinat volder ingen problemer, or den går a sig selv mod nul. Og ved at udnytte at operatornormen er ækvivialent med spornormen, simpliicerer betingelsen til max m=,...,n m(β T i (β i (β m (β (8.6 Om denne betingelse er opyldt eller ej, må man undersøge i hvert konkret tilælde or sig. Det er muligt at overtræde betingelsen, selv or lineære modeller. Eksempel 8.6 Lad os undersøge hvordan betingelse (8.6 tager sig ud i klassisk simpel lineær regression, hvor i (α,β=α+β t i or en skalar kovariat t i. Vi ser at ( ( ti i (α,β=, i (α,β i (α,β= t i t i t 2 i

11 8.. Ikke-lineær regression 49 og dermed ( n Sn i (α,β i (α,β=, S n SS n hvor vi har brugt de sædvanlige orkortelser. Vi har således at ( SSn S i (α,β i (α,β = n nssd n S n n og dermed at m (α,β T i (α,β i (α,β = nssd n (t i t m 2 = Hájeks betingelse blive i dette tilælde altså til m (α,β= nssd n (SS 2t m S+n t m 2 (SSD n + n(t m t n 2 = nssd n n + (t m t n 2 SSD n (t m t n 2 max m=,...,n SSD n Denne betingelse er opyldt i alle rimelige tilælde, men den bryder sammen hvis kovariaterne koncentreres or kratigt -.eks. vil t n = n or alle n øre til at SSD n er begrænset - og hvis kovariaterne vokser hysterisk -.eks. vil t n = n! or alle n ikke opylde betingelsen. For at opsummere de hidtidige regninger kan vi sige at hvis betingelse (8.6 er opyldt, så vil reskaleringsskemaet (8.5 øre til at h n (X n, D N(, I og regularitetsbetingelse C er således opyldt. Hvis vi kan antage at støjvariablene er normalordelte, behøver vi ikke engang betingelse (8.6, or i det tilælde vil h n (X n, simpelthen være standard normalordelt or alle n. Lad os vende os mod regularitetsbetingelse A. Vi inder de partielle aledede, 2 h n β j β k = σ 2 i (β i (β ( Y i i (β 2 i (β β j β k β j β k

12 5 Kapitel 8. Regressionsmodeller og 2 h n β j σ 2= σ 4 (Y i i (β i(β β j, 2 h n n ( σ 2 2= 2σ 4+ σ 6 (Y i i (β 2 Dermed kan vi opstille D 2 h n (X n,β,σ 2 i blokorm, n σ 2 i (β i (β ( Y i i (β D 2 i (β n ( Yi σ 4 i (β i (β Vi udregner ( σ 4 n ( Yi i (β i (β T n 2σ 4 + σ 6 n (Y i i (β 2 D 2 h n (X n,, =A n D 2 h n (X n,β,σ 2 A n = ( Ω n Ω 2 n Ω 2 n Ω 22 n idet vi udnytter at A n iølge (8.5 er symmetrisk. Vi har skrevet den op på anonym blokorm, ordi udtrykkene er or lange til at den ulde matrix kan stå på en enkelt linie. Ganger man ud, ser man at Ω n = i (β i (β + i (β i (β = I+ i (β i (β /2 /2 /2 i (β i (β i (β i (β ( Yi i (β /2 D 2 i (β i (β i (β ( Yi i (β D 2 i (β i (β i (β /2 Det er overhovedet ikke klart om det konvergerer eller ej, så det vil vi antage os ud a. Hvis vi antager at i (β i (β ( /2 Yi i (β P D 2 i (β i (β i (β /2 (8.7 så vil Ω n P I, Nogle gange kan (8.7 etervises elementært ved hjælp a Chebyshevs ulighed, men ote må man ud i mere komplicerede argumenter hvor man viser næsten sikker konvergens mod ved hjælp at Kroneckers lemma. /2

13 8.. Ikke-lineær regression 5 De øvrige blokke er nemmere at håndtere. Iølge store tals lov har vi at Ω 22 n = 4σ 4 n (κ 4 n 2σ 4+ σ 6 (Y i i (β 2 = 2 κ ( Yi (κ 4 σ 2 i (β 2 n Og Ω 2 n = σ n.s. 2 κ (κ 4 σ 2σ2 = i (β i (β /2 2 κ 4 2 ( Y i i (β n (κ4 i(β Det er let at se atω 2 n er en stokastisk vektor med middelværdi EΩ 2 n =, og variansmatrix VΩ 2 n = 4 κ 4 n I Lemma 8.7 Lad Z være en stokastisk variable med værdier ir k. Lad E Z= og V Z=Σ. For alleǫ> er P( Z ǫ Tr(Σ ǫ 2. BEVIS: Lad Z= (Z,...,Z k. Vi har ud ra Markovs ulighed at P( Z ǫ=p(z ,Z2 k ǫ2 E Z2 +...Z2 k ǫ 2 = Σ +...+Σ kk ǫ 2 Det ølger oplagt herudra at hvis Z, Z 2,... er stokastiske variable med værdier ir k og middelværdi, så vil Z n P hvis V Zn. Det kan bruges direkte påω 2 n oroven. Så vi konkluderer: under antagelse a (8.7 vil der gælde at ( D 2 h n (X n,, P I 2, (8.8 κ 4

14 52 Kapitel 8. Regressionsmodeller det vil sige at regularitetsbetingelse A opyldt. Det er på ingen måde klart om (8.7 er opyldt eller ej. Betingelsen er naturligvis opyldt i det lineære tilælde, or der er D 2 i (β = or alle i. Men i det ikke-lineære tilælde kan betingelsen volde problemer. Eksempel 8.8 Hvis k=, således atβer en skalar, kan (8.7 skrives på en marginalt mere læselig orm som n i (β ( Y i i (β n i (β 2 P Vi ser a Chebyshevs ulighed at betingelsen er opyldt hvis i (β 2 ( n 2 2 Hvis vi.eks. har at i (β <b or alle i, og at i (β >a> or alle i, så er i (β 2 ( n 2 2 n b 2 b2 (n a 2 2= a 4 n som ønsket. Som man kunne orvente det, er regularitetsbetingelse B svær at å sagt noget om i denne generalitet, ikke mindst ordi reskaleringsskemaet er angivet på en temmelig uhåndterlig orm. Vi nøjes med at regne på tilældet med k=, hvor problemerne med matrixkvadratrødder i det mindste orsvinder. Som i eksempel 8.8 vil vi arbejde under antagelse a at i (β <b or alle i, og at >a> or alle i. Vi skal da vise at sup a n (β β <c or alle c>. Bemærk at h n (β= σ 2 h n (β h σ 2 a n 2 n (β i (β2 + σ 2 P ( Yi i (β i (β, or n, ( i (β i (β i (β

15 8.. Ikke-lineær regression 53 hvor vi har sørget or at den stokastiske del har middelværdi. For astβhar vi at E β (( Yi i (β i (β 2 i σ 2 b 2 i 2 <. Et klassisk resultat om summer a uahængige stokastiske variable giver deror at ( Yi i (β i (β i er næsten sikkert konvergent under P β. Og videre sikrer Kroneckers lemma at n ( Yi i (β i (β n.s. or n. Analogt med beviset or den uniorme SLLN, sætning 7.3, kan man udstrække argumentet til at give at sup ( Yi i (β i (β n.s. n or n, β β <δ or hvert ast δ. Det kræver lidt arbejde, med udtynding a åbne overdækninger etc, og vi springer detaljerne over. Men vi ser at når c/a n <δså er sup ( Yi a n (β β <c a 2 i (β i (β n = sup a n (β β <c n ( Yi i (β i (β n n 2 sup β β <δ n ( Yi i (β i (β n.s.. Dermed reducerer problemet med Regularitetsbetingelse B til at vise at sup a n (β β <c n i (β2 2 n ( i (β i (β i (β n 2 + n 2. Det er et rent deterministisk problem - al stokastik er væk. Bemærk at i (β i (β = i (β (β β + 2 i (η i (β β 2, a 2

16 54 Kapitel 8. Regressionsmodeller or et passende mellempunktη i. Dermed giver Cauchy-Schwarz ulighed at n ( i (β i (β i (β n 2 n = i (β i (β n 2 (β β + n i (η i i (β 2 n 2 (β β 2 ( n i (β 2 /2 (nb 2 /2 n 2 β β + n b 2 2 n 2 (β β 2. Vi ser således at n ( i (β sup i (β i (β a n (β β <c n 2 a n n b a 2 n c + n b 2 a n 2 a 2 n hvor vi har udnyttet at n a n 2 a 2. Stort set samme teknik vil vise at sup a n (β β <c n i (β2 2 n 2, c 2 a n 2, og vi har deror påvist at Regularitetsbetingelse B er opyldt under betingelserne ra eksempel 8.8. Man kan på tilsvarende vis kontrollere at betingelsen er opyldt or en række lerdimensionale middelværdispeciikationer,.eks. Michaelis-Menten modellen ra eksempel 8. hvis blot kovariaterne ikke koncentreres alt or voldsomt og er begrænset væk ra nul. Vi observerer at regularitetsbetingelse D er opyldt hvis og kun hvisκ 4 = 3. Det er opyldt hvis U i erne er normalordelte, så vi har nu et uldt unktionelt inerensapparat or ikke-lineær regression med homogene normalordelte ejl: vi kan konstruere test ud ra deviancestørrelser, der er asymptotiskχ 2 -ordelte. Men vi har jo gjort en dyd ud a ikke at antage normalordelte ejl. Og deror er der ingen grund til at tro at regularitetsbetingelse D er opyldt. Men det viser sig at være irrelevant, så længe vi kun diskuterer hypoteser om β. Bemærk at betingelserne i lemma 6.22 er opyldt, så vi har (6.5 til rådighed. Kernepunktet i beviset or at at den lokale deviancestørrelser er asymptotiskχ 2 -ordelt er en observation om de størrelser, der indgår i (6.5: at den lineære abildning H(H T QH H T Q er projektionen ned

17 8.. Ikke-lineær regression 55 på underrummet rembragt a H med hensyn til præcisionen a den stokastiske variabel Q Z. Det er trivielt rigtigt under regularitetsbetingelse D, or der har Z varians A, så Q Z har varians Q opg dermed præcision Q. I vores tilælde uden regularitetsbetingeselse D er Z standard normalordelt i stedet or at have varians Q. Vi ser at variansen a Q Z er Q 2, så præcisionen er givet ved Q 2. Hvis vi kan vise at H(H T QH H T Q=H(H T Q 2 H H T Q 2, (8.9 så kan vi erstatte (6.5 med en ormel, der uden videre giver (6.6 og dermed kan den asymptotiskeχ 2 -ordeling a den lokale deviancestørrelse opretholdes. Eksempel 8.9 Lad os se på regressionsmodellen med middeværdistruktur beskrevet ved Michelis-Menten unktionen (8.2, og lad os undersøge hypotesen om at α har en på orhånd kendt værdiα. Under hypotesen har vi altså middelværdistrukturen g i (β= β t i α + t i. Hypotesen kan beskrives som en parametriset mangoldighed ved hjælp a indlejringenγ :R 2 R 3 givet ved ( α β γ σ 2 = β σ 2 Specielt er ( β Dγ σ 2 = Uden or hypotesen bruger vi reskaleringsskemaet A n =. σ 2 n i (α,β i (α,β n (κ 4 4σ 4 hvor den centrale komponent i i er en 2 2 matrix. Under hypotesen bruger reskaleringsskemaet B n = σ 2 n g i (β g i (β n (κ 4 4σ 4 /2 /2

18 56 Kapitel 8. Regressionsmodeller hvor den centrale komponent g i g i er en matrix, det vil sig et reelt tal. Vi ser at n i i A n Dγ(β,σ 2 B n = n g i g i, hvor øverste venstre hjørne er en kompliceret udseende 2 matrix. Vi vil ikke her diskutere om regularitetsbetingelse E er opyldt, men vi ser at hvis A n Dγ B n H, så må H have ormen h H= h 2. Med et H a denne orm, og med Q ra (8.8 kan man nu kontrollere (8.9 ved simpelthen at regne venstre og højre side ud. Man inder at h 2 h h 2 h 2 H(H T QH H T +h2 h 2 2 +h2 2 Q= h h 2 h 2 h 2 2 +h2 h 2 2 +h2 2 og præcis samme ormel dukker op når man regner højre side ud (hvilket man kan gætte på orhånd, ordi den eneste måde Q og Q 2 aviger ra hinanden på, er ved hvordanκ 4 indgår, ogκ 4 orsvinder i ovenstående matrixprodukt. Regningerne i eksempel 8.9 bruger ikke Michaelis-Menten speciikationen til noget som helst. Når man orstår hvad der oregår i eksemplet, er det klart at man helt generelt ved glatte hypoteser omβa ormenβ=ρ(ζ ser at regularitetsantagelse E kun kan være opyldt med et H med blokstruktur ( G H= or en passende matrix G. Regning med blokmatricer ører til samme konklusion som i eksemplet:κ 4 indgår ikke produktet H(H T QH H T Q, og deror er (8.9 opyldt. Tilbage står selvølgelig spørgsmålet om hvorvidt regularitetsbetingelse E aktisk er opyldt. Det er der desværre ikke nogen garanti or, men det er på sin vis lige meget. Konklusionen om at D n kovergergerer svagt mod enχ 2 -ordeling kan i hvert ald opretholdes langs enhver delølge hvor A n Dγ B n aktisk er konvergent. Men etersom grænseordelingen er den samme or alle delølger, vil et udtyndingsargument vise at den svage konvergens må gælde or den ulde D n -ølge.

19 8.2. Poissonregression Poissonregression Poissonregressionsmodeller er modeller or stokastiske variable Y, Y 2,... der er u- ahængige og Poissonordelte med hver sin middelværdi. Typisk ahænger middelværdien a en eller lere kovariater, og den sædvanlige antagelse er at logaritmen a middelværdien er en lineær kombination a disse kovariater. Den model, der i denne ramme svarer til sædvanlig lineær regression, er altså EY n = e α+β t n or n=, 2,... (8.2 Vi vil undersøge (8.2 or et helt specielt valg a kovariater, nemlig t n = n or alle n. Dette valg a kovariater svarer næppe til nogen realistisk målesituation - det ører til en målingseksplosion når n vokser, og der er næppe noget ysisk måleapparat, der vil være i stand til at ølge med ret langt. Det orekommer nok en kende spekulativt at analysere et praktisk eksperiment, hvor man jo kun har endeligt mange kovariater, under den orudsætning at hvis man skulle tage lere målinger, så ville man indstille apparaturet mere og mere orrykt. Men kovariaterne t n = n illustrerer i dette eksempel på ret dramatisk vis hvad der kan ske med den asymptotiske analyse, når enkeltmålingerne har meget orskelligt inormationsindhold. Vi inder på baggrund a observationen X n = (Y,...,Y n likelihoodunktionen L n (α,β= ( n e α+β i Y i Y i! n e eα+β i = eα Y i +β n i Y i n e n e α+β i, Y i! hvora vi ser at der or hvert ast n er tale om en eksponentiel amilie med kanonisk stikprøveunktion ( n Y i, n i Y i. Når det er en eksponentiel amilie, så ved vi uden at behøve at regne at de to Bartlett-identiteter er opyldt, at D 2 l n er en deterministisk unktion, hvor observationerne Y,...,Y n slet ikke indgår, og at D 2 l n er positivt semideinit. Vi ved også at hvis vi kan å regularitetsbetingelserne opyldt, så er der en uproblematisk kobling mellem den lokale og den globale M-estimator. Der er deror en ret oplagt strategi til at undersøge om regularitetsbetingelserne er opyldt: Hvis vi kan vise at D 2 l n er positivt deinit så kan vi bruge reskaleringsskemaet ( D 2 l n /2 - det vil øre til at regularitetsbetingelse A er opyldt med F = I. Det er muligvis ikke helt klart at (4. er opyldt, så det må vi vel også checke eter undervejs. Dernæst ølger det på grund a Bartlett-identiteterne at E l n (X n,α,β =, V l n (X n,α,β =I.

20 58 Kapitel 8. Regressionsmodeller Hvis vi kan vise at l n (X n,α,β konvergerer mod en normalordeling (hvilket ikke nødvendigvis er trivielt vil det være meget orbløende om ikke denne normalordeling netop ern(, I. I så ald er regularitetsbetingelse C og D opyldt. Tilbage står det sædvanlige problem med at undersøge regularitetsbetingelse B. Vi ser at loglikelihoodunktion er l n (α,β= α Y i β Det ører til de partielle aledede og dermed l n (α,β α = l n (α.β= Endvidere er 2 l n (α,β α 2 = Y i + ( Yi e α+β i, i Y i i Y i + e α+β i, ( e α+β i i e α+β i 2 l n (α,β α β = e α+β i + l n (α,β β = i e α+β i, = ( i log Y i!. iy i + i e α+β i. (Yi e α+β i, (8.2 2 l n (α,β β 2 = der er deterministisk, som tidligere bemærket. Lad os erindre om ormlerne x k = ( x, k= k x k = x ( x 2, k= i 2 e α+β i, k 2 x k = x (+ x ( x 3, der alle gælder or x <. Den ørste a disse ormler er utvivlsomt velkendt, de to øvrige kan opnås ud ra den ørste ved ledvis dierentation (og lidt ingerærdig manipulation. Formlerme tillader os at styre den anden aledede a likelihoodunktionen. Lad os indøre de treβ-ahængige ølger n γ n = e β j, γ 2n = j= n j= k= j e β j, γ 3n = n j= j 2 e β j. Det ølger a potensrækkeormlerne at orβ> er de tre ølger konvergente med ( lim γ n= n e β, lim γ e β 2n= n ( e β 2, limγ 3n= e β +e β n ( e β. 3

21 8.2. Poissonregression 59 Vi kan udtrykke D 2 l n ved hjælp aγ-ølgerne. Vi har at 2 l n (α,β α 2 n = e α+β n e β (n i = e α+β n e β j = e α+β n γ n. j= Tilsvarende har vi at 2 l n (α,β α β n = e α+β n i e β (n i = e α+β n (n j e β j n = e α+β n n j= = e α+β n (nγ n γ 2n, j= n e β j j e β j j= og vi har at 2 l n (α,β β 2 n = e α+β n i 2 e β (n i = e α+β n (n j 2 e β j j= n n n = e α+β n n2 e β j 2n e β j + j 2 e β j j= j= = e α+β n( n 2 γ n 2nγ 2n +γ 3n. j= Det ølger a disse regninger at D 2 l n (α,β=e α+β n γ n nγ n γ 2n nγ n γ 2n n 2 γ n 2nγ 2n +γ 3n. Vi ser hvisβ> så vil γ n nγ n γ 2n det nγ n γ 2n n 2 γ n 2nγ 2n +γ 3n = n2 γ n 2nγ n γ 2n +γ n γ 3n ( nγn 2 +γ 2n 2 =γ n γ 3n γ2n 2 ( e β e β 4. Det viser at D 2 l n er invertibel (og dermed strengt positivt deinit ra et vist trin når β>. Det er muligt at undgå grænseargumentet og vise atγ n γ 3n γ2n 2 > or alle n, men det bliver lidt rodet.

22 6 Kapitel 8. Regressionsmodeller Første trin i vores strategi er således på plads, og vi vil orsøge os med reskaleringsskemaet A n = ( D 2 l n (α,β /2. (8.22 Lad os vise at dette skema opylder (4.. Da D 2 l n er symmetrisk, er A n også symmetrisk. Dermed er A n symmetrisk, og iølge (2.4 er A 2 ( n = D 2 l n (α,β = e γ (α+β n n nγ n γ 2n nγ n γ 2n n 2 γ n 2nγ 2n +γ 3n e (α+β n = n 2 γ n 2nγ 2n +γ 3n nγ n +γ 2n γ n γ 3n γ2n 2 nγ n +γ 2n γ n Den sidste matrix har koordinater der højst vokser som et andengradspolynomium i n, og deror kan operatornormen højst vokse med denne hastighed. Faktoren ude oran år med sikkerhed det samlede udtryk til at gå mod nul, og dermed er (4. opyldt orβ>. Det er ikke helt nemt at argumentere or at l n (α,β er asymptotisk normalordelt. De sædvanlige argumenter ville gå ud på at sikre at enkelt-bidragene i summen (8.2 hver or sig er små, men i dette tilælde er n-leddet aktisk a samme størrelsesorden som hele summen. Redningen er at Y n som Poissonordelt variabel med stor parameter selv er stort set normalordelt. Poissonordelingerne udgør jo en oldningssemigruppe, så vi kan skrive hvert Y i som en sum a et megt stort antal Poissonordelinger med parameter. Gør man det, og indsætter i (8.2, kan man se at hvert led i den sum er orsvindende i orhold til summen, og man kan bruge Lyapounovs sætning til at vise at ( D 2 l n (α,β /2 ln (α,β konvergerer modn(, I hvisβ> - man går rem stort set som i beviset or Hájeks CLT. Nu har vi alle regularitetsbetingelserne pånær B opyldt. Til gengæld er det stort set umuligt at gøre noget ved B, så længe reskaleringsskemaet er så ukonkret som ( udtrykket involverer en matrixkvadratrod, som vi næppe kan inde eksplicit. Så deror vil vi gerne erstatte reskaleringsskemaet med et, der egner sig bedre til konkrete regninger. Et kvaliiceret bud på et brugbart skema kunne være ( B n = e β n/2 n.

23 8.2. Poissonregression 6 Denne normering ville øre til at D 2 l n (, = ( B T n D 2 l(α,β B n ( γ n nγ n γ 2n = e α n nγ n γ 2n n 2 γ n 2nγ 2n +γ 3n γ n γ n = e α n γ 2n γ n n γ 2n γ n 2 n γ 2n+ γ. n 2 3n ( n Hera alæses let at D 2 l n (, e α e β ( or n. Og alt ser således strålende ud - indtil man opdager at grænsematricen ikke er positivt deinit: de to søjler er lineært ahængige. Så (B n -sekvensen ører til reskalerede kombinanter, der ikke opylder regularitetsbetingelse A. En væsentlig mindre oplagt ide er at bruge reskaleringsskemaet ( C n = e β n/2 n. Vi har at ( C n = e β n/2 n, ( ( T Cn = e β n/2 n. Og dermed vil den reskalerede loglikelihoodunktion å anden aledet D 2 l n (, = ( C T n D 2 l(α,β C n ( ( γ n nγ n γ 2n n = e α n nγ n γ 2n n 2 γ n 2nγ 2n +γ 3n γ n γ 2n = e α γ 2n γ 3n ( e β e e β ( e β 2 α e β ( e β 2 e β ( +e β ( e β 3.

24 62 Kapitel 8. Regressionsmodeller Grænsematricen er symmetrisk, med determinant e 2α e β ( +e β ( e β 4 e 2α e 2β ( e β 4 = e 2α e β ( e β 4, der ses at være skarpt positiv. Da diagonalelementerne er positive, ser vi også at grænsen har positivt spor. Hera ølger at begge egenværdier er strengt positive. Altså er denne grænsematrix positivt deinit! Med lidt arbejde kan man overøre de øvrige regularitetsbetingelser ra (A n -skemaet til (C n -skemaet. Vi vil ikke gå i detaljer med det her, ligesom vi ikke vil orsøge at bevise at regularitetsbetingelse B er opyldt med (C n -skemaet - det er det, men det er ikke specielt nemt at å regningerne til at gå op. Når vi springer disse regninger over, er det ordi pointen med eksemplet ikke så meget er at regularitetsbetingelserne er opyldt - det er i stedet en illustration a at ret komplekse reskaleringsskemaer kan være nødvendige. I den indledende gennemgang a den asymptotiske teori okuserede vi udelukkende på n-reskalering. Det er også uldt tilstrækkeligt or iid-modeller, men det er ikke altid det rigtige når enkeltobservationerne har varierende ordeling. Vi har set en række regressionsmodeller, hvor den oplagte reskalering involverer kovariaterne, og også ote den sande parameter. Det er dog ikke nødvendigvis anderledes end den simple n-reskalering. Ote giver det god mening at orestille sig at kovariaterne til de enkelte observationer er tilældige - at der er tale om iid observationer ra en kovariatordeling. Kovariatordelingen er i så ald en del a den ulde speciikation a modellen, men den er ikke inkluderet i interesseparameteren. Hvis denne orestilling giver mening, så kan store tals lov som regel bruges til at vise at det kovariatahængige reskaleringsskema er asymptotisk ækvivalent med et n-skema. Og det betyder at de indviklede reskaleringsskemaer blot er et teknisk hjælpemiddel. Men hvis kovariaterne ikke kan opattes som tilældige, kan man å situationer rem hvor n-skalering ikke slår til, og det er sådan et eksempel vi har set på her. Det naturlige reskaleringsskema (8.22, baseret på overvejelser om eksponentielle amilier, kan ganske vist erstattes a simplere skemaer. Men så simple kan disse skemaer nu ikke gøres. En ting er at n-skalering er helt irrelevant - det skyldes den eksplosive opørsel a kovariaterne. Men man kan heller ikke bruge et andet isotropt skema, det vil sige et skema a ormen D n = d n I hvor (d n er en reel talølge. Et isotropt skema behandler alle retninger ens, men i dette tilælde må man nødvendigvis bruge orskellige skaleringer i orskellige retninger. Og or at gøre det endnu være: Man kan ikke bruge et reskaleringsskema bestående a diagonalmatricer. Forsøger man det, vil

25 8.2. Poissonregression 63 man se samme deekt som vi observerede med (B n -skemaet - det kan godt være at man kan å konvergens a D 2 l n mod en grænsematrix, men grænsematricen vil ikke være positivt deinit. Man er nødt til at skulle ud i ikke-diagonale skemaer or at der er håb om at regularitetsbetingelserne kan være opyldt. Lad os slutte a med kort at diskutere hvad der sker hvisβ<, or så er sagen i virkeligheden endnu værre end hvad ovenstående diskussion lader ane. Middelværdisætningen ortæller at e x x (, e or x (,. Hvisβ<, så vil e α+β n (, når n er større end et passende n. Dermed er n=n P(Y n = ( e e α+β n < e α+β n+ <. n=n n=n Borel-Cantellis lemma ortæller at Y n = ra et vist trin. Eter det trin år vi simpelthen ingen inormation om noget som helst, og slet ikke omαogβ. Deror er maksimaliseringsestimatoren ikke konsistent (det er der or den sags skyld heller ikke andre estimatorer, der er. Konklusionen er at regularitetsbetingelserne umuligt kan være opyldt, uanset hvilket reskaleringsskema vi orsøger os med.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2002 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Klassisk Taylors formel

Klassisk Taylors formel p. 1/17 Klassisk Taylors formel Sætning Lad f : (a, b) R være n gange differentiabel. For x 0, x (a, b) findes et ξ mellem x 0 og x der opfylder at f(x) = f(x 0 )+ f (x 0 ) 1! (x x 0 )+...+ f(n 1) (x 0

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 11 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske

Læs mere

Trykfejlsliste - alle fejl Asymptotisk teori

Trykfejlsliste - alle fejl Asymptotisk teori 9. januar 2005 Stat 2A / EH Trykfejlsliste - alle fejl Asymptotisk teori Denne liste indeholder alle de regulære fejl, slåfejl og stavefejl der er fundet i 2A-noterne indtil nu. 9 1 Forkert: x C x ro alle

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2005 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Asymptotisk testteori

Asymptotisk testteori Kapitel 8 Asymptotisk testteori Vi vil nu beskæftige os med den asymptotiske teori for estimation under pæne hypoteser og for test af disse hypoteser. Vi skal især undersøge det forhold at hvis den fulde

Læs mere

En martingalversion af CLT

En martingalversion af CLT Kapitel 9 En martingalversion af CLT Når man har vænnet sig til den centrale grænseværdisætning for uafhængige, identisk fordelte summander, plejer næste skridt at være at se på summer af stokastiske variable,

Læs mere

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1TS Teoretisk statistik Den skriftlige prøve Sommer 2003 3 timer - alle hjælpemidler tilladt Det er tilladt at skrive

Læs mere

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser Uge 43 I Teoretisk Statistik,. oktober 3 Simpel lineær regressionsanalyse Forudsigelser Fortolkning af regressionsmodellen Ekstreme observationer Transformationer Sammenligning af to regressionslinier

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

4 Sandsynlighedsfordelinger og approksimationer

4 Sandsynlighedsfordelinger og approksimationer 4 Sandsynlighedsordelinger og approksimationer 4. Sandsynlighedsordeling or specielle diskrete variable 4.. Bernoulliordelingen En indikatorvariabel (dummyvariabel) er en variabel, som viser (indikerer)

Læs mere

Den lineære normale model

Den lineære normale model Den lineære normale model Ingredienser: V : N-dimensionalt vektorrum. X : Ω V : stokastisk variabel. L : ægte underrum af V, dimension k., : fundamentalt indre produkt på V. Vi laver en hel familie af

Læs mere

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET.

NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. NATURVIDENSKABELIG KANDIDATEKSAMEN VED KØBENHAVNS UNIVERSITET. Eksamen i Statistik 1 Tag-hjem prøve 1. juli 2010 24 timer Alle hjælpemidler er tilladt. Det er tilladt at skrive med blyant og benytte viskelæder,

Læs mere

Rettevejledning til Økonomisk Kandidateksamen 2006II, Økonometri 1

Rettevejledning til Økonomisk Kandidateksamen 2006II, Økonometri 1 Rettevejledning til Økonomisk Kandidateksamen 6II, Økonometri Vurderingsgrundlaget er selve opgavebesvarelsen og bilaget. Programmer og data, som er aleveret elektronisk, bedømmes som sådan ikke, men er

Læs mere

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30

Områdeestimator. X x. P θ. ν θ. Θ C(x) En områdeestimator er en afbildning C : X P(Θ). . p.1/30 Områdeestimator X (Ω, F) (X, E) x 01 01 P θ ν θ θ Θ 0000 1111 000000 111111 0000 1111 0000 1111 C(x) En områdeestimator er en afbildning C : X P(Θ).. p.1/30 Konfidensområde En områdestimator C : X P(Θ)

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås

5.3 Konvergens i sandsynlighed Konvergens i sandsynlighed 55. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås 5.3. Konvergens i sandsynlighed 55 BEVIS: Lad φ 1, φ 2,... og φ være de karakteristiske funktioner for X 1, X 2,... og X. Hvis vi regner den karakteristiske funktion for X, v ud i argumentet 1, fås φ X,v

Læs mere

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 For test med signifikansniveau α: p < α forkast H 0 2/19 p-værdi Betragt tilfældet med test for H 0 : µ = µ 0 (σ kendt). Idé: jo større

Læs mere

Matematik & Statistik

Matematik & Statistik Matematik & Statistik Simon Kaiser August 6 FORORD... - 4 - KAPITEL 1: SIMPLE REGNEREGLER OG LIGNINGER... - 5-1. ELEMENTÆRE REGNEREGLER...- 5-1.1 Parentesregning... - 5-1. Brøkregneregler... - 5-1..1 Generelle

Læs mere

Lineære normale modeller (4) udkast

Lineære normale modeller (4) udkast E6 efterår 1999 Notat 21 Jørgen Larsen 2. december 1999 Lineære normale modeller (4) udkast 4.5 Regressionsanalyse 4.5.1 Præsentation 1 Regressionsanalyse handler om at undersøge hvordan én målt størrelse

Læs mere

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Motivation Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Rasmus Waagepetersen October 26, 2018 Eksempel: En landmåler får til opgave at måle længden λ fra A til B. Entreprenøren

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Lokal estimationsteori

Lokal estimationsteori Kapitel 5 Lokal estimationsteori 5.1 Konsistens Vores første delmål er at sikre at regularitetsbetingelserne medfører at den reskalerede konkordanskombinant med meget stor sandsynlighed har en positivt

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02) SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

Kap 5 - beviser - matematikb2011

Kap 5 - beviser - matematikb2011 Kap 5 - beviser - matematikb0 Indhold Dierentiation a ln Bevis nr.... Dierentiation a ln Bevis nr.... 4 Dierentiation a e Bevis nr.... 5 Dierentiation a e Bevis nr.... 6 Dierentiation a! Bevis nr.... 8

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 3 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 38 Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte)

Læs mere

Taylors formel. Kapitel Klassiske sætninger i en dimension

Taylors formel. Kapitel Klassiske sætninger i en dimension Kapitel 3 Taylors formel 3.1 Klassiske sætninger i en dimension Sætning 3.1 (Rolles sætning) Lad f : [a, b] R være kontinuert, og antag at f er differentiabel i det åbne interval (a, b). Hvis f (a) = f

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Multipel Lineær Regression Sidst så vi på simpel lineær regression, hvor y er forklaret af én variabel. Der er intet, der forhindre os i at have mere

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007 regressionsmodel 1 Dagens program Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5, E.2) Variansen

Læs mere

Grønt forløb: Terningekast. Trin: 4. klasse Fag: Matematik Opgave: Terningekast Antal lektioner: 4 lektioner

Grønt forløb: Terningekast. Trin: 4. klasse Fag: Matematik Opgave: Terningekast Antal lektioner: 4 lektioner Grønt orløb: Terningekast Trin: 4. klasse Fag: Matematik Opgave: Terningekast Antal lektioner: 4 lektioner INDHOLD INTRO... 3 ARBEJDSFORM... 3 FÆLLES MÅL... 3 DET GRØNNE FORLØB... 4 KODNING, SPROG OG SIKKERHED...4

Læs mere

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k Dagens program: Likelihoodfunktion, begreber : Mandag den 4. februar Den generelle lineære model score-funktion: første afledede af log-likelihood har middelværdien nul observeret information: anden afledede

Læs mere

Regressionsmodeller. Kapitel Ikke-lineær regression

Regressionsmodeller. Kapitel Ikke-lineær regression Kaptel 0 Regressonsmodeller V vl dette kaptel dskutere eksempler på mere komplceret modeller, med observatoner, der nok er uahængge, men kke dentsk ordelte I sådanne modeller kan der opstå et naturlgt

Læs mere

Statistik og Sandsynlighedsregning 2

Statistik og Sandsynlighedsregning 2 Statistik og Sandsynlighedsregning 2 Normalfordelingens venner og bekendte Helle Sørensen Uge 9, onsdag SaSt2 (Uge 9, onsdag) Normalfordelingens venner 1 / 20 Program Resultaterne fra denne uge skal bruges

Læs mere

Projekt 4.12 Definition og differentiation af sammensat funktion og omvendt funktion

Projekt 4.12 Definition og differentiation af sammensat funktion og omvendt funktion ISBN 978-87-766-498- Projekter: Kapitel 4. Projekt 4. Deinition og dierentiation a sammensat unktion og omvendt unktion Projekt 4. Deinition og dierentiation a sammensat unktion og omvendt unktion Materialerne

Læs mere

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller Type I og type II fejl Type I fejl: forkast når hypotese sand. α = signifikansniveau= P(type I fejl) Program (8.15-10): Hvis vi forkaster når Z < 2.58 eller Z > 2.58 er α = P(Z < 2.58) + P(Z > 2.58) =

Læs mere

Endeligdimensionale vektorrum

Endeligdimensionale vektorrum Endeligdimensionale vektorrum I det følgende betegner X, Y og Z endeligdimensionale vektorrum Gerne udstyret med en norm, evt et indre produkt Eksempel: En skævt beliggende plan i rummet, X = {v R 3 v,

Læs mere

Eksamen i Statistik for biokemikere. Blok

Eksamen i Statistik for biokemikere. Blok Eksamen i Statistik for biokemikere. Blok 2 2007. Vejledende besvarelse 22-01-2007, Niels Richard Hansen Bemærkning: Flere steder er der givet en argumentation (f.eks. baseret på konfidensintervaller)

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet Dagens program Økonometri Den multiple regressionsmodel 4. februar 003 regressionsmodel Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5)! Opsamling fra sidst

Læs mere

Normalfordelingen og Stikprøvefordelinger

Normalfordelingen og Stikprøvefordelinger Normalfordelingen og Stikprøvefordelinger Normalfordelingen Standard Normal Fordelingen Sandsynligheder for Normalfordelingen Transformation af Normalfordelte Stok.Var. Stikprøver og Stikprøvefordelinger

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

MATEMATIK NOTAT 09 - ASYMPTOTER AF: CAND. POLYT. MICHEL MANDIX

MATEMATIK NOTAT 09 - ASYMPTOTER AF: CAND. POLYT. MICHEL MANDIX MATEMATIK NOTAT 09 - ASYMPTOTER AF: CAND. POLYT. MICHEL MANDIX SIDSTE REVISION: OKTOBER 07 Michel Mandi (07) Side a 5 Indholdsortegnelse: INDHOLDSFORTEGNELSE:... ASYMPTOTER... 3 VANDRETTE ASYMPTOTER:...

Læs mere

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006 Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W

Læs mere

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at Likelihood teori Lineær regression (intro) Dagens Emner Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 1 ) = ( 2πσ 2)n/2 e 1 2 P n (xi µ)2 er tætheden som funktion af

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Lokalt ekstremum DiploMat 01905

Lokalt ekstremum DiploMat 01905 Lokalt ekstremum DiploMat 0905 Preben Alsholm Institut for Matematik, DTU 6. oktober 00 De nition Et stationært punkt for en funktion af ere variable f vil i disse noter blive kaldt et egentligt saddelpunkt,

Læs mere

Wigner s semi-cirkel lov

Wigner s semi-cirkel lov Wigner s semi-cirkel lov 12. december 2009 Eulers Venner Steen Thorbjørnsen Institut for Matematiske Fag Århus Universitet Diagonalisering af selvadjungeret matrix Lad H være en n n matrix med komplekse

Læs mere

Om første og anden fundamentalform

Om første og anden fundamentalform Geometri, foråret 2005 Jørgen Larsen 9. marts 2005 Om første og anden fundamentalform 1 Tangentrummet; første fundamentalform Vi betragter en flade S parametriseret med σ. Lad P = σu 0, v 0 være et punkt

Læs mere

Simpel Lineær Regression: Model

Simpel Lineær Regression: Model Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 + β 1 x + u, hvor fejlledet u, har egenskaben E[u x] = 0. Dette betyder bl.a. E[y x]

Læs mere

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Center for Statistik. Multipel regression med laggede responser som forklarende variable Center for Statistik Handelshøjskolen i København MPAS Tue Tjur November 2006 Multipel regression med laggede responser som forklarende variable Ved en tidsrække forstås i almindelighed et datasæt, der

Læs mere

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1 Økonometri 1 Inferens i den lineære regressionsmodel 25. september 2006 Økonometri 1: F6 1 Oversigt: De næste forelæsninger Statistisk inferens: hvorledes man med udgangspunkt i en statistisk model kan

Læs mere

Exponentielle familer, ark 2

Exponentielle familer, ark 2 1 Exponentielle familer, ark 2 Eksponentielle familier OPGAVE 21 Beksriv den eksponentielle familie på (R, B) givet ved følgende data: V er R med det sædvanlige indre produkt, den kanoniske stikprøvefunktion

Læs mere

1 Hb SS Hb Sβ Hb SC = , (s = )

1 Hb SS Hb Sβ Hb SC = , (s = ) PhD-kursus i Basal Biostatistik, efterår 2006 Dag 6, onsdag den 11. oktober 2006 Eksempel 9.1: Hæmoglobin-niveau og seglcellesygdom Data: Hæmoglobin-niveau (g/dl) for 41 patienter med en af tre typer seglcellesygdom.

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Økonometri: Lektion 6 Emne: Heteroskedasticitet Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 32 Konsekvenser af Heteroskedasticitet Antag her (og i resten) at MLR.1 til MLR.4 er opfyldt. Antag MLR.5 ikke er opfyldt, dvs. vi har heteroskedastiske

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål

Momenter som deskriptive størrelser. Hvad vi mangler fra onsdag. Momenter for sandsynlighedsmål Hvad vi mangler fra onsdag Momenter som deskriptive størrelser Sandsynlighedsmål er komplicerede objekter de tildeler numeriske værdier til alle hændelser i en σ-algebra. Vi har behov for simplere, deskriptive

Læs mere

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag.

Hvad vi mangler fra onsdag. Vi starter med at gennemgå slides fra onsdag. Hvad vi mangler fra onsdag Vi starter med at gennemgå slides 34-38 fra onsdag. Slide 1/17 Niels Richard Hansen MI forelæsninger 6. December, 2013 Momenter som deskriptive størrelser Sandsynlighedsmål er

Læs mere

Module 4: Ensidig variansanalyse

Module 4: Ensidig variansanalyse Module 4: Ensidig variansanalyse 4.1 Analyse af én stikprøve................. 1 4.1.1 Estimation.................... 3 4.1.2 Modelkontrol................... 4 4.1.3 Hypotesetest................... 6 4.2

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006 Dagens program Økonometri Den simple regressionsmodel 5. september 006 Den simple lineære regressionsmodel (Wooldridge kap.4-.6) Eksemplet fortsat: Løn og uddannelse på danske data Funktionel form Statistiske

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Algebra - Teori og problemløsning

Algebra - Teori og problemløsning Algebra - Teori og problemløsning, januar 05, Kirsten Rosenkilde. Algebra - Teori og problemløsning Kapitel -3 giver en grundlæggende introduktion til at omskrive udtryk, faktorisere og løse ligningssystemer.

Læs mere

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat.

Estimation. Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. Estimation Lad (ν θ ) θ Θ være en statistisk model på (X, E). En estimator af θ er en afbildning t : X Θ. En konkret værdi t(x) kaldes et estimat. En estimator er en gætteregel.. p.1/22 Estimation X acements

Læs mere

LiA 2 Side 0. Lineær algebra 3. kursusgang

LiA 2 Side 0. Lineær algebra 3. kursusgang LiA 2 Side 0 Lineær algebra 3. kursusgang LiA 2 Side 1 Højdeforskelle. D C 0.7 0.7 0.8 E LiA 2 Side 2 Vi har tre punkter C, D og E. Højderne er h C, h D, h E. (I det følgende benævnes disse også x, y,

Læs mere

Diagonalisering. Definition (diagonaliserbar)

Diagonalisering. Definition (diagonaliserbar) 1 Diagonalisering 2 Definition (diagonaliserbar) Lad A være en n n-matrix. A siges at være diagonaliserbar hvis A er similær med en diagonal matrix, dvs. A = PDP 1, hvor D er en n n diagonal matrix og

Læs mere

Statistik og Sandsynlighedsregning 2. IH kapitel 12. Overheads til forelæsninger, mandag 6. uge

Statistik og Sandsynlighedsregning 2. IH kapitel 12. Overheads til forelæsninger, mandag 6. uge Statistik og Sandsynlighedsregning 2 IH kapitel 12 Overheads til forelæsninger, mandag 6. uge 1 Fordelingen af én (1): Regressionsanalyse udfaldsvariabel responsvariabel afhængig variabel Y variabel 2

Læs mere

Anvendt Statistik Lektion 7. Simpel Lineær Regression

Anvendt Statistik Lektion 7. Simpel Lineær Regression Anvendt Statistik Lektion 7 Simpel Lineær Regression 1 Er der en sammenhæng? Plot af mordraten () mod fattigdomsraten (): Scatterplot Afhænger mordraten af fattigdomsraten? 2 Scatterplot Et scatterplot

Læs mere

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6 Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række

Læs mere

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22 Dagens Emner Likelihood teori Lineær regression (intro) p. 1/22 Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 ) = ( 1 2πσ 2)n/2 e 1 2σ 2 P n (x i µ) 2 er tætheden som

Læs mere

1 Regressionsproblemet 2

1 Regressionsproblemet 2 Indhold 1 Regressionsproblemet 2 2 Simpel lineær regression 3 2.1 Mindste kvadraters tilpasning.............................. 3 2.2 Prædiktion og residualer................................. 5 2.3 Estimation

Læs mere

Matematisk modellering og numeriske metoder. Lektion 13

Matematisk modellering og numeriske metoder. Lektion 13 Matematisk modellering og numeriske metoder Lektion 3 Morten Grud Rasmussen 3. november 206 Numerisk metode til Laplace- og Poisson-ligningerne. Finite difference-formulering af problemet I det følgende

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 1 Regressionsproblemet 2 Simpel lineær regression Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 3

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Estimation: Kapitel 9.1-9.3 Estimation Estimationsfejlen Bias Eksempler Bestemmelse af stikprøvens størrelse Konsistens De nitioner påkonsistens Eksempler på konsistente og middelrette estimatorer

Læs mere

Eksperimentel matematik Kommentarer til tag-med opgaver

Eksperimentel matematik Kommentarer til tag-med opgaver Eksperimentel matematik Kommentarer til tag-med opgaver Hypotesedannelse I har alle produceret grafer af typen 0.8 0.6 0.4 0.2 0 0. 0.2 0.3 0.4 0.5 (de lilla punkter er fundet ved en strenglængde på 35,

Læs mere

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Økonometri Lektion 1 Simpel Lineær Regression 1/31 Økonometri Lektion 1 Simpel Lineær Regression 1/31 Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Statistisk model: Vi antager at sammenhængen

Læs mere

Trykfejlsliste - alle fejl Introduktion til Matematisk Statistik 2. udgave

Trykfejlsliste - alle fejl Introduktion til Matematisk Statistik 2. udgave 3. februar 2012 Stat 1TS / EH Trykfejlsliste - alle fejl Introduktion til Matematisk Statistik 2. udgave Denne liste indeholder alle de regulære fejl, slåfejl og stavefejl der er fundet i 2. udgave af

Læs mere

Multipel regression. Data fra opgave 3 side 453: Multipel regressionsmodel: Y = α + β 1 x 1 + β 2 x 2 + ǫ. hvor ǫ N(0, σ 2 ).

Multipel regression. Data fra opgave 3 side 453: Multipel regressionsmodel: Y = α + β 1 x 1 + β 2 x 2 + ǫ. hvor ǫ N(0, σ 2 ). Program 1. multipel regression 2. polynomiel regression (og andre kurver) 3. kategoriske variable 4. Determinationkoefficient og justeret determinationskoefficient 5. ANOVA-tabel 1/13 Multipel regression

Læs mere

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Lineær Algebra. Lars Hesselholt og Nathalie Wahl Lineær Algebra Lars Hesselholt og Nathalie Wahl Oktober 2016 Forord Denne bog er beregnet til et første kursus i lineær algebra, men vi har lagt vægt på at fremstille dette materiale på en sådan måde,

Læs mere

Tidligere Eksamensopgaver MM505 Lineær Algebra

Tidligere Eksamensopgaver MM505 Lineær Algebra Institut for Matematik og Datalogi Syddansk Universitet Tidligere Eksamensopgaver MM55 Lineær Algebra Indhold Typisk forside.................. 2 Juni 27.................... 3 Oktober 27..................

Læs mere

Økonometri 1. Dummyvariabler 13. oktober Økonometri 1: F10 1

Økonometri 1. Dummyvariabler 13. oktober Økonometri 1: F10 1 Økonometri 1 Dummyvariabler 13. oktober 2006 Økonometri 1: F10 1 Dagens program Dummyvariabler i den multiple regressionsmodel (Wooldridge kap. 7.3-7.6) Dummy variabler for kvalitative egenskaber med flere

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger

Læs mere

Matematisk modellering og numeriske metoder. Lektion 5

Matematisk modellering og numeriske metoder. Lektion 5 Matematisk modellering og numeriske metoder Lektion 5 Morten Grud Rasmussen 19. september, 2013 1 Euler-Cauchy-ligninger [Bogens afsnit 2.5, side 71] 1.1 De tre typer af Euler-Cauchy-ligninger Efter at

Læs mere

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2 Økonometri 1 Den simple regressionsmodel 11. september 2006 Dagens program Den simple regressionsmodel SLR : Én forklarende variabel (Wooldridge kap. 2.1-2.4) Motivation for gennemgangen af SLR Definition

Læs mere

Bedste rette linje ved mindste kvadraters metode

Bedste rette linje ved mindste kvadraters metode 1/9 Bedste rette linje ved mindste kvadraters metode - fra www.borgeleo.dk Figur 1: Tre datapunkter og den bedste rette linje bestemt af A, B og C Målepunkter og bedste rette linje I ovenstående koordinatsystem

Læs mere

Modul 12: Regression og korrelation

Modul 12: Regression og korrelation Forskningsenheden for Statistik ST01: Elementær Statistik Bent Jørgensen Modul 12: Regression og korrelation 12.1 Sammenligning af to regressionslinier........................ 1 12.1.1 Test for ens hældning............................

Læs mere

Afstande, skæringer og vinkler i rummet

Afstande, skæringer og vinkler i rummet Afstande, skæringer og vinkler i rummet Frank Nasser 9. april 20 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her.

Læs mere

Eksamen 2014/2015 Mål- og integralteori

Eksamen 2014/2015 Mål- og integralteori Eksamen 4/5 Mål- og integralteori Københavns Universitet Institut for Matematiske Fag Formalia Eksamensopgaven består af 4 opgaver med ialt spørgsmål Ved bedømmelsen indgår de spørgsmål med samme vægt

Læs mere

Forelæsning 11: Kapitel 11: Regressionsanalyse

Forelæsning 11: Kapitel 11: Regressionsanalyse Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske Universitet 2800

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder Heteroskedasticitet 11. april 007 KM: F18 1 Oversigt: Heteroskedasticitet OLS estimation under heteroskedasticitet (W.8.1-): Konsekvenser af heteroskedasticitet for OLS Gyldige test

Læs mere

Module 9: Residualanalyse

Module 9: Residualanalyse Mathematical Statistics ST6: Linear Models Bent Jørgensen og Pia Larsen Module 9: Residualanalyse 9 Rå residualer 92 Standardiserede residualer 3 93 Ensidig variansanalyse 4 94 Studentiserede residualer

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

3.1 Baser og dimension

3.1 Baser og dimension SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V

Læs mere