Kvantitative metoder 2

Relaterede dokumenter
! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

Simpel Lineær Regression: Model

! Proxy variable. ! Målefejl. ! Manglende observationer. ! Dataudvælgelse. ! Ekstreme observationer. ! Eksempel: Lønrelation (på US data)

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2

Økonometri: Lektion 2 Multipel Lineær Regression 1/33

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

Økonometri 1. Dummyvariabler 13. oktober Økonometri 1: F10 1

! Husk at udfylde spørgeskema 3. ! Lineær sandsynlighedsmodel. ! Eksempel. ! Mere om evaluering og selvselektion

Kvantitative metoder 2

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Lagrange multiplier test. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet. Konsekvenser af Heteroskedasticitet

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Økonometri 1. FunktioneI form i den lineære regressionsmodel 19. oktober Dagens program

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Økonometri 1. Oversigt. Mere om dataproblemer Gentagne tværsnit og panel data I

Økonometri 1. Prediktion. Dummyvariabler 9. oktober Økonometri 1: F9 1

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1

Simpel Lineær Regression

Økonometri 1. Inferens i den lineære regressionsmodel 2. oktober Økonometri 1: F8 1

Anvendt Statistik Lektion 8. Multipel Lineær Regression

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser

Anvendt Statistik Lektion 7. Simpel Lineær Regression

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater

Note om Monte Carlo eksperimenter

Appendiks Økonometrisk teori... II

Økonometri 1. Interne evalueringer af forelæsninger. Kvalitative variabler. Dagens program. Dummyvariabler 21. oktober 2004

Forelæsning 11: Kapitel 11: Regressionsanalyse

Økonometri lektion 5 Multipel Lineær Regression. Inferens Modelkontrol Prædiktion

1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata

Module 3: Statistiske modeller

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Modul 6: Regression og kalibrering

Økonometri: Lektion 7 Emne: Prædiktionsintervaller, RESET teset, proxy variable og manglende data.

W.2 Simpel lineær regression: Egenskaber ved OLS: Forudsagte værdier og residualer: Et residual:

Økonometri 1. Inferens i den lineære regressionsmodel 29. september Økonometri 1: F7 1

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning

Module 9: Residualanalyse

To samhørende variable

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19

Eksempel Multipel regressions model Den generelle model Estimation Multipel R-i-anden F-test for effekt af prædiktorer Test for vekselvirkning

Module 4: Ensidig variansanalyse

Lineære normale modeller (4) udkast

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007

Analysestrategi. Lektion 7 slides kompileret 27. oktober :24 p.1/17

Økonometri 1. Kvalitative variabler. Kvalitative variabler. Dagens program. Kvalitative variable 8. marts 2006

12. september Epidemiologi og biostatistik. Forelæsning 4 Uge 3, torsdag. Niels Trolle Andersen, Afdelingen for Biostatistik. Regressionsanalyse

Økonometri: Lektion 5. Multipel Lineær Regression: Interaktion, log-transformerede data, kategoriske forklarende variable, modelkontrol

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Institut for Biostatistik. Regressionsanalyse

Statistik og Sandsynlighedsregning 2. IH kapitel 12. Overheads til forelæsninger, mandag 6. uge

Epidemiologi og biostatistik. Uge 3, torsdag. Erik Parner, Afdeling for Biostatistik. Eksempel: Systolisk blodtryk

men nu er Z N((µ 1 µ 0 ) n/σ, 1)!! Forkaster hvis X 191 eller X 209 eller

Lineær regression: lidt mere tekniske betragtninger om R 2 og et godt alternativ

Kapitel 11 Lineær regression

Multipel regression. Data fra opgave 3 side 453: Multipel regressionsmodel: Y = α + β 1 x 1 + β 2 x 2 + ǫ. hvor ǫ N(0, σ 2 ).

Statistik Lektion 4. Variansanalyse Modelkontrol

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Statistik Lektion 16 Multipel Lineær Regression

Rettevejledning til Økonomisk Kandidateksamen 2007II. Kvantitative Metoder 2: Tag-hjem eksamen

enote 5: Simpel lineær regressions analyse Kursus 02402/02323 Introducerende Statistik Oversigt

Kursus 02402/02323 Introducerende Statistik

Oversigt. 1 Motiverende eksempel: Højde-vægt. 2 Lineær regressionsmodel. 3 Mindste kvadraters metode (least squares)

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Kvantitative metoder 2

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at

Dagens Temaer. Test for lineær regression. Test for lineær regression - via proc glm. k normalfordelte obs. rækker i proc glm. p. 1/??

1 Ensidet variansanalyse(kvantitativt outcome) - sammenligning af flere grupper(kvalitativ

Institut for Matematiske Fag Matematisk Modellering 1 UGESEDDEL 6

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)

Rettevejledning til Økonomisk Kandidateksamen 2004I, Økonometri 1

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund

Appendiks A Anvendte test statistikker

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ

Transkript:

Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007 regressionsmodel 1

Dagens program Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5, E.2) Variansen på OLS estimatoren Multikollinaritet Variansen i misspecificerede modeller Estimator for variansen på fejlleddet Gauss-Markov teoremet regressionsmodel 2

Variansen på OLS estimatoren Antagelserne MLR 1-MLR 5 kaldes Gauss-Markov antagelserne Teorem 3.2 Under antagelserne MLR 1-MLR 5 er variansen af OLS estimatoren givet ved Var( ˆ β X ) = σ ( X ' X ) 2 1 X er en nx(k+1) matrix Parameteren β er en (k+1)x1 matrix (vektor) regressionsmodel 3

Variansen af OLS estimatoren (fortsat) Matrixformen for variansen er som regel lettest at arbejde med Til at fortolke variansen kan det være lettere at benytte følgende opskrivning af variansen hvor n SST = ( x x ) j ij j i= 1 var( ˆ β ) = 2 j SST 2 σ 2 j(1 R j ) og R j 2 stammer fra regressionen af x j på de øvrige forklarende variable Bevis for ovenstående opskrivning af variansen se appendix i kap. 3 regressionsmodel 4

Variansen.. (fortsat) De tre komponenter i variansen Variansen af fejlleddet: Jo større varians på fejlleddet jo større varians på alle estimatorerne Variationen i x j Jo større variation i x j jo mindre varians på estimatoren for β j Variation R 2 j Jo tættere R 2 j er på 0 jo mindre er variansen på estimatoren for β j Mindst varians opnås ved R 2 j=0 hvilket svarer til at x j er ukorreleret med de øvrige forklarende variable Jo tættere R 2 j er på 1 jo større er variansen på estimatoren for β j Hvis antagelsen MLR 4 er opfyldt er R 2 j altid forskellig fra 1 regressionsmodel 5

Multikollinaritet Multikollinaritet optræder, når R j2 er tæt på 1 Følgerne af multikollinaritet: Variansen på estimatoren β j vil være stor (se figur 3.1) Hvornår optræder multikollinarietet: Når nogle af de forklarende variable er højt korreleret Når der er få observationer regressionsmodel 6

Multikollinariet (fortsat) Er det et problem, at der er multikollinaritet? Det afhænger af hvor stor variansen på estimatorerne bliver Det afhænger af hvad analysen skal bruges til Høj korrelation mellem nogle af de forklarende variable betyder ikke så meget, hvis det ikke er estimaterne til disse parametre, man primært er interesseret i Hvad stiller man op med multikollinaritet Indsaml mere data Drop en eller flere variable fra modellen. Dette er dog langt fra altid en god ide (problemer med udeladte variable) regressionsmodel 7

Variansen i misspecificerede modeller Variansen i misspecificerede modeller illustreres ved et eksempel Antag følgende model opfylder Gauss-Markov antagelserne: y = β + β x + β x + u Vi har to estimatorer af β 1: OLS estimatoren fra MLR: OLS estimatoren fra SLR: Variansen: 0 1 1 2 2 Var( ˆ β x, x ) = σ /( SST (1 R ) 2 2 1 1 2 1 1 Var( % β x, x ) = σ /( SST ) 2 1 1 2 1 ŷ = ˆ β + ˆ β x + ˆ β x y% = % β + % β x 0 1 1 2 2 0 1 1 regressionsmodel 8

Variansen i misspecificerede modeller (fortsat) Den betingede varians af % β er altid mindre end (eller lig med) variansen af ˆβ Hvis x 1 og x 2 er ukorreleret er variansen den samme og begge estimatorer middelrette Hvis β 2 =0 er begge estimatorer middelrette og % β har mindst varians. Altså % β foretrækkes Hvis β 2 0 er middelret mens er biased. Variansen af % ˆβ % β β er mindst. Det er ikke oplagt hvilken estimator som foretrækkes. regressionsmodel 9

Estimatet på variansen af fejlleddet Estimatoren på variansen på fejlleddet udregnes stort set som i den simple regressionsmodel Ud fra OLS estimaterne kan residualerne beregnes: uˆ = y ˆ β ˆ β x... ˆ β x Estimatet beregnes til: Nævneren er bestemt til at være antallet af frihedsgrader i i 0 1 i1 k ik n i 2 i= 1 ˆ σ = (antal obs.) (antal estimerede parametre) n ( uˆ ) 2 k 1 regressionsmodel 10

Estimatet af variansen på fejlleddet (fortsat) Teorem 3.3 Hvis Gauss-Markov antagelserne (MLR 1- MLR 5) er opfyldt, er estimatoren for variansen af fejlleddet middelret: 2 2 E( ˆ σ ) = σ regressionsmodel 11

Gauss-Markov teoremet Hvis Gauss-Markov antagelserne er opfyldt, kan man vise, at OLS estimatoren er den estimator, som har den mindste varians blandt lineære middelrette estimatorer Hvorfor er det at vigtigt at bruge en estimator med mindst mulig varians? OLS kaldes også BLUE for Best (mindst varians) Linear Unbiased Estimator regressionsmodel 12

Gauss-Markov teoremet Teorem 3.4 Under Gauss-Markov antagelserne (MLR 1- MLR 5) gælder der, at OLS estimatorerne for β 0, β 1,β 2,,β k er BLUE Bevis (se appendix E.2) (tavlegennemgang) regressionsmodel 13

Næste gang Wooldridge kap 4.1-4.4 + note om Monte Carlo simulationer på hjemmesiden for forelæsningerne regressionsmodel 14