Appendiks Økonometrisk teori... II De klassiske SLR-antagelser... II Hypotesetest... VII Regressioner... VIII Inflation:... VIII Test for SLR antagelser... IX Reset-test... IX Plots... X Breusch-Pagan test... X Boligpriser... X Test for SLR antagelser... XI Reset test... XI Plots... XII 1 Breusch-Pagan test... XII Analyse af skattestop... XIII Analyse af afdragsfrie lån... XIII I
Økonometrisk teori 1 De klassiske SLR-antagelser SLR 1 (lineær parametre) Første betingelse er, at populationen kan opskrives som en lineær sammenhæng Dette betyder, at de uafhængige koefficienter skal indgå i en lineær sammenhæng som ovenfor, hvor og er populationens skæring og hældning. Udover en lineær sammenhæng er der flere betingelser, der skal være opfyldt ifølge SLR 1. Den korrekte funktionel form skal være opfyldt, dvs. at der ikke forsøges at forklare en kurve ud fra en linje De korrekte data er brugt, dvs., at der ikke er udeladt nogen vigtige forklarende variable. Er der udeladt vigtige forklarende variable, vil parametrene blive biased. Dette er mere kritisk end at benytte for mange forklarende variable, da dette vil få betydning for variansens størrelse, men ikke for om hvorvidt parametrene er unbiased eller biased. At fejlleddet kan adderes på den lineære ligning. 1 Test for SLR 1 For at teste om SLR1 er opfyldt benyttes to tests. Den ene hedder en RESET test (Regression Specification Error Term). Denne test beregner, om den funktionelle form er korrekt. Mere præcist tilføjer den en ekstra variabel, der er potenser af de beregnede estimater. Denne test beregnes som en F-test, og en H 0 hypotese opstilles. Hvis de ekstra variable er signifikante, forkastes H 0 hypotesen, og den funktionelle form er derfor ikke korrekt. Den nye ligning kommer derfor til at se således ud: Der testes altså for, om δ 1 har indflydelse på y. Er dette tilfældet, er den korrekte funktionelle form ikke opnået, og SLR 1 er brudt. 2 Hypoteserne bliver derfor: 1 Wooldridge (09) Kap. 2 II
H 0 : δ 1 = 0, H 1 : δ 1 0 En anden test, der kan benyttes, er testen for irrelevante variable. Til denne benyttes en t-test, hvor en H 0 hypotese opstilles, hvor de estimerede variable sættes til at være lig 0. Er nogle af de estimerede variable ikke signifikante, vil der være irrelevante variable i regression. Den sidste test kan dog kun foretages, hvis SLR er overholdt, således at fejlleddene er homoskedastiske. Hvis SLR 1 ikke er overholdt, medfører dette, at parametrene er biased. SLR 2 (tilfældig stikprøve) Stikprøven, der udtages, skal således være uafhængig af andre stikprøver, og repræsentanterne skal være tilfældige. Test for SLR2 For at se om SLR2 er overholdt, vurderes dataene. Her skal man lægge særlig vægt på, om dataene er repræsentative, og om de er opsamlet på helt tilfældigt grundlag. Er dette ikke tilfældet er parametrene biased. 1 SLR 3 (stikprøvevariation) Stikprøveværdierne, må ikke være af samme værdi. Dette sker sjældent, for hvis x varierer i populationen vil den typisk også gøre det i stikprøven. Test for SLR 3 Hvis standardafvigelse for x i er lig nul, så er SLR 3 brudt. Er dette ikke tilfældet vil SLR 3 være opfyldt. Simpel inspektion af data vil typisk afsløre om SLR 3 er brudt. SLR 4 (Betinget middelværdi nul) Dette betyder, at fejlleddet u har en forventet værdi på 0 for alle værdier af den uafhængige variable 2 Dette betyder at fejlleddet ikke må være korreleret med den forklarende variable. Test for SLR 4 III
Hvis antagelse SLR 4 om at fejlleddet skal have en forventet værdi på 0 er brudt, bliver estimaterne biased. Et eksempel på dette kunne være en regression mellem indkomst og uddannelse. (Wooldridge 09) Her vil estimaterne blive biased, da der ikke er den korrekte sammenhæng mellem indkomst og uddannelse. Den rigtige sammenhæng er uddannelse kvadreret og indkomst Ovenstående ligning vil være den korrekte at bruge til regression, og disse estimater vil blive unbiased. 1 En anden måde hvorpå SLR 4 ikke er opfyldt er, hvis en forklarende variable udelades. Er dette tilfældet vil de allerede eksisterende variable i regressionen absorbere noget af den sammenhæng, der er mellem den udeladte forklarende variabel og den afhængige. En korrekt regressionsligning med to forklarende variabel ser således ud: Kendes det korrekte forhold ikke og derfor kun benyttes én forklarende variabel, vil der fås et ukorrekt forhold mellem den afhængige variabel og den forklarende. Herunder opstilles en ligning, hvor en forklarende variabel udelades: Der fås nu en sammenhæng mellem estimaterne der ser således ud, hvor der er mellem de to forklarende variable. er den sammenhæng IV
Vi får nu Da begge forklarende variable er relevante, er, og derfor er det kun hvis, at vores estimat er unbiased. Ellers vil det blive biased, idet sammenhængen mellem den forklarende variabel og den afhængige ikke bliver korrekt. For at teste om SLR 4 er overholdt anvendes ligeledes en RESET test. Hvis SLR 4 ikke er overholdt, vil de tilføjede ikke lineære forklarende variable blive signifikante. På denne måde kan RESET testen også afsløre om SLR 4 er overholdt. SLR 4 kontrolleres yderligere ved at indsætte residualerne i et plot for netop at se om SLR 4 er overholdt. Det grafiske plot kan ikke anvendes som et bevis men som en yderligere indikator for, hvorvidt SLR 4 er overholdt. SLR (homoskedastiske fejlled) Fejlleddet u har samme varians for enhver værdi af den forklarende variabel 1 Dette kan forklares ud fra figur x. Som det ses på figur x har observationerne ikke samme fordeling af fejlleddet. I starten ligger observationerne meget tæt på linjen. I næste sektion har fejlleddet en anden fordeling, og i tredje sektion ligger fejlleddene endnu længere fra hinanden. På den måde har fejlleddene ikke samme fordeling af variansen, og derved viser denne graf heteroskedastiske fejlled. Figur 1 2 V
Test for SLR Hvis SLR ikke er opfyldt er der heteroskedasticitet i fejlleddene. Dette betyder, at der ikke længere er samme varians mellem fejlleddene. Ved homoskedastiske fejlled er variansen den samme Ved heteroskedastiske fejlled På denne måde er estimaterne ikke længere BLUE, altså er det ikke længere den bedste lineære estimation. Det er således vigtigt at teste for om vores fejlled er homoskedastiske eller ej. Der vil blive anvendt to test for kontrollere for homoskedastiske fejlled. Den første der introduceres er Breusch-Pagan testen. En lineær sammenhæng antages og følgende relation mellem fejlleddene fås: Ved denne antagelse fås følgende H 0 hypotese: Denne hypotese testes ved at erstatte de sande fejlled med OLS residualerne. Disse udregnes som F-test eller LM-test (lagrange multiplier) δ 1 Regressionen af OLS residualerne udføres og noteres. F-test størrelsen LM- test størrelsen Hjælperegressionen bliver således for en forenklet regression Testen konstrueres som en LM test og bliver således VI
Hvis SLR ikke er overholdt, og estimaterne er heteroskedastiske, er fejlledendes varians ikke konstante. Dette betyder at OLS ikke længere opfylder BLUE betingelserne. Der kan derfor være andre metoder der er bedre at benytte. Idet fejlleddenes varians ikke er konstant, vil OLS estimaterne ikke følge en T- eller F-fordeling. En hypotesetest under SLR vil derfor ikke være valid. Hypotesetest Da det ønskes at teste de forskellige antagelser benyttes hypotesetest også kaldet signifikanstest. Der vil nu være en kort gennemgang af hvad signifikansniveau, samt F - og T- test betyder i denne sammenhæng. 1 Inden der laves en hypotesetest, vælges et signifikansniveau. Signifikansniveauet er et tal således at H 0 -hypotesen forkastes, hvis p-værdien er mindre end. Vælges et signifikansniveau på % vil man kun forkaste H 0 -hypotesen, hvis p-værdien, som er sandsynligheden for at man tager fejl, er under de %. En H 0 -hypotese kan forkastes men aldrig accepteres. Hvis H 0 -hypotesen forkastes accepteres den alternative hypotese, H 1. Hvis H 0 -hypotesen forkastes selvom den er sand, kaldes dette en Type 1-fejl. Sandsynligheden for en type 1-fejl er således det valgte signifikansniveau. Type 2 fejl er sandsynligheden for at en H 0 -hypotese ikke forkastes, selvom denne er falsk. Når der hypotesetestes ønskes det at finde ud af om en enkelt eller en gruppe af variable, har signifikans for modellen. En populationsmodel kan se således ud: Ved OLS er estimatorerne unbiased og benævnes for den enkelte koefficient hypoteser om en specifik. For at undersøge benyttes en t-test. For at teste flere hypoteser omkring parametrene anvendes en F-test. Disse parametre ønskes undersøgt, og derved laves hypoteser, hvorved der kan testes for deres betydning i modellen. 2 En F-test bruges til, at sammenligne forskellen mellem to modeller. En F-model er konstrueret ud fra to tilfældige variable der begge følger en chi 2 fordeling, hvor de er delt med graderne af frihed. Denne følger nu en F-fordeling. F-test er ofte anvendt når der ønskes at teste grupper af variable for forskellige sammenhæng. 30 For at teste om en enkelt variabel kan udelades i en model kan t-testen bruges. F-testen kan også bruges hertil, men kun hvis det er en tosidet test. Ved en t-test kan en variabel være insignifikant i VII
sig selv, men ved en F-test kan det vise sig, at variablen i en gruppe af andre variable kan have stor signifikans. Dette gælder også omvendt, hvor en enkelt variabel kan få betydning for hele gruppen, selvom denne variabel ved en t-test vil være insignifikant. Derfor er det altså igen vigtigt at H 0 -hypotesen kun forkastes og ikke accepteres. Det gælder altså for F-test at denne anvendes ved at teste om et sæt af variable er forskellig fra nul, mens t-test anvendes ved at teste en enkelt hypotese. En t-test er konstrueret ud fra en student s t-distribution, der ligner en normal fordeling, med større volumen i lower- og uppertail. Når den ene eller anden test udføres, vil der udover H 0 -hypotesen og den alternative H 1 -hypotese være et signifikansniveau der skal bestemmes. Ved testen findes en kritisk værdi, og ud fra signifikansniveauet vil man enten forkaste eller ikke forkaste H 0 -hypotesen. Er p-værdien lavere end signifikansniveauet forkastes H 0 -hypotesen. P-værdien er en sandsynlighed og ligger derfor altid mellem 0 og 1. 2 1 Regressioner Inflation: Script window: RegModel.2 <- lm(inflation~pengemængde.index, data=projekt) summary(regmodel.2) Output Window Call: lm(formula = Inflation ~ pengemængde.index, data = Projekt) Residuals: 2 Min 1Q Median 3Q Max -0.8363-0.3072-0.78 0.340 1.4078 Coefficients: Estimate Std. Error t value Pr(> t ) 2 Wooldridge (09) VIII
(Intercept) 2.1171221 0.90997 2.226 0.0613. pengemængde.index -0.0006213 0.0060290-0.3 0.98 --- Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.0 '.' 0.1 ' ' 1 Residual standard error: 0.7122 on 7 degrees of freedom Multiple R-squared: 0.0011,... Adjusted R-squared: -0.1411 F-statistic: 0.062 on 1 and 7 DF, p-value: 0.98 Test for SLR antagelser Reset-test Script window resettest(inflation ~ pengemængde.index, power=2:3, type="fitted", data=projekt) Output window 1 > resettest(inflation ~ pengemængde.index, power=2:3, type="fitted", + data=projekt)... RESET test data: Inflation ~ pengemængde.index RESET = 1.3323, df1 = 2, df2 =, p-value = 0.3437 Residual standard error: 0.7122 on 7 degrees of freedom Multiple R-squared: 0.0011,... Adjusted R-squared: -0.1411 2 F-statistic: 0.062 on 1 and 7 DF, p-value: 0.98 IX
Plots Script window oldpar <- par(oma=c(0,0,3,0), mfrow=c(2,2)) plot(regmodel.) par(oldpar) Plot Breusch-Pagan test Script Window bptest(inflation ~ pengemængde.index, varformula = ~ fitted.values(regmodel.1), studentize=false, data=projekt) Output Window > bptest(inflation ~ pengemængde.index, varformula = ~ + fitted.values(regmodel.1), studentize=false, data=projekt) 1... Breusch-Pagan test data: Inflation ~ pengemængde.index BP = 2.326, df = 1, p-value = 0.1273 Boligpriser Script window RegModel.3 <- lm(boligprisindex~pengemængde.index, data=projekt) X
summary(regmodel.3) Output window Call: lm(formula = Boligprisindex ~ pengemængde.index, data = Projekt) Residuals: Min 1Q Median 3Q Max -28.63 -.309-3.336 7.719 24.232 Coefficients: Estimate Std. Error t value Pr(> t ) (Intercept) 42.61 21.9937 1.93 0.09418. pengemængde.index 0.6077 0.1394 4.38 0.00332 ** --- 1 Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.0 '.' 0.1 ' ' 1 Residual standard error: 16.47 on 7 degrees of freedom Multiple R-squared: 0.7307,... Adjusted R-squared: 0.6923 F-statistic: 19 on 1 and 7 DF, p-value: 0.003321 Test for SLR antagelser Reset test Script window resettest(boligprisindex ~ pengemængde.index, power=2:3, type="fitted", data=projekt) 2 Output window > resettest(boligprisindex ~ pengemængde.index, power=2:3, type="fitted", XI
+ data=projekt) RESET test data: Boligprisindex ~ pengemængde.index RESET = 7.083, df1 = 2, df2 =, p-value = 0.0001864 Plots Script window oldpar <- par(oma=c(0,0,3,0), mfrow=c(2,2)) plot(regmodel.3) par(oldpar) Plot Breusch-Pagan test Script window bptest(boligprisindex ~ pengemængde.index, varformula = ~ 1 fitted.values(regmodel.2), studentize=false, data=projekt) Output window Breusch-Pagan test data: Boligprisindex ~ pengemængde.index BP = 3.761, df = 1, p-value = 0.0261 XII
Analyse af skattestop Beregnet månedlig ydelse ved køb af enfamiliesbolig Den Konstante ydelse på annuitetslånet ( af kapitakindvindingsfaktoren. bestemmes ved anvendelse Udregningseksempel 01: Begregnet nutidsværdi af besparelse: Nutidsværdien findes vha. Udrengningseksempel 03: Analyse af afdragsfrie lån. Udregning af afdrag. Udregningseksempel: Udregning af renter. Udregningseksempel: XIII
XIV