Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri

Størrelse: px
Starte visningen fra side:

Download "Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri"

Transkript

1 Introduktion til Statistiske Modeller for Finansielle Tidsserier Forelæsningsnoter til Finansiel Økonometri Jesper Lund marts 2006

2 1 Indledning Formålet med denne forelæsningsnote er at beskrive nogle statistiske tidsseriemodeller, som ofte anvendes indenfor finansiel økonometri. Det er primært modellernes matematiske struktur, som beskrives her. For så vidt angår eksempler på anvendelser henvises til CLM [Campbell et al (1997) og forelæsningerne i faget. GARCH modeller behandles ikke her, idet der senere kommer en særskilt forelæsingsnote om dette emne. For en uddybende fremstilling af emnet tidsseriemodeller henvises til lærebøger som Hamilton (1994) og Harvey (1993). 1 2 Autokovarianser og autokorrelationer En tidsserie {y t } er en sekvens (følge) af stokastiske variable, som observeres på forskellige tidspunkter t. Den statistiske model, som beskriver udviklingen i denne tidsserie kaldes en stokastisk proces eller tidsseriemodel. 2 Den grundlæggende egenskab ved en stokastisk proces er afhængigheden mellem observationerne på forskellige tidspunkter. Ofte er vi kun interesseret i den lineære afhængighed mellem y t erne. Til dette formål bruges kovariansen mellem y t og y t k, som er defineret ved [ Cov(y t, y t k ) = E (y t E(y t ))(y t k E(y t k )). (1) For k = 0 er dette variansen på y t. Vi vil primært betragte stationære stokastiske processer, hvor y t og y t k har den samme marginale fordeling, og hvor afhængigheden mellem de to stokastiske variable kun afhænger af afstanden mellem de respektive tidspunkter, dvs. k, der kaldes laglængden. Når vi antager stationaritet, kan vi introducere begrebet autokovariansfunktionen, som er ligning (1) som funktion af laglængden k, [ γ(k) = E (y t µ) (y t k µ), hvor µ = E(y t ). (2) I de følgende afsnit vil opstille generelle udtryk for autokovariansfunktionen for de forskellige modeller (stokastiske processer). Ofte er det mere naturligt at benytte korrelationer i stedet for kovarianser. Derfor introducerer vi autokorrelationsfunktionen ρ(k), der er defineret ved: Cov(y t, y t k ) ρ(k) = = γ(k)/γ(0), (3) Var(y t ) Var(y t k ) idet y t og y t k har samme standardafvigelse, nemlig kvadratroden af variansen γ(0). For en given tidsserie (stikprøve), kan autokorrelationsfunktionen estimeres ved hjælp af empiriske varianser og kovarianser for y t og y k, f.eks. ˆγ(k) = 1 T t=k+1 (y t ˆµ)(y t k ˆµ), hvor ˆµ = 1 T y t. (4) t=1 1 Harvey (1993) og Hamilton (1994) er mine personlige favoritter, men der er naturligvis skrevet mange andre lærebøger om emnet tidsseriemodeller. 2 Ordene stokastisk proces og tidsseriemodel bruges i flæng i denne forelæsningsnote. 1

3 Man kan argumentere for at der kun skal divideres med T k 1 for at få et unbiased estimat, men stort set alt statistisk teori for tidsserier er asymptotisk, dvs. at resultaterne gælder formelt kun for T. Den empiriske, eller estimerede, autokorrelationsfunktion er på tilsvarende vis defineret ved: ˆρ(k) = ˆγ(k)/ˆγ(0). (5) Generelle udtryk for variansen på estimatorerne (4) og (5) er relativt komplicerede, da samtlige autokorrelationer indgår, se ligningerne (2.4.8) og (2.4.10) i CLM. Hvis alle sande autokorrelationer er 0, er den asymptotiske varians på ˆρ(k) dog meget simpel, nemlig Var[ˆρ(k) = 1, hvis ρ(j) = 0 for alle j 1. (6) T Som regel har man kun brug for standardafvigelsen på ˆρ(k) når man skal teste en nulhypotese om ingen afhængighed, dvs. ρ(k) = 0 for alle k, og hertil er formlen i ligning (6) tilstrækkelig. 3 Hvid støj Den simpleste stokastiske proces er selvfølgelig ingen tidsmæssig afhængighed, hvilket ofte kaldes hvid støj (engelsk: white noise) i tidsserielitteraturen. 3 Hvis {ε t } er en hvid støj process, er ρ(k) = 0 for alle k > 0. Ofte antages det at middelværdien er 0, og at den stokastiske variabel ε t er normalfordelt med varians γ(0) = σ 2. Med disse yderligere antagelser har ε t de sædvanlige egenskaber for et fejlled i en regressionsmodel. Normalfordelt hvid støj, eller blot hvid støj med middelværdi 0, er den basale byggeklods i AR(p), MA(q) og ARMA(p, q) modeller, som behandles i de efterfølgende afsnit i denne forelæsningsnote. 4 Betingede fordelinger og likelihood funktioner Hvis x og y er to stokastiske variable med simultan sandsynlighedsfordeling p(x, y), er den betingede fordeling for y givet x defineret ved p(y x) = p(x, y) p(x). (7) Hvis x og y er stokastisk uafhængige, er p(y x) = p(y), altså den betingede fordeling er identisk med den marginale fordeling. Det svarer til at den simultane fordeling kan skrives som p(x, y) = p(y)p(x). 3 Begrebet hvid støj stammer fra ingeniørvidenskaben, hvor store dele af den statistiske teori for tidsserier er udviklet. 2

4 I mange situationer inden for tidserieanalyse har man brug for et mere generelt udtryk for afhængighed over tid end korrelation, som måler den lineære afhængighed. Til dette formål bruges den betingede fordeling eller, mere typisk, momenter fra den betingede fordeling. En martingale differens proces (MD proces) er defineret ved følgende egenskab: E (ε t ε t 1,...,ε 1 ) = ε t p(ε t ε t 1,..., ε 1 )dε t = 0 for alle t, (8) hvor p(ε t ε t 1,...,ε 1 ) er den betingede tæthedsfunktion for ε t givet alle de tidligere værdier af processen. En MD proces udelukker ikke at der er stokastisk afhængighed mellem ε t og ε t k, men den betingede middelværdi er uafhængig af ε t k. En MD proces opfylder egenskaberne for en hvid støj proces uden antagelsen om normalitet. Omvendt kan man ikke konkludere, at en hvid støj proces er en MD proces. 4 Normalfordelt hvid støj vil dog altid være en MD proces, idet uafhængighed og ingen korrelation er det samme i den simultane normalfordeling. Ved maximum likelihood estimation bruger man ofte følgende omskrivning af den simultane tæthed for alle observationer: p(y 1, y 2,...,y T ) = p(y T y T 1,..., y 2, y 1 )p(y T 1,...,y 2, y 1 ) = p(y T y T 1,..., y 2, y 1 )p(y T 1 y T 2,...,y 2, y 1 )p(y T 2,...,y 2, y 1 ) { T } = p(y t Y t 1 ) p(y 1 ), hvor Y t = (y t, y t 1,...,y 2, y 1 ). (9) t=2 Den sidste linie i ligning (9) fremkommer ved gentagen anvendelse af spaltningen i de to første linier. Det smarte ved omskrivningen i ligning (9) er at en tidsseriemodel generelt er specificeret ved den betingede tæthedsfunktion p(y t Y t 1 ). Ud fra den betingede tæthedsfunktion kan man let konstruere den simultane tæthedsfunktion, og dermed likelihoodfunktionen. Tricket i ligning (9) kaldes prediction error decomposition i litteraturen. Forudsigelsesfejlen (prediction error) er defineret som u t = y t E (y t Y t 1 ), (10) og den statistiske model vil typisk specificere en fordeling for u t og den funktionelle form af den betingede middelværdi for y t givet de tidligere værdier af processen, dvs. Y t 1 med vores notation. Den stokastiske variabel u t kaldes ofte en innovation i tidsserielitteraturen. Log-likelihood funktionen kan nu skrives som log L(y 1, y 2,...,y T ) = log p(y t Y t 1 ) + log p(y h,...,y 1 ) t=h+1 log p(y t Y t 1 ) (11) t=h+1 4 En GARCH model er et eksempel på en stokastisk proces, som kan være MD uden at være hvid støj, altså hvor der kan være stokastisk afhængighed men lineær uafhængighed (ingen korrelation). 3

5 I den første linie af (11) er der valgt en lidt mere generel opskrivning, hvor den simultane tæthed for de første h observationer ikke spaltes i produktet af de betingede tætheder. Logaritmen til tætheden (9) vil således svare til h = 1 i (11). Den anden linie i (11) er en approksimation til log-likelihood funktionen, idet leddet log p(y h,..., y 1 ) er udeladt. I mange situationer er den approksimative log-likelihood funktion nemmere at håndtere, og hvis antallet af observationer T er tilpas stort, vil der ikke være en nævneværdig forskel mellem at maksimere den eksakte log-likelihood funktion og den approksimative. For eksempel kan en AR(p) estimeres ved hjælp af almindelig OLS, hvis man bruger den approksimative log-likelihood funktion med h = p, mens den eksakte log-likelihood funktion er noget mere kompliceret at håndtere. 5 MA(q) processer En MA(q) proces defineres med udgangspunkt i en hvid støj ε t, eventuelt en normalfordelt hvid støj af hensyn til muligheden for at opstille log-likelihood funktionen. MA(q) er defineret ved y t = µ + ε t + θ 1 ε t θ q ε t q q = µ + θ j ε t j, med θ 0 1, (12) j=0 og hvor ε t N(0, σ 2 ). Middelværdien af y t er µ, idet E(ε t ) = 0 for alle t. Den simpleste MA(q) proces er MA(1) processen, hvor y t = µ + ε t + θ 1 ε t 1. (13) Autokovariansfunktionen for en MA(q) proces er givet ved σ 2 q j=k γ(k) = θ jθ j k hvis 0 k q 0 hvis k > q. (14) Beviset fremkommer ved at opstille udtrykket q q E [(y t µ)(y t k µ) = E θ i ε t i θ j ε t k j og udnytte at q = i=0 q i=0 j=0 j=0 θ i θ j E(ε t i ε t k j ) (15) E(ε t i ε t k j ) = { σ 2 hvis i = k j 0 ellers. (16) Hvis k q er der q k led i summen (15), som er forskellig fra 0. Omvendt er der ingen korrelation mellem y t og y t k hvis k > q. Den tidsmæssige afhængighed i en MA(q) proces er altså begrænset til de seneste q observationer. 4

6 Ved at sætte k = 0 i ligning (14) kan variansen bestemmes som q q Var(y t ) = γ(0) = σ 2 θj 2 = σ (17) j=0 θj 2 j=1 Det indebærer at autokorrelationsfunktionen kan skrives som q j=k ρ(k) = θ jθ j k q hvis 0 k q 1+ j=1 θ2 j 0 hvis k > q. Estimation af parametrene i en MA(q) proces behandles i afsnittet om estimation af ARMA modeller, idet MA(q) modellen er en ARMA(0, q), altså et specialtilfælde. 6 AR(p) processer AR(p) processen defineres ligeledes med udgangspunkt i en hvid støj ε t y t (18) = µ + φ 1 (y t 1 µ) + + φ p (y t p µ) + ε t p = µ + φ i (y t i µ) + ε t. (19) Nogle gange ses en alternativ parameterisering, hvor p y t = φ 0 + φ i y t i + ε t. (20) Det er selvfølgelig den samme model, idet ( ) p p φ 0 = µ φ i µ = µ 1 φ i, (21) hvor µ = E(y t ), altså den ubetingede middelværdi af y t. 5 Et specialtilfælde af AR(p) modellen er AR(1) modellen, hvor y t = µ + φ (y t 1 µ) + ε t. (22) Man kan omskrive en AR(p) model til en MA( ), altså en MA model af uendelig orden. Det gøres ved successivt at indsætte udtrykket for y t 1 i ligning (19). For en AR(1) model med φ < 1 giver det y t = µ + φ 1 (φ 1 y t 2 + ε t 1 ) + ε t = µ + φ 2 1 (φ 1 y t 3 + ε t 2 ) + φ 1 ε t 1 + ε t = µ + ε t + φ i ε t i. (23) 5 Dette forudsætter at p φ i < 1, hvilket er en af betingelserne for stationaritet. Da vi generelt kun diskuterer stationære stokastiske processer, bortset fra bemærkningerne om I(1) processer i afsnittet om integration og kointegration, vil vi ikke komme nærmere ind på denne problemstilling. Den interesserede læser henvises til Harvey (1993) eller Hamilton (1994) for de præcise betingelser for stationaritet i AR(p) modellen. 5

7 Autokovariansfunktionen for en AR(1) model er [ γ(k) = E (y t µ)(y t k µ) = E [( = φ k E φ k (y t k µ) + k 1 i=0 [ (y t k µ)(y t k µ) φ i ε t i ) (y t k µ) = φ k γ(0), (24) idet y t k er ukorreleret med ε t k+1,, ε t. Autokorrelationsfunktionen for AR(1) modellen er derfor ρ(k) = γ(k)/γ(0) = φ k. (25) Det vil sige at man faktisk slet ikke behøver at kendes den ubetingede varians γ(0) for at bestemme autokorrelationsfunktionen. Hvis man får behov for at udlede den ubetingede varians, gøres det nemmest via MA( ) omskrivningen af AR(1) modellen: ( γ(0) = σ 2 + ) φ i 2 σ 2 = σ 2 (φ 2 ) i = σ2 1 φ2, hvis φ < 1. (26) i=0 En alternativ metode til at eftervise dette resultat er at beregne variansen på begge sider af lighedstegnet i ligning (22) Var(y t ) = φ 2 Var(y t 1 ) + σ 2 = γ(0) = φ 2 γ(0) + σ 2, (27) og løse den sidste ligning mht. γ(0). Bemærk at vi har udnyttet stationaritetsantagelsen, hvorved Var(y t ) og Var(y t 1 ) er identiske. Udledningen i (27) kvalificerer dog ikke helt som et bevis for den ubetingede varians, idet man er nødt til at antage stationatitet, mens betingelsen for stationaritet φ < 1 udledes samtidig med udtrykket for γ(0) i beviset (26). Man kan også udlede generelle udtryk for autokorrelationsfunktionen i AR(p) processen, men disse udtryk er relativt komplicerede. 6 I stedet henvises der til lærebøger om tidsseriemodeller som Harvey (1993) og Hamilton (1994). 7 ARMA(p, q) processer Det er muligt at kombinere AR og MA specifikationerne, hvilket giver en ARMA(p, q) model. Den generelle specification er p q y t = µ + φ i (y t i µ) + ε t + θ j ε t j (28) j=1 6 Det er værd at bemærke, at forskellen mellem en AR(2) og AR(1) model er ganske betydelig for så vidt angår udtrykket for autokorrelationsfunktionen, mens der ikke er nævneværdig forskel på en MA(1) og MA(2) model i den henseende. Når vi kommer til estimationen af modellerne, er en AR(2) model dog ikke mere kompliceret end en AR(1) model. Begge kan estimeres vha. OLS, som svarer til betinget maksimum likelihood, hvis ε t er normalfordelt. 6

8 Den simpleste ARMA model er ARMA(1, 1) modellen: y t = µ + φ (y t 1 µ) + ε t + θε t 1. (29) ARMA(p, q) modellen kan ligesom AR(p) modellen omskrives til en MA( ) model. Dette vises kun for ARMA(1, 1) modellen, hvor vi får y t = µ + ε t + (φ + θ)φ j 1 ε t j, (30) j=1 altså en MA( ) model med θ j = (φ + θ) φ j 1. Hvis φ = θ er θ j = 0 for alle j > 0, og ARMA(1, 1) modellen er identisk med en hvid støj proces. Dette er et eksempel på det såkaldte identifikationsproblem. Hvis den sande proces er en hvid støj, kan man godt specificere en ARMA(1, 1) model, men der vil være uendeligt mange forskellige ARMA(1, 1) modeller, som passer til data, nemlig alle modeller hvor φ = θ. Dette lyder måske som en noget teoretisk diskussion, men det er i høj grad også et praktisk problem. Hvis man overparameteriserer sin ARMA(p, q) model, altså angiver en for høj orden af både AR og MA delen, er der stor risiko for at estimationen ikke vil konvergere, fordi en AR og MA komponent ophæver hinanden. Autokorrelationsfunktionen for den generelle ARMA(p, q) model er temmelig kompliceret, og den udelades derfor fra denne fremstilling. I faget Finansiel Økonometri vil vi generelt kun støde på rene AR eller MA processer. 8 Estimation af ARMA modeller Hvis ε t er normalfordelt med konstant varians, kan man opstille log-likelihood funktionen vha. metoden i afsnit 4. For den generelle ARMA(p, q) er den betingede middelværdi og varians af y t givet ved p q E(y t Y t 1 ) = µ + φ i (y t i µ) + θ j ε t j (31) j=1 Var(y t Y t 1 ) = E [ (y t E[y t Y t 1 ) 2 Y t 1 = E [ ε 2 t Y t 1 = σ 2 hvor Y t 1 = (y t 1, y t 2,..., y 1 ). Den approksimative log-likelihood funktion for ARMA(p, q) modellen kan nu skrives som { log L = 1 2 log(2π) 1 2 log ( σ 2) 1 (y t E[y t Y t 1 ) 2 } 2 σ 2 t=p+1 = T p 2 log(2π) T p 2 log ( σ 2) 1 2σ 2 t=p+1 (32) ε 2 t (33) hvor ε t = y t E[y t Y t 1 er innovationen (fejlleddet), jf. definitionen i afsnit 4. Bemærk at summationen starter ved observation t = p+1, og ikke t = 1. Det skyldes at vi skal bruges p laggede værdier af y t som startværdier til den betingede middelværdi. Laggede værdier af innovationen ε t indgår også i den betingede middelværdier. Her 7

9 sættes startværdier til 0, dvs. ε t = 0 for t p. Derefter kan den betingede middelværdi, og dermed log-likelihood funktionen, beregnes rekursivt fra t = p + 1 til t = T. Log-likelihood funktionen i (33) er ikke den eksakte log-likelihood funktionen, men medmindre antallet af observationer T er meget lille, er approksimationen uden praktisk betydning. 7 Den approksimative log-likelihood funktion er specielt nyttig for rene AR(p) modeller, hvor (33) er log-likelihood funktionen for en lineær regressionsmodel med y t 1,..., y t p som forklarende variable. Det vil sige, at OLS kan benyttes til estimation. For MA(q) og ARMA(p, q) modeller er det nødvendigt at anvendes numerisk optimering for at finde maximum likelihood estimaterne. Statistikprogrammet SAS har rutiner til dette i SAS/ETS. Før man estimerer en ARMA(p, q) model, skal man naturligvis angive ordenen af AR og MA delen, altså p og q. Umiddelbart kunne det være fristende at angive en meget høj orden af begge dele, og efterfølgende fjerne de insignifikante komponenter vha. t-tests eller F-tests vedr. flere parametre på samme tid. Ved almindelig regressionsanalyse, hvor man er usikker på specifikationen af modellen, kan denne metode ofte anvendes med succes. Metoden er desværre ikke brugbar for blandede ARMA modeller, idet en MA og AR komponent kan ophæve hinanden, som vi så i eksemplet med ARMA(1, 1) ovenfor. Dette problem optræder ikke for rene AR eller MA modeller, så her kan general-to-simple metoden i princippet anvendes. For en korrekt specificeret ARMA model gælder det, at fejlleddet ε t er hvid støj, dvs. alle autokorrelationer er lig med 0. Det kan man teste via residualerne fra den estimerede model. 8 Ud fra strukturen i autokorrelationsfunktionen ˆρ(k) kan man visualt vurdere, om det er AR eller MA delen som skal have en højere orden. Denne metode er udviklet af Box & Jenkins (1976), og deres bog var i mange år standardreferencen for ARMA modeller. 9 Box-Jenkins metoden til specifikation af ARMA modellen diskuteres også af Mills (1990) og Milhøj (1986). 9 Lidt om integration og kointegration CLM kommer visse steder ind på enhedsrødder (unit roots) og stationære sammenhænge mellem to forskellige tidsserier med enhedsrod, hvilket kaldes kointegration. I dette afsnit af forelæsningsnoten gives en meget kortfattet introduktion til disse begreber. 7 Eksakt maximum likelihood estimation kræver generelt, at man inverterer den fulde T T kovariansmatrix for samtlige observationer y 1, y 2,...,y T (PROC ARIMA i SAS/ETS gør dette, når man specificerer maximum likelihood estimation med option METHOD=ML). Det er tidskrævende, hvis antallet af observationer T er stort. Man kan dog undgå at invertere en T T matrix ved at anvende Kalman filteret til beregning af den eksakte log-likelihood funktion, hvilket diskuteres i kapitel 13 i Hamilton (1994). 8 Her skal der dog tages højde for at residualerne har lidt andre statistiske egenskaber end fejlleddet ε t, idet residualerne er beregnet med estimater på de ukendte parametre. De nærmere detaljer ligger uden for rammerne af denne forelæsningsnote. 9 I visse dele af tidsserielitteraturen kaldes ARMA modeller ligefrem Box-Jenkins modeller! 8

10 9.1 Test for enhedsrødder 10 I den simple AR(1) model med middelværdi 0 y t = ρy t 1 + ε t, (34) er maximum likelihood estimatet på ρ givet ved ˆρ = Tt=2 y t y t 1 Tt=2 y 2 t 1 (35) Det kan endvidere vises, at den asymptotiske fordeling for ML estimatoren er 11 T (ˆρ ρ0 ) L N ( ) 0, 1 ρ 2 0, hvis ρ0 < 1, (36) hvor ρ 0 er den sande værdi af parameteren ρ (den værdi, som vi prøver at estimere). I praksis vil (36) sige, at man kan teste hypoteser om parameteren ρ ved at udnytte at ˆρ er normalfordelt med variansen Var(ˆρ) = (1 ˆρ 2 )/T. Alternativt kan man lave et almindeligt t-test baseret på den standardafvigelse, som et standard OLS program 12 beregner, dvs. t = ˆρ ρ 0 ˆσ 2 ε /( Tt=2 y 2 t 1 ), hvor ˆσ 2 ε = 1 T 2 (y t ˆρy t 1 ) 2. (37) t=2 Dette gælder imidlertid ikke, hvis den sande værdi af parameteren er ρ 0 = 1, herunder hvis vi tester en nulhypotese om at ρ = 0. I tidsserielitteraturen kaldes ρ 0 = 1 tilfældet for en enhedsrod, eller unit root på engelsk. Hvis ρ 0 = 1 indsættes i ligning (36) får man en asymptotisk varians på 0, hvilket naturligvis ikke giver mening. Det fremgår også af ligning (36), at den asymptotiske fordeling kun gælder hvis 1 < ρ 0 < 1. OLS standardafvigelsen på ˆρ i nævneren af (37) kan dog altid beregnes, og standardafvigelsen vil selvfølgelig være strengt større end 0, men den asymptotiske fordeling for t-statistikken (37) vil afvige fra normalfordelingen når ρ 0 = 1, som vi skal se i det følgende. Konsekvensen af dette er at ˆρ har en anden asymptotisk fordeling hvis ρ 0 = 1. I kapitel 17 i Hamilton (1994) udledes følgende asymptotiske fordelinger for ˆρ og t-testet hvis ρ 0 = 1: T(ˆρ 1) L (1/2) {[W(1)2 1} 1 0 [W(r)2 dr (38) t L (1/2) {[W(1)2 1} { 1 0 [W(r)2 dr } (39) 1/2 10 Dette afsnit kan med fordel læses sammen med afsnit 2.7 i CLM. 11 Formelt er det nødvendigt at udlede den asymptotiske fordeling for T (ˆρ ρ 0 ), idet fordelingen for ˆρ kollapser til en enkelt værdi, nemlig ρ 0 (ellers ville estimatoren ikke være konsistent). Skaleringen med T er standardmetoden til at udlede den asymptotiske fordeling for en estimator. 12 For eksempel PROC REG i SAS eller Tools:Data Analysis:Regression i Excel. 9

11 De nye asymptotiske fordelinger er funktionaler af en Brownian motion W(r), se kapitel 17 i Hamilton (1994) for en uddybende forklaring af dette begreb. Her skal vi blot bemærke at fordelingerne er mere venstreskæve end normalfordelingen, hvilket betyder at de negative fraktilværdier er lavere end de tilsvarende værdier fra normalfordelingen. For eksempel er 5% fraktilværdien af (39) fordelingen for et ensidet t-test -1,95 mod -1,645 i normalfordelingen. Populært sagt skal der altså mere til for at afvise en nulhypotese pga. den nye fordeling. De specielle statistiske tests baseret på fordelingerne (38) og (39) kaldes ofte for Dickey-Fuller testet i unit root litteraturen. 9.2 Kointegration Testet for ρ = 1 i afsnit 9.1 er i virkeligheden et test mellem to vidt forskellige fordelinger, nemlig ikke-stationaritet versus stationaritet. Under nulhypotesen ρ = 1 følger y t random-walk processen y t = y t 1 + ε t, (40) som indebærer at der ikke er en stationær fordeling for y t. Det betyder igen, at stikprøvemomenter som ȳ = 1 T t=1 y t og Var(y) = 1 T (y t ȳ) 2 (41) t=1 ikke vil konvergere til konstante værdier når T (variansen Var(y) vil i teorien vokse eksplosivt). Under alternativhypotesen ρ < 1 følger y t derimod en stationær stokastisk process, og den ubetingede middelværdi og varians på y t eksisterer. Figur 1 viser grafisk forskellen på en randow-walk proces og en stationær autoregression. Selvom det er samme statistiske AR(1) model, blot med hhv. ρ = 0, 97 og ρ = 1 er der meget stor forskel på de to tidsserier. Random-walk processen (den røde tidsserie) har meget store udsving, mens den stationære proces (den blå tidsserie) hele tiden trækkes mod den ubetingede middelværdi 0. En ikke-stationær tidsserie kaldes ofte I(1), mens en stationær kaldes I(0). Betegnelsen I(1) henviser til at der skal tages differenser een gang før processen er stationær, idet førstedifferensen y t = y t y t 1 = ε t er en stationær process. Kointegration er en speciel relation mellem to ikke-stationære tidsserier. Hvis x t og y t begge er ikke-stationære, altså I(1), men der eksisterer en lineær relation mellem y t og x t som er stationær, altså I(0), siger man at y t og x t kointegrerer. Det formelle krav er altså, at der findes en værdi af β, således at e t = y t βx t I(0) (42) selv om y t og x t hver for sig er I(1) processer. Ligesom der findes statistiske tests for I(1) mod I(0), findes der statistiske tests for kointegration. Dem skal vi ikke gennemgå her, men blot henvise til eksempelvis Hamilton (1994), hvor dette emne behandles. Nogle gange er der økonomisk-teoretiske argumenter for at to tidsserier skal kointegrere. Det gælder f.eks. aktiekurser og dividender, jf. teorien om present-value modeller i CLM kapitel 7. Figur 2 viser den reale aktiekurs og den reale dividende for 10

12 Figur 1: Simulation af x(t)=rho*x(t-1) + eps(t) x(t) Observation rho=0.97 rho=1 Figur 1: Forskel på random-walk og stationær AR(1) proces US reale aktiekurser og dividender 20 Real aktiekurs Real dividende År Real P(t) e(t) Real D(t) 0 Figur 2: Eksempel på kointegration: reale aktiekurser og dividender i USA 11

13 SP-500 aktieindekset i USA. Både aktiekurser og dividender ser umiddelbart ud til at være I(1) processer. 13 Den tredje tidserie i Figur 2 er residualen e t fra en OLS regression af aktiekursen på dividendeserien. Denne tidsserie (residualerne) ser umiddelbart ud til at være stationær, hvilket svarer til at der er kointegration mellem aktiekurser og dividender. 10 VAR modeller VAR betyder Vector AutoRegression, og det er en multivariat generalisering af den univariate AR model. I stedet for en enkelt stokastisk variabel y t, opstiller vi en tidsseriemodel for en stokastisk vector x t. Lad x t være en n-dimensional stokastisk vektor, altså en n 1 vektor af stokastiske variable. Vi antager at x t kan beskrives ved følgende stokastiske process x t = µ + A (x t 1 µ) + ε t, (43) hvor A er en n n matrix af VAR koefficienter (parametre), og µ = E(x t ) er den ubetingede middelværdi (middelvektor) af x t. Hvis n = 2, kan VAR modellen også skrives som x 1t = µ 1 + a 11 (x 1,t 1 µ 1 ) + a 12 (x 2,t 1 µ 2 ) + ε 1t (44) x 2t = µ 2 + a 21 (x 1,t 1 µ 1 ) + a 22 (x 2,t 1 µ 2 ) + ε 2t, (45) men matrix formen (43) er naturligvis mere generel. Fejlleddet ε t i ligning (43) antages at opfylde følgende betingelser: E [ε t X t 1 = 0 (46) E [ ε t ε t+1 X t 1 = Ω, (47) hvor X t 1 = (x t 1,x t 2,...,x 1 ) er informationsmængden i den betingede forventning. For at forenkle notationen vil vi nogle gange skrive E t 1 [, der skal fortolkes som E t 1 [ X t 1. (48) Ovenstående er en VAR(1) model. Der findes naturligvis også en generel VAR(p) model, der er specificeret som p x t = µ + A i (x t i µ) + ε t. (49) I afsnit 10.2 nedenfor skal vi se på forecastfunktionen i en VAR model. Denne funktion er væsentligt nemmere at udlede for en VAR(1) end for en generel VAR(p) model. 13 Et statistisk test kan i hvert fald ikke afvise at begge processer er I(1). 12

14 Derfor bruger man ofte følgende trick, hvorved en VAR(p) kan omskrives til en VAR(1) model på såkaldt companion form: x t x t 1 x t p+1 = µ µ µ A 1 A 2 A p 1 A p I I 0 + x t 1 µ x t 2 µ x t p µ + ε t 0 0. (50) For VAR(2) modellen specialiseres dette til [ [ [ [ xt µ A1 A = + 2 xt 1 µ µ I 0 x t 2 µ x t 1 + [ εt 0. (51) En VAR(p) model kan således opfattes som en VAR(1) model for den augmenterede stokastiske vector x t x Z t t 1 med Z t = µ + A Z t 1 + ε t (52) x t p+1 og hvor definitionerne af np 1 vectorerne µ og ε t, samt np np matricen A følger af opskrivningen i ligning (50) Estimation af VAR modeller Hvis ε t N (0, Ω), kan den eksakte log-likelihood funktion for VAR(p) modellen skrives som log L = { n 2 log(2π) 1 2 log Ω 1 } 2 ε t Ω 1 ε t t=p+1 np 2 log(2π) 1 2 log V p 1 2 ( ) ( ) Xp µ p V 1 p Xp µ p, (53) hvor X p er np 1 vektoren bestående af de første p observationer af vektoren x t, og hvor µ p og V p er hhv. den ubetingede middelvektor og kovariansmatrix for den stokastiske vektor X p. Opskrivningen af den eksakte log-likelihood funktion i (53) fremkommer ved at anvende prediction error decomposition metoden, jf. afsnit 4, på den multivariate betingede tæthedsfunktion for x t. Det er meget nemmere at håndtere den approksimative log-likelihood funktion hvor bidraget fra de første p observationer, altså den anden linie i ligning (53) ignoreres. Den approksimative log-likelihood funktion, der også kan fortolkes som den betingede log-likelihood funktion givet de første p observationer på x t, kan skrives som: (T p)n log L log(2π) T p log Ω t=p+1 ε t Ω 1 ε t. (54) 13

15 Hvis man anvender reparameteriseringen c = µ (I p A i ), svarer dette til loglikelihood funktionen for den multivariate regressionsmodel p x t = c + A i x t i + ε t, for t = p + 1,..., T. (55) Da der er de samme forklarende variable i alle n regressionsligninger, kan dette system estimeres ligning for ligning ved almindelig OLS uden efficienstab (dvs. OLS ligningfor-ligning er ML estimation) Forecast funktionen i en VAR model I forbindelse med emnet present-value modeller og forventningshypoteseteorien for rentestrukturen skal vi bruge en VAR model til at forudsige fremtidige værdier. Det kaldes forecast funktionen i VAR modellen, og det bedste forecast er den betingede forventning givet den information, som er tilgængelig på forecasttidspunktet. Den betingede forventning af x t+1 i en VAR(1) model er E t [x t+1 = µ + A (x t µ), (56) da E t [ε t+1 = 0. Den betingede forventning af x t+2 på tidspunkt t kan bestemmes ved at anvende dette princip to gange E t [x t+2 = E t [E t+1 [x t+2 = E t [µ + A (x t+1 µ) = µ + AA (x t+1 µ), (57) hvor den første lighed følger af loven om itererede forventninger. 14 Generelt kan det vises at E t [x t+k = µ + A k (x t µ) (59) hvor A k skal læses som A 2 = AA, A 3 = AAA, A 4 = AAAA, etc, (60) altså matricen A multipliceret med sig selv k 1 gange. Sagt med andre ord: A k er matrix generaliseringen af potensopløftning for skalarer. 14 Hvis F og G er informationssæt med relationen G F, gælder det generelt at E [z G = E [E [z F G, (58) dvs. at man først kan tage forventningen af den stokastisk variabel z betinget af det store informationssæt F, og dernæst forventningen af forventningen givet det lille informationssæt F. Slutresultatet svarer til forventningen af den oprindelige stokastiske variabel givet det lille informationssæt. Dette resultat kaldes loven om itererede forventninger (law of iterated expectations). 14

16 Litteratur Box, G.E.P. & G.M. Jenkins (1976), Time Series Analysis: Forecasting and Control, revised edition, Holden-Day, San Francisco, CA. Campbell, J.Y., A.W. Lo & A.C. MacKinlay (1997), The Econometrics of Financial Markets, Princeton University Press, Princeton NJ. Hamilton, J.D. (1994), Time Series Analysis, Princeton University Press, Princeton NJ. Harvey, A.C. (1993), Time Series Models, 2nd edition, Prentice-Hall, UK. Milhøj, A. (1986), Tidsrækkeanalyse for Økonomer, Akademisk Forlag, København. Mills, T.C. (1990), Time Series Techniques for Economists, Cambridge University Press, Cambridge UK. 15

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Center for Statistik. Multipel regression med laggede responser som forklarende variable Center for Statistik Handelshøjskolen i København MPAS Tue Tjur November 2006 Multipel regression med laggede responser som forklarende variable Ved en tidsrække forstås i almindelighed et datasæt, der

Læs mere

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17 nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse

Læs mere

1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata

1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata 1 Intoduktion Før man springer ud i en øvelse om paneldata og panelmodeller, kan det selvfølgelig være rart at have en fornemmelse af, hvorfor de er så vigtige i moderne mikro-økonometri, og hvorfor de

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2 Økonometri 1 Den simple regressionsmodel 11. september 2006 Dagens program Den simple regressionsmodel SLR : Én forklarende variabel (Wooldridge kap. 2.1-2.4) Motivation for gennemgangen af SLR Definition

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006 Dagens program Økonometri Den simple regressionsmodel 5. september 006 Den simple lineære regressionsmodel (Wooldridge kap.4-.6) Eksemplet fortsat: Løn og uddannelse på danske data Funktionel form Statistiske

Læs mere

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater Økonometri: Lektion 4 Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater 1 / 35 Hypotesetest for én parameter Antag vi har model y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi

Læs mere

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund mail@jesperlund.com http://www.jesperlund.com 28. august 2002 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder

Læs mere

Statistik for ankomstprocesser

Statistik for ankomstprocesser Statistik for ankomstprocesser Anders Gorst-Rasmussen 20. september 2006 Resumé Denne note er en kortfattet gennemgang af grundlæggende statistiske værktøjer, man kunne tænke sig brugt til at vurdere rimeligheden

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder Heteroskedasticitet 11. april 007 KM: F18 1 Oversigt: Heteroskedasticitet OLS estimation under heteroskedasticitet (W.8.1-): Konsekvenser af heteroskedasticitet for OLS Gyldige test

Læs mere

Økonometri 1. Inferens i den lineære regressionsmodel 2. oktober Økonometri 1: F8 1

Økonometri 1. Inferens i den lineære regressionsmodel 2. oktober Økonometri 1: F8 1 Økonometri 1 Inferens i den lineære regressionsmodel 2. oktober 2006 Økonometri 1: F8 1 Dagens program Opsamling om asymptotiske egenskaber: Asymptotisk normalitet Asymptotisk efficiens Test af flere lineære

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007 regressionsmodel 1 Dagens program Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5, E.2) Variansen

Læs mere

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd

I dag. Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik (SaSt) Eksempel: kobbertråd I dag Statistisk analyse af en enkelt stikprøve med kendt varians Sandsynlighedsregning og Statistik SaSt) Helle Sørensen Først lidt om de sidste uger af SaSt. Derefter statistisk analyse af en enkelt

Læs mere

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model Reminder: Hypotesetest for én parameter Antag vi har model Økonometri: Lektion 4 F -test Justeret R 2 Aymptotiske resultater y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi ønsker at teste hypotesen H

Læs mere

Simpel Lineær Regression

Simpel Lineær Regression Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Vi antager at sammenhængen mellem y og x er beskrevet ved y = β 0 + β 1 x + u. y: Afhængige

Læs mere

Note om Monte Carlo metoden

Note om Monte Carlo metoden Note om Monte Carlo metoden Kasper K. Berthelsen Version 1.2 25. marts 2014 1 Introduktion Betegnelsen Monte Carlo dækker over en lang række metoder. Fælles for disse metoder er, at de anvendes til at

Læs mere

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Økonometri Lektion 1 Simpel Lineær Regression 1/31 Økonometri Lektion 1 Simpel Lineær Regression 1/31 Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Statistisk model: Vi antager at sammenhængen

Læs mere

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet Dagens program Økonometri Den multiple regressionsmodel 4. februar 003 regressionsmodel Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5)! Opsamling fra sidst

Læs mere

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Efterår Dagens program Dagens program Estimation: Kapitel 9.7-9.10 Estimationsmetoder kap 9.10 Momentestimation Maximum likelihood estimation Test Hypoteser kap. 10.1 Testprocedure kap 10.2 Teststørrelsen Testsandsynlighed 1

Læs mere

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1

Økonometri 1. Inferens i den lineære regressionsmodel 25. september Økonometri 1: F6 1 Økonometri 1 Inferens i den lineære regressionsmodel 25. september 2006 Økonometri 1: F6 1 Oversigt: De næste forelæsninger Statistisk inferens: hvorledes man med udgangspunkt i en statistisk model kan

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Multipel Lineær Regression Sidst så vi på simpel lineær regression, hvor y er forklaret af én variabel. Der er intet, der forhindre os i at have mere

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte

Læs mere

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007 Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave

Læs mere

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser Uge 43 I Teoretisk Statistik,. oktober 3 Simpel lineær regressionsanalyse Forudsigelser Fortolkning af regressionsmodellen Ekstreme observationer Transformationer Sammenligning af to regressionslinier

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006 Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W

Læs mere

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22

Dagens Emner. Likelihood teori. Lineær regression (intro) p. 1/22 Dagens Emner Likelihood teori Lineær regression (intro) p. 1/22 Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 ) = ( 1 2πσ 2)n/2 e 1 2σ 2 P n (x i µ) 2 er tætheden som

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/33

Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 +β 1 x +u, hvor fejlledet u,

Læs mere

Kræver generelt at diverse ventetider er eksponentialfordelte. Faste rammer for serverdiscipliner mv. Svært at modellere ikke-standard køsystemer.

Kræver generelt at diverse ventetider er eksponentialfordelte. Faste rammer for serverdiscipliner mv. Svært at modellere ikke-standard køsystemer. Opsamling eksakte modeller Fordele Praktiske til initierende analyser/dimensionering Ofte nemme at regne på. Kan bruges til at løse optimeringsopgaver, som ellers ville kræve snedige simulationsdesigns.

Læs mere

Konfidensintervaller og Hypotesetest

Konfidensintervaller og Hypotesetest Konfidensintervaller og Hypotesetest Konfidensinterval for andele χ -fordelingen og konfidensinterval for variansen Hypoteseteori Hypotesetest af middelværdi, varians og andele Repetition fra sidst: Konfidensintervaller

Læs mere

Statistik vejledende læreplan og læringsmål, foråret 2015 SmartLearning

Statistik vejledende læreplan og læringsmål, foråret 2015 SmartLearning Side 1 af 6 Statistik vejledende læreplan og læringsmål, foråret 2015 SmartLearning Litteratur: Kenneth Hansen & Charlotte Koldsø: Statistik I økonomisk perspektiv, Hans Reitzels Forlag 2012, 2. udgave,

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x) Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen

Læs mere

Produkt og marked - matematiske og statistiske metoder

Produkt og marked - matematiske og statistiske metoder Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 19, 2016 1/26 Kursusindhold: Sandsynlighedsregning og lagerstyring

Læs mere

Simpel Lineær Regression: Model

Simpel Lineær Regression: Model Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 + β 1 x + u, hvor fejlledet u, har egenskaben E[u x] = 0. Dette betyder bl.a. E[y x]

Læs mere

Undervisningsnoter til øvelse i Panel Modeller. %, it. E(x kjs

Undervisningsnoter til øvelse i Panel Modeller. %, it. E(x kjs 4 I afsnit 3 beskæftigede vi os med 1EC modellen og viste, hvordan den kunne estimereres med FGLS - bla under forudsætning af, at det individspecifikke stokastiske led er ukorreleret med de forklarende

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Fagplan for statistik, efteråret 2015

Fagplan for statistik, efteråret 2015 Side 1 af 7 M Fagplan for statistik, efteråret 20 Litteratur Kenneth Hansen & Charlotte Koldsø (HK): Statistik I økonomisk perspektiv, Hans Reitzels Forlag 2012, 2. udgave, ISBN 9788741256047 HypoStat

Læs mere

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Oversigt 1 Gennemgående eksempel: Højde og vægt 2 Korrelation 3 Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse

Læs mere

! Proxy variable. ! Målefejl. ! Manglende observationer. ! Dataudvælgelse. ! Ekstreme observationer. ! Eksempel: Lønrelation (på US data)

! Proxy variable. ! Målefejl. ! Manglende observationer. ! Dataudvælgelse. ! Ekstreme observationer. ! Eksempel: Lønrelation (på US data) Dagens program Økonometri 1 Specifikation, og dataproblemer 10. april 003 Emnet for denne forelæsning er specifikation (Wooldridge kap. 9.-9.4)! Proxy variable! Målefejl! Manglende observationer! Dataudvælgelse!

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 7. marts 2007 regressionsmodel 1 Opgave fra sidst (Gauss-Markov teoremet) Opgave: Vis at hvis M = I X X X X 1 ( ' ) ' er M idempoten dvs der

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Opgave fra sidst (Gauss-Markov teoremet) Kvantitative metoder Inferens i den lineære regressionsmodel 7. marts 007 Opgave: Vis at hvis M = I X X X X ( ' ) ' er M idempoten dvs der gælder gælder M = M '

Læs mere

Test for strukturelle ændringer i investeringsadfærden

Test for strukturelle ændringer i investeringsadfærden d. 6.10.2016 De Økonomiske Råds Sekretariat Test for strukturelle ændringer i investeringsadfærden Dette notat redegør for de stabilitetstest af forskellige tidsserier vedrørende investeringsadfærden i

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

Appendiks Økonometrisk teori... II

Appendiks Økonometrisk teori... II Appendiks Økonometrisk teori... II De klassiske SLR-antagelser... II Hypotesetest... VII Regressioner... VIII Inflation:... VIII Test for SLR antagelser... IX Reset-test... IX Plots... X Breusch-Pagan

Læs mere

Forelæsning 11: Kapitel 11: Regressionsanalyse

Forelæsning 11: Kapitel 11: Regressionsanalyse Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske Universitet 2800

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen Landmålingens fejlteori Lektion Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet En stokastisk variabel er en variabel,

Læs mere

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Motivation Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser Rasmus Waagepetersen October 26, 2018 Eksempel: En landmåler får til opgave at måle længden λ fra A til B. Entreprenøren

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Specifikation og dataproblemer 2. maj 2007 KM2: F22 1 Program Specifikation og dataproblemer, fortsat (Wooldridge kap. 9): Betydning af målefejl Dataudvælgelse: Manglende observationer

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Estimation: Kapitel 9.1-9.3 Estimation Estimationsfejlen Bias Eksempler Bestemmelse af stikprøvens størrelse Konsistens De nitioner påkonsistens Eksempler på konsistente og middelrette estimatorer

Læs mere

Indblik i statistik - for samfundsvidenskab

Indblik i statistik - for samfundsvidenskab Indblik i statistik - for samfundsvidenskab Læs mere om nye titler fra Academica på www.academica.dk Nikolaj Malchow-Møller og Allan H. Würtz Indblik i statistik for samfundsvidenskab Academica Indblik

Læs mere

Løsning til eksaminen d. 14. december 2009

Løsning til eksaminen d. 14. december 2009 DTU Informatik 02402 Introduktion til Statistik 200-2-0 LFF/lff Løsning til eksaminen d. 4. december 2009 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition,

Læs mere

Praktiske ting og sager: Forelæsninger tirsdag og torsdag kl i Kirkesalen, Studiestræde 38 Øvelser

Praktiske ting og sager: Forelæsninger tirsdag og torsdag kl i Kirkesalen, Studiestræde 38 Øvelser Uge 36 Velkommen tilbage Praktiske ting og sager: Forelæsninger tirsdag og torsdag kl. -2 i Kirkesalen, Studiestræde 38 Øvelser Hold -4 og 6: mandag og onsdag kl. 8-; start 3. september Hold 5: tirsdag

Læs mere

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at

Dagens Emner. Likelihood-metoden. MLE - fortsat MLE. Likelihood teori. Lineær regression (intro) Vi har, at Likelihood teori Lineær regression (intro) Dagens Emner Likelihood-metoden M : X i N(µ,σ 2 ) hvor µ og σ 2 er ukendte Vi har, at L(µ,σ 2 1 ) = ( 2πσ 2)n/2 e 1 2 P n (xi µ)2 er tætheden som funktion af

Læs mere

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven. PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve

Læs mere

Bilag 7. SFA-modellen

Bilag 7. SFA-modellen Bilag 7 SFA-modellen November 2016 Bilag 7 Konkurrence- og Forbrugerstyrelsen Forsyningssekretariatet Carl Jacobsens Vej 35 2500 Valby Tlf.: +45 41 71 50 00 E-mail: kfst@kfst.dk Online ISBN 978-87-7029-650-2

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Specifikation og dataproblemer 30. april 2007 KM2: F21 1 Program for de to næste forelæsninger Emnet er specifikation og dataproblemer (Wooldridge kap. 9) Fejlleddet kan være korreleret

Læs mere

Statistik vejledende læreplan og læringsmål, efteråret 2013 SmartLearning

Statistik vejledende læreplan og læringsmål, efteråret 2013 SmartLearning Side 1 af 6 Statistik vejledende læreplan og læringsmål, efteråret 2013 SmartLearning Litteratur: Kenneth Hansen & Charlotte Koldsø: Statistik I økonomisk perspektiv, Hans Reitzels Forlag 2012, 2. udgave,

Læs mere

Kvantitative Metoder 1 - Forår 2007. Dagens program

Kvantitative Metoder 1 - Forår 2007. Dagens program Dagens program Hypoteser: kap: 10.1-10.2 Eksempler på Maximum likelihood analyser kap 9.10 Test Hypoteser kap. 10.1 Testprocedure kap 10.2 Teststørrelsen Testsandsynlighed 1 Estimationsmetoder Kvantitative

Læs mere

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version university of copenhagen University of Copenhagen Notat om statistisk inferens Larsen, Martin Vinæs Publication date: 2014 Document Version Peer-review version Citation for published version (APA): Larsen,

Læs mere

Bayesiansk statistik. Tom Engsted. DSS Aarhus, 28 november 2017

Bayesiansk statistik. Tom Engsted. DSS Aarhus, 28 november 2017 Bayesiansk statistik Tom Engsted DSS Aarhus, 28 november 2017 1 Figure 1: Nicolajs gur 2 Klassisk frekvensbaseret statistik Statistisk beslutningsteori Bayesiansk statistik Et kompromis mellem den klassiske

Læs mere

Lineære normale modeller (4) udkast

Lineære normale modeller (4) udkast E6 efterår 1999 Notat 21 Jørgen Larsen 2. december 1999 Lineære normale modeller (4) udkast 4.5 Regressionsanalyse 4.5.1 Præsentation 1 Regressionsanalyse handler om at undersøge hvordan én målt størrelse

Læs mere

Bilag A. Dexia-obligationen (2002/2007 Basis)

Bilag A. Dexia-obligationen (2002/2007 Basis) Bilag A Dexia-obligationen (2002/2007 Basis) Også kaldet A.P. Møller aktieindekseret obligation (A/S 1912 B). Dette værdipapir som i teorien handles på Københavns Fondsbørs (omend med meget lille omsætning)

Læs mere

Introduktion til GLIMMIX

Introduktion til GLIMMIX Introduktion til GLIMMIX Af Jens Dick-Nielsen jens.dick-nielsen@haxholdt-company.com 21.08.2008 Proc GLIMMIX GLIMMIX kan bruges til modeller, hvor de enkelte observationer ikke nødvendigvis er uafhængige.

Læs mere

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse.

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. Tema Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. (Fx. x. µ) Hypotese og test. Teststørrelse. (Fx. H 0 : µ = µ 0 ) konfidensintervaller

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en

Læs mere

Den todimensionale normalfordeling

Den todimensionale normalfordeling Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives

Læs mere

Estimation af bilkøbsrelationen med nye indkomst- og formueudtryk

Estimation af bilkøbsrelationen med nye indkomst- og formueudtryk Danmarks Statistik MODELGRUPPEN Arbejdspapir* Edith Madsen 21. juli 1997 Estimation af bilkøbsrelationen med nye indkomst- og formueudtryk Resumé: Papiret præsenterer en reestimationen af fcb-relationen.

Læs mere

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:

Læs mere

Statistik og Sandsynlighedsregning 2. IH kapitel 12. Overheads til forelæsninger, mandag 6. uge

Statistik og Sandsynlighedsregning 2. IH kapitel 12. Overheads til forelæsninger, mandag 6. uge Statistik og Sandsynlighedsregning 2 IH kapitel 12 Overheads til forelæsninger, mandag 6. uge 1 Fordelingen af én (1): Regressionsanalyse udfaldsvariabel responsvariabel afhængig variabel Y variabel 2

Læs mere

1 Regressionsproblemet 2

1 Regressionsproblemet 2 Indhold 1 Regressionsproblemet 2 2 Simpel lineær regression 3 2.1 Mindste kvadraters tilpasning.............................. 3 2.2 Prædiktion og residualer................................. 5 2.3 Estimation

Læs mere

Anvendt Statistik Lektion 8. Multipel Lineær Regression

Anvendt Statistik Lektion 8. Multipel Lineær Regression Anvendt Statistik Lektion 8 Multipel Lineær Regression 1 Simpel Lineær Regression (SLR) y Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Afsnit 6.1 Den standardiserede normalfordeling Normalfordelingen Beskrivelse af normalfordelinger: - Tæthed og fordelingsfunktion - Middelværdi, varians og fraktiler Lineære transformationer

Læs mere

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA) Anvendt Statistik Lektion 9 Variansanalyse (ANOVA) 1 Undersøge sammenhæng Undersøge sammenhænge mellem kategoriske variable: χ 2 -test i kontingenstabeller Undersøge sammenhæng mellem kontinuerte variable:

Læs mere

Referat : af Gruppearbejde Økonometri1 øvelsestime ugeseddel 7 dato 26/3 2003, Hold 4

Referat : af Gruppearbejde Økonometri1 øvelsestime ugeseddel 7 dato 26/3 2003, Hold 4 Referat : af Gruppearbejde Økonometri1 øvelsestime ugeseddel 7 dato 26/3 2003, Hold 4 Spm1 Den udvidede model med de to strukturelle variable sk og sh: g i (60-00) = B 0 + B 1 *log(y i ) + B 2 [ log(sk

Læs mere

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 1 Regressionsproblemet 2 Simpel lineær regression Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 3

Læs mere

Stikprøver og stikprøve fordelinger. Stikprøver Estimatorer og estimater Stikprøve fordelinger Egenskaber ved estimatorer Frihedsgrader

Stikprøver og stikprøve fordelinger. Stikprøver Estimatorer og estimater Stikprøve fordelinger Egenskaber ved estimatorer Frihedsgrader Stikprøver og stikprøve fordelinger Stikprøver Estimatorer og estimater Stikprøve fordelinger Egenskaber ved estimatorer Frihedsgrader Statistik Statistisk Inferens: Prediktere og forekaste værdier af

Læs mere

Statistiske modeller

Statistiske modeller Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder

Læs mere

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ

Normalfordelingen. Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: 1 2πσ Normalfordelingen Det centrale er gentagne målinger/observationer (en stikprøve), der kan beskrives ved den normale fordeling: f(x) = ( ) 1 exp (x µ)2 2πσ 2 σ 2 Frekvensen af observationer i intervallet

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Dagens program. Praktisk information:

Dagens program. Praktisk information: Dagens program Praktisk information: Husk hjemmeopgaven i statistik Hypoteseprøvning kap. 11.2,11.3 og 11.8 Eksempel på test Styrkefunktionen kap. 11.2 Stikprøvens størrelse kap. 11.3 Likelihood ratio

Læs mere

Stokastiske processer og køteori

Stokastiske processer og køteori Stokastiske processer og køteori 9. kursusgang Anders Gorst-Rasmussen Institut for Matematiske Fag Aalborg Universitet 1 OPSAMLING EKSAKTE MODELLER Fordele: Praktiske til initierende analyser/dimensionering

Læs mere

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Økonometri: Lektion 6 Emne: Heteroskedasticitet Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 32 Konsekvenser af Heteroskedasticitet Antag her (og i resten) at MLR.1 til MLR.4 er opfyldt. Antag MLR.5 ikke er opfyldt, dvs. vi har heteroskedastiske

Læs mere

Eksempel Multipel regressions model Den generelle model Estimation Multipel R-i-anden F-test for effekt af prædiktorer Test for vekselvirkning

Eksempel Multipel regressions model Den generelle model Estimation Multipel R-i-anden F-test for effekt af prædiktorer Test for vekselvirkning 1 Multipel regressions model Eksempel Multipel regressions model Den generelle model Estimation Multipel R-i-anden F-test for effekt af prædiktorer Test for vekselvirkning PSE (I17) ASTA - 11. lektion

Læs mere

Note om Monte Carlo eksperimenter

Note om Monte Carlo eksperimenter Note om Monte Carlo eksperimenter Mette Ejrnæs og Hans Christian Kongsted Økonomisk Institut, Københavns Universitet 9. september 003 Denne note er skrevet til kurset Økonometri på. årsprøve af polit-studiet.

Læs mere

Hypotesetest. Altså vores formodning eller påstand om tingens tilstand. Alternativ hypotese (hvis vores påstand er forkert) H a : 0

Hypotesetest. Altså vores formodning eller påstand om tingens tilstand. Alternativ hypotese (hvis vores påstand er forkert) H a : 0 Hypotesetest Hypotesetest generelt Ingredienserne i en hypotesetest: Statistisk model, f.eks. X 1,,X n uafhængige fra bestemt fordeling. Parameter med estimat. Nulhypotese, f.eks. at antager en bestemt

Læs mere

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19

Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 Program: 1. Repetition: p-værdi 2. Simpel lineær regression. 1/19 For test med signifikansniveau α: p < α forkast H 0 2/19 p-værdi Betragt tilfældet med test for H 0 : µ = µ 0 (σ kendt). Idé: jo større

Læs mere

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede fordelinger (kap. 4) Middelværdi og varians (kap. 3-4) Fordelingsresultater

Læs mere

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler

Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni timers prøve med hjælpemidler Rettevejledning til Kvantitative metoder 1, 2. årsprøve 18. juni 2007 4 timers prøve med hjælpemidler Opgaven består af re delopgaver, som alle skal besvares. De re opgaver indgår med samme vægt. Opgaverne

Læs mere

Module 4: Ensidig variansanalyse

Module 4: Ensidig variansanalyse Module 4: Ensidig variansanalyse 4.1 Analyse af én stikprøve................. 1 4.1.1 Estimation.................... 3 4.1.2 Modelkontrol................... 4 4.1.3 Hypotesetest................... 6 4.2

Læs mere

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA)

Anvendt Statistik Lektion 9. Variansanalyse (ANOVA) Anvendt Statistik Lektion 9 Variansanalyse (ANOVA) 1 Undersøge sammenhæng Undersøge sammenhænge mellem kategoriske variable: χ 2 -test i kontingenstabeller Undersøge sammenhæng mellem kontinuerte variable:

Læs mere

Algebra - Teori og problemløsning

Algebra - Teori og problemløsning Algebra - Teori og problemløsning, januar 05, Kirsten Rosenkilde. Algebra - Teori og problemløsning Kapitel -3 giver en grundlæggende introduktion til at omskrive udtryk, faktorisere og løse ligningssystemer.

Læs mere

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Kursus 02402 Introduktion til Statistik Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske

Læs mere