Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund

Størrelse: px
Starte visningen fra side:

Download "Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com"

Transkript

1 Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund 28. august 2002

2 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder fag som empirisk finansiering. Formålet med denne note er at beskrive de basale regneregler for matrix algebra, svarende nogenlunde til hvad der forudsættes ved læsning af lærebogen for faget FR86 [Campbell, Lo and MacKinlay (1997)]. Noten beskriver desuden hvordan regnearket Microsoft Excel kan anvendes til (visse) matrix algebra operationer. 2 Definitioner 2.1 Matrix En matrix er en rektangulær tabel af tal (rektangulær vil sige at hver række og hver søjle indeholder lige mange tal). Notationen en n m matrix (læses: n kryds m) betyder en matrix med n rækker og m søjler (kolonner). Elementet i den i te række og j te søjle benævnes a ij, og hele matricen skrives som A n m = a 11 a 12 a 1m a 22 a 22 a 2m a n1 a n2 a nm eller mere kortfattet A = [a ij ]. Notationen betyder at vi har udeladt et vilkårligt antal rækker eller søjler ved opskrivningen. Bemærk desuden at man normalt skriver matricer med stort A, mens de enkelte elementer skrives med lille a ij efterfulgt af de relevante fodtegn. Ligeledes skrives matricer (og vektorer) ofte med boldface skrifttype, sådan som det er gjort her. Et mere konkret eksempel er en 2 3 matrix, der har følgende elementer [ ] a11 a A 2 3 = 12 a 13 (2) a 21 a 22 a 23 Ofte udelader man fodtegnet n m, der angiver dimensionerne på matricen, men i starten når man lærer matrix algebra, er det en god ide konsekvent at skrive dimensionerne på matricen, blandt andet fordi regneregler som matrix multiplikation kun gælder hvis dimensioner overholder visse betingelser (mere herom senere). En n m matrix siges at være kvadratisk hvis n = m. For en kvadratiske matrix A n n kalder man elementerne a ii for diagonalelementerne. 2.2 Transponering Transponering af matricen A benævnes ved A (læses: A mærke), og det vil sige at man bytter om på rækker og søjler. Hvis man f.eks. transponerer matricen A 2 3 fås a 11 a 21 A 3 2 = a 12 a 22 (3) a 13 a 23 1 (1)

3 og for den generelle n m matrix giver transponering A m n = a 11 a 21 a n1 a 12 a 22 a n2 a 1m a 2m a nm 2.3 Lighed mellem matricer og symmetri. (4) To matricer A og B siges at være lig med hinanden, hvis de har samme dimensioner, og hvis a ij = b ij for samtlige elementer i de to matricer. En matrix A kaldes symmetrisk, hvis A = A. Dertil kræves at matricen er kvadratisk, og at a ij = a ji for alle i j. 2.4 Vektor En vektor er et specialtilfælde af en matrix, hvor der kun er en søjle. v n 1 = v 1 v 2 v n (5) Strengt taget burde man kalde ovennævnte en søjlevektor. Der findes nemlig også rækkevektorer, som er matricer med en række og n søjler. Når man blot skriver vektor mener man normalt en søjlevektor. Transponering gælder også for vektorer, dvs. hvis v er en (søjle)vektor, så er v en rækkevektor. Nogle gange er der hensigtsmæssigt at skrive en matrix vha. søjle- eller rækkevektorer. For eksempel kan den generelle n m matrix skrives som A n m = a 1 a 2 a n, hvor a k er en (søjle)vektor med m elementer (således at a k er en 1 m rækkevektor). Her angiver fodtegnet k ikke dimensionen af vektoren, men placeringen (rækken) i matricen A. 2.5 Nogle specielle matricer og vektorer Identitetsmatricen I n n er en symmetrisk matrix, der har 1 på diagonalen og 0 alle andre steder. For den generelle I n n identitetsmatrix har vi I n n = (6). (7) 2

4 En diagonal matrix er en kvadratisk matrix, hvor alle elementer uden for diagonalen er 0. Det vil sige at hvis D er en diagonal matrix, er d ij = 0 for alle i j. Identitetsmatricen er således et specialtilfælde af en diagonal matrix, hvor alle diagonalelementerne er 1. Ettalsvektoren er en vektor hvor alle elementer er 1. Ofte benævnes denne vektor ved symbolet ι, og vi har således ι n 1 = (1 1 1). Bemærk at ι n 1 er en søjlevektor, men at jeg af pladshensyn har skrevet den som en rækkevektor og derefter transponeret den. 3 Regneregler for matricer De følgende regneregler for matricer gælder også for vektorer, idet man jo skal huske at en n-dimensional vektor er en n 1 matrix. 3.1 Addition og subtraktion af matricer Addition mellem to matricer defineres som elementvis addition, og operationen er derfor kun defineret hvis de to matricer har samme dimensioner (sagt formelt: er konforme for addition). Hvis A og B begge er n m matricer, er C n m = A n m + B n m (8) en n m matrix med elementerne c ij = a ij + b ij. Subtraktion defineres på samme måde som addition (elementvis subtraktion), dvs. elementerne i C = A B er givet ved c ij = a ij b ij. Ved addition og subtraktion er rækkefølgen ligegyldig. Det betyder for eksempel at (bemærk brugen af paranteser) D = A (B + C) = A C B. (9) Dette følger umiddelbart af definitionen på matrix addition som elementvis addition, hvorved vi har at c ij = a ij (b ij + c ij ). 3.2 Det indre produkt for vektorer Det indre produkt mellem to n-dimensionale vektorer a og b benævnes a b, og det er defineret som a b = a i b i = a 1 b 1 + a 2 b a n b n. (10) i=1 Vektorerne skal have samme dimension for at det indre produkt er defineret. Bemærk at denne regneregel kun er defineret for vektorer. I visse sammenhænge taler man om længden af en vektor, benævnt ved notationen v. Længden af vektoren v er defineret som v = v v. 3

5 3.3 Matrix multiplikation Hvis A n m er en n m matrix og B m K er en m K matrix, kan vi multiplicere A med B. Matrix multiplikation defineres som det indre produkt at rækkerne i den første matrix med søjlerne i den anden. Det vil sige at elementerne i matrix multiplikationen C n K = A n m B m K (11) givet ved m c ik = a ij b jk. j=1 (12) Bemærk at matrix multiplikationen AB er kun defineret hvis antallet af søjler i A svarer til antallet af rækker i B (hvorved matricerne er konforme for multiplikation). For at være helt præcis siger man at A postmultipliceres med B, eller at B præmultipliceres med A. Hvis man transponerer et matrix produkt AB, gælder følgende regneregel: (AB) = B A. (13) For at indse dette, kan man betragte element c ji i C K n = B K ma m n, der kan skrives som K c ji = K b jk a ki = a ik b kj, (14) k=1 k=1 idet a ki = a ik. Den sidste sum i (14) er netop udtrykket (12) for element c ij i matrix produktet C = AB. Hvis ellers dimensionerne passer, kan man multiplicere flere matricer med hinanden. For eksempel er følgende multiplikation defineret D n m = A n M B M K C K m. (15) Det er underordnet om man først multiplicerer A med B eller B med C. Derimod gælder det generelt at AB BA, selvom begge matrix multiplikationer er definerede. 3.4 Skalar multiplikation En skaler er et almindeligt tal (som et element i en matrix). Skalar multiplikationen ca, hvor c er en skalar, vil sige at alle elementer i matricen A multipliceres med c. ca n m = ca 11 ca 12 ca 1m ca 22 ca 22 ca 2m ca n1 ca n2 ca nm Skalar multiplikation ændrer naturligvis ikke på dimensionerne af matricen. (16) 4

6 3.5 Matrix determinant Matrix determinanten er kun defineret for kvadratiske matricer (n n). Man bruger notationen A eller det(a) for determinanten af matricen A. For en 2 2 matrix A 2 2 er determinanten givet ved udtrykket A = a 11 a 22 a 21 a 12. (17) For en generel n n kan man skrive determinanten ved hjælp af den såkaldte co-faktor expansion. Ud fra en vilkårlig række i kan man beregne determinanten som A = a ij ( 1) i+j A ij = a ij C ij, (18) j=1 j=1 hvor A ij er den matrix der fremkommer ved at slette række i og søjle j, og skalaren C ij = ( 1) i+j A ij kaldes co-faktoren. I ligning (18) skal vi altså beregne n determinanter for matricer af dimensionen (n 1) (n 1). Hvis man nu fortsætter med en co-faktor expansion for disse n determinanter, vil man på et eller andet tidspunkt ende med en 2 2 matrix, hvis determinant kan beregnes ud fra formel (17). I praksis vil man naturligvis foretage determinant beregninger udover 3 3 ved hjælp af en computer, f.eks. regnearket Excel, mere herom i afsnit 4. Hvis A og B begge er kvadratiske matricer, kan det vises at AB = A B. (19) Dette resultat betyder endvidere at AB = BA, (20) selvom det generelt gælder at AB BA. For en diagonal matrix D n n kan determinanten umiddelbart beregnes som D = n d ii = d 11 d 22 d nn. (21) i=1 Dette er let at se ved at bruge co-faktor expansionen ovenfor. regneregel er at En anden nyttig A = A, (22) dvs. at matricerne A og A (begge n n) har samme determinant. 3.6 Matrix inversion Ligesom determinanten for en matrix, gælder denne regneregel kun for kvadratiske matricer. Den inverse matrix af A er den matrix som opfylder betingelsen AA 1 = I, (23) 5

7 hvor I er identitetsmatricen (der har 1 på diagonalen og 0 for alle andre elementer). Den inverse matrix er kun defineret for ikke-singulære matricer, og det kan vises at det svarer til at determinanten A skal være forskellig fra 0. For en 2 2 matrix er den inverse defineret ved [ ] A 1 1 a22 a = 12 (24) a 11 a 22 a 21 a 12 a 21 a 11 Bemærk at nævneren i skalaren er determinanten for A, hvilket forklarer hvorfor den inverse kun er defineret hvis A 0. For den generelle n n matrix kan det vises at A 1 = 1 A C 11 C 21 C n1 C 12 C 22 C n2 C 1n C 2n C nn, (25) hvor C ij = ( 1) i+j A ij er den ij te co-faktor, altså ( 1) i+j gange determinanten af den matrix, som fremkommer ved at slette række i og søjle j fra matricen A. Ligesom for determinant beregninger er denne formel ikke videre praktisk for dimensioner udover 3 3. Computere løser heldigvis dette problem for os. Følgende regneregler for A 1 er ofte nyttige (A 1 ) 1 = A (26) (A ) 1 = (A 1 ) (27) A 1 = 1 A. (28) Hvis A er symmetrisk, vil den inverse også være symmetrisk. Dette følger umiddelbart af ligning (27). Endelig gælder det at (AB) 1 = B 1 A 1, (29) forudsat at den inverse er defineret (kvadratisk dimension) og eksisterer for såvel A som B (svarende til at A 0 og B 0). 3.7 Trace af en matrix Trace operatoren Tr(A) er kun defineret for kvadratiske matricer. Her gælder det at Tr(A n n ) = a ii. (30) i=1 Trace af en matrix er altså summen af diagonalelementerne. 6

8 3.8 Kvadratiske former Den kvadratiske form for en n n symmetrisk matrix C er en skalar, som er defineret ved udtrykket [hvor x er en n-dimensional vektor] x 1 nc n n x n 1 = x i x j c ij. (31) i=1 j=1 Den kvadratiske form bruges blandt andet til at defineret egenskaben positiv semidefinit ved en matrix. En symmetrisk matrix C siges nemlig at være positiv semidefinit, hvis x Cx 0 for alle værdier af vektoren x. Hvis uligheden gælder som en streng ulighed, x Cx > 0, siges matricen C at være positiv definit. Det kan vises at kovariansmatricer altid er mindst positiv semi-definit, mere herom senere i afsnit 6.1. Der findes forskellige metoder til at checke om en matrix er positiv definit eller ej, men de falder udenfor rammerne af denne forelæsningsnote. 3.9 Kronecker produkt 1 Hvis vi har to matricer A n m og B L K, kan vi definere det såkaldte Kronecker produkt A B som en Ln Km matrix med elementerne a 11 B a 12 B a 1m B a (A B) Ln Km = 21 B a 22 B a 2m B. (32) a n1 B a n2 B a nm B Kronecker produktet er en Ln Km, der består af nm submatricer, hver af dimensionen L K. Hver af disse submatricer fremkommer ved skalarmultiplikation mellem a ij og B. En matrix bestående af submatricer kaldes en partitioneret matrix. 4 Excel funktioner til matrix algebra Regnearket Excel har fire funktioner, som giver mulighed at lave basale matrix beregninger. Funktionsnavnene nedenfor refererer til den engelske udgave af Excel, og Microsoft har muligvis valgt andre navne i den danske udgave af Excel (i så fald må man konsultere F1-tasten, eller gætte sig frem). En matrix defineres som et range i Excel Funktionen transpose kan bruges til at beregne den transponerede matrix. Funktionen mmult multiplicerer to matricer med hinanden. Funktionen mdeterm beregner determinanten af en matrix. Funktionen minverse beregner den inverse matrix. 1 Dette afsnit kan eventuelt overspringes uden tab af kontinuitet. Bemærk dog at Kronecker produktet bruges i Appendix A af Campbell et al. (1997) 7

9 Funktionerne transpose, mmult og minverse er array funktioner. For at se det fulde output, skal man markere et range af passende dimension (her regnereglerne for matrix algebra nyttige), og trykke F2 og derefter SHIFT-CTRL-ENTER på samme tid. 5 Regneregler for vektor differentiation 5.1 Definition af begrebet vektor differentiation Ved en funktion af en vector forstås en funktion af elementerne i vektoren: F (x) = F (x 1, x 2,..., x n ), (33) hvor x er en n-dimensional vektor. Ligning (33) kaldes også en funktion af n variable. Differentiation af F (x) med hensyn til vektoren x er en n-dimensional vektor, hvor vi samler de n partialle differentialekvotienter: F (x) x = F (x) x 2 F (x) x x = F (x 1, x 2,..., x n ) x 1 F (x 1, x 2,..., x n ) x 2 F (x 1, x 2,..., x n ) x n Notationen betyder at de n partialle afledede stilles op som en 1 n række F (x) vektor, svarende til at = ( ) F (x) (dette er dog mere notation end en egentlig x x regneregel). Ligning (34) kaldes ofte gradienten af funktionen F (x). Hessian matricen for funktionen F (x) er defineret ved 2 F (x) 2 F (x) x 2 2 F (x) x 1 1 x 2 x 1 x n 2 F (x) 2 F (x) x 2 x 1 x 2 2 F (x) x 2 2 x n 2 F (x) 2 F (x) x n x 1 x n x 2 F (x) 2 x 2 n Hessian matricen er altid en symmetrisk matrix idet det gælder at (34) (35) 2 F (x) x i x j = 2 F (x) x j x i (36) for alle differentiable funktioner (du vil ikke støde på ikke-differentiable funktioner i faget FR86). 8

10 5.2 Vektor differentiation af lineære former En lineær form er en funktion af typen F (x) = a x = a i x i, (37) i=1 hvilket er det indre produkt af x med en vektor af konstante coefficienter a. Da den partielt afledede af F (x) med hensyn til x i er a i, ses det umiddelbart at F (x) x = a, idet det i te element i (38) er a i. 5.3 Vektor differentiation af kvadratiske former Lad F (x) repræsentere den kvadratiske form af den symmetriske matrix C n n (38) F (x) = x Cx = x k x l c kl. (39) k=1 l=1 Hvis vi differentierer (partielt) med hensyn til x i får vi F (x) x i = x k x i x l c kl + x k x l x i c kl k=1 l=1 k=1 l=1 = x l c il + x k c ki (40) l=1 k=1 = 2 c ik x k. k=1 Den første linie i (40) er den sædvanlige regneregel for differentiation af et produkt, mens forenklingen i den sidste linie skyldes at C er symmetrisk. Hvis man kigger nærmere på den sidste linie i ligning (40), skulle man gerne genkende det som element i fra multiplikationen mellem matricen C og vektoren x. Dermed kan man, som generel regneregel for alle kvadratiske former, skrive x Cx x = 2Cx. Elementerne i Hessian matricen er givet ved 2 F (x) = 2 x i x j k=1 (41) c ik x ik x j = 2c ij. (42) Det betyder med andre ord at hele Hessian matricen af den kvadratiske form kan skrives som 2 x Cx x x = 2C. 9 (43)

11 6 Et par anvendelser af matrix algebra 6.1 Stokastiske vektorer Ved en stokastisk vektor x n forstår vi en vektor af n stokastiske variable (x 1, x 2,..., x n ). Middelværdien af en stokastisk vektor er middelværdien af de enkelte elementer E(x 1 ) E(x E(x) = 2 ). (44) E(x n ) Den flerdimensionale udgave af variansen er matricen Cov(x) = E [ (x E(x)) (x E(x)) ] = [E {x i E(x i )} {x j E(x j )}] n n (45) = [Cov(x i, x j )] n n. (46) Bemærk at det ij te element i n n matricen Cov(x) er kovariansen mellem de stokastiske variable x i og x j. Da Cov(x i, x j ) = Cov(x j, x i ), er matricen Cov(x) symmetrisk. Man kan bruge ligning (45) til at vise at en kovariansmatrix altid som minimum er positiv semi-definit, og normalt endvidere altid positiv definit. Husk at en symmetrisk matrix C siges at være positiv definit hvis w Cw > 0 for alle w. Hvis vi lader Cov(x) være C, kan vi skrive w Cov(x)w = w E [ (x E(x)) (x E(x)) ] w = E [ w (x E(x)) (x E(x)) w ] (47) = E [ {w (x E(x))} 2] > 0, idet den sidste linie er variansen på en skalar stokastisk variabel, og varianser er altid positive. Dermed har vi, bortset fra en enkelt undtagelse, vist at en generel kovariansmatrix altid er positiv definit Variansen på en porteføljes afkast Lad os antage at man kan investrer i n aktiver, og at den stokastiske vektor r angiver afkastet i den næste periode for disse n aktiver. Portefølje vægtene kalder vi w i, og hvis vi samler dem i vektoren w, kan porteføljens afkast skrives som R p = w i r i = w r (48) i=1 2 Den pågældende undtagelse er hvis der eksisterer en linearkombination w af de n stokastiske variable som altid er 0. Dette relativt sjældne tilfælde kaldes en stokastisk singularitet, og i så fald er kovariansmatricen kun positiv semi-definit, dvs. w Cw 0 for alle w. Du vil faktisk støde på en variant af dette problem i forbindelse med estimation af de såkaldte heteroskedasticitet og autokorrelation konsistente kovariansmatricer, herunder Newey-West (1987) estimatoren. 10

12 Det forventede afkast på porteføljen er givet ved E(R p ) = w i E(r i ) = w E(r) (49) i=1 Variansen på porteføljens afkast kan beregnes som Var(R p ) = E [w (r E(r))] 2 = E [ w (r E(r)) {w (r E(r))} ] = E [w (r E(r))(r E(r)) w] (50) = w E [(r E(r))(r E(r)) ] w = w Cov(r)w. I den anden linie udnytter vi at transponeringen af en skalar også er en skalar, hvorved x 2 kan skrives som xx (en skalar kan opfattes som en 1 1 vektor). I den fjerde (næstsidste) linie flytter vi den konstante vektor w uden for forventningen, hvorefter vi får Cov(r). Bemærk at desuden at w Cov(r)w = w i w i Cov(r i, r j ) = i=1 j=1 w i w i ρ ij σ i σ j, (51) i=1 j=1 hvor ρ ij er korrelationen mellem r i og r j, og σ 2 i er variansen på r i. 6.3 Løsning af n lineære ligninger med n ubekendte Matrix algebra er en effektiv metode til at løse n lineære ligninger med n ubekendte. Uden matrix algebra ville man opskrive ligningssystemet på følgende form a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2. a n1 x 1 + a n2 x a nn x n = b n. (52) Hvis man i stedet samler elementerne a ij i en n n matrix A, og x i og b i i vektorerne x og b, kan ligningssystemet skrives som A n n x n 1 = b n 1. (53) For at løse dette ligningssystem præmultiplicerer vi med A 1 på begge sider af lighedstegnet, hvilket giver A 1 Ax = A 1 b x = A 1 b, (54) idet A 1 A = I og Ix = x. Vi løser altså det linære ligningssystem ved først at invertere A, og dernæst multiplicere A 1 og b. 11

13 6.4 Multipel regression Matrix algebra er desuden yderst anvendelig til multipel regression. I den klassiske regressions model, med K 1 forklarende variable (regressorer) foruden konstantledet, antager vi at den i te observation y i kan skrives som y i = β 1 + β 2 x i2 + β 3 x i3 + + β K x ik + ε i, i = 1, 2,..., n (55) hvor fejlleddet ε i opfylder betingelserne E(ε i ) = 0 (56) var(ε i ) = σ 2 (57) cov(ε i, ε j ) = 0 for alle i j, (58) hvilket betegnes som fravær at heteroskedasticitet og autokorrelation (hvis y i er en tidsserie). Hvis vi nu definerer x i = (1 x i2 x i3 x ik ) og β = (β 1 β 2 β 3 β K ) som to K-dimensionale vektorer, kan vi skrive regressionsligningen (55) på følgende måde: y i = x iβ + ε i, i = 1, 2,... n (59) Det næste trin er er skrive regressionsligningen for samtlige n observationer på matrix form: y 1 y 2 =. y n } {{ } y n 1 x 1 x 2. β x n } {{ } X n K β K 1 + ε 1 ε 2. ε n } {{ } ε n 1. (60) Ved hjælp af matrix algebra kan den fulde regressionsmodel altså skrives på meget kompakt form: y n 1 = X n K β K 1 + ε n 1. (61) Bemærk at element ij i matricen X er den j te regressor (forklarende variabel) for den i te observation. Vektoren er ε er en n 1 stokastisk vektor med egenskaberne E(ε) = 0 n 1 og Cov(ε) = σ 2 I n n, (62) hvilket præcist er betingelserne (56) (58) skrevet på matrixform. Den mest almindelige estimator for den ukendte parameter(vektor) β er ordinary least squares (OLS), der på dansk kaldes mindste kvadraters metode. Estimatoren β findes ved at minimere funktionen Q(β) = ε 2 i = ε ε = (y Xβ) (y Xβ). (63) i=1 Ved at regne lidt på det sidste udtryk fås Q(β) = y y 2β X y + β X Xβ. (64) 12

14 For at finde minimum for denne funktion skal vi beregne gradienten og sætte den lig med nul-vektoren. Da funktionen Q(β) er en blanding af en lineær form og en kvadratisk form i β, kan vi bruge regnereglerne fra afsnittet om vektor differentiation. Q(β) β = 2X y + 2X Xβ. (65) At sætte gradienten lig med 0 svarer til at løse ligningssystemet (X X) K K β K 1 = (X y) K 1, (66) hvilket vi jo netop har gjort i afsnit 6.3. Løsningen er ˆβ = (X X) 1 X y, (67) hvor notationen ˆβ betyder en estimator for den ukendte parameter β. endvidere vises at kovariansmatricen for OLS estimatoren er givet ved Det kan Cov(ˆβ) = σ 2 (X X) 1. (68) I praksis erstatter man den ukendte σ 2 med en unbiased estimator, nemlig s 2 = 1 ( ( y Xˆβ) y Xˆβ), (69) n K som er summen af de kvadrerede residualer divideren med antallet af frihedsgrader. Literatur Campbell, J.Y., A.W. Lo and A.C. MacKinlay (1997), The Econometrics of Financial Markets, Princeton University Press. Newey, W. and K.D. West (1987), A Simple Positive Semi-Definite Heteroskedasticity and Autocorrelation Consistent Covariance Matrix, Econometrica, 55,

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Kvadratiske matricer. enote Kvadratiske matricer

Kvadratiske matricer. enote Kvadratiske matricer enote enote Kvadratiske matricer I denne enote undersøges grundlæggende egenskaber ved mængden af kvadratiske matricer herunder indførelse af en invers matrix for visse kvadratiske matricer. Det forudsættes,

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Multipel Lineær Regression Sidst så vi på simpel lineær regression, hvor y er forklaret af én variabel. Der er intet, der forhindre os i at have mere

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/33

Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 +β 1 x +u, hvor fejlledet u,

Læs mere

Matricer og Matrixalgebra

Matricer og Matrixalgebra enote 3 1 enote 3 Matricer og Matrixalgebra Denne enote introducerer matricer og regneoperationer for matricer og udvikler hertil hørende regneregler Noten kan læses uden andet grundlag end gymnasiet,

Læs mere

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6 Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række

Læs mere

Simpel Lineær Regression

Simpel Lineær Regression Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Vi antager at sammenhængen mellem y og x er beskrevet ved y = β 0 + β 1 x + u. y: Afhængige

Læs mere

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2 Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

Oversigt [LA] 6, 7, 8

Oversigt [LA] 6, 7, 8 Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer Løsningsmængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen

Læs mere

Module 3: Statistiske modeller

Module 3: Statistiske modeller Department of Statistics ST502: Statistisk modellering Pia Veldt Larsen Module 3: Statistiske modeller 31 ANOVA 1 32 Variabelselektion 4 321 Multipel determinationskoefficient 5 322 Variabelselektion med

Læs mere

Lineær algebra 1. kursusgang

Lineær algebra 1. kursusgang Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Fagets IT Introduktion til MATLAB

Fagets IT Introduktion til MATLAB Fagets IT Introduktion til MATLAB Mads G. Christensen mgc@kom.auc.dk Afdeling for Kommunikationsteknologi, Aalborg Universitet. MATLAB 2002 p.1/28 Kursusoversigt 1. Introduktion, matrix-indeksering, -operationer

Læs mere

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling Forelæsningsnoter til Lineær Algebra Niels Vigand Pedersen Udgivet af Asmus L Schmidt Københavns Universitet Matematisk Afdeling August Revideret 9 ii udgave, oktober 9 Forord Gennem en særlig aftale varetages

Læs mere

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan

Læs mere

Undervisningsnotat. Matricer

Undervisningsnotat. Matricer Undervisningsnotat. Matricer januar, C Definition En matrix er en ordnet mængde tal opstillet i m rækker og n søjler. Matricen A kunne være defineret som vist nedenfor. Hvert element i matricen er forsynet

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Vektorer og lineær regression. Peter Harremoës Niels Brock

Vektorer og lineær regression. Peter Harremoës Niels Brock Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 4 4 0 0 0 4 x x x x 5 udgave 05 FORORD Dette notat viser hvorledes man kan dels kan løse lineære

Læs mere

Program for de næste 3 1/4 dobbeltlektion

Program for de næste 3 1/4 dobbeltlektion Matricer Program for de næste 3 1/4 dobbeltlektion Tirsdag 3. september 11.00 12.00: Afsnit 8.1, 8.2, 8.3 og 8.5 Torsdag 5. september 12.30 16.15 12.30 14.15: Opgaveregning lokale 261/409 14.30: Vi mødes

Læs mere

Lineære ligningssystemer

Lineære ligningssystemer enote 2 1 enote 2 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 3 4 3 4 0 3 0 3 0 3 4 x x x x 4 udgave 04 FORORD Dette notat giver en gennemgang af de matrixoperationer,

Læs mere

Lineær Algebra eksamen, noter

Lineær Algebra eksamen, noter Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,

Læs mere

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 1 of 7 31-05-2010 13:18 2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 Welcome Jens Mohr Mortensen [ My Profile ] View Details View Grade Help Quit & Save Feedback: Details Report [PRINT] 2010 Matematik

Læs mere

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme

Læs mere

Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri

Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri Introduktion til Statistiske Modeller for Finansielle Tidsserier Forelæsningsnoter til Finansiel Økonometri Jesper Lund mail@jesperlund.com http://www.jesperlund.com 14. marts 2006 1 Indledning Formålet

Læs mere

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer DesignMat September 2008 fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum over L (enten R eller C). fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17 nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse

Læs mere

9.1 Egenværdier og egenvektorer

9.1 Egenværdier og egenvektorer SEKTION 9.1 EGENVÆRDIER OG EGENVEKTORER 9.1 Egenværdier og egenvektorer Definition 9.1.1 1. Lad V være et F-vektorrum; og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER 0 4 4 0 0 0 4 x x x x 6 udgave 06 FORORD Dette notat viser hvorledes man kan løse lineære ligningssystemer ved Gaussmetode dels uden regnemidler

Læs mere

Indhold. 5. Vektorrum og matricer Koordinattransformationer

Indhold. 5. Vektorrum og matricer Koordinattransformationer Indhold Lineære afbildninger og matricer Talrummene R n, C n Matricer 8 3 Lineære afbildninger 4 Matrix algebra 8 5 Invers matrix 6 6 Transponeret og adjungeret matrix 9 Række- og søjleoperationer Lineære

Læs mere

Eksempler Determinanten af en kvadratisk matrix. Calculus Uge

Eksempler Determinanten af en kvadratisk matrix. Calculus Uge Oversigt [LA] 8 Her skal du lære om 1. Helt simple determinanter 2. En udvidelse der vil noget 3. Effektive regneregler 4. Genkend determinant nul 5. Produktreglen 6. Inversreglen 7. Potensreglen 8. Entydig

Læs mere

Lineær Algebra, 2015 1. kursusgang

Lineær Algebra, 2015 1. kursusgang Lineær Algebra, 2015 1. kursusgang Lisbeth Fajstrup Institut for Matematiske Fag Aalborg Universitet LinAlg September 2015 Velkommen til Lineær algebra Kursusholder - Lisbeth Fajstrup. Kontor: Fredrik

Læs mere

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater Økonometri: Lektion 4 Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater 1 / 35 Hypotesetest for én parameter Antag vi har model y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers matrix Matrix potens Lineære ligningssystemer Løsningsmængdens

Læs mere

Middelværdi og varians. Kovarians. korrelation = 0.02 korrelation = 0.7 korrelation = 1.0

Middelværdi og varians. Kovarians. korrelation = 0.02 korrelation = 0.7 korrelation = 1.0 Middelværdi og varians Middelværdien af en diskret skalarfunktion f(x), for x = 0, N er: µ = N f(x) N x=0 For vektorfuktioner er middelværdivektoren tilsvarende: µ = N f(x) N x=0 Middelværdien er en af

Læs mere

To ligninger i to ubekendte

To ligninger i to ubekendte Oversigt [LA] 6, 7 Nøgleord og begreber Løs ligninger Eliminer ubekendte Rækkereduktion Reduceret matrix Enten-eller princippet Test ligningssystem Rækkeoperationsmatricer Beregn invers matrix Calculus

Læs mere

LinAlgDat 2014/2015 Google s page rank

LinAlgDat 2014/2015 Google s page rank LinAlgDat 4/5 Google s page rank Resumé Vi viser hvordan lineære ligninger naturligt optræder i forbindelse med en simpel udgave af Google s algoritme for at vise de mest interessante links først i en

Læs mere

Oversigt [LA] 6, 7, 8

Oversigt [LA] 6, 7, 8 Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer Løsningsmængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen

Læs mere

LINALG JULENØD 2013 SUNE PRECHT REEH

LINALG JULENØD 2013 SUNE PRECHT REEH LINALG JULENØD 203 SUNE PRECHT REEH Resumé I denne julenød skal vi se på lineær algebra for heltallene Z Hvad går stadig godt? og hvad går galt? I de reelle tal R kan vi for ethvert a 0 altid finde R som

Læs mere

Lineære ligningssystemer og Gauss-elimination

Lineære ligningssystemer og Gauss-elimination Lineære ligningssystemer og Gauss-elimination Preben Alsholm 18 februar 008 1 Lineære ligningssystemer og Gauss-elimination 11 Et eksempel Et eksempel 100g mælk Komælk Fåremælk Gedemælk Protein g 6g 8g

Læs mere

DesignMat Kvadratiske matricer, invers matrix, determinant

DesignMat Kvadratiske matricer, invers matrix, determinant DesignMat Kvadratiske matricer, invers matrix, determinant Preben Alsholm Uge 5 Forår 010 1 Kvadratiske matricer, invers matrix, determinant 1.1 Invers matrix I Invers matrix I Definition. En n n-matrix

Læs mere

To samhørende variable

To samhørende variable To samhørende variable Statistik er tal brugt som argumenter. - Leonard Louis Levinsen Antagatviharn observationspar x 1, y 1,, x n,y n. Betragt de to tilsvarende variable x og y. Hvordan måles sammenhængen

Læs mere

Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec.

Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec. Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec. 1 Komplekse vektorrum I defininitionen af vektorrum i Afsnit 4.1 i Niels Vigand Pedersen Lineær Algebra

Læs mere

Lineær algebra: Spænd. Lineær (u)afhængighed

Lineær algebra: Spænd. Lineær (u)afhængighed Lineær algebra: Spænd. Lineær (u)afhængighed Institut for Matematiske Fag Aalborg Universitet 2011 Linearkombinationer. Spænd Definition Givet et antal vektorer a 1,..., a p R n. En vektor v = c 1 a 1

Læs mere

Tidligere Eksamensopgaver MM505 Lineær Algebra

Tidligere Eksamensopgaver MM505 Lineær Algebra Institut for Matematik og Datalogi Syddansk Universitet Tidligere Eksamensopgaver MM55 Lineær Algebra Indhold Typisk forside.................. 2 Juni 27.................... 3 Oktober 27..................

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af lommeregner (TI89) og programmerne TI-Nspire og Mathcad 0 3 4 3 4 0 3 0 3 0 3 4 x x x x 3 udgave 03 FORORD Dette notat giver en

Læs mere

Center for Statistik. Multipel regression med laggede responser som forklarende variable

Center for Statistik. Multipel regression med laggede responser som forklarende variable Center for Statistik Handelshøjskolen i København MPAS Tue Tjur November 2006 Multipel regression med laggede responser som forklarende variable Ved en tidsrække forstås i almindelighed et datasæt, der

Læs mere

Matematisk modellering og numeriske metoder. Lektion 5

Matematisk modellering og numeriske metoder. Lektion 5 Matematisk modellering og numeriske metoder Lektion 5 Morten Grud Rasmussen 19. september, 2013 1 Euler-Cauchy-ligninger [Bogens afsnit 2.5, side 71] 1.1 De tre typer af Euler-Cauchy-ligninger Efter at

Læs mere

LINEÆR ALGEBRA DIFFERENTIALLIGNINGER

LINEÆR ALGEBRA DIFFERENTIALLIGNINGER LINEÆR ALGEBRA DIFFERENTIALLIGNINGER NOTER TIL CALCULUS 006 NIELSEN - SALOMONSEN INSTITUT FOR MATEMATISKE FAG AARHUS UNIVERSITET 006 Indhold Forord 5. Vektorer og linearkombinationer 7. Basis og dimension

Læs mere

t a l e n t c a m p d k Matematik Intro Mads Friis, stud.scient 7. november 2015 Slide 1/25

t a l e n t c a m p d k Matematik Intro Mads Friis, stud.scient 7. november 2015 Slide 1/25 Slide 1/25 Indhold 1 2 3 4 5 6 7 8 Slide 2/25 Om undervisningen Hvorfor er vi her? Slide 3/25 Om undervisningen Hvorfor er vi her? Hvad kommer der til at ske? 1) Teoretisk gennemgang ved tavlen. 2) Instruktion

Læs mere

Introduktion til differentialregning 1. Jens Siegstad og Annegrethe Bak

Introduktion til differentialregning 1. Jens Siegstad og Annegrethe Bak Introduktion til differentialregning 1 Jens Siegstad og Annegrete Bak 16. juli 2008 1 Indledning I denne note vil vi kort introduktion til differentilregning, idet vi skal bruge teorien i et emne, Matematisk

Læs mere

Mat10 eksamensspørgsmål

Mat10 eksamensspørgsmål Mat10 eksamensspørgsmål Martin Geisler 9. januar 2002 Resumé Dette dokument er en gennemgang af de eksamensspørgsmål der blev stillet til den mundtlige eksamen i Mat10, januar 2002

Læs mere

t a l e n t c a m p d k Matematik Intro Mads Friis, stud.scient 27. oktober 2014 Slide 1/25

t a l e n t c a m p d k Matematik Intro Mads Friis, stud.scient 27. oktober 2014 Slide 1/25 Slide 1/25 Indhold 1 2 3 4 5 6 7 8 Slide 2/25 Om undervisningen Hvorfor er vi her? Hvad kommer der til at ske? 1) Teoretisk gennemgang ved tavlen. 2) Instruktion i eksempler. 3) Opgaveregning. 4) Opsamling.

Læs mere

, i ' 1,...,N ; t ' 1,...,T, - i.i.d.(0,f 2, ), ) ' 0, E(, it. x kjs. œ i,t,s,j,k.

, i ' 1,...,N ; t ' 1,...,T, - i.i.d.(0,f 2, ), ) ' 0, E(, it. x kjs. œ i,t,s,j,k. 3 Den model, som vi gennemgående skal arbejde med i øvelsen, er»one-way Error Component«Modellen (1EC) Modellen specificeres på følgende måde: y it ' x it $ % µ i %, it, i ' 1,,N ; t ' 1,,T, hvor y it

Læs mere

Ekstremum for funktion af flere variable

Ekstremum for funktion af flere variable Ekstremum for funktion af flere variable Preben Alsholm 28. april 2008 1 Ekstremum for funktion af flere variable 1.1 Hessematricen I Hessematricen I Et stationært punkt for en funktion af flere variable

Læs mere

! Proxy variable. ! Målefejl. ! Manglende observationer. ! Dataudvælgelse. ! Ekstreme observationer. ! Eksempel: Lønrelation (på US data)

! Proxy variable. ! Målefejl. ! Manglende observationer. ! Dataudvælgelse. ! Ekstreme observationer. ! Eksempel: Lønrelation (på US data) Dagens program Økonometri 1 Specifikation, og dataproblemer 10. april 003 Emnet for denne forelæsning er specifikation (Wooldridge kap. 9.-9.4)! Proxy variable! Målefejl! Manglende observationer! Dataudvælgelse!

Læs mere

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model

Reminder: Hypotesetest for én parameter. Økonometri: Lektion 4. F -test Justeret R 2 Aymptotiske resultater. En god model Reminder: Hypotesetest for én parameter Antag vi har model Økonometri: Lektion 4 F -test Justeret R 2 Aymptotiske resultater y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi ønsker at teste hypotesen H

Læs mere

Grundlæggende Matematik

Grundlæggende Matematik Grundlæggende Matematik Hayati Balo, AAMS August 2012 1. Matematiske symboler For at udtrykke de verbale udsagn matematisk korrekt, så det bliver lettere og hurtigere at skrive, indføres en række matematiske

Læs mere

Appendiks Økonometrisk teori... II

Appendiks Økonometrisk teori... II Appendiks Økonometrisk teori... II De klassiske SLR-antagelser... II Hypotesetest... VII Regressioner... VIII Inflation:... VIII Test for SLR antagelser... IX Reset-test... IX Plots... X Breusch-Pagan

Læs mere

Matematik A. Studentereksamen. Forberedelsesmateriale. Digital eksamensopgave med adgang til internettet

Matematik A. Studentereksamen. Forberedelsesmateriale. Digital eksamensopgave med adgang til internettet Matematik A Studentereksamen Digital eksamensopgave med adgang til internettet Forberedelsesmateriale frs-matn/a-270420 Onsdag den 27. april 20 Forberedelsesmateriale til stx-a-net MATEMATIK Der skal afsættes

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere

Algebra. Dennis Pipenbring, 10. februar 2012. matx.dk

Algebra. Dennis Pipenbring, 10. februar 2012. matx.dk matx.dk Algebra Dennis Pipenbring, 10. februar 2012 nøgleord andengradsligning, komplekse tal, ligningsløsning, ligningssystemer, nulreglen, reducering Indhold 1 Forord 4 2 Indledning 5 3 De grundlæggende

Læs mere

Chapter 7: Transport-, assignment- & transshipmentproblemer

Chapter 7: Transport-, assignment- & transshipmentproblemer Chapter 7: Transport-, assignment- & transshipmentproblemer 1) Formulering af de 3 problemtyper 2) Algoritme for det balancerede transportproblem 3) Algoritme for assignmentproblemet Samtlige 3 problemtyper

Læs mere

Affine transformationer/afbildninger

Affine transformationer/afbildninger Affine transformationer. Jens-Søren Kjær Andersen, marts 2011 1 Affine transformationer/afbildninger Følgende afbildninger (+ sammensætninger af disse) af planen ind i sig selv kaldes affine: 1) parallelforskydning

Læs mere

Statistik Lektion 17 Multipel Lineær Regression

Statistik Lektion 17 Multipel Lineær Regression Statistik Lektion 7 Multipel Lineær Regression Polynomiel regression Ikke-lineære modeller og transformation Multi-kolinearitet Auto-korrelation og Durbin-Watson test Multipel lineær regression x,x,,x

Læs mere

Exponentielle familer, ark 2

Exponentielle familer, ark 2 1 Exponentielle familer, ark 2 Eksponentielle familier OPGAVE 21 Beksriv den eksponentielle familie på (R, B) givet ved følgende data: V er R med det sædvanlige indre produkt, den kanoniske stikprøvefunktion

Læs mere

Lineære differentialligningers karakter og lineære 1. ordens differentialligninger

Lineære differentialligningers karakter og lineære 1. ordens differentialligninger enote 11 1 enote 11 Lineære differentialligningers karakter og lineære 1. ordens differentialligninger I denne note introduceres lineære differentialligninger, som er en speciel (og bekvem) form for differentialligninger.

Læs mere

Introduktion til Laplace transformen (Noter skrevet af Nikolaj Hess-Nielsen sidst revideret marts 2013)

Introduktion til Laplace transformen (Noter skrevet af Nikolaj Hess-Nielsen sidst revideret marts 2013) Introduktion til Laplace transformen (oter skrevet af ikolaj Hess-ielsen sidst revideret marts 23) Integration handler ikke kun om arealer. Tværtimod er integration basis for mange af de vigtigste værktøjer

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Institution Uddannelse Fag og niveau Lærer(e) Hold Termin hvori undervisningen afsluttes: maj-juni 2015 Københavns

Læs mere

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x) Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen

Læs mere

MATRICER LINEÆRE LIGNINGER. Usikkerhedsberegning

MATRICER LINEÆRE LIGNINGER. Usikkerhedsberegning MOGENS ODDERSHEDE LARSEN MATRICER LINEÆRE LIGNINGER Usikkerhedsberegning med inddragelse af lommeregner (TI89) og programmerne TI-Nspire og Mathcad 0 3 4 3 4 0 3 0 3 0 3 4 = x x x x. udgave 0 FORORD Dette

Læs mere

1 Om funktioner. 1.1 Hvad er en funktion?

1 Om funktioner. 1.1 Hvad er en funktion? 1 Om funktioner 1.1 Hvad er en funktion? Man lærer allerede om funktioner i folkeskolen, hvor funktioner typisk bliver introduceret som maskiner, der tager et tal ind, og spytter et tal ud. Dette er også

Læs mere

TALTEORI Ligninger og det der ligner.

TALTEORI Ligninger og det der ligner. Ligninger og det der ligner, december 006, Kirsten Rosenkilde 1 TALTEORI Ligninger og det der ligner. Disse noter forudsætter et grundlæggende kendskab til talteori som man kan få i Marianne Terps og Peter

Læs mere

MATEMATIK A. Indhold. 92 videoer.

MATEMATIK A. Indhold. 92 videoer. MATEMATIK A Indhold Differentialligninger... 2 Differentialregning... 3 Eksamen... 3 Hvorfor Matematik?... 3 Integralregning... 3 Regression... 4 Statistik... 5 Trigonometriske funktioner... 5 Vektorer

Læs mere

Kvadratisk regression

Kvadratisk regression Kvadratisk regression Helle Sørensen Institut for Matematiske Fag Københavns Universitet Juli 2011 I kapitlet om lineær regression blev det vist hvordan man kan modellere en lineær sammenhæng mellem to

Læs mere

ALMINDELIGT ANVENDTE FUNKTIONER

ALMINDELIGT ANVENDTE FUNKTIONER ALMINDELIGT ANVENDTE FUNKTIONER I dette kapitel gennemgås de almindelige regnefunktioner, samt en række af de mest nødvendige redigerings- og formateringsfunktioner. De øvrige redigerings- og formateringsfunktioner

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin 5. 6. semester efterår 2015-forår 2016 Institution Grenaa Tekniske Gymnasium Uddannelse Fag og niveau Lærer(e)

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Institution Uddannelse Fag og niveau Lærer(e) Termin hvori undervisningen afsluttes: maj-juni, 2010 HTX Vibenhus

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

Differentialregning. Ib Michelsen

Differentialregning. Ib Michelsen Differentialregning Ib Michelsen Ikast 2012 Forsidebilledet Tredjegradspolynomium i blåt med rød tangent Version: 0.02 (18-09-12) Denne side er (~ 2) Indholdsfortegnelse Introduktion...5 Definition af

Læs mere

DesignMat Lineære ligningssystemer og Gauss-elimination

DesignMat Lineære ligningssystemer og Gauss-elimination DesignMat Lineære ligningssystemer og Gauss-elimination Preben Alsholm Uge Forår 010 1 Lineære ligningssystemer og Gauss-elimination 11 Om talrummet R n Om talsæt bestående af n tal R n er blot mængden

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Afsnit 3.3-3.5 Varians Eksempel: Forventet nytte Kovarians og korrelation Middelværdi og varians af summer af stokastiske variabler Eksempel: Porteføljevalg 1 Beskrivelse af fordelinger

Læs mere

Matematik og Form 3. Rækkereduktion til reduceret echelonfo. Rang og nullitet

Matematik og Form 3. Rækkereduktion til reduceret echelonfo. Rang og nullitet Matematik og Form 3. Rækkereduktion til reduceret echelonform Rang og nullitet Institut for Matematiske Fag Aalborg Universitet 11.2.2013 Reduktion til (reduceret) echelonmatrix Et eksempel Et ligningssystem

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Som 2015 Institution VUC Vest Uddannelse Fag og niveau Lærer(e) Hold Hf/hfe Mat B Niels Johansson 14MACB11E14

Læs mere

Betingede sandsynligheder Aase D. Madsen

Betingede sandsynligheder Aase D. Madsen 1 Uge 12 Teoretisk Statistik 15. marts 2004 1. Betingede sandsynligheder Definition Loven om den totale sandsynlighed Bayes formel 2. Betinget middelværdi og varians 3. Kovarians og korrelationskoefficient

Læs mere

Undervisningsbeskrivelse

Undervisningsbeskrivelse Undervisningsbeskrivelse Stamoplysninger til brug ved prøver til gymnasiale uddannelser Termin Institution Uddannelse Fag og niveau Lærer(e) Termin hvori undervisningen afsluttes: Maj/juni 2012 HTX Vibenhus

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Opgave fra sidst (Gauss-Markov teoremet) Kvantitative metoder Inferens i den lineære regressionsmodel 7. marts 007 Opgave: Vis at hvis M = I X X X X ( ' ) ' er M idempoten dvs der gælder gælder M = M '

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Inferens i den lineære regressionsmodel 7. marts 2007 regressionsmodel 1 Opgave fra sidst (Gauss-Markov teoremet) Opgave: Vis at hvis M = I X X X X 1 ( ' ) ' er M idempoten dvs der

Læs mere

Hvad er matematik? C, i-bog ISBN 978 87 7066 499 8

Hvad er matematik? C, i-bog ISBN 978 87 7066 499 8 Et af de helt store videnskabelige projekter i 1700-tallets Danmark var kortlægningen af Danmark. Projektet blev varetaget af Det Kongelige Danske Videnskabernes Selskab og løb over en periode på et halvt

Læs mere