Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund

Størrelse: px
Starte visningen fra side:

Download "Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com"

Transkript

1 Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund august 2002

2 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder fag som empirisk finansiering. Formålet med denne note er at beskrive de basale regneregler for matrix algebra, svarende nogenlunde til hvad der forudsættes ved læsning af lærebogen for faget FR86 [Campbell, Lo and MacKinlay (1997)]. Noten beskriver desuden hvordan regnearket Microsoft Excel kan anvendes til (visse) matrix algebra operationer. 2 Definitioner 2.1 Matrix En matrix er en rektangulær tabel af tal (rektangulær vil sige at hver række og hver søjle indeholder lige mange tal). Notationen en n m matrix (læses: n kryds m) betyder en matrix med n rækker og m søjler (kolonner). Elementet i den i te række og j te søjle benævnes a ij, og hele matricen skrives som A n m = a 11 a 12 a 1m a 22 a 22 a 2m a n1 a n2 a nm eller mere kortfattet A = [a ij ]. Notationen betyder at vi har udeladt et vilkårligt antal rækker eller søjler ved opskrivningen. Bemærk desuden at man normalt skriver matricer med stort A, mens de enkelte elementer skrives med lille a ij efterfulgt af de relevante fodtegn. Ligeledes skrives matricer (og vektorer) ofte med boldface skrifttype, sådan som det er gjort her. Et mere konkret eksempel er en 2 3 matrix, der har følgende elementer [ ] a11 a A 2 3 = 12 a 13 (2) a 21 a 22 a 23 Ofte udelader man fodtegnet n m, der angiver dimensionerne på matricen, men i starten når man lærer matrix algebra, er det en god ide konsekvent at skrive dimensionerne på matricen, blandt andet fordi regneregler som matrix multiplikation kun gælder hvis dimensioner overholder visse betingelser (mere herom senere). En n m matrix siges at være kvadratisk hvis n = m. For en kvadratiske matrix A n n kalder man elementerne a ii for diagonalelementerne. 2.2 Transponering Transponering af matricen A benævnes ved A (læses: A mærke), og det vil sige at man bytter om på rækker og søjler. Hvis man f.eks. transponerer matricen A 2 3 fås a 11 a 21 A 3 2 = a 12 a 22 (3) a 13 a 23 1 (1)

3 og for den generelle n m matrix giver transponering A m n = a 11 a 21 a n1 a 12 a 22 a n2 a 1m a 2m a nm 2.3 Lighed mellem matricer og symmetri. (4) To matricer A og B siges at være lig med hinanden, hvis de har samme dimensioner, og hvis a ij = b ij for samtlige elementer i de to matricer. En matrix A kaldes symmetrisk, hvis A = A. Dertil kræves at matricen er kvadratisk, og at a ij = a ji for alle i j. 2.4 Vektor En vektor er et specialtilfælde af en matrix, hvor der kun er en søjle. v n 1 = v 1 v 2 v n (5) Strengt taget burde man kalde ovennævnte en søjlevektor. Der findes nemlig også rækkevektorer, som er matricer med en række og n søjler. Når man blot skriver vektor mener man normalt en søjlevektor. Transponering gælder også for vektorer, dvs. hvis v er en (søjle)vektor, så er v en rækkevektor. Nogle gange er der hensigtsmæssigt at skrive en matrix vha. søjle- eller rækkevektorer. For eksempel kan den generelle n m matrix skrives som A n m = a 1 a 2 a n, hvor a k er en (søjle)vektor med m elementer (således at a k er en 1 m rækkevektor). Her angiver fodtegnet k ikke dimensionen af vektoren, men placeringen (rækken) i matricen A. 2.5 Nogle specielle matricer og vektorer Identitetsmatricen I n n er en symmetrisk matrix, der har 1 på diagonalen og 0 alle andre steder. For den generelle I n n identitetsmatrix har vi I n n = (6). (7) 2

4 En diagonal matrix er en kvadratisk matrix, hvor alle elementer uden for diagonalen er 0. Det vil sige at hvis D er en diagonal matrix, er d ij = 0 for alle i j. Identitetsmatricen er således et specialtilfælde af en diagonal matrix, hvor alle diagonalelementerne er 1. Ettalsvektoren er en vektor hvor alle elementer er 1. Ofte benævnes denne vektor ved symbolet ι, og vi har således ι n 1 = (1 1 1). Bemærk at ι n 1 er en søjlevektor, men at jeg af pladshensyn har skrevet den som en rækkevektor og derefter transponeret den. 3 Regneregler for matricer De følgende regneregler for matricer gælder også for vektorer, idet man jo skal huske at en n-dimensional vektor er en n 1 matrix. 3.1 Addition og subtraktion af matricer Addition mellem to matricer defineres som elementvis addition, og operationen er derfor kun defineret hvis de to matricer har samme dimensioner (sagt formelt: er konforme for addition). Hvis A og B begge er n m matricer, er C n m = A n m + B n m (8) en n m matrix med elementerne c ij = a ij + b ij. Subtraktion defineres på samme måde som addition (elementvis subtraktion), dvs. elementerne i C = A B er givet ved c ij = a ij b ij. Ved addition og subtraktion er rækkefølgen ligegyldig. Det betyder for eksempel at (bemærk brugen af paranteser) D = A (B + C) = A C B. (9) Dette følger umiddelbart af definitionen på matrix addition som elementvis addition, hvorved vi har at c ij = a ij (b ij + c ij ). 3.2 Det indre produkt for vektorer Det indre produkt mellem to n-dimensionale vektorer a og b benævnes a b, og det er defineret som a b = a i b i = a 1 b 1 + a 2 b a n b n. (10) i=1 Vektorerne skal have samme dimension for at det indre produkt er defineret. Bemærk at denne regneregel kun er defineret for vektorer. I visse sammenhænge taler man om længden af en vektor, benævnt ved notationen v. Længden af vektoren v er defineret som v = v v. 3

5 3.3 Matrix multiplikation Hvis A n m er en n m matrix og B m K er en m K matrix, kan vi multiplicere A med B. Matrix multiplikation defineres som det indre produkt at rækkerne i den første matrix med søjlerne i den anden. Det vil sige at elementerne i matrix multiplikationen C n K = A n m B m K (11) givet ved m c ik = a ij b jk. j=1 (12) Bemærk at matrix multiplikationen AB er kun defineret hvis antallet af søjler i A svarer til antallet af rækker i B (hvorved matricerne er konforme for multiplikation). For at være helt præcis siger man at A postmultipliceres med B, eller at B præmultipliceres med A. Hvis man transponerer et matrix produkt AB, gælder følgende regneregel: (AB) = B A. (13) For at indse dette, kan man betragte element c ji i C K n = B K ma m n, der kan skrives som K c ji = K b jk a ki = a ik b kj, (14) k=1 k=1 idet a ki = a ik. Den sidste sum i (14) er netop udtrykket (12) for element c ij i matrix produktet C = AB. Hvis ellers dimensionerne passer, kan man multiplicere flere matricer med hinanden. For eksempel er følgende multiplikation defineret D n m = A n M B M K C K m. (15) Det er underordnet om man først multiplicerer A med B eller B med C. Derimod gælder det generelt at AB BA, selvom begge matrix multiplikationer er definerede. 3.4 Skalar multiplikation En skaler er et almindeligt tal (som et element i en matrix). Skalar multiplikationen ca, hvor c er en skalar, vil sige at alle elementer i matricen A multipliceres med c. ca n m = ca 11 ca 12 ca 1m ca 22 ca 22 ca 2m ca n1 ca n2 ca nm Skalar multiplikation ændrer naturligvis ikke på dimensionerne af matricen. (16) 4

6 3.5 Matrix determinant Matrix determinanten er kun defineret for kvadratiske matricer (n n). Man bruger notationen A eller det(a) for determinanten af matricen A. For en 2 2 matrix A 2 2 er determinanten givet ved udtrykket A = a 11 a 22 a 21 a 12. (17) For en generel n n kan man skrive determinanten ved hjælp af den såkaldte co-faktor expansion. Ud fra en vilkårlig række i kan man beregne determinanten som A = a ij ( 1) i+j A ij = a ij C ij, (18) j=1 j=1 hvor A ij er den matrix der fremkommer ved at slette række i og søjle j, og skalaren C ij = ( 1) i+j A ij kaldes co-faktoren. I ligning (18) skal vi altså beregne n determinanter for matricer af dimensionen (n 1) (n 1). Hvis man nu fortsætter med en co-faktor expansion for disse n determinanter, vil man på et eller andet tidspunkt ende med en 2 2 matrix, hvis determinant kan beregnes ud fra formel (17). I praksis vil man naturligvis foretage determinant beregninger udover 3 3 ved hjælp af en computer, f.eks. regnearket Excel, mere herom i afsnit 4. Hvis A og B begge er kvadratiske matricer, kan det vises at AB = A B. (19) Dette resultat betyder endvidere at AB = BA, (20) selvom det generelt gælder at AB BA. For en diagonal matrix D n n kan determinanten umiddelbart beregnes som D = n d ii = d 11 d 22 d nn. (21) i=1 Dette er let at se ved at bruge co-faktor expansionen ovenfor. regneregel er at En anden nyttig A = A, (22) dvs. at matricerne A og A (begge n n) har samme determinant. 3.6 Matrix inversion Ligesom determinanten for en matrix, gælder denne regneregel kun for kvadratiske matricer. Den inverse matrix af A er den matrix som opfylder betingelsen AA 1 = I, (23) 5

7 hvor I er identitetsmatricen (der har 1 på diagonalen og 0 for alle andre elementer). Den inverse matrix er kun defineret for ikke-singulære matricer, og det kan vises at det svarer til at determinanten A skal være forskellig fra 0. For en 2 2 matrix er den inverse defineret ved [ ] A 1 1 a22 a = 12 (24) a 11 a 22 a 21 a 12 a 21 a 11 Bemærk at nævneren i skalaren er determinanten for A, hvilket forklarer hvorfor den inverse kun er defineret hvis A 0. For den generelle n n matrix kan det vises at A 1 = 1 A C 11 C 21 C n1 C 12 C 22 C n2 C 1n C 2n C nn, (25) hvor C ij = ( 1) i+j A ij er den ij te co-faktor, altså ( 1) i+j gange determinanten af den matrix, som fremkommer ved at slette række i og søjle j fra matricen A. Ligesom for determinant beregninger er denne formel ikke videre praktisk for dimensioner udover 3 3. Computere løser heldigvis dette problem for os. Følgende regneregler for A 1 er ofte nyttige (A 1 ) 1 = A (26) (A ) 1 = (A 1 ) (27) A 1 = 1 A. (28) Hvis A er symmetrisk, vil den inverse også være symmetrisk. Dette følger umiddelbart af ligning (27). Endelig gælder det at (AB) 1 = B 1 A 1, (29) forudsat at den inverse er defineret (kvadratisk dimension) og eksisterer for såvel A som B (svarende til at A 0 og B 0). 3.7 Trace af en matrix Trace operatoren Tr(A) er kun defineret for kvadratiske matricer. Her gælder det at Tr(A n n ) = a ii. (30) i=1 Trace af en matrix er altså summen af diagonalelementerne. 6

8 3.8 Kvadratiske former Den kvadratiske form for en n n symmetrisk matrix C er en skalar, som er defineret ved udtrykket [hvor x er en n-dimensional vektor] x 1 nc n n x n 1 = x i x j c ij. (31) i=1 j=1 Den kvadratiske form bruges blandt andet til at defineret egenskaben positiv semidefinit ved en matrix. En symmetrisk matrix C siges nemlig at være positiv semidefinit, hvis x Cx 0 for alle værdier af vektoren x. Hvis uligheden gælder som en streng ulighed, x Cx > 0, siges matricen C at være positiv definit. Det kan vises at kovariansmatricer altid er mindst positiv semi-definit, mere herom senere i afsnit 6.1. Der findes forskellige metoder til at checke om en matrix er positiv definit eller ej, men de falder udenfor rammerne af denne forelæsningsnote. 3.9 Kronecker produkt 1 Hvis vi har to matricer A n m og B L K, kan vi definere det såkaldte Kronecker produkt A B som en Ln Km matrix med elementerne a 11 B a 12 B a 1m B a (A B) Ln Km = 21 B a 22 B a 2m B. (32) a n1 B a n2 B a nm B Kronecker produktet er en Ln Km, der består af nm submatricer, hver af dimensionen L K. Hver af disse submatricer fremkommer ved skalarmultiplikation mellem a ij og B. En matrix bestående af submatricer kaldes en partitioneret matrix. 4 Excel funktioner til matrix algebra Regnearket Excel har fire funktioner, som giver mulighed at lave basale matrix beregninger. Funktionsnavnene nedenfor refererer til den engelske udgave af Excel, og Microsoft har muligvis valgt andre navne i den danske udgave af Excel (i så fald må man konsultere F1-tasten, eller gætte sig frem). En matrix defineres som et range i Excel Funktionen transpose kan bruges til at beregne den transponerede matrix. Funktionen mmult multiplicerer to matricer med hinanden. Funktionen mdeterm beregner determinanten af en matrix. Funktionen minverse beregner den inverse matrix. 1 Dette afsnit kan eventuelt overspringes uden tab af kontinuitet. Bemærk dog at Kronecker produktet bruges i Appendix A af Campbell et al. (1997) 7

9 Funktionerne transpose, mmult og minverse er array funktioner. For at se det fulde output, skal man markere et range af passende dimension (her regnereglerne for matrix algebra nyttige), og trykke F2 og derefter SHIFT-CTRL-ENTER på samme tid. 5 Regneregler for vektor differentiation 5.1 Definition af begrebet vektor differentiation Ved en funktion af en vector forstås en funktion af elementerne i vektoren: F (x) = F (x 1, x 2,..., x n ), (33) hvor x er en n-dimensional vektor. Ligning (33) kaldes også en funktion af n variable. Differentiation af F (x) med hensyn til vektoren x er en n-dimensional vektor, hvor vi samler de n partialle differentialekvotienter: F (x) x = F (x) x 2 F (x) x x = F (x 1, x 2,..., x n ) x 1 F (x 1, x 2,..., x n ) x 2 F (x 1, x 2,..., x n ) x n Notationen betyder at de n partialle afledede stilles op som en 1 n række F (x) vektor, svarende til at = ( ) F (x) (dette er dog mere notation end en egentlig x x regneregel). Ligning (34) kaldes ofte gradienten af funktionen F (x). Hessian matricen for funktionen F (x) er defineret ved 2 F (x) 2 F (x) x 2 2 F (x) x 1 1 x 2 x 1 x n 2 F (x) 2 F (x) x 2 x 1 x 2 2 F (x) x 2 2 x n 2 F (x) 2 F (x) x n x 1 x n x 2 F (x) 2 x 2 n Hessian matricen er altid en symmetrisk matrix idet det gælder at (34) (35) 2 F (x) x i x j = 2 F (x) x j x i (36) for alle differentiable funktioner (du vil ikke støde på ikke-differentiable funktioner i faget FR86). 8

10 5.2 Vektor differentiation af lineære former En lineær form er en funktion af typen F (x) = a x = a i x i, (37) i=1 hvilket er det indre produkt af x med en vektor af konstante coefficienter a. Da den partielt afledede af F (x) med hensyn til x i er a i, ses det umiddelbart at F (x) x = a, idet det i te element i (38) er a i. 5.3 Vektor differentiation af kvadratiske former Lad F (x) repræsentere den kvadratiske form af den symmetriske matrix C n n (38) F (x) = x Cx = x k x l c kl. (39) k=1 l=1 Hvis vi differentierer (partielt) med hensyn til x i får vi F (x) x i = x k x i x l c kl + x k x l x i c kl k=1 l=1 k=1 l=1 = x l c il + x k c ki (40) l=1 k=1 = 2 c ik x k. k=1 Den første linie i (40) er den sædvanlige regneregel for differentiation af et produkt, mens forenklingen i den sidste linie skyldes at C er symmetrisk. Hvis man kigger nærmere på den sidste linie i ligning (40), skulle man gerne genkende det som element i fra multiplikationen mellem matricen C og vektoren x. Dermed kan man, som generel regneregel for alle kvadratiske former, skrive x Cx x = 2Cx. Elementerne i Hessian matricen er givet ved 2 F (x) = 2 x i x j k=1 (41) c ik x ik x j = 2c ij. (42) Det betyder med andre ord at hele Hessian matricen af den kvadratiske form kan skrives som 2 x Cx x x = 2C. 9 (43)

11 6 Et par anvendelser af matrix algebra 6.1 Stokastiske vektorer Ved en stokastisk vektor x n forstår vi en vektor af n stokastiske variable (x 1, x 2,..., x n ). Middelværdien af en stokastisk vektor er middelværdien af de enkelte elementer E(x 1 ) E(x E(x) = 2 ). (44) E(x n ) Den flerdimensionale udgave af variansen er matricen Cov(x) = E [ (x E(x)) (x E(x)) ] = [E {x i E(x i )} {x j E(x j )}] n n (45) = [Cov(x i, x j )] n n. (46) Bemærk at det ij te element i n n matricen Cov(x) er kovariansen mellem de stokastiske variable x i og x j. Da Cov(x i, x j ) = Cov(x j, x i ), er matricen Cov(x) symmetrisk. Man kan bruge ligning (45) til at vise at en kovariansmatrix altid som minimum er positiv semi-definit, og normalt endvidere altid positiv definit. Husk at en symmetrisk matrix C siges at være positiv definit hvis w Cw > 0 for alle w. Hvis vi lader Cov(x) være C, kan vi skrive w Cov(x)w = w E [ (x E(x)) (x E(x)) ] w = E [ w (x E(x)) (x E(x)) w ] (47) = E [ {w (x E(x))} 2] > 0, idet den sidste linie er variansen på en skalar stokastisk variabel, og varianser er altid positive. Dermed har vi, bortset fra en enkelt undtagelse, vist at en generel kovariansmatrix altid er positiv definit Variansen på en porteføljes afkast Lad os antage at man kan investrer i n aktiver, og at den stokastiske vektor r angiver afkastet i den næste periode for disse n aktiver. Portefølje vægtene kalder vi w i, og hvis vi samler dem i vektoren w, kan porteføljens afkast skrives som R p = w i r i = w r (48) i=1 2 Den pågældende undtagelse er hvis der eksisterer en linearkombination w af de n stokastiske variable som altid er 0. Dette relativt sjældne tilfælde kaldes en stokastisk singularitet, og i så fald er kovariansmatricen kun positiv semi-definit, dvs. w Cw 0 for alle w. Du vil faktisk støde på en variant af dette problem i forbindelse med estimation af de såkaldte heteroskedasticitet og autokorrelation konsistente kovariansmatricer, herunder Newey-West (1987) estimatoren. 10

12 Det forventede afkast på porteføljen er givet ved E(R p ) = w i E(r i ) = w E(r) (49) i=1 Variansen på porteføljens afkast kan beregnes som Var(R p ) = E [w (r E(r))] 2 = E [ w (r E(r)) {w (r E(r))} ] = E [w (r E(r))(r E(r)) w] (50) = w E [(r E(r))(r E(r)) ] w = w Cov(r)w. I den anden linie udnytter vi at transponeringen af en skalar også er en skalar, hvorved x 2 kan skrives som xx (en skalar kan opfattes som en 1 1 vektor). I den fjerde (næstsidste) linie flytter vi den konstante vektor w uden for forventningen, hvorefter vi får Cov(r). Bemærk at desuden at w Cov(r)w = w i w i Cov(r i, r j ) = i=1 j=1 w i w i ρ ij σ i σ j, (51) i=1 j=1 hvor ρ ij er korrelationen mellem r i og r j, og σ 2 i er variansen på r i. 6.3 Løsning af n lineære ligninger med n ubekendte Matrix algebra er en effektiv metode til at løse n lineære ligninger med n ubekendte. Uden matrix algebra ville man opskrive ligningssystemet på følgende form a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2. a n1 x 1 + a n2 x a nn x n = b n. (52) Hvis man i stedet samler elementerne a ij i en n n matrix A, og x i og b i i vektorerne x og b, kan ligningssystemet skrives som A n n x n 1 = b n 1. (53) For at løse dette ligningssystem præmultiplicerer vi med A 1 på begge sider af lighedstegnet, hvilket giver A 1 Ax = A 1 b x = A 1 b, (54) idet A 1 A = I og Ix = x. Vi løser altså det linære ligningssystem ved først at invertere A, og dernæst multiplicere A 1 og b. 11

13 6.4 Multipel regression Matrix algebra er desuden yderst anvendelig til multipel regression. I den klassiske regressions model, med K 1 forklarende variable (regressorer) foruden konstantledet, antager vi at den i te observation y i kan skrives som y i = β 1 + β 2 x i2 + β 3 x i3 + + β K x ik + ε i, i = 1, 2,..., n (55) hvor fejlleddet ε i opfylder betingelserne E(ε i ) = 0 (56) var(ε i ) = σ 2 (57) cov(ε i, ε j ) = 0 for alle i j, (58) hvilket betegnes som fravær at heteroskedasticitet og autokorrelation (hvis y i er en tidsserie). Hvis vi nu definerer x i = (1 x i2 x i3 x ik ) og β = (β 1 β 2 β 3 β K ) som to K-dimensionale vektorer, kan vi skrive regressionsligningen (55) på følgende måde: y i = x iβ + ε i, i = 1, 2,... n (59) Det næste trin er er skrive regressionsligningen for samtlige n observationer på matrix form: y 1 y 2 =. y n } {{ } y n 1 x 1 x 2. β x n } {{ } X n K β K 1 + ε 1 ε 2. ε n } {{ } ε n 1. (60) Ved hjælp af matrix algebra kan den fulde regressionsmodel altså skrives på meget kompakt form: y n 1 = X n K β K 1 + ε n 1. (61) Bemærk at element ij i matricen X er den j te regressor (forklarende variabel) for den i te observation. Vektoren er ε er en n 1 stokastisk vektor med egenskaberne E(ε) = 0 n 1 og Cov(ε) = σ 2 I n n, (62) hvilket præcist er betingelserne (56) (58) skrevet på matrixform. Den mest almindelige estimator for den ukendte parameter(vektor) β er ordinary least squares (OLS), der på dansk kaldes mindste kvadraters metode. Estimatoren β findes ved at minimere funktionen Q(β) = ε 2 i = ε ε = (y Xβ) (y Xβ). (63) i=1 Ved at regne lidt på det sidste udtryk fås Q(β) = y y 2β X y + β X Xβ. (64) 12

14 For at finde minimum for denne funktion skal vi beregne gradienten og sætte den lig med nul-vektoren. Da funktionen Q(β) er en blanding af en lineær form og en kvadratisk form i β, kan vi bruge regnereglerne fra afsnittet om vektor differentiation. Q(β) β = 2X y + 2X Xβ. (65) At sætte gradienten lig med 0 svarer til at løse ligningssystemet (X X) K K β K 1 = (X y) K 1, (66) hvilket vi jo netop har gjort i afsnit 6.3. Løsningen er ˆβ = (X X) 1 X y, (67) hvor notationen ˆβ betyder en estimator for den ukendte parameter β. endvidere vises at kovariansmatricen for OLS estimatoren er givet ved Det kan Cov(ˆβ) = σ 2 (X X) 1. (68) I praksis erstatter man den ukendte σ 2 med en unbiased estimator, nemlig s 2 = 1 ( ( y Xˆβ) y Xˆβ), (69) n K som er summen af de kvadrerede residualer divideren med antallet af frihedsgrader. Literatur Campbell, J.Y., A.W. Lo and A.C. MacKinlay (1997), The Econometrics of Financial Markets, Princeton University Press. Newey, W. and K.D. West (1987), A Simple Positive Semi-Definite Heteroskedasticity and Autocorrelation Consistent Covariance Matrix, Econometrica, 55,

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix

Læs mere

Matematik for økonomer 3. semester

Matematik for økonomer 3. semester Matematik for økonomer 3. semester cand.oecon. studiet, 3. semester Planchesæt 2 - Forelæsning 3 Esben Høg Aalborg Universitet 10. september 2009 Institut for Matematiske Fag Aalborg Universitet Esben

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

Kursusgang 3 Matrixalgebra fortsat

Kursusgang 3 Matrixalgebra fortsat Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse

Læs mere

Kvadratiske matricer. enote Kvadratiske matricer

Kvadratiske matricer. enote Kvadratiske matricer enote enote Kvadratiske matricer I denne enote undersøges grundlæggende egenskaber ved mængden af kvadratiske matricer herunder indførelse af en invers matrix for visse kvadratiske matricer. Det forudsættes,

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Talpar, taltripler og n-tupler Linearkombination og span Test linearkombination Hvad er en matrix Matrix multiplikation Test matrix multiplikation

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Multipel Lineær Regression Sidst så vi på simpel lineær regression, hvor y er forklaret af én variabel. Der er intet, der forhindre os i at have mere

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Matricer og Matrixalgebra

Matricer og Matrixalgebra enote 3 1 enote 3 Matricer og Matrixalgebra Denne enote introducerer matricer og regneoperationer for matricer og udvikler hertil hørende regneregler Noten kan læses uden andet grundlag end gymnasiet,

Læs mere

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Opgaven består af et antal delopgaver Disse er af varierende omfang Der er også en

Læs mere

Økonometri: Lektion 2 Multipel Lineær Regression 1/33

Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 +β 1 x +u, hvor fejlledet u,

Læs mere

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006 Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W

Læs mere

Ligningssystemer - nogle konklusioner efter miniprojektet

Ligningssystemer - nogle konklusioner efter miniprojektet Ligningssystemer - nogle konklusioner efter miniprojektet Ligningssystemet Ax = 0 har mere end en løsning (uendelig mange) hvis og kun hvis nullity(a) 0 Løsningerne til et konsistent ligningssystem Ax

Læs mere

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6 Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA], 2, 3, [S] 9.-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger

Læs mere

Simpel Lineær Regression: Model

Simpel Lineær Regression: Model Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 + β 1 x + u, hvor fejlledet u, har egenskaben E[u x] = 0. Dette betyder bl.a. E[y x]

Læs mere

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2 Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

Simpel Lineær Regression

Simpel Lineær Regression Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Vi antager at sammenhængen mellem y og x er beskrevet ved y = β 0 + β 1 x + u. y: Afhængige

Læs mere

Nøgleord og begreber

Nøgleord og begreber Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Oversigt [LA] 6, 7, 8

Oversigt [LA] 6, 7, 8 Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer Løsningsmængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen

Læs mere

Module 3: Statistiske modeller

Module 3: Statistiske modeller Department of Statistics ST502: Statistisk modellering Pia Veldt Larsen Module 3: Statistiske modeller 31 ANOVA 1 32 Variabelselektion 4 321 Multipel determinationskoefficient 5 322 Variabelselektion med

Læs mere

Lineær algebra 1. kursusgang

Lineær algebra 1. kursusgang Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra

Læs mere

Fagets IT Introduktion til MATLAB

Fagets IT Introduktion til MATLAB Fagets IT Introduktion til MATLAB Mads G. Christensen mgc@kom.auc.dk Afdeling for Kommunikationsteknologi, Aalborg Universitet. MATLAB 2002 p.1/28 Kursusoversigt 1. Introduktion, matrix-indeksering, -operationer

Læs mere

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n. Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018 Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Juni 28 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2

Økonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2 Økonometri 1 Den simple regressionsmodel 11. september 2006 Dagens program Den simple regressionsmodel SLR : Én forklarende variabel (Wooldridge kap. 2.1-2.4) Motivation for gennemgangen af SLR Definition

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 1 Modulpakke 3: Lineære Ligningssystemer 1.1 Indledning - typer af ligningesystemer og løsninger Den lineære ligning 2x=3 kan løses umiddelbart ved at dividere med 2 på begge sider, så vi får:

Læs mere

Matematik og Form: Matrixmultiplikation. Regulære og singu

Matematik og Form: Matrixmultiplikation. Regulære og singu Matematik og Form: Matrixmultiplikation. Regulære og singulære matricer Institut for Matematiske Fag Aalborg Universitet 2012 Matrixmultiplikation Definition Definition A = [a ij ], B = [b ij ]: AB = C

Læs mere

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Økonometri: Lektion 6 Emne: Heteroskedasticitet Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 32 Konsekvenser af Heteroskedasticitet Antag her (og i resten) at MLR.1 til MLR.4 er opfyldt. Antag MLR.5 ikke er opfyldt, dvs. vi har heteroskedastiske

Læs mere

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling Forelæsningsnoter til Lineær Algebra Niels Vigand Pedersen Udgivet af Asmus L Schmidt Københavns Universitet Matematisk Afdeling August Revideret 9 ii udgave, oktober 9 Forord Gennem en særlig aftale varetages

Læs mere

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Lineær Algebra. Lars Hesselholt og Nathalie Wahl Lineær Algebra Lars Hesselholt og Nathalie Wahl Oktober 2016 Forord Denne bog er beregnet til et første kursus i lineær algebra, men vi har lagt vægt på at fremstille dette materiale på en sådan måde,

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007 regressionsmodel 1 Dagens program Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5, E.2) Variansen

Læs mere

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Økonometri Lektion 1 Simpel Lineær Regression 1/31 Økonometri Lektion 1 Simpel Lineær Regression 1/31 Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Statistisk model: Vi antager at sammenhængen

Læs mere

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006

Økonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006 Dagens program Økonometri Den simple regressionsmodel 5. september 006 Den simple lineære regressionsmodel (Wooldridge kap.4-.6) Eksemplet fortsat: Løn og uddannelse på danske data Funktionel form Statistiske

Læs mere

Figur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet

Figur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer smængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen Enten-eller

Læs mere

Vektorer og lineær regression

Vektorer og lineær regression Vektorer og lineær regression Peter Harremoës Niels Brock April 03 Planproduktet Vi har set, at man kan gange en vektor med et tal Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden

Læs mere

Undervisningsnotat. Matricer

Undervisningsnotat. Matricer Undervisningsnotat. Matricer januar, C Definition En matrix er en ordnet mængde tal opstillet i m rækker og n søjler. Matricen A kunne være defineret som vist nedenfor. Hvert element i matricen er forsynet

Læs mere

Lineær algebra: Matrixmultiplikation. Regulære og singulære

Lineær algebra: Matrixmultiplikation. Regulære og singulære Lineær algebra: Matrixmultiplikation. Regulære og singulære matricer Institut for Matematiske Fag Aalborg Universitet 2011 Matrixmultiplikation Definition Definition A = [a ij ], B = [b ij ]: AB = C =

Læs mere

Lagrange multiplier test. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet. Konsekvenser af Heteroskedasticitet

Lagrange multiplier test. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet. Konsekvenser af Heteroskedasticitet Lagrange multiplier test Et alternativ til F -testet af en eller flere parametre. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet Antag vi har model: y = β 0 + β 1 x 2 + + β k x k + u. Vi ønsker

Læs mere

Vektorer og lineær regression. Peter Harremoës Niels Brock

Vektorer og lineær regression. Peter Harremoës Niels Brock Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.

Læs mere

Teoretiske Øvelsesopgaver:

Teoretiske Øvelsesopgaver: Teoretiske Øvelsesopgaver: TØ-Opgave 1 Subtraktion division i legemer: Er subtraktion division med elementer 0 i legemer veldefinerede, eller kan et element b have mere end ét modsat element -b eller mere

Læs mere

1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata

1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata 1 Intoduktion Før man springer ud i en øvelse om paneldata og panelmodeller, kan det selvfølgelig være rart at have en fornemmelse af, hvorfor de er så vigtige i moderne mikro-økonometri, og hvorfor de

Læs mere

Økonometri: Lektion 6 Emne: Heteroskedasticitet

Økonometri: Lektion 6 Emne: Heteroskedasticitet Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 34 Lagrange multiplier test Et alternativ til F -testet af en eller flere parametre. Antag vi har model: Vi ønsker at teste hypotesen y = β 0 + β 1 x

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

Lineære ligningssystemer

Lineære ligningssystemer enote 2 1 enote 2 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.

Læs mere

Program for de næste 3 1/4 dobbeltlektion

Program for de næste 3 1/4 dobbeltlektion Matricer Program for de næste 3 1/4 dobbeltlektion Tirsdag 3. september 11.00 12.00: Afsnit 8.1, 8.2, 8.3 og 8.5 Torsdag 5. september 12.30 16.15 12.30 14.15: Opgaveregning lokale 261/409 14.30: Vi mødes

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal.

1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal. SEKTION 11 LEGEMER 11 Legemer Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal Definition 111 Et legeme F er en mængde udstyret

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Besvarelser til Lineær Algebra Reeksamen August 2016

Besvarelser til Lineær Algebra Reeksamen August 2016 Besvarelser til Lineær Algebra Reeksamen - 9. August 26 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Landmålingens fejlteori - Lektion 5 - Fejlforplantning

Landmålingens fejlteori - Lektion 5 - Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke

Læs mere

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet

! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet Dagens program Økonometri Den multiple regressionsmodel 4. februar 003 regressionsmodel Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5)! Opsamling fra sidst

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 3 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 38 Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte)

Læs mere

Lineær algebra 4. kursusgang

Lineær algebra 4. kursusgang Lineær algebra 4. kursusgang Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte) Ax = b. Ligningssystemet antages at være inkonsistent (ingen løsninger) fordi tallene er fremkommet

Læs mere

Lineær algebra Kursusgang 6

Lineær algebra Kursusgang 6 Lineær algebra Kursusgang 6 Mindste kvadraters metode og Cholesky dekomposition Vi ønsker at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem hvor A er en m n matrix. Ax = b,

Læs mere

Kvantitative metoder 2

Kvantitative metoder 2 Kvantitative metoder Heteroskedasticitet 11. april 007 KM: F18 1 Oversigt: Heteroskedasticitet OLS estimation under heteroskedasticitet (W.8.1-): Konsekvenser af heteroskedasticitet for OLS Gyldige test

Læs mere

MM502+4 forelæsningsslides

MM502+4 forelæsningsslides MM502+4 forelæsningsslides uge 7, 2009 Produceret af Hans J Munkholm, delvis på baggrund af lignende materiale udarbejdet af Mikael Rørdam 1 Definition kritisk punkt: funktion f(x, y) er et kritisk punkt

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

Undervisningsnoter til øvelse i Panel Modeller. %, it. E(x kjs

Undervisningsnoter til øvelse i Panel Modeller. %, it. E(x kjs 4 I afsnit 3 beskæftigede vi os med 1EC modellen og viste, hvordan den kunne estimereres med FGLS - bla under forudsætning af, at det individspecifikke stokastiske led er ukorreleret med de forklarende

Læs mere

LiA 2 Side 0. Lineær algebra 3. kursusgang

LiA 2 Side 0. Lineær algebra 3. kursusgang LiA 2 Side 0 Lineær algebra 3. kursusgang LiA 2 Side 1 Højdeforskelle. D C 0.7 0.7 0.8 E LiA 2 Side 2 Vi har tre punkter C, D og E. Højderne er h C, h D, h E. (I det følgende benævnes disse også x, y,

Læs mere

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016 Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17 nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017 Besvarelser til Lineær Algebra Ordinær Eksamen - 12. Juni 2017 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

3.1 Baser og dimension

3.1 Baser og dimension SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V

Læs mere

Matematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer

Matematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer Matematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer Martin Raussen Department of Mathematical Sciences Aalborg University 2017 1 / 12 Matrixmultiplikation Am n = [aij ], Bn

Læs mere

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016 Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 206 Mikkel Findinge http://findinge.com/ Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan.

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER 6. udgave 2016 FORORD Dette notat viser hvorledes man kan løse lineære ligningssystemer ved Gaussmetode dels uden regnemidler dels med regnemidler.

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 4 4 0 0 0 4 x x x x 5 udgave 05 FORORD Dette notat viser hvorledes man kan dels kan løse lineære

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

hvor a og b er konstanter. Ved middelværdidannelse fås videre

hvor a og b er konstanter. Ved middelværdidannelse fås videre Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den

Læs mere

Lineær Algebra eksamen, noter

Lineær Algebra eksamen, noter Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,

Læs mere

9.1 Egenværdier og egenvektorer

9.1 Egenværdier og egenvektorer SEKTION 9.1 EGENVÆRDIER OG EGENVEKTORER 9.1 Egenværdier og egenvektorer Definition 9.1.1 1. Lad V være et F-vektorrum; og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der

Læs mere

MATRICER LINEÆRE LIGNINGER

MATRICER LINEÆRE LIGNINGER MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 3 4 3 4 0 3 0 3 0 3 4 x x x x 4 udgave 04 FORORD Dette notat giver en gennemgang af de matrixoperationer,

Læs mere

Lineære ligningssystemer

Lineære ligningssystemer enote 6 1 enote 6 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.

Læs mere

LiA 5 Side 0. Lineær algebra Kursusgang 5

LiA 5 Side 0. Lineær algebra Kursusgang 5 LiA 5 Side 0 Lineær algebra Kursusgang 5 LiA 5 Side 1 Ved bestemmelse af mindste kvadraters løsning til (store) ligningssystemer vil man gerne anvende en metode der opfylder to krav: antallet af regneoperationer

Læs mere

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme

Læs mere

Lineær Algebra, kursusgang

Lineær Algebra, kursusgang Lineær Algebra, 2018 1. kursusgang Lisbeth Fajstrup Institut for Matematiske Fag Aalborg Universitet LinAlg September 2018 Velkommen til Lineær algebra Kursusholder - Lisbeth Fajstrup. Kontor: Skjernvej

Læs mere

Vektorer og rumgeometri med. TI-Interactive!

Vektorer og rumgeometri med. TI-Interactive! Vektorer og rumgeometri med TI-Interactive! Indtastning af vektorer Regning med vektorer Skalarprodukt og vektorprodukt Punkter og vektorer Rumgeometri med ligninger Jan Leffers (2007) Indholdsfortegnelse

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers matrix Matrix potens Lineære ligningssystemer Løsningsmængdens

Læs mere

Eksempler Determinanten af en kvadratisk matrix. Calculus Uge

Eksempler Determinanten af en kvadratisk matrix. Calculus Uge Oversigt [LA] 8 Her skal du lære om 1. Helt simple determinanter 2. En udvidelse der vil noget 3. Effektive regneregler 4. Genkend determinant nul 5. Produktreglen 6. Inversreglen 7. Potensreglen 8. Entydig

Læs mere

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 1 of 7 31-05-2010 13:18 2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 Welcome Jens Mohr Mortensen [ My Profile ] View Details View Grade Help Quit & Save Feedback: Details Report [PRINT] 2010 Matematik

Læs mere

Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri

Introduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri Introduktion til Statistiske Modeller for Finansielle Tidsserier Forelæsningsnoter til Finansiel Økonometri Jesper Lund mail@jesperlund.com http://www.jesperlund.com 14. marts 2006 1 Indledning Formålet

Læs mere

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater

Økonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater Økonometri: Lektion 4 Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater 1 / 35 Hypotesetest for én parameter Antag vi har model y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi

Læs mere

Matematisk modellering og numeriske metoder. Lektion 13

Matematisk modellering og numeriske metoder. Lektion 13 Matematisk modellering og numeriske metoder Lektion 3 Morten Grud Rasmussen 3. november 206 Numerisk metode til Laplace- og Poisson-ligningerne. Finite difference-formulering af problemet I det følgende

Læs mere

Indhold. 5. Vektorrum og matricer Koordinattransformationer

Indhold. 5. Vektorrum og matricer Koordinattransformationer Indhold Lineære afbildninger og matricer Talrummene R n, C n Matricer 8 3 Lineære afbildninger 4 Matrix algebra 8 5 Invers matrix 6 6 Transponeret og adjungeret matrix 9 Række- og søjleoperationer Lineære

Læs mere

To ligninger i to ubekendte

To ligninger i to ubekendte Oversigt [LA] 6, 7 Nøgleord og begreber Løs ligninger Eliminer ubekendte Rækkereduktion Reduceret matrix Enten-eller princippet Test ligningssystem Rækkeoperationsmatricer Beregn invers matrix Calculus

Læs mere