Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund
|
|
- Line Madsen
- 8 år siden
- Visninger:
Transkript
1 Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund august 2002
2 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder fag som empirisk finansiering. Formålet med denne note er at beskrive de basale regneregler for matrix algebra, svarende nogenlunde til hvad der forudsættes ved læsning af lærebogen for faget FR86 [Campbell, Lo and MacKinlay (1997)]. Noten beskriver desuden hvordan regnearket Microsoft Excel kan anvendes til (visse) matrix algebra operationer. 2 Definitioner 2.1 Matrix En matrix er en rektangulær tabel af tal (rektangulær vil sige at hver række og hver søjle indeholder lige mange tal). Notationen en n m matrix (læses: n kryds m) betyder en matrix med n rækker og m søjler (kolonner). Elementet i den i te række og j te søjle benævnes a ij, og hele matricen skrives som A n m = a 11 a 12 a 1m a 22 a 22 a 2m a n1 a n2 a nm eller mere kortfattet A = [a ij ]. Notationen betyder at vi har udeladt et vilkårligt antal rækker eller søjler ved opskrivningen. Bemærk desuden at man normalt skriver matricer med stort A, mens de enkelte elementer skrives med lille a ij efterfulgt af de relevante fodtegn. Ligeledes skrives matricer (og vektorer) ofte med boldface skrifttype, sådan som det er gjort her. Et mere konkret eksempel er en 2 3 matrix, der har følgende elementer [ ] a11 a A 2 3 = 12 a 13 (2) a 21 a 22 a 23 Ofte udelader man fodtegnet n m, der angiver dimensionerne på matricen, men i starten når man lærer matrix algebra, er det en god ide konsekvent at skrive dimensionerne på matricen, blandt andet fordi regneregler som matrix multiplikation kun gælder hvis dimensioner overholder visse betingelser (mere herom senere). En n m matrix siges at være kvadratisk hvis n = m. For en kvadratiske matrix A n n kalder man elementerne a ii for diagonalelementerne. 2.2 Transponering Transponering af matricen A benævnes ved A (læses: A mærke), og det vil sige at man bytter om på rækker og søjler. Hvis man f.eks. transponerer matricen A 2 3 fås a 11 a 21 A 3 2 = a 12 a 22 (3) a 13 a 23 1 (1)
3 og for den generelle n m matrix giver transponering A m n = a 11 a 21 a n1 a 12 a 22 a n2 a 1m a 2m a nm 2.3 Lighed mellem matricer og symmetri. (4) To matricer A og B siges at være lig med hinanden, hvis de har samme dimensioner, og hvis a ij = b ij for samtlige elementer i de to matricer. En matrix A kaldes symmetrisk, hvis A = A. Dertil kræves at matricen er kvadratisk, og at a ij = a ji for alle i j. 2.4 Vektor En vektor er et specialtilfælde af en matrix, hvor der kun er en søjle. v n 1 = v 1 v 2 v n (5) Strengt taget burde man kalde ovennævnte en søjlevektor. Der findes nemlig også rækkevektorer, som er matricer med en række og n søjler. Når man blot skriver vektor mener man normalt en søjlevektor. Transponering gælder også for vektorer, dvs. hvis v er en (søjle)vektor, så er v en rækkevektor. Nogle gange er der hensigtsmæssigt at skrive en matrix vha. søjle- eller rækkevektorer. For eksempel kan den generelle n m matrix skrives som A n m = a 1 a 2 a n, hvor a k er en (søjle)vektor med m elementer (således at a k er en 1 m rækkevektor). Her angiver fodtegnet k ikke dimensionen af vektoren, men placeringen (rækken) i matricen A. 2.5 Nogle specielle matricer og vektorer Identitetsmatricen I n n er en symmetrisk matrix, der har 1 på diagonalen og 0 alle andre steder. For den generelle I n n identitetsmatrix har vi I n n = (6). (7) 2
4 En diagonal matrix er en kvadratisk matrix, hvor alle elementer uden for diagonalen er 0. Det vil sige at hvis D er en diagonal matrix, er d ij = 0 for alle i j. Identitetsmatricen er således et specialtilfælde af en diagonal matrix, hvor alle diagonalelementerne er 1. Ettalsvektoren er en vektor hvor alle elementer er 1. Ofte benævnes denne vektor ved symbolet ι, og vi har således ι n 1 = (1 1 1). Bemærk at ι n 1 er en søjlevektor, men at jeg af pladshensyn har skrevet den som en rækkevektor og derefter transponeret den. 3 Regneregler for matricer De følgende regneregler for matricer gælder også for vektorer, idet man jo skal huske at en n-dimensional vektor er en n 1 matrix. 3.1 Addition og subtraktion af matricer Addition mellem to matricer defineres som elementvis addition, og operationen er derfor kun defineret hvis de to matricer har samme dimensioner (sagt formelt: er konforme for addition). Hvis A og B begge er n m matricer, er C n m = A n m + B n m (8) en n m matrix med elementerne c ij = a ij + b ij. Subtraktion defineres på samme måde som addition (elementvis subtraktion), dvs. elementerne i C = A B er givet ved c ij = a ij b ij. Ved addition og subtraktion er rækkefølgen ligegyldig. Det betyder for eksempel at (bemærk brugen af paranteser) D = A (B + C) = A C B. (9) Dette følger umiddelbart af definitionen på matrix addition som elementvis addition, hvorved vi har at c ij = a ij (b ij + c ij ). 3.2 Det indre produkt for vektorer Det indre produkt mellem to n-dimensionale vektorer a og b benævnes a b, og det er defineret som a b = a i b i = a 1 b 1 + a 2 b a n b n. (10) i=1 Vektorerne skal have samme dimension for at det indre produkt er defineret. Bemærk at denne regneregel kun er defineret for vektorer. I visse sammenhænge taler man om længden af en vektor, benævnt ved notationen v. Længden af vektoren v er defineret som v = v v. 3
5 3.3 Matrix multiplikation Hvis A n m er en n m matrix og B m K er en m K matrix, kan vi multiplicere A med B. Matrix multiplikation defineres som det indre produkt at rækkerne i den første matrix med søjlerne i den anden. Det vil sige at elementerne i matrix multiplikationen C n K = A n m B m K (11) givet ved m c ik = a ij b jk. j=1 (12) Bemærk at matrix multiplikationen AB er kun defineret hvis antallet af søjler i A svarer til antallet af rækker i B (hvorved matricerne er konforme for multiplikation). For at være helt præcis siger man at A postmultipliceres med B, eller at B præmultipliceres med A. Hvis man transponerer et matrix produkt AB, gælder følgende regneregel: (AB) = B A. (13) For at indse dette, kan man betragte element c ji i C K n = B K ma m n, der kan skrives som K c ji = K b jk a ki = a ik b kj, (14) k=1 k=1 idet a ki = a ik. Den sidste sum i (14) er netop udtrykket (12) for element c ij i matrix produktet C = AB. Hvis ellers dimensionerne passer, kan man multiplicere flere matricer med hinanden. For eksempel er følgende multiplikation defineret D n m = A n M B M K C K m. (15) Det er underordnet om man først multiplicerer A med B eller B med C. Derimod gælder det generelt at AB BA, selvom begge matrix multiplikationer er definerede. 3.4 Skalar multiplikation En skaler er et almindeligt tal (som et element i en matrix). Skalar multiplikationen ca, hvor c er en skalar, vil sige at alle elementer i matricen A multipliceres med c. ca n m = ca 11 ca 12 ca 1m ca 22 ca 22 ca 2m ca n1 ca n2 ca nm Skalar multiplikation ændrer naturligvis ikke på dimensionerne af matricen. (16) 4
6 3.5 Matrix determinant Matrix determinanten er kun defineret for kvadratiske matricer (n n). Man bruger notationen A eller det(a) for determinanten af matricen A. For en 2 2 matrix A 2 2 er determinanten givet ved udtrykket A = a 11 a 22 a 21 a 12. (17) For en generel n n kan man skrive determinanten ved hjælp af den såkaldte co-faktor expansion. Ud fra en vilkårlig række i kan man beregne determinanten som A = a ij ( 1) i+j A ij = a ij C ij, (18) j=1 j=1 hvor A ij er den matrix der fremkommer ved at slette række i og søjle j, og skalaren C ij = ( 1) i+j A ij kaldes co-faktoren. I ligning (18) skal vi altså beregne n determinanter for matricer af dimensionen (n 1) (n 1). Hvis man nu fortsætter med en co-faktor expansion for disse n determinanter, vil man på et eller andet tidspunkt ende med en 2 2 matrix, hvis determinant kan beregnes ud fra formel (17). I praksis vil man naturligvis foretage determinant beregninger udover 3 3 ved hjælp af en computer, f.eks. regnearket Excel, mere herom i afsnit 4. Hvis A og B begge er kvadratiske matricer, kan det vises at AB = A B. (19) Dette resultat betyder endvidere at AB = BA, (20) selvom det generelt gælder at AB BA. For en diagonal matrix D n n kan determinanten umiddelbart beregnes som D = n d ii = d 11 d 22 d nn. (21) i=1 Dette er let at se ved at bruge co-faktor expansionen ovenfor. regneregel er at En anden nyttig A = A, (22) dvs. at matricerne A og A (begge n n) har samme determinant. 3.6 Matrix inversion Ligesom determinanten for en matrix, gælder denne regneregel kun for kvadratiske matricer. Den inverse matrix af A er den matrix som opfylder betingelsen AA 1 = I, (23) 5
7 hvor I er identitetsmatricen (der har 1 på diagonalen og 0 for alle andre elementer). Den inverse matrix er kun defineret for ikke-singulære matricer, og det kan vises at det svarer til at determinanten A skal være forskellig fra 0. For en 2 2 matrix er den inverse defineret ved [ ] A 1 1 a22 a = 12 (24) a 11 a 22 a 21 a 12 a 21 a 11 Bemærk at nævneren i skalaren er determinanten for A, hvilket forklarer hvorfor den inverse kun er defineret hvis A 0. For den generelle n n matrix kan det vises at A 1 = 1 A C 11 C 21 C n1 C 12 C 22 C n2 C 1n C 2n C nn, (25) hvor C ij = ( 1) i+j A ij er den ij te co-faktor, altså ( 1) i+j gange determinanten af den matrix, som fremkommer ved at slette række i og søjle j fra matricen A. Ligesom for determinant beregninger er denne formel ikke videre praktisk for dimensioner udover 3 3. Computere løser heldigvis dette problem for os. Følgende regneregler for A 1 er ofte nyttige (A 1 ) 1 = A (26) (A ) 1 = (A 1 ) (27) A 1 = 1 A. (28) Hvis A er symmetrisk, vil den inverse også være symmetrisk. Dette følger umiddelbart af ligning (27). Endelig gælder det at (AB) 1 = B 1 A 1, (29) forudsat at den inverse er defineret (kvadratisk dimension) og eksisterer for såvel A som B (svarende til at A 0 og B 0). 3.7 Trace af en matrix Trace operatoren Tr(A) er kun defineret for kvadratiske matricer. Her gælder det at Tr(A n n ) = a ii. (30) i=1 Trace af en matrix er altså summen af diagonalelementerne. 6
8 3.8 Kvadratiske former Den kvadratiske form for en n n symmetrisk matrix C er en skalar, som er defineret ved udtrykket [hvor x er en n-dimensional vektor] x 1 nc n n x n 1 = x i x j c ij. (31) i=1 j=1 Den kvadratiske form bruges blandt andet til at defineret egenskaben positiv semidefinit ved en matrix. En symmetrisk matrix C siges nemlig at være positiv semidefinit, hvis x Cx 0 for alle værdier af vektoren x. Hvis uligheden gælder som en streng ulighed, x Cx > 0, siges matricen C at være positiv definit. Det kan vises at kovariansmatricer altid er mindst positiv semi-definit, mere herom senere i afsnit 6.1. Der findes forskellige metoder til at checke om en matrix er positiv definit eller ej, men de falder udenfor rammerne af denne forelæsningsnote. 3.9 Kronecker produkt 1 Hvis vi har to matricer A n m og B L K, kan vi definere det såkaldte Kronecker produkt A B som en Ln Km matrix med elementerne a 11 B a 12 B a 1m B a (A B) Ln Km = 21 B a 22 B a 2m B. (32) a n1 B a n2 B a nm B Kronecker produktet er en Ln Km, der består af nm submatricer, hver af dimensionen L K. Hver af disse submatricer fremkommer ved skalarmultiplikation mellem a ij og B. En matrix bestående af submatricer kaldes en partitioneret matrix. 4 Excel funktioner til matrix algebra Regnearket Excel har fire funktioner, som giver mulighed at lave basale matrix beregninger. Funktionsnavnene nedenfor refererer til den engelske udgave af Excel, og Microsoft har muligvis valgt andre navne i den danske udgave af Excel (i så fald må man konsultere F1-tasten, eller gætte sig frem). En matrix defineres som et range i Excel Funktionen transpose kan bruges til at beregne den transponerede matrix. Funktionen mmult multiplicerer to matricer med hinanden. Funktionen mdeterm beregner determinanten af en matrix. Funktionen minverse beregner den inverse matrix. 1 Dette afsnit kan eventuelt overspringes uden tab af kontinuitet. Bemærk dog at Kronecker produktet bruges i Appendix A af Campbell et al. (1997) 7
9 Funktionerne transpose, mmult og minverse er array funktioner. For at se det fulde output, skal man markere et range af passende dimension (her regnereglerne for matrix algebra nyttige), og trykke F2 og derefter SHIFT-CTRL-ENTER på samme tid. 5 Regneregler for vektor differentiation 5.1 Definition af begrebet vektor differentiation Ved en funktion af en vector forstås en funktion af elementerne i vektoren: F (x) = F (x 1, x 2,..., x n ), (33) hvor x er en n-dimensional vektor. Ligning (33) kaldes også en funktion af n variable. Differentiation af F (x) med hensyn til vektoren x er en n-dimensional vektor, hvor vi samler de n partialle differentialekvotienter: F (x) x = F (x) x 2 F (x) x x = F (x 1, x 2,..., x n ) x 1 F (x 1, x 2,..., x n ) x 2 F (x 1, x 2,..., x n ) x n Notationen betyder at de n partialle afledede stilles op som en 1 n række F (x) vektor, svarende til at = ( ) F (x) (dette er dog mere notation end en egentlig x x regneregel). Ligning (34) kaldes ofte gradienten af funktionen F (x). Hessian matricen for funktionen F (x) er defineret ved 2 F (x) 2 F (x) x 2 2 F (x) x 1 1 x 2 x 1 x n 2 F (x) 2 F (x) x 2 x 1 x 2 2 F (x) x 2 2 x n 2 F (x) 2 F (x) x n x 1 x n x 2 F (x) 2 x 2 n Hessian matricen er altid en symmetrisk matrix idet det gælder at (34) (35) 2 F (x) x i x j = 2 F (x) x j x i (36) for alle differentiable funktioner (du vil ikke støde på ikke-differentiable funktioner i faget FR86). 8
10 5.2 Vektor differentiation af lineære former En lineær form er en funktion af typen F (x) = a x = a i x i, (37) i=1 hvilket er det indre produkt af x med en vektor af konstante coefficienter a. Da den partielt afledede af F (x) med hensyn til x i er a i, ses det umiddelbart at F (x) x = a, idet det i te element i (38) er a i. 5.3 Vektor differentiation af kvadratiske former Lad F (x) repræsentere den kvadratiske form af den symmetriske matrix C n n (38) F (x) = x Cx = x k x l c kl. (39) k=1 l=1 Hvis vi differentierer (partielt) med hensyn til x i får vi F (x) x i = x k x i x l c kl + x k x l x i c kl k=1 l=1 k=1 l=1 = x l c il + x k c ki (40) l=1 k=1 = 2 c ik x k. k=1 Den første linie i (40) er den sædvanlige regneregel for differentiation af et produkt, mens forenklingen i den sidste linie skyldes at C er symmetrisk. Hvis man kigger nærmere på den sidste linie i ligning (40), skulle man gerne genkende det som element i fra multiplikationen mellem matricen C og vektoren x. Dermed kan man, som generel regneregel for alle kvadratiske former, skrive x Cx x = 2Cx. Elementerne i Hessian matricen er givet ved 2 F (x) = 2 x i x j k=1 (41) c ik x ik x j = 2c ij. (42) Det betyder med andre ord at hele Hessian matricen af den kvadratiske form kan skrives som 2 x Cx x x = 2C. 9 (43)
11 6 Et par anvendelser af matrix algebra 6.1 Stokastiske vektorer Ved en stokastisk vektor x n forstår vi en vektor af n stokastiske variable (x 1, x 2,..., x n ). Middelværdien af en stokastisk vektor er middelværdien af de enkelte elementer E(x 1 ) E(x E(x) = 2 ). (44) E(x n ) Den flerdimensionale udgave af variansen er matricen Cov(x) = E [ (x E(x)) (x E(x)) ] = [E {x i E(x i )} {x j E(x j )}] n n (45) = [Cov(x i, x j )] n n. (46) Bemærk at det ij te element i n n matricen Cov(x) er kovariansen mellem de stokastiske variable x i og x j. Da Cov(x i, x j ) = Cov(x j, x i ), er matricen Cov(x) symmetrisk. Man kan bruge ligning (45) til at vise at en kovariansmatrix altid som minimum er positiv semi-definit, og normalt endvidere altid positiv definit. Husk at en symmetrisk matrix C siges at være positiv definit hvis w Cw > 0 for alle w. Hvis vi lader Cov(x) være C, kan vi skrive w Cov(x)w = w E [ (x E(x)) (x E(x)) ] w = E [ w (x E(x)) (x E(x)) w ] (47) = E [ {w (x E(x))} 2] > 0, idet den sidste linie er variansen på en skalar stokastisk variabel, og varianser er altid positive. Dermed har vi, bortset fra en enkelt undtagelse, vist at en generel kovariansmatrix altid er positiv definit Variansen på en porteføljes afkast Lad os antage at man kan investrer i n aktiver, og at den stokastiske vektor r angiver afkastet i den næste periode for disse n aktiver. Portefølje vægtene kalder vi w i, og hvis vi samler dem i vektoren w, kan porteføljens afkast skrives som R p = w i r i = w r (48) i=1 2 Den pågældende undtagelse er hvis der eksisterer en linearkombination w af de n stokastiske variable som altid er 0. Dette relativt sjældne tilfælde kaldes en stokastisk singularitet, og i så fald er kovariansmatricen kun positiv semi-definit, dvs. w Cw 0 for alle w. Du vil faktisk støde på en variant af dette problem i forbindelse med estimation af de såkaldte heteroskedasticitet og autokorrelation konsistente kovariansmatricer, herunder Newey-West (1987) estimatoren. 10
12 Det forventede afkast på porteføljen er givet ved E(R p ) = w i E(r i ) = w E(r) (49) i=1 Variansen på porteføljens afkast kan beregnes som Var(R p ) = E [w (r E(r))] 2 = E [ w (r E(r)) {w (r E(r))} ] = E [w (r E(r))(r E(r)) w] (50) = w E [(r E(r))(r E(r)) ] w = w Cov(r)w. I den anden linie udnytter vi at transponeringen af en skalar også er en skalar, hvorved x 2 kan skrives som xx (en skalar kan opfattes som en 1 1 vektor). I den fjerde (næstsidste) linie flytter vi den konstante vektor w uden for forventningen, hvorefter vi får Cov(r). Bemærk at desuden at w Cov(r)w = w i w i Cov(r i, r j ) = i=1 j=1 w i w i ρ ij σ i σ j, (51) i=1 j=1 hvor ρ ij er korrelationen mellem r i og r j, og σ 2 i er variansen på r i. 6.3 Løsning af n lineære ligninger med n ubekendte Matrix algebra er en effektiv metode til at løse n lineære ligninger med n ubekendte. Uden matrix algebra ville man opskrive ligningssystemet på følgende form a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2. a n1 x 1 + a n2 x a nn x n = b n. (52) Hvis man i stedet samler elementerne a ij i en n n matrix A, og x i og b i i vektorerne x og b, kan ligningssystemet skrives som A n n x n 1 = b n 1. (53) For at løse dette ligningssystem præmultiplicerer vi med A 1 på begge sider af lighedstegnet, hvilket giver A 1 Ax = A 1 b x = A 1 b, (54) idet A 1 A = I og Ix = x. Vi løser altså det linære ligningssystem ved først at invertere A, og dernæst multiplicere A 1 og b. 11
13 6.4 Multipel regression Matrix algebra er desuden yderst anvendelig til multipel regression. I den klassiske regressions model, med K 1 forklarende variable (regressorer) foruden konstantledet, antager vi at den i te observation y i kan skrives som y i = β 1 + β 2 x i2 + β 3 x i3 + + β K x ik + ε i, i = 1, 2,..., n (55) hvor fejlleddet ε i opfylder betingelserne E(ε i ) = 0 (56) var(ε i ) = σ 2 (57) cov(ε i, ε j ) = 0 for alle i j, (58) hvilket betegnes som fravær at heteroskedasticitet og autokorrelation (hvis y i er en tidsserie). Hvis vi nu definerer x i = (1 x i2 x i3 x ik ) og β = (β 1 β 2 β 3 β K ) som to K-dimensionale vektorer, kan vi skrive regressionsligningen (55) på følgende måde: y i = x iβ + ε i, i = 1, 2,... n (59) Det næste trin er er skrive regressionsligningen for samtlige n observationer på matrix form: y 1 y 2 =. y n } {{ } y n 1 x 1 x 2. β x n } {{ } X n K β K 1 + ε 1 ε 2. ε n } {{ } ε n 1. (60) Ved hjælp af matrix algebra kan den fulde regressionsmodel altså skrives på meget kompakt form: y n 1 = X n K β K 1 + ε n 1. (61) Bemærk at element ij i matricen X er den j te regressor (forklarende variabel) for den i te observation. Vektoren er ε er en n 1 stokastisk vektor med egenskaberne E(ε) = 0 n 1 og Cov(ε) = σ 2 I n n, (62) hvilket præcist er betingelserne (56) (58) skrevet på matrixform. Den mest almindelige estimator for den ukendte parameter(vektor) β er ordinary least squares (OLS), der på dansk kaldes mindste kvadraters metode. Estimatoren β findes ved at minimere funktionen Q(β) = ε 2 i = ε ε = (y Xβ) (y Xβ). (63) i=1 Ved at regne lidt på det sidste udtryk fås Q(β) = y y 2β X y + β X Xβ. (64) 12
14 For at finde minimum for denne funktion skal vi beregne gradienten og sætte den lig med nul-vektoren. Da funktionen Q(β) er en blanding af en lineær form og en kvadratisk form i β, kan vi bruge regnereglerne fra afsnittet om vektor differentiation. Q(β) β = 2X y + 2X Xβ. (65) At sætte gradienten lig med 0 svarer til at løse ligningssystemet (X X) K K β K 1 = (X y) K 1, (66) hvilket vi jo netop har gjort i afsnit 6.3. Løsningen er ˆβ = (X X) 1 X y, (67) hvor notationen ˆβ betyder en estimator for den ukendte parameter β. endvidere vises at kovariansmatricen for OLS estimatoren er givet ved Det kan Cov(ˆβ) = σ 2 (X X) 1. (68) I praksis erstatter man den ukendte σ 2 med en unbiased estimator, nemlig s 2 = 1 ( ( y Xˆβ) y Xˆβ), (69) n K som er summen af de kvadrerede residualer divideren med antallet af frihedsgrader. Literatur Campbell, J.Y., A.W. Lo and A.C. MacKinlay (1997), The Econometrics of Financial Markets, Princeton University Press. Newey, W. and K.D. West (1987), A Simple Positive Semi-Definite Heteroskedasticity and Autocorrelation Consistent Covariance Matrix, Econometrica, 55,
Kursusgang 3 Matrixalgebra Repetition
Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem
Læs mereTænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.
Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og
Læs mereDefinition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereNøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse
Læs mereOversigt [LA] 3, 4, 5
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereMLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som
MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,
Læs mereKursusgang 3 Matrixalgebra Repetition
Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix
Læs mereMatematik for økonomer 3. semester
Matematik for økonomer 3. semester cand.oecon. studiet, 3. semester Planchesæt 2 - Forelæsning 3 Esben Høg Aalborg Universitet 10. september 2009 Institut for Matematiske Fag Aalborg Universitet Esben
Læs mereModule 1: Lineære modeller og lineær algebra
Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........
Læs mereKursusgang 3 Matrixalgebra fortsat
Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse
Læs mereKvadratiske matricer. enote Kvadratiske matricer
enote enote Kvadratiske matricer I denne enote undersøges grundlæggende egenskaber ved mængden af kvadratiske matricer herunder indførelse af en invers matrix for visse kvadratiske matricer. Det forudsættes,
Læs mereOversigt [LA] 1, 2, 3, [S] 9.1-3
Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Talpar, taltripler og n-tupler Linearkombination og span Test linearkombination Hvad er en matrix Matrix multiplikation Test matrix multiplikation
Læs mereØkonometri: Lektion 2 Multipel Lineær Regression 1/27
Økonometri: Lektion 2 Multipel Lineær Regression 1/27 Multipel Lineær Regression Sidst så vi på simpel lineær regression, hvor y er forklaret af én variabel. Der er intet, der forhindre os i at have mere
Læs mereSupplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable
IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret
Læs mereMatricer og lineære ligningssystemer
Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix
Læs mereMatricer og Matrixalgebra
enote 3 1 enote 3 Matricer og Matrixalgebra Denne enote introducerer matricer og regneoperationer for matricer og udvikler hertil hørende regneregler Noten kan læses uden andet grundlag end gymnasiet,
Læs mereDet Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version
Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Opgaven består af et antal delopgaver Disse er af varierende omfang Der er også en
Læs mereØkonometri: Lektion 2 Multipel Lineær Regression 1/33
Økonometri: Lektion 2 Multipel Lineær Regression 1/33 Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 +β 1 x +u, hvor fejlledet u,
Læs mereØkonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006
Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W
Læs mereLigningssystemer - nogle konklusioner efter miniprojektet
Ligningssystemer - nogle konklusioner efter miniprojektet Ligningssystemet Ax = 0 har mere end en løsning (uendelig mange) hvis og kun hvis nullity(a) 0 Løsningerne til et konsistent ligningssystem Ax
Læs mereUdeladelse af én observation. Note til kapitlerne 4, 5 og 6
Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række
Læs mereChapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning
Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis
Læs mereOversigt [LA] 1, 2, 3, [S] 9.1-3
Oversigt [LA], 2, 3, [S] 9.-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis
Læs mereAnvendt Lineær Algebra
Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger
Læs mereSimpel Lineær Regression: Model
Simpel Lineær Regression: Model Sidst så vi på simpel lineære regression. Det er en statisisk model på formen y = β 0 + β 1 x + u, hvor fejlledet u, har egenskaben E[u x] = 0. Dette betyder bl.a. E[y x]
Læs mereEksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2
Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel
Læs mereSimpel Lineær Regression
Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Vi antager at sammenhængen mellem y og x er beskrevet ved y = β 0 + β 1 x + u. y: Afhængige
Læs mereNøgleord og begreber
Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel
Læs mereOversigt [LA] 1, 2, 3, [S] 9.1-3
Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis
Læs mereOversigt [LA] 6, 7, 8
Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer Løsningsmængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen
Læs mereModule 3: Statistiske modeller
Department of Statistics ST502: Statistisk modellering Pia Veldt Larsen Module 3: Statistiske modeller 31 ANOVA 1 32 Variabelselektion 4 321 Multipel determinationskoefficient 5 322 Variabelselektion med
Læs mereLineær algebra 1. kursusgang
Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra
Læs mereFagets IT Introduktion til MATLAB
Fagets IT Introduktion til MATLAB Mads G. Christensen mgc@kom.auc.dk Afdeling for Kommunikationsteknologi, Aalborg Universitet. MATLAB 2002 p.1/28 Kursusoversigt 1. Introduktion, matrix-indeksering, -operationer
Læs mereAntag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.
Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),
Læs mereBesvarelser til Lineær Algebra Ordinær Eksamen Juni 2018
Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Juni 28 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende
Læs mereØkonometri 1. Den simple regressionsmodel 11. september Økonometri 1: F2
Økonometri 1 Den simple regressionsmodel 11. september 2006 Dagens program Den simple regressionsmodel SLR : Én forklarende variabel (Wooldridge kap. 2.1-2.4) Motivation for gennemgangen af SLR Definition
Læs mereModulpakke 3: Lineære Ligningssystemer
Chapter 1 Modulpakke 3: Lineære Ligningssystemer 1.1 Indledning - typer af ligningesystemer og løsninger Den lineære ligning 2x=3 kan løses umiddelbart ved at dividere med 2 på begge sider, så vi får:
Læs mereMatematik og Form: Matrixmultiplikation. Regulære og singu
Matematik og Form: Matrixmultiplikation. Regulære og singulære matricer Institut for Matematiske Fag Aalborg Universitet 2012 Matrixmultiplikation Definition Definition A = [a ij ], B = [b ij ]: AB = C
Læs mereØkonometri: Lektion 6 Emne: Heteroskedasticitet
Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 32 Konsekvenser af Heteroskedasticitet Antag her (og i resten) at MLR.1 til MLR.4 er opfyldt. Antag MLR.5 ikke er opfyldt, dvs. vi har heteroskedastiske
Læs mereForelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling
Forelæsningsnoter til Lineær Algebra Niels Vigand Pedersen Udgivet af Asmus L Schmidt Københavns Universitet Matematisk Afdeling August Revideret 9 ii udgave, oktober 9 Forord Gennem en særlig aftale varetages
Læs mereLineær Algebra. Lars Hesselholt og Nathalie Wahl
Lineær Algebra Lars Hesselholt og Nathalie Wahl Oktober 2016 Forord Denne bog er beregnet til et første kursus i lineær algebra, men vi har lagt vægt på at fremstille dette materiale på en sådan måde,
Læs mereKvantitative metoder 2
Kvantitative metoder 2 Den multiple regressionsmodel 5. marts 2007 regressionsmodel 1 Dagens program Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5, E.2) Variansen
Læs mereØkonometri Lektion 1 Simpel Lineær Regression 1/31
Økonometri Lektion 1 Simpel Lineær Regression 1/31 Simpel Lineær Regression Mål: Forklare variablen y vha. variablen x. Fx forklare Salg (y) vha. Reklamebudget (x). Statistisk model: Vi antager at sammenhængen
Læs mereFejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning
Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan
Læs mereLineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable
E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt
Læs mereØkonometri 1. Dagens program. Den simple regressionsmodel 15. september 2006
Dagens program Økonometri Den simple regressionsmodel 5. september 006 Den simple lineære regressionsmodel (Wooldridge kap.4-.6) Eksemplet fortsat: Løn og uddannelse på danske data Funktionel form Statistiske
Læs mereFigur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet
Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer smængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen Enten-eller
Læs mereVektorer og lineær regression
Vektorer og lineær regression Peter Harremoës Niels Brock April 03 Planproduktet Vi har set, at man kan gange en vektor med et tal Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden
Læs mereUndervisningsnotat. Matricer
Undervisningsnotat. Matricer januar, C Definition En matrix er en ordnet mængde tal opstillet i m rækker og n søjler. Matricen A kunne være defineret som vist nedenfor. Hvert element i matricen er forsynet
Læs mereLineær algebra: Matrixmultiplikation. Regulære og singulære
Lineær algebra: Matrixmultiplikation. Regulære og singulære matricer Institut for Matematiske Fag Aalborg Universitet 2011 Matrixmultiplikation Definition Definition A = [a ij ], B = [b ij ]: AB = C =
Læs mereLagrange multiplier test. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet. Konsekvenser af Heteroskedasticitet
Lagrange multiplier test Et alternativ til F -testet af en eller flere parametre. Økonometri: Lektion 6 Håndtering ad heteroskedasticitet Antag vi har model: y = β 0 + β 1 x 2 + + β k x k + u. Vi ønsker
Læs mereVektorer og lineær regression. Peter Harremoës Niels Brock
Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.
Læs mereTeoretiske Øvelsesopgaver:
Teoretiske Øvelsesopgaver: TØ-Opgave 1 Subtraktion division i legemer: Er subtraktion division med elementer 0 i legemer veldefinerede, eller kan et element b have mere end ét modsat element -b eller mere
Læs mere1. Intoduktion. Undervisningsnoter til Øvelse i Paneldata
1 Intoduktion Før man springer ud i en øvelse om paneldata og panelmodeller, kan det selvfølgelig være rart at have en fornemmelse af, hvorfor de er så vigtige i moderne mikro-økonometri, og hvorfor de
Læs mereØkonometri: Lektion 6 Emne: Heteroskedasticitet
Økonometri: Lektion 6 Emne: Heteroskedasticitet 1 / 34 Lagrange multiplier test Et alternativ til F -testet af en eller flere parametre. Antag vi har model: Vi ønsker at teste hypotesen y = β 0 + β 1 x
Læs mereAffine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2
Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket
Læs mereDesignMat Uge 1 Gensyn med forårets stof
DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P
Læs mereLineære ligningssystemer
enote 2 1 enote 2 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.
Læs mereProgram for de næste 3 1/4 dobbeltlektion
Matricer Program for de næste 3 1/4 dobbeltlektion Tirsdag 3. september 11.00 12.00: Afsnit 8.1, 8.2, 8.3 og 8.5 Torsdag 5. september 12.30 16.15 12.30 14.15: Opgaveregning lokale 261/409 14.30: Vi mødes
Læs mereModulpakke 3: Lineære Ligningssystemer
Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system
Læs mere1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal.
SEKTION 11 LEGEMER 11 Legemer Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal Definition 111 Et legeme F er en mængde udstyret
Læs mereInstitut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med
Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X
Læs mereBesvarelser til Lineær Algebra Reeksamen August 2016
Besvarelser til Lineær Algebra Reeksamen - 9. August 26 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende
Læs mereLandmålingens fejlteori - Lektion 5 - Fejlforplantning
Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke
Læs mere! Variansen på OLS estimatoren. ! Multikollinaritet. ! Variansen i misspecificerede modeller. ! Estimat af variansen på fejlleddet
Dagens program Økonometri Den multiple regressionsmodel 4. februar 003 regressionsmodel Emnet for denne forelæsning er stadig den multiple regressionsmodel (Wooldridge kap. 3.4-3.5)! Opsamling fra sidst
Læs mereAnvendt Lineær Algebra
Anvendt Lineær Algebra Kursusgang 3 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 38 Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte)
Læs mereLineær algebra 4. kursusgang
Lineær algebra 4. kursusgang Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte) Ax = b. Ligningssystemet antages at være inkonsistent (ingen løsninger) fordi tallene er fremkommet
Læs mereLineær algebra Kursusgang 6
Lineær algebra Kursusgang 6 Mindste kvadraters metode og Cholesky dekomposition Vi ønsker at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem hvor A er en m n matrix. Ax = b,
Læs mereKvantitative metoder 2
Kvantitative metoder Heteroskedasticitet 11. april 007 KM: F18 1 Oversigt: Heteroskedasticitet OLS estimation under heteroskedasticitet (W.8.1-): Konsekvenser af heteroskedasticitet for OLS Gyldige test
Læs mereMM502+4 forelæsningsslides
MM502+4 forelæsningsslides uge 7, 2009 Produceret af Hans J Munkholm, delvis på baggrund af lignende materiale udarbejdet af Mikael Rørdam 1 Definition kritisk punkt: funktion f(x, y) er et kritisk punkt
Læs mereLineære 1. ordens differentialligningssystemer
enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære
Læs mereUndervisningsnoter til øvelse i Panel Modeller. %, it. E(x kjs
4 I afsnit 3 beskæftigede vi os med 1EC modellen og viste, hvordan den kunne estimereres med FGLS - bla under forudsætning af, at det individspecifikke stokastiske led er ukorreleret med de forklarende
Læs mereLiA 2 Side 0. Lineær algebra 3. kursusgang
LiA 2 Side 0 Lineær algebra 3. kursusgang LiA 2 Side 1 Højdeforskelle. D C 0.7 0.7 0.8 E LiA 2 Side 2 Vi har tre punkter C, D og E. Højderne er h C, h D, h E. (I det følgende benævnes disse også x, y,
Læs mereBesvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016
Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende
Læs mereAnalysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17
nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse
Læs mereBesvarelser til Lineær Algebra Ordinær Eksamen Juni 2017
Besvarelser til Lineær Algebra Ordinær Eksamen - 12. Juni 2017 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende
Læs mere3.1 Baser og dimension
SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V
Læs mereMatematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer
Matematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer Martin Raussen Department of Mathematical Sciences Aalborg University 2017 1 / 12 Matrixmultiplikation Am n = [aij ], Bn
Læs mereBesvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016
Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 206 Mikkel Findinge http://findinge.com/ Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan.
Læs mereMATRICER LINEÆRE LIGNINGER
MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER 6. udgave 2016 FORORD Dette notat viser hvorledes man kan løse lineære ligningssystemer ved Gaussmetode dels uden regnemidler dels med regnemidler.
Læs mereMATRICER LINEÆRE LIGNINGER
MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 4 4 0 0 0 4 x x x x 5 udgave 05 FORORD Dette notat viser hvorledes man kan dels kan løse lineære
Læs mereEt eksempel på en todimensional normalfordeling Anders Milhøj September 2006
Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af
Læs mereØlopgaver i lineær algebra
Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer
Læs merehvor a og b er konstanter. Ved middelværdidannelse fås videre
Uge 3 Teoretisk Statistik. marts 004. Korrelation og uafhængighed, repetition. Eksempel fra sidste gang (uge ) 3. Middelværdivektor, kovarians- og korrelationsmatrix 4. Summer af stokastiske variable 5.Den
Læs mereLineær Algebra eksamen, noter
Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,
Læs mere9.1 Egenværdier og egenvektorer
SEKTION 9.1 EGENVÆRDIER OG EGENVEKTORER 9.1 Egenværdier og egenvektorer Definition 9.1.1 1. Lad V være et F-vektorrum; og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der
Læs mereMATRICER LINEÆRE LIGNINGER
MOGENS ODDERSHEDE LARSEN MATRICER og LINEÆRE LIGNINGER med inddragelse af programmerne TI-Nspire og Maple 0 3 4 3 4 0 3 0 3 0 3 4 x x x x 4 udgave 04 FORORD Dette notat giver en gennemgang af de matrixoperationer,
Læs mereLineære ligningssystemer
enote 6 1 enote 6 Lineære ligningssystemer Denne enote handler om lineære ligningssystemer, om metoder til at beskrive dem og løse dem, og om hvordan man kan få overblik over løsningsmængdernes struktur.
Læs mereLiA 5 Side 0. Lineær algebra Kursusgang 5
LiA 5 Side 0 Lineær algebra Kursusgang 5 LiA 5 Side 1 Ved bestemmelse af mindste kvadraters løsning til (store) ligningssystemer vil man gerne anvende en metode der opfylder to krav: antallet af regneoperationer
Læs mereSylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder
Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme
Læs mereLineær Algebra, kursusgang
Lineær Algebra, 2018 1. kursusgang Lisbeth Fajstrup Institut for Matematiske Fag Aalborg Universitet LinAlg September 2018 Velkommen til Lineær algebra Kursusholder - Lisbeth Fajstrup. Kontor: Skjernvej
Læs mereVektorer og rumgeometri med. TI-Interactive!
Vektorer og rumgeometri med TI-Interactive! Indtastning af vektorer Regning med vektorer Skalarprodukt og vektorprodukt Punkter og vektorer Rumgeometri med ligninger Jan Leffers (2007) Indholdsfortegnelse
Læs mereOversigt [LA] 3, 4, 5
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers matrix Matrix potens Lineære ligningssystemer Løsningsmængdens
Læs mereEksempler Determinanten af en kvadratisk matrix. Calculus Uge
Oversigt [LA] 8 Her skal du lære om 1. Helt simple determinanter 2. En udvidelse der vil noget 3. Effektive regneregler 4. Genkend determinant nul 5. Produktreglen 6. Inversreglen 7. Potensreglen 8. Entydig
Læs mere2010 Matematik 2A hold 4 : Prøveeksamen juni 2010
1 of 7 31-05-2010 13:18 2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 Welcome Jens Mohr Mortensen [ My Profile ] View Details View Grade Help Quit & Save Feedback: Details Report [PRINT] 2010 Matematik
Læs mereIntroduktion til Statistiske Modeller for Finansielle Tidsserier. Forelæsningsnoter til Finansiel Økonometri
Introduktion til Statistiske Modeller for Finansielle Tidsserier Forelæsningsnoter til Finansiel Økonometri Jesper Lund mail@jesperlund.com http://www.jesperlund.com 14. marts 2006 1 Indledning Formålet
Læs mereØkonometri: Lektion 4. Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater
Økonometri: Lektion 4 Multipel Lineær Regression: F -test, justeret R 2 og aymptotiske resultater 1 / 35 Hypotesetest for én parameter Antag vi har model y = β 0 + β 1 x 2 + β 2 x 2 + + β k x k + u. Vi
Læs mereMatematisk modellering og numeriske metoder. Lektion 13
Matematisk modellering og numeriske metoder Lektion 3 Morten Grud Rasmussen 3. november 206 Numerisk metode til Laplace- og Poisson-ligningerne. Finite difference-formulering af problemet I det følgende
Læs mereIndhold. 5. Vektorrum og matricer Koordinattransformationer
Indhold Lineære afbildninger og matricer Talrummene R n, C n Matricer 8 3 Lineære afbildninger 4 Matrix algebra 8 5 Invers matrix 6 6 Transponeret og adjungeret matrix 9 Række- og søjleoperationer Lineære
Læs mereTo ligninger i to ubekendte
Oversigt [LA] 6, 7 Nøgleord og begreber Løs ligninger Eliminer ubekendte Rækkereduktion Reduceret matrix Enten-eller princippet Test ligningssystem Rækkeoperationsmatricer Beregn invers matrix Calculus
Læs mere