Lineær Algebra Dispositioner

Størrelse: px
Starte visningen fra side:

Download "Lineær Algebra Dispositioner"

Transkript

1 Lineær Algebra Dispositioner Michael Lind Mortensen, , DAT4 12. august 2008

2 Indhold 1 Løsning og mindste kvadraters løsninger af lineære ligningssystemer Disposition Udspecificering Vektorrum og underrum Disposition Udspecificering Lineær uafhængighed Disposition Udspecificering Basis for vektorrum; koordinatisering Disposition Udspecificering Matricer og lineære transformationer Disposition Udspecificering Determinanter Disposition Udspecificering Egenværdier og egenvektorer Disposition Udspecificering Diagonalisering Disposition Udspecificering Indre produkt Disposition Udspecificering Ortogonalt komplement og projektion Disposition Udspecificering Ortogonale og ortonormale baser Disposition Udspecificering

3 12 Ortogonale og unitære matricer Disposition Udspecificering Unitær diagonalisering Disposition Udspecificering Kvadratiske former Disposition Udspecificering Lineære differentialligninger Disposition Udspecificering Stokastiske Matricer Disposition Udspecificering

4 1 Løsning og mindste kvadraters løsninger af lineære ligningssystemer 1.1 Disposition 1. Lineær ligningssystem 2. ERO er 3. Rækkeækvivalens 4. REF/RREF 5. Theorem Mindste Kvadret 7. Theorem Udspecificering Def. Lineære ligningssystemer Et lineært ligningssystem er et system af m ligninger i n ubekendte, hvor disse kan skrives som: a 11 x 1 + a 12 x a 1n x n = b 1 a 21 x 1 + a 22 x a 2n x n = b 2... a m1 x 1 + a m2 x a mn x n = b m Disse systemer kan så også skrives på matrix form således: A x = b Hvor løsningsmængden for systemet er de x for hvilket systemet er konsistent. Hvis systemet ingen løsning har er løsningsmængden tom - det siges derfor systemet er inkonsistent. Hvis løsningsmængden indeholder en eller flere løsninger, så siges systemet at være konsistent. Def. Elementere rækkeoperationer (ERO) Vi kan udføre rækkeoperationer på rækkerne i disse linæere ligningssystemer: I: Ombytning Bytte om på to rækker II: Skalering Gange med en skalar (a 0) 4

5 III: Addition Lægge en række til en anden Ingen af disse ændrer løsningsmængden. Def. Rækkeækvivalens To ligningssystemer er rækkeækvivalente såfremt de har samme løsningsmængde for samme sæt af variabler. (A b) (H c) x er derved løsningen til begge matricer (såfremt et sådant x eksisterer). Def. Rækkeechelon (REF) For en matrix på REF gælder: 1. Første ikke-nul element i hver række er 1 2. Hver række har flere foranstillede nuller end den foregående 3. Alle nul-rækker er nederst 1 erne fra regel-1 kaldes Pivot er. Processen, der fører en matrix A på REF kaldes Gauss-elimination. Def. Reduceret REF For en matrix på RREF gælder: 1. Er på REF 2. Hver pivot er eneste ikke-nul element i søjlen. Thr. Theorem Et m n homogent system af lineære ligninger har en ikke-triviel løsning hvis n > m. Bevis. Theorem Et homogent system er altid konsistent. REF formen af matricen har højst m ikke-nul rækker. Derved er der også maksimalt m pivoter. Siden der er n variabler i det hele og n > m, så må der være en eller flere frie variabler. De frie variabler kan derfor bliver givet arbitrære værdier og for enhver værdi af de frie variabler er der en løsning til systemet. 5

6 Def. Mindste kvadraters Mindste kvadrater er en metode vi bruger til at lave et best fit af en given mængde data, således at man kan strukturerer disse som eksempelvis en ret linje eller noget tilsvarende. Givet et m n lineært ligningssystem Ax = b med m > n (Overdetermineret), så kan vi ikke generelt forvente at finde et x R n for hvilket Ax giver b. Derfor, hvis b R m, så for ethvert x R n kan vi forme et residual: r(x) = b Ax Distancen mellem b og Ax er givet ved: b Ax = r(x) Hvor vi ønsker at finde en vektor x R n for hvilket r(x) vil være minimal. En vektor ˆx der gør dette siges at være en mindste kvadraters løsning til systemet Ax = b. Hvis ˆx er en mindste kvadraters løsning til systemet Ax = b og p = Aˆx, så er p den vektor i søjlerummet for A der er tættest på b. Det følgende theorem garanterer at en sådan tætteste vektor p ikke blot eksisterer, men er unik: Thr. Theorem Lad S R m og b R m. Da er projektionen p af b på S det nærmeste punkt på b i S. Altså: b y > b p y p S Projektionen p S vil dog kun være tættest på b R m hvis b p S. Bevis. Theorem Vi ved at R m = S S og således kan enhver b R m skrives unikt som summen: b = p + z hvor p S og z S. Hvis y er ethvert andet element af S, så gælder der: b y 2 = (b p) + (p y) 2 6

7 Siden p y S og b p = z S, så følger det af Pythagoras lov, at: Derved får vi b y 2 = b p 2 + p y 2 b y > b p Altså, så hvis p S og b p S, så er p elementet i S der er tættest på b. Alternativt hvis q S og b q / S, så er p q og: b p > b q 7

8 2 Vektorrum og underrum 2.1 Disposition 1. Vektorrum 2. Underrum 3. Spanning set 4. Basis 5. Theorem Theorem Theorem Udspecificering Def. Vektorrum V er en mængde af vektorer, hvor addition og skalarmultiplikation er defineret. Der gælder følgende axiomer: 1. Vektoraddition er associativ u, v, w V : u + (v + w) = (u + v) + w 2. Vektoraddition er kommutativ v, w V : v + w = w + v 3. Vektoraddition har en additionsidentitet Nullvektoren 0 der giver os: v + 0 = v 4. Vektoraddition har additive inverser v V : v + ( v) = 0 5. Skalarmultiplikation er disbributiv a F v, w V : a(v + w) = av + aw a, b F v V : (a + b)v = av + bv 6. Skalarmultiplikation er kompatibel med multiplikation i legemet af skalarer a, b F v V : a(bv) = (ab)v 7. Skalarmultiplikation har et identitetselement v V : 1v = v (Hvor 1 kaldes den multiplikative identitet i F) Def. Elementære egenskaber ved vektorrum Lad V være et vektorrum, så gælder følgende egenskaber: 8

9 1. Nulvektoren 0 V er unik Hvis 0 1 og 0 2 var nulvektorer, så galdte der: v = v og v = v og derved 0 1 = 0 2 = Skalarmultiplikation med 0 giver nulvektoren 0. v V : 0v = 0 (hvor 0 er den additionsidentiteten) 3. Skalarmultiplikation med nulvektoren giver altid nulvektoren a F: a0 = 0 (hvor 0 er nulvektoren) 4. Ingen andre skalarmultiplikationer giver nulvektoren Vi har av = 0 hvis og kun hvis a = 0 eller v = 0 - altså ingen andre skalarmultiplikationer kan give nulvektoren. 5. Den additive invers v af en vektor v er unik Hvis w 1 og w 2 er additive inverser af v V, så er v + w 1 = 0 og v + w 2 = 0 så derved er w 1 = w 2 = v 6. Skalarmultiplikation med 1 giver den additive invers af vektoren v V : 1v = v hvor 1 er den multiplikative identitet i F 7. Negering flyttes frit a F v V : ( a)v = a( v) = (av) Def. Underrum Lad S V hvor S er et underrum af V, såfremt det er lukket under addition og skalarmultiplikation: 1. Hvis u, v S, så gælder der: u + v S 2. Hvis a F v S, så gælder der: av S Def. Spanning set Sættet {v 1, v 2,..., v n } er et spanning set for V hvis enhver x V kan skrives som en lineær kombination af vektorerne i spanning sættet. Def. Basis Sættet {v 1, v 2,..., v n } er en basis for V hvis disse er indbyrdes lineært uafhængige og spanner V. Def. Lineær uafhængighed Et sæt {v 1, v 2,..., v n } af vektorer er lineært uafhængige såfremt der gælder at c 1 v 1 + c 2 v c 3 v n = 0 kun har den trivielle løsning hvor c = 0 for alle c. Hvis der derimod eksisterer et c 0, så er vektorerne i stedet lineært afhængige, da en kan skrives som en linear kombination af de andre. Thr. Theorem Lad x 1, x 2,..., x n være vektorer i R n og lad X = (x 1,..., x n ). Så gælder 9

10 der, at vektorerne x 1, x 2,..., x n vil være lineært afhængige hvis og kun hvis X er singulær. Bevis. Theorem Vi har en ligning: c 1 x 1 + c 2 x c n x n = 0 som kan blive omskreven til en matrice: X c = 0 Denne ligning vil så have en ikke-triviel løsning hvis og kun hvis X er singulær. Dette skyldes, at hvis X ikke er singulær, så kan man gange X 1 på begge sider hvorved man får X 1 Xc = 0X 1 som så bliver c = 0, såfremt X ikke er singulær. Altså vil x 1,..., x n være lineært afhængige hvis og kun hvis X er singulær. Thr. Theorem Hvis {v 1, v 2,..., v n } er et spanning set for V, så er ethvert sæt af m > n vektorer lineært afhængige. Bevis. Theorem Lad u 1,..., u m være et sæt af vektorer i V, hvor m > n. Så siden v 1,..., v n spanner V, så har vi: n u i = a ij v j j=1 Hvor en lineær kombination af disse u er kan skrives som: m c i u i = i=1 m n c i a ij v j = i=1 j=1 j=1 i=1 ( n m ) a ij c i v j Hvis vi så ser på følgende ligningssystem, taget fra det ovenstående: m a ij c i = 0 i=1 for j = 1, 2,..., n Så ses her at der er færre ligninger end ubekendte, så dette betegner altså et homogent ligningssystem med flere ubekendte end ligninger 10

11 og ifølge theorem betyder dette at der må være en ikke-triviel løsning {c 1,..., c m} T hvor nogle af disse må være ulig 0. Indsættes dette i udtrykket ovenfor, så får vi: c 1u 1 + c 2u c mu m = n 0v j = 0 Ifølge definitionen for lineær afhængighed må u 1,..., u m derfor være lineær afhængig. j=1 Thr. Theorem Lad V være et vektorrum af dim(v ) = n > 0. Ethvert spanning set der indeholder m > n vektorer kan transformeres til en basis for V. Bevis. Theorem Sætning giver os, at u 1,..., u m er lineært afhængig. Derfor kan i hvert fald en vektor u m skrives som en lineær kombination af de øvrige. Således kan u m elimineres fra sættet og de øvrige m 1 vektorer vil staidg være frembringere for V. Sålænge m 1 > n gentages dette og når m n vil u 1,..., u n være en basis for V. 11

12 3 Lineær uafhængighed 3.1 Disposition 1. Lineær uafhængighed 2. Spanning set 3. Basis 4. Theorem Theorem Udspecificering Def. Lineær uafhængighed Et sæt {v 1, v 2,..., v n } af vektorer er lineært uafhængige såfremt der gælder at c 1 v 1 + c 2 v c 3 v n = 0 kun har den trivielle løsning hvor c = 0 for alle c. Hvis der derimod eksisterer et c 0, så er vektorerne i stedet lineært afhængige, da en kan skrives som en linear kombination af de andre. Def. Spanning set Sættet {v 1, v 2,..., v n } er et spanning set for vektorrummet V hvis enhver x V kan skrives som en lineær kombination af vektorerne i spanning sættet. Def. Basis Sættet {v 1, v 2,..., v n } er en basis for V hvis disse er indbyrdes lineært uafhængige og spanner V. Thr. Theorem Lad x 1, x 2,..., x n være vektorer i R n og lad X = (x 1,..., x n ). Så gælder der, at vektorerne x 1, x 2,..., x n vil være lineært afhængige hvis og kun hvis X er singulær. Bevis. Theorem Vi har en ligning: c 1 x 1 + c 2 x c n x n = 0 som kan blive omskreven til en matrice: X c = 0 12

13 Denne ligning vil så have en ikke-triviel løsning hvis og kun hvis X er singulær. Dette skyldes, at hvis X ikke er singulær, så kan man gange X 1 på begge sider hvorved man får X 1 Xc = 0X 1 som så bliver c = 0, såfremt X ikke er singulær. Altså vil x 1,..., x n være lineært afhængige hvis og kun hvis X er singulær. Thr. Theorem Hvis {v 1, v 2,..., v n } er et spanning set for V, så er ethvert sæt af m > n vektorer lineært afhængige. Bevis. Theorem Lad u 1,..., u m være et sæt af vektorer i V, hvor m > n. Så siden v 1,..., v n spanner V, så har vi: n u i = a ij v j j=1 Hvor en lineær kombination af disse u er kan skrives som: m c i u i = i=1 m n c i a ij v j = i=1 j=1 j=1 i=1 ( n m ) a ij c i v j Hvis vi så ser på følgende ligningssystem, taget fra det ovenstående: m a ij c i = 0 i=1 for j = 1, 2,..., n Så ses her at der er færre ligninger end ubekendte, så dette betegner altså et homogent ligningssystem med flere ubekendte end ligninger og ifølge theorem betyder dette at der må være en ikke-triviel løsning {c 1,..., c m} T hvor nogle af disse må være ulig 0. Indsættes dette i udtrykket ovenfor, så får vi: c 1u 1 + c 2u c mu m = n 0v j = 0 Ifølge definitionen for lineær afhængighed må u 1,..., u m derfor være lineær afhængig. j=1 13

14 4 Basis for vektorrum; koordinatisering 4.1 Disposition 1. Ordnet basis 2. Theorem Theorem Korollar Koordinatvektor 4.2 Udspecificering Def. Ordnet basis Sættet {b 1, b 2,..., b n } er en basis for V hvis disse er indbyrdes lineært uafhængige. Normalt er rækkefølgen hvorved vektorer fremgår i en basis irrelevant, men i visse tilfælde kan det være nødvendigt at have dem ordnet: [b 1, b 2,...b n ]. (Hvilket det bl.a. er for koordinatisering). Thr. Theorem Lad x 1, x 2,..., x n være vektorer i R n og lad X = (x 1,..., x n ). Så gælder der, at vektorerne x 1, x 2,..., x n vil være lineært afhængige hvis og kun hvis X er singulær. Bevis. Theorem Vi har en ligning: c 1 x 1 + c 2 x c n x n = 0 som kan blive omskreven til en matrice: X c = 0 Denne ligning vil så have en ikke-triviel løsning hvis og kun hvis X er singulær. Dette skyldes, at hvis X ikke er singulær, så kan man gange X 1 på begge sider hvorved man får X 1 Xc = 0X 1 som så bliver c = 0, såfremt X ikke er singulær. Altså vil x 1,..., x n være lineært afhængige hvis og kun hvis X er singulær. Thr. Theorem Hvis {v 1, v 2,..., v n } er et spanning set for V, så er ethvert sæt af m > n vektorer lineært afhængige. 14

15 Bevis. Theorem Lad u 1,..., u m være et sæt af vektorer i V, hvor m > n. Så siden v 1,..., v n spanner V, så har vi: n u i = a ij v j j=1 Hvor en lineær kombination af disse u er kan skrives som: m c i u i = i=1 m n c i a ij v j = i=1 j=1 j=1 i=1 ( n m ) a ij c i v j Hvis vi så ser på følgende ligningssystem, taget fra det ovenstående: m a ij c i = 0 i=1 for j = 1, 2,..., n Så ses her at der er færre ligninger end ubekendte, så dette betegner altså et homogent ligningssystem med flere ubekendte end ligninger og ifølge theorem betyder dette at der må være en ikke-triviel løsning {c 1,..., c m} T hvor nogle af disse må være ulig 0. Indsættes dette i udtrykket ovenfor, så får vi: c 1u 1 + c 2u c mu m = n 0v j = 0 Ifølge definitionen for lineær afhængighed må u 1,..., u m derfor være lineær afhængig. j=1 Thr. Korollar Hvis {v 1,..., v n } og {u 1,..., u m } begge er basiser for et vektorrum V, så er n = m. Bevis. Korollar Lad v 1, v 2,..., v n og u 1, u 2,..., u m begge være basiser for V. Siden v 1, v 2,..., v n spanner V og u 1, u 2,..., u m er linæert uafhængige, så følger det af Theorem at m n. Ved samme logik, så da u 1, u 2,..., u m spanner V og v 1, v 2,..., v n er lineært uafhængige, så siger Theorem at n m - altså må n = m. 15

16 Def. Koordinatvektor Lad V være et vektorrum og lad E = [ v 1, v 2,..., v n ] være en ordnet basis for V. Hvis v er et givent element af V, så kan v skrives på formen: v = c 1 v 1 + c 2 v c n v n hvor c 1, c 2,..., c n er skalarer. Nu kan vi så associere enhver vektor v med en unik vektor c = (c 1, c 2,...c n ) T i R n. Denne vektor c kaldes koordinatvektoren for v ift. den ordnede basis E og skrives: [v] E c i erne kaldes så koordinaterne for v relativt til E. Hvis et vektorrum V har dim(n), så kan V koordinaseres så den efterligner R n. Vi kan dermed arbejde med koordinatiseringen med samme værktøjer som ved rummet R n. 16

17 5 Matricer og lineære transformationer 5.1 Disposition 1. Lineære transformationer 2. Kernel 3. Billede & Range 4. Theorem Theorem Udspecificering Def. Lineær transformation En afbilleding L fra et vektorrum V til W kaldes en lineær transformation hvis: v 1, v 2 V α, β F. L(αv 1 + βv 2 ) = αl(v 1 ) + βl(v 2 ) En lineær transformation fra V til W skrives: L : V W Af definitionen for lineære transformationer følger desuden: L(0 v ) = 0 w n n L( a i v i ) = a i L(v i ) i=1 i+1 L( v) = L(v) Def. Kernen Kernen er alle de vektorer v for hvilket L(v) giver nulvektoren. Eller skrevet mere matematisk: Lad L : V W. Da er kernen af L: ker(l) = {v V L(v) = 0 w } 17

18 Def. Billedet/Range Lad L : V W være en lineær transformation and lad S være et underrum af V. Billedet af S, skrevet som L(S), er defineret som: L(S) = {w W w = L(v) for nogle v S} Billedet af et komplet vektorrum, L(V ), kaldes for range af L. Thr. Theorem Hvis L : V W er en lineær transformation og S er et underrum af V, så gælder der: (i) ker(l) er et underrum af V. (ii) L(S) er et underrum af W. Bevis. Theorem Det er trivielt at ker(l) er ikke-tom, siden nulvektoren 0 v er i ker(l). For at bevise (i) må vi bevise at ker(l) er lukket under skalarmultiplikation og addition af vektorer. Hvis v ker(l) og α er en skalar, så gælder der: L(αv) = αl(v) = α0 w = 0 w Derfor gælder der, at αv ker(l). - Altså at ker(l) er lukket under skalarmultiplikation. Hvis v 1, v 2 ker(l), så gælder der: L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ) = 0 w + 0 w = 0 w Derfor gælder der, at v 1 + v 2 ker(l) - ergo, ker(l) er et underrum af V. Beviset for (ii) minder om det foregående. L(S) er ikke-tom da 0 w = L(0 v ) L(S). Hvis w L(S), så er w = L(v) for nogle v S. For ethvert skalar α gælder der: αw = αl(v) = L(αv) Siden αv S, så følger det at αw L(S) - ergo er L(S) lukket under skalarmultiplikation. Hvis w 1, w 2 L(S), så eksisterer der vektorer 18

19 v 1, v 2 S sådan at L(v 1 ) = w 1 og L(v 2 ) = w 2. Altså gælder der: w 1 + w 2 = L(v 1 ) + L(v 2 ) = L(v 1 + v 2 ) Ergo er L(S) lukket under addition. Thr. Theorem Hvis L er en lineær transformation der afbilder R n ind i R m, så eksisterer der en m n matrix A således at: L(x) = Ax for enhver x R n. Faktisk er den j te søjlevektor af A givet ved: a j = L(e j ) for j = 1, 2,..., n Bevis. Theorem For j = 1,..., n defines: a j = L(e j ) og matricen A dannes ved: A = (a ij ) = (a 1, a 2,..., a n ) Hvis x = x 1 e 1 + x 2 e x n e n er et arbitrært element af R n, så gælder der: L(x) = x 1 L(e 1 ) + x 2 L(e 2 ) x n L(e n ) = x 1 a 1 + x 2 a x n a n x 1 = (a 1, a 2,..., a n ) x 2... x n = Ax 19

20 6 Determinanter 6.1 Disposition 1. Determinant 2. Egenskaber ved determinanter 3. Theorem Theorem Theorem Udspecificering Def. Determinant For enhver n n matrix A er det muligt at associere en scalar det(a), der bl.a. kan fortælle os om en matrice er singulær. Determinanten for en n n matrice A udregnes forskelligt for n = 1 og n > 1. For n = 1 er determinanten blot indgangen a 11, hvor for n > 1 er det: det(a) = a 11 A 11 + a 12 A a 1n A1n Hvor A ij erne kaldes cofacterne: For j = 1,..., n. A ij = ( 1) 1+j det(m 1j ) Matricen M ij kaldes minor af A og er A uden den i te række og j te søjle. Her har vi valgt at udvikle efter første række, men vi kunne sagtens have valgt at udvikle efter en anden række eller søjle. Udregning af determinanten skrives op således: det(a) = e f b d = ed fb En matrice A er invertibel såfremt det(a) 0. Note. Egenskaber ved determinanter Der gælder en række egenskaber for determinanter, som alle kan gøre det lettere at udregne determinanten for en given matrice. Disse er: 20

21 For enhver n n matrix A har vi det(a) = det(a T ) Hvis en matrice er triangulær kan determinanten findes ved blot at finde produktet af diagonalelementerne. Hvis to rækker af en n n matrix byttes om, så bliver det(a) til det(a). Hvor to rækker el. søjler af en n n matrix er ens, så er det(a) = 0. Hvis en række ganges med en skalar r bliver determinanten rdet(a) Hvis et multiplum af en række bliver adderet til en anden række, så forbliver determinanten den samme. Thr. Theorem (det(a) = det(a T )) Hvis A er en n n matrix, så er det(a T ) = det(a). Bevis. Theorem Vi beviser vha. induktion. At basistilfældet gælder ses nemt, da vi her har en 1 1 matrix, som derfor nødvendigvis må være symmetrisk hvorved det(a T ) = det(a). Hvis vi som induktionshypotese så antager at resultatet også gælder for k k, så skal vi blot i vores induktionsskridt se på om det holder for k + 1 k + 1. Vi starter med at lave cofactor-expansion på første række af vores nye A: det(a) = a 11 det(m 11 ) a 12 det(m 12 ) +... ± a 1,k+1 det(m 1,k+1 ) Siden M ij erne må være k k matricer, så følger det af induktionshypotesen at: det(a) = a 11 det(m T 11) a 12 det(m T 12) +... ± a 1,k+1 det(m T 1,k+1 ) Som det ses er vores cofactor-expansion af første række af A nu blot lig med cofactor-expansion af første søjle af A T. Derved må der gælde: det(a T ) = det(a) Thr. Theorem En n n matrix A er singulær hvis og kun hvis: det(a) = 0 21

22 Bevis. Theorem Matricen A kan blive reduceret til REF vha. et endeligt antal elementære rækkeoperationer. Altså: U = E k E k 1...E 1 A hvor U er i REF og E i erne er elementærmatricer. Det ses så: det(u) = det(e k E k 1...E 1 A) = det(e k )det(e k 1 )...det(e 1 )det(a) Siden determinanterne af E i erne alle er ikke-nul, så følger det at det(a) = 0 hvis og kun hvis det(u) = 0. Hvis A er non-singular, så er U triangular med 1 er ned langs diagonalen og derved er det(u) = 1. Altså er A singular hvis og kun hvis det(a) = 0. Note. Adjungerede matrix Lad A være en n n matrix. Den adjungerede af A er således en matrice hvor hver indgang a ij er erstattet med dets kofakter A ij og matricen er transponeret. Det følger så at: A(adj(A)) = det(a)i Og hvis A er nonsingulær kan det skrives om til: 1 I = A( det(a) adj(a)) A 1 = 1 det(a) adj(a) Thr. Theorem (Cramers regel) Lad A være en n n nonsingular matrix og lad b R n. Lad desuden A i være en matrix skabt ved at bytte den i te søjle af A ud med b. Hvis x er en unik løsning til Ax = b, så gælder der: For i = 1, 2,..., n. x i = det(a i) det(a) Bevis. Theorem Vi starter med at observere vi kan skrive x om til: x = A 1 b = 1 det(a) (adja)b 22

23 Hvor adja er en adjoint matrix af A, hvilket vil sige alle indgange er udskiftet med deres cofactor og matrixen er blevet transponeret. Ud fra ovenstående kan så ses at følgende må gælde: Derved er sætningen bevist. x i = b 1A 1i + b 2 A 2i b n A ni det(a) = det(a i) det(a) Eks. Cramers regel 2 2 matrix Vi antager vi har følgende lineære ligningssystem: Som på matrixform kan skrives: ax + by = ecx + dy = f [ ] [ ] a b x = c d y [ ] e. f Så kan x og y findes vha. Cramers regel. Dette bliver så: x = e f a c b d b d = ed bf ad bc Og... y = a c a c e f b d = af ec ad bc 23

24 7 Egenværdier og egenvektorer 7.1 Disposition 1. Egenværdi og egenvektor 2. Egenrum 3. Det karakteristiske polynomium 4. Similaritet 5. Theorem Diagonalisering 7. Theorem Udspecificering Def. Egenværdi og egenvektor Lad A Mat m,n (F). En skalar λ F er en egenværdi (også kaldet karakteristisk værdi) for matricen A hvis den opfylder: A x = λx Hvor vektoren x kaldes egenvektoren tilhørende egenværdien λ og e- genvektoren ikke er nulvektoren 0 En egenværdi har adskillige tilknyttede egenvektorer, men en egenvektor har altid kun en egenværdi. En egenvektor gange en skalar er f.eks. stadig en egenvektor til samme egenværdi. Komplekse egenværdier opstår altid i konjugerede par, således at hvis λ = a + bi er en egenværdi for A, så er den konjugerede af λ ligeledes en egenværdi for A. Def. Egenrummet Ved omskrivning af definitionen ovenfor får vi: (A λi)x = 0 Løsningsrummet N(A λi) er da egenrummet for matricen A. Egenrummet består af alle egenvektorer til en given egenværdi. 24

25 Def. Det karakteristiske polynomium Vi kan udregne egenværdierne for matricen A vha. determinanten for A λi. Altså: det(a λi)) = p(λ) = 0 Røderne til dette karakteristiske polynomium p(λ) er så egenværdierne. Def. Geometrisk og Algebraisk multiplicitet Geo(λ) er dimensionen af egenrummet N(A λi) Alg(λ) er antal gange en given egenværdi optræder. Geometrisk og algebraisk multiplicitet er især nyttigt ved diagonalisering, da en matrice A er diagonaliserbar hvis og kun hvis den algebraisk multiplicitet for hver mulig egenværdi er lig med den geometriske multiplicitet. Def. Similaritet To n n matricer B og A siges at være similarer hvis der eksisterer en nonsingular matrix S således at B = S 1 AS. Similaritet betyder bl.a. at similare matricer har samme rank, determinant, karakteristiske polynomium mm. Thr. Theorem Lad A og B være n n matricer. Hvis B er similar til A, så har de to matricer samme karakteristiske polynomium og derved også samme egenværdier. Bevis. Theorem Lad p A (x) og p B (x) være de karakteristiske polynomier for henholdsvis A og B. Hvis B er similar til A, så eksisterer der en nonsingular matrix S sådan at B = S 1 AS. Derved gælder der: p B (x) = det(b λi) = det(s 1 AS λi) = det(s 1 (A λi)s) = det(s 1 )det(a λi)det(s) = p A (x) 25

26 Egenværdier af en matrix er røderne af det karakteristiske polynomium. Siden de to matricer har samme karakteristiske polynomium, så har de også samme egenværdier. Def. Diagonaliserbar En n n matrix A er diagonaliserbar, hvis der findes en nonsingular matrix X således at: X 1 AX = D Hvor D er en diagonalmatrix bestående af A s egenværdier og X diagonaliserer A og har A s egenvektorer som søjlevektorer. Thr. Theorem En n n matrix A er diagonaliserbar hvis og kun hvis den har n lineært uafhængige egenvektorer. Bevis. Theorem Lad A have n lineært uafhængige egenvektorer (x 1,..., x n ) med tilhørende egenværdier (λ 1,..., λ n ), således vektor x i hører til egenværdi λ i. Lad så X være matricen hvis j te søjlevektor er x j for j = 1,..., n. Det følger så heraf, at Ax j = λ j x j er søjlevektoren for AX. Derved får vi: AX = (Ax 1, Ax 2,..., Ax n ) = (λ 1 x 1, λ 2 x 2,..., λ n x n ) λ 1 0 = (x 1, x 2,..., x n ) λ 2... = XD 0 λ n Siden X har n lineært uafhængige søjlevektorer, så følger det at X er nonsingulær hvorved der gælder: D = X 1 XD = X 1 AX Lad os så forestille os A er diagonaliserbar. Så eksisterer der en nonsingulær matrix X sådan at AX = XD. Hvis x 1, x 2,..., x n er søjlevektorer af X, så følger der: 26

27 Ax j = λ j x j (λ j = d jj ) for ethvert j. Derved, for ethvert j er λ j en egenværdi for A og x j er en egenvektor tilhørende egenværdien λ j. Siden søjlevektorne af X er lineært uafhængige, så følger det at A har n lineært uafhængige egenvektorer. 27

28 8 Diagonalisering 8.1 Disposition 1. Egenværdi og egenvektor 2. Similaritet 3. Theorem Diagonalmatrix 5. Diagonaliserbar 6. Theorem Udspecificering Def. Egenværdi og egenvektor Lad A Mat m,n (F). En skalar λ F er en egenværdi (også kaldet karakteristisk værdi) for matricen A hvis den opfylder: A x = λx Hvor vektoren x kaldes egenvektoren tilhørende egenværdien λ og e- genvektoren ikke er nulvektoren 0 En egenværdi har adskillige tilknyttede egenvektorer, men en egenvektor har altid kun en egenværdi. En egenvektor gange en skalar er f.eks. stadig en egenvektor til samme egenværdi. Komplekse egenværdier opstår altid i konjugerede par, således at hvis λ = a + bi er en egenværdi for A, så er den konjugerede af λ ligeledes en egenværdi for A. Def. Similaritet To n n matricer B og A siges at være similarer hvis der eksisterer en nonsingular matrix S således at B = S 1 AS. Similaritet betyder bl.a. at similare matricer har samme rank, determinant, karakteristiske polynomium mm. Thr. Theorem Lad A og B være n n matricer. Hvis B er similar til A, så har de to matricer samme karakteristiske polynomium og derved også samme egenværdier. 28

29 Bevis. Theorem Lad p A (x) og p B (x) være de karakteristiske polynomier for henholdsvis A og B. Hvis B er similar til A, så eksisterer der en nonsingular matrix S sådan at B = S 1 AS. Derved gælder der: p B (x) = det(b λi) = det(s 1 AS λi) = det(s 1 (A λi)s) = det(s 1 )det(a λi)det(s) = p A (x) Egenværdier af en matrix er røderne af det karakteristiske polynomium. Siden de to matricer har samme karakteristiske polynomium, så har de også samme egenværdier. Def. Diagonalmatrix En diagonalmatrix er en matrix hvor: A n n = { a ij for i = j, 0 ellers En diagonalmatrix er meget nemmere at arbejde med, da det at udregne A 2 f.eks. pludselig blot er at tage diagonalindgangene i anden og at det(a) blot er produktet af diagonalens elementer. Det er dog ikke alle matricer der er diagonaliserbare. Def. Diagonaliserbar En n n matrix A er diagonaliserbar, hvis der findes en nonsingular matrix X således at: X 1 AX = D Hvor D er en diagonalmatrix bestående af A s egenværdier og X diagonaliserer A og har A s egenvektorer som søjlevektorer. Thr. Theorem En n n matrix A er diagonaliserbar hvis og kun hvis den har n lineært uafhængige egenvektorer. 29

30 Bevis. Theorem Lad A have n lineært uafhængige egenvektorer (x 1,..., x n ) med tilhørende egenværdier (λ 1,..., λ n ), således vektor x i hører til egenværdi λ i. Lad så X være matricen hvis j te søjlevektor er x j for j = 1,..., n. Det følger så heraf, at Ax j = λ j x j er søjlevektoren for AX. Derved får vi: AX = (Ax 1, Ax 2,..., Ax n ) = (λ 1 x 1, λ 2 x 2,..., λ n x n ) λ 1 0 = (x 1, x 2,..., x n ) λ 2... = XD 0 λ n Siden X har n lineært uafhængige søjlevektorer, så følger det at X er nonsingulær hvorved der gælder: D = X 1 XD = X 1 AX Lad os så forestille os A er diagonaliserbar. Så eksisterer der en nonsingulær matrix X sådan at AX = XD. Hvis x 1, x 2,..., x n er søjlevektorer af X, så følger der: Ax j = λ j x j (λ j = d jj ) for ethvert j. Derved, for ethvert j er λ j en egenværdi for A og x j er en egenvektor tilhørende egenværdien λ j. Siden søjlevektorne af X er lineært uafhængige, så følger det at A har n lineært uafhængige egenvektorer. 30

31 9 Indre produkt 9.1 Disposition 1. Indre produkt 2. Norm og ortogonalitet 3. Theorem Theorem Udspecificering Def. Indre produkt Et indre produkt på vektorrummet V er en operation på V der tildeler et reelt tal til ethvert par af vektorer x og y. Det indre produkt skrives således: Der gælder følgende regler: x, y I. x, x 0 med lighed hvis og kun hvis x = 0 II. x, y = y, x for alle x og y i V. III. αx + βy, z = α x, z + β y, z for alle x, y, z i V og alle skalarer α og β. Et vektorrum V med et indre produkt kaldes et indre produktrum. Som eksempel har R n det indre produkt defineret som x, y = y T x. Det indre produkt for de komplekse tal er defineret som: u, v = n ū i v i i=1 Desuden gælder der for C n at: u, v = v, u C n har det indre produkt defineret som x, y = y H x. Def. Norm og ortogonalitet Hvis v er en vektor i et indre produktrum V, så er dennes længde, aka. norm, givet ved: v = v, v To vektorer v og u siges at være ortogonale såfremt v, u = 0 31

32 Thr. Theorem (Pythagoras)Hvis u og v er ortogonale vektorer i et indre produktrum V, så gælder der: u + v 2 = u 2 + v 2 Bevis. Theorem Vi skriver blot udtrykket foroven op og splitter det op: u + v 2 = u + v, u + v = u, u + 2 u, v + v, v = u 2 + v 2 Altså gælder Pythagoras lov for et givent indre produktrum. Thr. Theorem Hvis u og v er tilfældige vektorer i et indre produktrum V, så gælder der: u, v u v Hvor lighed finder sted hvis og kun hvis u og v er lineært afhængige. Lemma. Egenskaber for projektionsvektorer u, v V og p er projektionen af u på v. 1. u p og p er ortogonale 2. u = p hvis og kun hvis u = αv Bevis. Theorem Hvis v = 0, så er det trivielt at se, at: u, v = 0 = u v Hvis v 0, så lader vi i stedet p være en vektorprojektion af u på v. Siden p er ortogonal til u p, så følger det af Pythagoras at: p 2 + u p 2 = u 2 32

33 Derved får vi: og derved bliver dette: ( u, v ) 2 v 2 = p 2 = u 2 u p 2 ( u, v ) 2 = u 2 v 2 u p 2 v 2 u 2 v 2 Hvorved vi til sidst får: u, v u v Hvor lighed kun er gældende når u = p og det følger der af lemmaet, at ligheden gælder hvis v = 0 eller u = αv - altså hvis u og v er lineært afhængige. 33

34 10 Ortogonalt komplement og projektion 10.1 Disposition 1. Ortogonalt komplement 2. Theorem Korollar Projektionsmatrice 5. Bevis for unikhed 10.2 Udspecificering Def. Ortogonalt komplement Lad W være et underrum af R n. Sættet af alle vektorer i R n som er ortogonale på alle vektorer i W kaldes det ortogonale komplement af W og skrives W. Dette medfører desuden: W = {v R n u, v = 0 u W } (i) W er et underrum af R n. (ii) dim(w ) = n dim(w ). (iii) (W ) - hvilket betyder det ortogonale komplement af W er W. (iv) Enhver vektor b i R n kan blive udtrykt unikt ved b = b w + b w for b w i W og b w i W. Disse egenskaber benævnes uden bevis. Thr. Theorem Hvis S er et underrum af R n, så er (S ) = S. Bevis. Theorem Hvis x S, så er x ortogonal til hver y i S. Derfor er x (S ) og derved er S (S ). På den anden side, forestil dig z er et arbitrært element af (S ). Fordi R n = S S, så kan vi skrive z som en sum u + v, hvor u S og v S. Siden v S er ortogonal i forhold til 34

35 både u og z. Så følger det at: 0 = v T z = v T u + v T v = v T v og derved er v = 0. Så z = u S og derved er S = (S ). Thr. Korollar Lad S være et ikke-nul underrum af R m og lad b R m. Hvis {u 1, u 2,..., u k } er en ortonormal basis for S og U = (u 1, u 2,..., u k ), så er projektionen p af b på S givet ved: p = UU T b Bevis. Korollar Det følger af et andet Theorem (5.5.8), at en given projektion p af b på S er givet ved: Hvor: Derved har vi: p = c 1 u 1 + c 2 u c k u k = Uc c 1 u T 1 c 2 b c =. = u T 2 b. = U T b u T k b c k p = UU T b Def. Projektionsmatrix Matricen UU T i Korollar er en projektionsmatrix til et underrum S af R m. For at projektere en given vektor b R m på S behøver vi blot finde en ortonormal basis {u 1, u 2,..., u k } for S, forme matricen UU T og gange den med b. For enhver projektion af b på S er denne projektionsmatrix unik. 35

36 Bevis. Bevis for unikhed Hvis P er en projektionsmatrice tilhørende et underrum S af R m, så er projektionen p af b på S unik. Hvis Q også er en projektionsmatrice tilhørende S, så er: Det følger heraf at: Qb = p = P b q j = Qe j = P e j p j 36

37 11 Ortogonale og ortonormale baser 11.1 Disposition 1. Ortogonalt sæt 2. Basis 3. Ortonormalt sæt 4. Theorem Theorem Udspecificering Def. Ortogonalt sæt Et sæt af vektorer {v 1, v 2,..., v n } er ortogonale såfremt: v j, v i = 0 for i j Et sådant sæt er en basis hvis det opfylder definitionen for en basis, altså: Def. Basis Sættet {v 1, v 2,..., v n } er en basis for V hvis disse er indbyrdes lineært uafhængige og spanner V. Def. Ortonormalt sæt Et sæt af vektorer {v 1, v 2,..., v n } er ortonormalt hvis: (i) Sættet er ortogonalt (ii) Sættet består af enhedsvektorer aka. er normeret: v i, v j = δ ij = { 1 for i = j, 0 ellers Thr. Theorem Hvis {v 1, v 2,..., v n } er et ortogonalt set af ikke-nul vektorer i et indre produktrum V, så er v 1, v 2,..., v n lineært uafhængige. 37

38 Bevis. Theorem Lad os forestille os v 1, v 2,..., v n er ortogonale ikke-nul vektorer og: c 1 v 1 + c 2 v c n v n = 0 Hvis 1 j n så ved at tage det indre produkt af v j på begge sider af udregningen fås: c 1 v j, v 1 + c 2 v j, v c n v j, v n = 0 c j v j 2 = 0 Og derved må alle skalarer c 1, c 2,..., c n være 0 - altså er v 1, v 2,...v n lineært uafhængige. Thr. Theorem Lad {u 1, u 2,..., u n } være en ortonormal basis for et indre produktrum V. Hvis der så gælder: v = n c i u i i=1 Så er c i = v, u i. Bevis. Theorem Vi udregner egentlig blot v, u i : n n n v, u i = c j u j, u i = c j u j, u i = c j δ ji = c i j=1 j=1 j=1 38

39 12 Ortogonale og unitære matricer 12.1 Disposition 1. Ortonormalt sæt 2. Ortogonalmatrix 3. Theorem Unitær matrix 5. Hermitisk matrix 6. Schurs theorem 7. Spektralsætningen 12.2 Udspecificering Def. Ortonormalt sæt Et sæt af vektorer {v 1, v 2,..., v n } er ortonormalt hvis: (i) Sættet er ortogonalt (ii) Sættet består af enhedsvektorer aka. er normeret: v i, v j = δ ij = { 1 for i = j, 0 ellers Def. Ortogonalmatrix En matrix Q n n er en ortogonalmatrix, såfremt dens søjlevektorer udgører et ortonormalt sæt i R n. Der gælder for en ortogonalmatrix A at A T A = I. Det gælder desuden at Qx 2 = x 2, og at Qx, Qy = (Qy) T (Qx) = y T Q T Qx = x, y. Thr. Theorem En n n matrix Q er en ortogonalmatrix hvis og kun hvis Q T Q = I Bevis. Theorem Definitionen giver, at en n n matrix er ortogonal hvis og kun hvis søjlevektorerne opfylder: q T i q j = δ ij = { 0 for i j, 1 for i = j 39

40 Således er Q ortogonal hvis og kun hvis Q T Q = I. Def. Unitære matricer En matrix U n n er en unitær matrix såfremt dens søjlevektorer udgør et ortonormalt sæt i C n. Således gælder der, at en matrice udelukkende er unitær såfremt der gælder at: U H U = I. Def. Hemitisk matricer Lad M = (m ij ) være en m n matrix med komplekse indgange. Matricen M siges at være hermitisk såfremt matricen konjugeret og transponeret er lig sig selv. Vi skriver dette som M = M H. På denne måde er en hermitisk matrice det samme som en reel symmetrisk matrice. Der gælder desuden at egenværdierne af en hermitisk matrice alle er reele. Thr. Schurs theorem For enhver n n matrix A, eksisterer der en unitær n n matrix U, således at U H AU er øvre triangulær Bevis. Schurs theorem Vi beviser Schurs theorem vha. induktion i n. n = 1 At det gælder for n = 1 er trivielt, da en 1 1 matrix allerede pr. definition er triangulær og det derfor er pænt nemt at finde en unitær matrice der sørger for den bliver ved med at være det. Induktionshypotese Som induktionshypotese antager vi at påstanden gælder for k k. n = k + 1 Vi definerer A som værende en k + 1 k + 1 matrix, hvor λ 1 er en egenværdi og w 1 er en tilhørende enhedsegenvektor. Vha. Gram-Schmidt konstrueres en ortonormal basis for C k+1 bestående af vektorerne {w 1, w 2,..., w k+1 }. Hvis W så er en matrice med dette sæt som søjlevektorer, så er W unitær. Den første søjle i W H AW er så: W H Aw 1 = λ 1 W H w 1 = λ 1 e 1 40

41 Derved har matricen W H AW formen: W H AW = λ 1 x... x 0. M 0 Hvor M er en k k matrix. Vha. induktionshypotesen ved vi der findes en unitær k k matrix V 1 således at V1 HMV 1 = T 1 er øvre triangulær. Vi danner så V : V = 0. V 1 0 Som så er unitær og: V H W H AW V = = = T λ 1 x... x 0. V1 HMV 1 0 λ 1 x... x 0. T 1 0 Som så er øvre triangulær. Vi lader så nu U = W V. Da er U så unitær siden: Og U H AU = T U H U = (W V ) H W V = V H W H W V = I Note. Schur decomposition Faktoriseringen A = UT U H bliver ofte kaldt Schur decompositionen af A. 41

42 Thr. Spektralsætningen Hvis A er hermitisk, så eksisterer der en unitær matrix U der diagonaliserer A. Bevis. Spektralsætningen Vha. Theorem ved vi der eksisterer en unitær matrix U således at U H AU = T, hvor T er øvre diagonal. Det følger derfor: T H = (U H AU) H = U H A H U = U H AU = T Altså er T hermitisk og må derved også være diagonal. 42

43 13 Unitær diagonalisering 13.1 Disposition 1. Hermitisk matrix 2. Unitær matrix 3. Schurs theorem 4. Spektralsætningen 13.2 Udspecificering Def. Hemitisk matricer Lad M = (m ij ) være en m n matrix med komplekse indgange. Matricen M siges at være hermitisk såfremt matricen konjugeret og transponeret er lig sig selv. Vi skriver dette som M = M H. På denne måde er en hermitisk matrice det samme som en reel symmetrisk matrice. Der gælder desuden at egenværdierne af en hermitisk matrice alle er reele. Def. Unitære matricer En matrix U n n er en unitær matrix såfremt dens søjlevektorer udgør et ortonormalt sæt i C n. Således gælder der, at en matrice udelukkende er unitær såfremt der gælder at: U H U = I. Thr. Schurs theorem For enhver n n matrix A, eksisterer der en unitær n n matrix U, således at U H AU er øvre triangulær Bevis. Schurs theorem Vi beviser Schurs theorem vha. induktion i n. n = 1 At det gælder for n = 1 er trivielt, da en 1 1 matrix allerede pr. definition er triangulær og det derfor er pænt nemt at finde en unitær matrice der sørger for den bliver ved med at være det. Induktionshypotese Som induktionshypotese antager vi at påstanden gælder for k k. n = k + 1 Vi definerer A som værende en k + 1 k + 1 matrix, hvor λ 1 er en 43

44 egenværdi og w 1 er en tilhørende enhedsegenvektor. Vha. Gram-Schmidt konstrueres en ortonormal basis for C k+1 bestående af vektorerne {w 1, w 2,..., w k+1 }. Hvis W så er en matrice med dette sæt som søjlevektorer, så er W unitær. Den første søjle i W H AW er så: W H Aw 1 = λ 1 W H w 1 = λ 1 e 1 Derved har matricen W H AW formen: W H AW = λ 1 x... x 0. M 0 Hvor M er en k k matrix. Vha. induktionshypotesen ved vi der findes en unitær k k matrix V 1 således at V1 HMV 1 = T 1 er øvre triangulær. Vi danner så V : V = 0. V 1 0 Som så er unitær og: V H W H AW V = = = T λ 1 x... x 0. V1 HMV 1 0 λ 1 x... x 0. T

45 Som så er øvre triangulær. Vi lader så nu U = W V. Da er U så unitær siden: Og U H AU = T U H U = (W V ) H W V = V H W H W V = I Note. Schur decomposition Faktoriseringen A = UT U H bliver ofte kaldt Schur decompositionen af A. Thr. Spektralsætningen Hvis A er hermitisk, så eksisterer der en unitær matrix U der diagonaliserer A. Bevis. Spektralsætningen Vha. Theorem ved vi der eksisterer en unitær matrix U således at U H AU = T, hvor T er øvre diagonal. Det følger derfor: T H = (U H AU) H = U H A H U = U H AU = T Altså er T hermitisk og må derved også være diagonal. 45

46 14 Kvadratiske former 14.1 Disposition 1. Kvadratiske former 2. Grafen for en kvadratisk form 3. Theorem Definit 5. Theorem Udspecificering Def. Kvadratiske former af 2 variable En kvadratisk ligning i 2 variable er på form: eller på matrixformen: Lad: ax 2 + 2bxy + cy 2 + dx + cy + f = 0 [ ] [ a b x y b c ] [ x y ] + [ d e ] [ x y ] + f = 0 [ ] a b A = b c og x = [ ] x y Da er den kvadratiske form tilhørende den første ligning: x T Ax = ax 2 + 2bxy + cy 2 OBS: Kvadratiske former kan selvfølgelig sagtens generaliseres til n variable, dog er det ikke noget vi vil give os i kast med. Note. Grafen for en kvadratisk form Grafen for en kvadratisk form kaldes en konisk sektion og har følgende, 46

47 såkaldte, standard former: Cirkel: x 2 + y 2 = r 2 Ellipse: x2 α 2 + y2 β 2 = 1 Hyperbel: x2 α 2 y2 y2 = 1 el. β2 α 2 x2 β 2 = 1 Parabel: x 2 = ay el. y 2 = ax Koefficienter kan så bruges til at skubbe horizontalt og vertikalt, og så rotation af grafen. Thr. Theorem Principal Axis Theorem Hvis A er en symmetrisk n n matrix, så kan man skifte varible: Således at: u = Q T x Hvor D er en diagonal matrix. x T Ax = u T Du Bevis. Theorem I det A er symmetrisk giver korrolar at der eksisterer en ortogonalmatrix Q der diagonaliserer A, således at Q T AQ = D. Hvis vi så sætter u = Q T x, så får vi x = Qu og: x T Ax = u T Q T AQu = u T Du Def. Definit For en kvadratisk form f(x) = x T Ax, så er den definit hvis f(x) ikke skifter fortegn når x varierer over R n! Lad A Mat n,n (R) og være symmetrisk. Da er den: Positiv definit : f(x) > 0 47

48 Negativ definit : f(x) < 0 Positiv semidefinit : f(x) 0 Negativ semidefinit : f(x) 0 Indefinit : Hvis fortegnet skifter (aka. f(x) er ikke definit) Hvorvidt en given matrix A er positiv, negativ eller in-definit kan bestemmes ud fra dens egenværdier. Thr. Theorem Lad A være en symmetrisk n n matrix. Så er A positiv definit hvis og kun hvis alle dens egenværdier er positive. Bevis. Theorem Hvis A er positiv definit og λ er en egenværdi til A, så for enhver egenvektor x tilhørende λ gælder der: Derved har vi: x T Ax = λx T x = λ x 2 λ = xt Ax x 2 > 0 Lad os forestille os alle egenværdier af A er positive. Lad så {x 1,..., x n } være et ortonormalt sæt af egenvektorer af A. Hvis x er enhver ikkenul vektor i R n, så kan x skrives på formen: hvor der gælder: x = α 1 x 1 + α 2 x α n x n α i = x T x i for i = 1,..., n og: n (α i ) 2 = x 2 > 0 i=1 48

49 Det følger heraf: x T Ax = (α 1 x α n x n ) T (α 1 λ 1 x α n λ n x n ) n = (α i ) 2 λ i i=1 (minλ i ) x 2 > 0 Ergo er A positiv definit. 49

50 15 Lineære differentialligninger 15.1 Disposition 1. Lineært differentialligningssystem 2. Bevis for løsningsform 3. Bevis for linearkombinationløsning 4. Højere ordenssystemer 15.2 Udspecificering Def. Lineært differentialligningssystem Lineære differentialligningssystemer er defineres som: y 1 = a 11 y 1 + a 12 y a 1n y n y 2 = a 21 y 1 + a 22 y a 2n y n. y n = a n1 y 1 + a n2 y a nn y n Hvor y i = f i (t) er en funktion i C[a, b] i. Eller skrevet på matrixform: hvor: Y = A = Y = y 1. y n Y = AY a 11 a a 1n.. a n1 a n2... a nn y 1. y n 50

51 Def. Løsningsform For n = 1 kender vi løsningen som: y = ay y(t) = ce at Indfører vi i stedet for generel løsning for n > 1, så får vi: Y = x 1 e λt. x n e λt = e λt x Bevis. Bevis for løsningsform For at se om det er en løsning finder vi Y = λe λt x = λy. Hvis vi vælger λ til at være en egenværdi for A og x den tilhørende egenvektor, så får vi: Altså er det en løsning. AY = e λt Ax = λe λt x = λy = Y Def. Lineærkombination er også en løsning Hvis Y 1 og Y 2 begge er løsninger til Y = AY, så er lineærkombinationen af disse også en løsning. Bevis. Bevis for lineærkombinationen Vi kan nemt bevise dette ved blot at lave nogle udregninger.: (αy 1 + βy 2 ) = αy 1 + βy 2 = αay 1 + βay 2 = A(αY 1 + βy 2 ) Altså er lineærkombinationen af løsninger også en løsning. Note. Komplekse egenværdier Lad λ C være en kompleks egenværdi til A Mat n,n (R) der repræsenterer et lineært differentialligningssystem og lad x være en tilhørende egenvektor. x kan da splittes op i en reel og en imaginer del: x = Re(x 1 ) + iim(x 1 ). Re(x n ) + iim(x n ) = Re(x 1 ) Im(x 1 ). + i. Re(x n ) Im(x n ) = Re(x) + iim(x) 51

52 Def. Højere ordenssystemer Lad et højere ordenssystem være givet ved: Y = A 1 Y 1 + A 2 Y 2 Da det er besværligt at arbejde med, kan vi gøre til et første ordens system ved at sætte: Hvis vi lader Y 1 = Y = Og på matrixform: y 1. y n Y n+1 = Y 1 Y n+2 = Y 2. Y 2n = Y n og Y 2 = Y = Y 1 = 0Y 1 + 1Y 2 Y 2 = A 1 Y 1 + A 2 Y 2 y n+1. y 2n. Så har vi: [ y 1 y 2 ] [ 0 I = A 1 A 2 ] [ y1 y 2 ] Såfremt Y 1 (0) = Y (0) og Y 2 (0) = Y (0) er givet har systemet en unik løsning. Et problem i denne form kaldes et initial value problem. 52

53 16 Stokastiske Matricer 16.1 Disposition 1. Stokastisk proces 2. Stokastiske matrice 3. Markov Kæde 4. Theorem Dominant egenværdi 6. Theorem Udspecificering Def. Stokastisk proces En stokastisk proces er en sekvens af eksperimenter, for hvilke udfaldet på ethvert stadie afhænger af sandsynlighed. En Markov Proces er en stokastisk proces der opfylder: 1. Sættet af mulige udfald på ethvert stadie er endeligt. 2. Sandsynligheden for det næste udfald/stadie afhænger udelukkende af det foregående stadie 3. Sandsynlighederne er konstante over tid Def. Stokastisk matrix Sandsynlighederne i en stokastisk proces beskrives i en transitionsmatrice, der for enhver tilstand T i bestemmer hvordan forholdene vil være i tilstand T i+1. En sådan transitionsmatrix kaldes en stokastisk matrix såfremt der dens søjlevektorer består af sandsynlighedsvektorer - altså at hver søjle har en sum på 1 og alle indgange er ikke negative. Def. Markov Kæde En Markov Kæde består således af en række state-vektorer x 0,..., x n, hvor x 0 kaldes vores initielle vektor og består af forholdet mellem objekter i starten af kæden. Man kan bestemme fremtidige state-vektorer ved at udregne: x n = A n x 0 for n = 1, 2,... 53

54 Men det er nemmere at bruge egenværdierne og egenvektorerne af A til at bestemme fremtidsstadier af markov kæden. Hvis man kan diagonalisere A, således: A = Y DY 1 Så kan state vektorerne findes ved at udregne: x n = Y D n Y 1 x 0 En Markov Kæde vil ofte, men ikke altid, konvergere mod en steadystate vektor. Thr. Theorem Hvis en Markov kæde med en n n transitionsmatrix A konvergerer mod en steady-state vektor x, så gælder der: (i) x er en sandsynlighedsvektor (ii) λ 1 = 1 er en egenværdi til A og x er en egenvektor tilhørende λ 1. Bevis. Theorem Vi beviser kun del 1.: Bevis af (i) Lad os opskrive den k te state-vektor i kæden som x k = (x (k) 1, x(k) 2,..., x(k) n ) T. Værdierne i x k er således ikke-negative og summerer op til 1. For ethvert j, der opfylder den j te indgang af grænsevektoren x: og..: x j = lim k x(k) j 0 x 1 + x x n = lim k (x(k) 1, x(k) 2,..., x(k) n ) = 1. Altså er steady-state vektoren x en sandsynlighedsvektor. Note. Dominant egenværdi Markov kæder konvergerer ikke altid mod en steady-state vektor. Men hvis transitionsmatricen A har λ 1 = 1 dominant egenværdi, så er det garanteret markov kæden konvergerer mod en steady state vektor x. 54

55 En egenværdi λ 1 siges at være dominant, hvis der for alle andre egenværdier til A gælder: λ j < λ 1 for j = 2, 3,..., n Thr. Theorem Hvis λ 1 = 1 er en dominant egenværdi af en stokastisk matrice A, så vil Markovkæden med transitionsmatrix A konvergerer mod en steadystate vektor. Bevis. Theorem I det tilfælde at A er diagonaliserbar, lad y 1 være en egenvektor tilhørende λ 1 = 1 og lad Y = (y 1, y 2,..., y n ) være en matrix der diagonaliserer A. Hvis E er en n n matrix hvis (1, 1) indgang er 1 og hvis tilbageværende indgange alle er 0, så gælder der at når k : D k = λ k 1 λ k 2. λ k n = E Hvis x 0 er enhver initial sandsynlighedsvektor og c = Y 1 x 0, så har vi: x k = A k x 0 = Y D k Y 1 x 0 = Y D k c Y Ec = Y (c 1 e 1 ) = c 1 y 1 Altså er c 1 y 1 steady-state vektoren for Markovkæden. I tilfælde af transitionsmatrixen A er defektiv (kan ikke diagonaliseres), med dominant egenværdi λ 1 = 1, så kan man stadig bevise sætningen vha. andre mekanismer der ligger udenfor pensum. 55

LinAlg 2013 Q3. Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013

LinAlg 2013 Q3. Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013 LinAlg 2013 Q3 Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013 1 Lineær algebra Dispositioner - Dispo 0 2013 Contents 1 Løsninger, og MKL, af lineære ligningssystemer 3 2 Vektorrum

Læs mere

Lineær Algebra eksamen, noter

Lineær Algebra eksamen, noter Lineær Algebra eksamen, noter Stig Døssing, 20094584 June 6, 2011 1 Emne 1: Løsninger og least squares - Løsning, ligningssystem RREF (ERO) løsninger Bevis at RREF matrix findes Løsninger til system (0,

Læs mere

Mat10 eksamensspørgsmål

Mat10 eksamensspørgsmål Mat10 eksamensspørgsmål Martin Geisler 9. januar 2002 Resumé Dette dokument er en gennemgang af de eksamensspørgsmål der blev stillet til den mundtlige eksamen i Mat10, januar 2002

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Noter til Lineær Algebra

Noter til Lineær Algebra Noter til Lineær Algebra Eksamensnoter til LinAlg Martin Sparre, www.logx.dk, August 2007, Version π8 9450. INDHOLD 2 Indhold 0. Om disse noter.......................... 3 Abstrakte vektorrum 4. Definition

Læs mere

Lineær algebra: Egenværdier, egenvektorer, diagonalisering

Lineær algebra: Egenværdier, egenvektorer, diagonalisering Lineær algebra: Egenværdier, egenvektorer, diagonalisering Institut for Matematiske Fag Aalborg Universitet 2011 Egenvektorer og egenværdier Mål: Forståelse af afbildningen x Ax fra R n R n for en n n-matrix

Læs mere

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016 Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 206 Mikkel Findinge http://findinge.com/ Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan.

Læs mere

Diagonalisering. Definition (diagonaliserbar)

Diagonalisering. Definition (diagonaliserbar) 1 Diagonalisering 2 Definition (diagonaliserbar) Lad A være en n n-matrix. A siges at være diagonaliserbar hvis A er similær med en diagonal matrix, dvs. A = PDP 1, hvor D er en n n diagonal matrix og

Læs mere

Symmetriske og ortogonale matricer Uge 7

Symmetriske og ortogonale matricer Uge 7 Symmetriske og ortogonale matricer Uge 7 Preben Alsholm Efterår 2009 1 Symmetriske og ortogonale matricer 1.1 Definitioner Definitioner En kvadratisk matrix A = [ a ij kaldes symmetrisk, hvis aij = a ji

Læs mere

DesignMat Uge 1 Gensyn med forårets stof

DesignMat Uge 1 Gensyn med forårets stof DesignMat Uge 1 Gensyn med forårets stof Preben Alsholm Efterår 2010 1 Hovedpunkter fra forårets pensum 11 Taylorpolynomium Taylorpolynomium Det n te Taylorpolynomium for f med udviklingspunkt x 0 : P

Læs mere

6.1 Reelle Indre Produkter

6.1 Reelle Indre Produkter SEKTION 6.1 REELLE INDRE PRODUKTER 6.1 Reelle Indre Produkter Definition 6.1.1 Et indre produkt på et reelt vektorrum V er en funktion, : V V R således at, for alle x, y V, I x, x 0 med lighed x = 0, II

Læs mere

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder Sætning 9 Sylvesters kriterium Nej, ikke mit kriterium Rasmus Sylvester Bryder Inspireret af en statistikers manglende råd om hvornår en kvadratisk matrix er positivt definit uden at skulle ud i at bestemme

Læs mere

Tidligere Eksamensopgaver MM505 Lineær Algebra

Tidligere Eksamensopgaver MM505 Lineær Algebra Institut for Matematik og Datalogi Syddansk Universitet Tidligere Eksamensopgaver MM55 Lineær Algebra Indhold Typisk forside.................. 2 Juni 27.................... 3 Oktober 27..................

Læs mere

Symmetriske og ortogonale matricer Uge 6

Symmetriske og ortogonale matricer Uge 6 Symmetriske og ortogonale matricer Uge 6 Preben Alsholm Efterår 2010 1 Symmetriske og ortogonale matricer 1.1 Skalarprodukt og Cauchy-Schwarz ulighed Skalarprodukt og Cauchy-Schwarz ulighed Det sædvanlige

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018 Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Juni 28 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

9.1 Egenværdier og egenvektorer

9.1 Egenværdier og egenvektorer SEKTION 9.1 EGENVÆRDIER OG EGENVEKTORER 9.1 Egenværdier og egenvektorer Definition 9.1.1 1. Lad V være et F-vektorrum; og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der

Læs mere

DesignMat Uge 5 Systemer af lineære differentialligninger II

DesignMat Uge 5 Systemer af lineære differentialligninger II DesignMat Uge 5 Systemer af lineære differentialligninger II Preben Alsholm Efterår 21 1 Lineære differentialligningssystemer 11 Lineært differentialligningssystem af første orden Lineært differentialligningssystem

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote 7 enote 7 Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses Der bruges egenværdier og egenvektorer i løsningsproceduren,

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017 Besvarelser til Lineær Algebra Ordinær Eksamen - 12. Juni 2017 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17 Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17 Nøgleord og begreber 1. ordens lineær ligning Løsningsmetode August 2002, opgave 7 1. ordens lineært system Løsning ved egenvektor Lille opgave Stor opgave

Læs mere

Egenværdier og egenvektorer

Egenværdier og egenvektorer 1 Egenværdier og egenvektorer 2 Definition Lad A være en n n matrix. En vektor v R n, v 0, kaldes en egenvektor for A, hvis der findes en skalar λ således Av = λv Skalaren λ kaldes en tilhørende egenværdi.

Læs mere

Symmetriske matricer

Symmetriske matricer Symmetriske matricer Preben Alsholm 17. november 008 1 Symmetriske matricer 1.1 Definitioner Definitioner En kvadratisk matrix A = a ij kaldes symmetrisk, hvis aij = a ji for alle i og j. Altså hvis A

Læs mere

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018 Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 08 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

12.1 Cayley-Hamilton-Sætningen

12.1 Cayley-Hamilton-Sætningen SEKTION 12.1 CAYLEY-HAMILTON-SÆTNINGEN 12.1 Cayley-Hamilton-Sætningen Sætning 12.1.1 (Cayley-Hamilton) Lad A Mat n,n (C). Så gælder p A (A) =. Sætningen gælder faktisk over et vilkårligt legeme, men vi

Læs mere

Nøgleord og begreber. Definition 15.1 Den lineære 1. ordens differentialligning er

Nøgleord og begreber. Definition 15.1 Den lineære 1. ordens differentialligning er Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17 Nøgleord og begreber 1. ordens lineær ligning Løsningsmetode August 2002, opgave 7 1. ordens lineært system Løsning ved egenvektor Lille opgave Stor opgave

Læs mere

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016 Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

3.1 Baser og dimension

3.1 Baser og dimension SEKTION 3 BASER OG DIMENSION 3 Baser og dimension Definition 3 Lad V være et F-vektorrum Hvis V = {0}, så har V dimension 0 2 Hvis V har en basis bestående af n vektorer, så har V dimension n 3 Hvis V

Læs mere

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer DesignMat September 2008 fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum over L (enten R eller C). fortsat Eksempel : et Eksempel 4 () af I II uden I Lad V være et vektorrum

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

Ølopgaver i lineær algebra

Ølopgaver i lineær algebra Ølopgaver i lineær algebra 30. maj, 2010 En stor del af de fænomener, vi observerer, er af lineær natur. De naturlige matematiske objekter i beskrivelsen heraf bliver vektorrum rum hvor man kan lægge elementer

Læs mere

Matematik for økonomer 3. semester

Matematik for økonomer 3. semester Matematik for økonomer 3. semester cand.oecon. studiet, 3. semester Planchesæt 2 - Forelæsning 3 Esben Høg Aalborg Universitet 10. september 2009 Institut for Matematiske Fag Aalborg Universitet Esben

Læs mere

Kursusgang 3 Matrixalgebra fortsat

Kursusgang 3 Matrixalgebra fortsat Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse

Læs mere

DesignMat Uge 4 Systemer af lineære differentialligninger I

DesignMat Uge 4 Systemer af lineære differentialligninger I DesignMat Uge Systemer af lineære differentialligninger I Preben Alsholm Efterår 008 1 Lineære differentialligningssystemer 11 Lineært differentialligningssystem af første orden I Lineært differentialligningssystem

Læs mere

Besvarelser til Lineær Algebra Reeksamen August 2016

Besvarelser til Lineær Algebra Reeksamen August 2016 Besvarelser til Lineær Algebra Reeksamen - 9. August 26 Mikkel Findinge Bemærk, at der kan være sneget sig fejl ind. Kontakt mig endelig, hvis du skulle falde over en sådan. Dette dokument har udelukkende

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem

Læs mere

Lineære 1. ordens differentialligningssystemer

Lineære 1. ordens differentialligningssystemer enote enote Lineære ordens differentialligningssystemer Denne enote beskriver ordens differentialligningssystemer og viser, hvordan de kan løses enoten er i forlængelse af enote, der beskriver lineære

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA], 2, 3, [S] 9.-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

Oversigt [LA] 10, 11; [S] 9.3

Oversigt [LA] 10, 11; [S] 9.3 Oversigt [LA] 1, 11; [S] 9.3 Nøgleord og begreber Repetition: enhedsvektor og identitetsmatrix Diagonalmatricer Diagonalisering og egenvektorer Matrixpotens August 22, opgave 2 Skalarprodukt Længde Calculus

Læs mere

Egenværdier og egenvektorer

Egenværdier og egenvektorer enote 9 enote 9 Egenværdier og egenvektorer Denne note indfører begreberne egenværdier og egenvektorer for lineære afbildninger i vilkårlige generelle vektorrum og går derefter i dybden med egenværdier

Læs mere

Figur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet

Figur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer smængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen Enten-eller

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger

Læs mere

LiA 5 Side 0. Lineær algebra Kursusgang 5

LiA 5 Side 0. Lineær algebra Kursusgang 5 LiA 5 Side 0 Lineær algebra Kursusgang 5 LiA 5 Side 1 Ved bestemmelse af mindste kvadraters løsning til (store) ligningssystemer vil man gerne anvende en metode der opfylder to krav: antallet af regneoperationer

Læs mere

Ligningssystemer - nogle konklusioner efter miniprojektet

Ligningssystemer - nogle konklusioner efter miniprojektet Ligningssystemer - nogle konklusioner efter miniprojektet Ligningssystemet Ax = 0 har mere end en løsning (uendelig mange) hvis og kun hvis nullity(a) 0 Løsningerne til et konsistent ligningssystem Ax

Læs mere

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra To find the English version of the exam, please read from the other end! Se venligst bort fra den engelske tekst på bagsiden, hvis du følger den danske version af prøven. Eksamen i Lineær Algebra Første

Læs mere

1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal.

1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal. SEKTION 11 LEGEMER 11 Legemer Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal Definition 111 Et legeme F er en mængde udstyret

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse

Læs mere

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Lineær Algebra. Lars Hesselholt og Nathalie Wahl Lineær Algebra Lars Hesselholt og Nathalie Wahl Oktober 2016 Forord Denne bog er beregnet til et første kursus i lineær algebra, men vi har lagt vægt på at fremstille dette materiale på en sådan måde,

Læs mere

Ekstremum for funktion af flere variable

Ekstremum for funktion af flere variable Ekstremum for funktion af flere variable Preben Alsholm 28. april 2008 1 Ekstremum for funktion af flere variable 1.1 Hessematricen I Hessematricen I Et stationært punkt for en funktion af flere variable

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02) SYDDANSK UNIVERSITET ODENSE UNIVERSITET INSTITUT FOR MATEMATIK OG DATALOGI Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM2) Fredag d. 2. januar 22 kl. 9. 3. 4 timer med alle sædvanlige skriftlige

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Koordinatvektorer, talpar, taltripler og n-tupler Linearkombination Underrum og Span Test linearkombination Lineær uafhængighed Standard vektorer Basis

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Oversigt [LA] 1, 2, 3, [S] 9.1-3 Oversigt [LA] 1, 2, 3, [S] 9.1-3 Nøgleord og begreber Talpar, taltripler og n-tupler Linearkombination og span Test linearkombination Hvad er en matrix Matrix multiplikation Test matrix multiplikation

Læs mere

Lineær algebra Kursusgang 6

Lineær algebra Kursusgang 6 Lineær algebra Kursusgang 6 Mindste kvadraters metode og Cholesky dekomposition Vi ønsker at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem hvor A er en m n matrix. Ax = b,

Læs mere

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling Forelæsningsnoter til Lineær Algebra Niels Vigand Pedersen Udgivet af Asmus L Schmidt Københavns Universitet Matematisk Afdeling August Revideret 9 ii udgave, oktober 9 Forord Gennem en særlig aftale varetages

Læs mere

Oversigt [LA] 6, 7, 8

Oversigt [LA] 6, 7, 8 Oversigt [LA] 6, 7, 8 Nøgleord og begreber Lineære ligningssystemer Løsningsmængdens struktur Test løsningsmængde Rækkereduktion Reduceret matrix Test ligningssystem Rækkeoperationsmatricer Rangformlen

Læs mere

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra Eksamen i Lineær Algebra Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet 6. juni, 26. Kl. 9-3. Nærværende eksamenssæt består af nummererede sider med ialt 5 opgaver. Alle opgaver er multiple

Læs mere

4.1 Lineære Transformationer

4.1 Lineære Transformationer SEKTION 41 LINEÆRE TRANSFORMATIONER 41 Lineære Transformationer Definition 411 ([L], s 175) Lad V, W være F-vektorrum En lineær transformation L : V W er en afbildning, som respekterer lineær struktur,

Læs mere

(Prøve)eksamen i Lineær Algebra

(Prøve)eksamen i Lineær Algebra (Prøve)eksamen i Lineær Algebra Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet & Det Sundhedsvidenskabelige Fakultet Nærværende eksamenssæt bestaår af 9 nummererede sider med ialt 15 opgaver.

Læs mere

Besvarelse af Eksamensopgaver Juni 2005 i Matematik H1

Besvarelse af Eksamensopgaver Juni 2005 i Matematik H1 Besvarelse af Eksamensopgaver Juni 5 i Matematik H Opgave De fire vektorer stilles op i en matrix som reduceres: 4 4 4 8 4 4 (a) Der er ledende et-taller så dim U =. Som basis kan f.eks. bruges a a jfr.

Læs mere

Nøgleord og begreber Separable ligninger 1. ordens lineær ligning August 2002, opgave 7 Rovdyr-Byttedyr system 1. ordens lineært system Opgave

Nøgleord og begreber Separable ligninger 1. ordens lineær ligning August 2002, opgave 7 Rovdyr-Byttedyr system 1. ordens lineært system Opgave Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 14, 15 Nøgleord og begreber Separable ligninger 1. ordens lineær ligning August 2002, opgave 7 Rovdyr-Byttedyr system 1. ordens lineært system Opgave Calculus 2-2005

Læs mere

Indhold. 5. Vektorrum og matricer Koordinattransformationer

Indhold. 5. Vektorrum og matricer Koordinattransformationer Indhold Lineære afbildninger og matricer Talrummene R n, C n Matricer 8 3 Lineære afbildninger 4 Matrix algebra 8 5 Invers matrix 6 6 Transponeret og adjungeret matrix 9 Række- og søjleoperationer Lineære

Læs mere

Nøgleord og begreber

Nøgleord og begreber Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

Lineær Algebra, kursusgang

Lineær Algebra, kursusgang Lineær Algebra, 2014 12. kursusgang Lisbeth Fajstrup Institut for Matematiske Fag Aalborg Universitet LinAlg November 2014 Om miniprojekt 2 Kirchoffs love. Opstil lineære ligningssystemer og løs dem. 0-1-matricer.

Læs mere

Symmetriske matricer. enote Skalarprodukt

Symmetriske matricer. enote Skalarprodukt enote 19 1 enote 19 Symmetriske matricer I denne enote vil vi beskæftige os med et af de mest benyttede resultater fra lineær algebra den såkaldte spektralsætning for symmetriske matricer. Den siger kort

Læs mere

13.1 Matrixpotenser og den spektrale radius

13.1 Matrixpotenser og den spektrale radius SEKTION 3 MATRIXPOTENSER OG DEN SPEKTRALE RADIUS 3 Matrixpotenser og den spektrale radius Cayley-Hamilton-sætningen kan anvendes til at beregne matrixpotenser: Proposition 3 (Lasalles algoritme) Lad A

Læs mere

Hilbert rum. Chapter 3. 3.1 Indre produkt rum

Hilbert rum. Chapter 3. 3.1 Indre produkt rum Chapter 3 Hilbert rum 3.1 Indre produkt rum I det følgende skal vi gøre brug af komplekse såvel som reelle vektorrum. Idet L betegner enten R eller C minder vi om, at et vektorrum over L er en mængde E

Læs mere

Underrum - generaliserede linjer og planer

Underrum - generaliserede linjer og planer 1 Om miniprojekt 2 2 Kirchoffs love. Opstil lineære ligningssystemer og løs dem. 0-1-matricer. Systematisk information om grafer/netværk (som i Dagens anvendelse kursusgang 9): Flyforbindelser. Skemalægning.

Læs mere

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra To find the English version of the exam, please read from the other end! Se venligst bort fra den engelske version på modsatte side hvis du følger denne danske version af prøven. Eksamen i Lineær Algebra

Læs mere

Københavns Universitet, Det naturvidenskabelige Fakultet. Forelæsningsnote 8. (NB: Noten er ikke en del af pensum)

Københavns Universitet, Det naturvidenskabelige Fakultet. Forelæsningsnote 8. (NB: Noten er ikke en del af pensum) Københavns Universitet, Det naturvidenskabelige Fakultet Lineær Algebra LinAlg Forelæsningsnote 8 NB: Noten er ikke en del af pensum Eksempel på brug af egenværdier og egenvektorer Måske er det stadig

Læs mere

Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec.

Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec. Noter om Komplekse Vektorrum, Funktionsrum og Differentialligninger LinAlg 2004/05-Version af 16. Dec. 1 Komplekse vektorrum I defininitionen af vektorrum i Afsnit 4.1 i Niels Vigand Pedersen Lineær Algebra

Læs mere

(Prøve)eksamen i Lineær Algebra

(Prøve)eksamen i Lineær Algebra (Prøve)eksamen i Lineær Algebra Maj 016 Første Studieår ved Det Teknisk-Naturvidenskabelige Fakultet & Det Sundhedsvidenskabelige Fakultet Nærværende eksamenssæt består af 10 nummererede sider med ialt

Læs mere

Eksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Eksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet Eksamen i Lineær Algebra Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet 4. januar 9 kl. 9:-: Dette eksamenssæt består af 8 nummererede sider

Læs mere

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [DL] 1, 2

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [DL] 1, 2 Oversigt [S] 7.3, 7.4, 7.5, 7.6; [DL] 1, 2 Her skal du lære om Separable ligninger Logistisk ligning og eksponentiel vækst 1. ordens lineær ligning August 2002, opgave 7 Rovdyr-Byttedyr system 1. ordens

Læs mere

Lineær algebra 1. kursusgang

Lineær algebra 1. kursusgang Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra

Læs mere

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Lineær Algebra. Lars Hesselholt og Nathalie Wahl Lineær Algebra Lars Hesselholt og Nathalie Wahl 2. udgave, oktober 207 Forord Denne bog er beregnet til et første kursus i lineær algebra, men vi har lagt vægt på at fremstille dette materiale på en sådan

Læs mere

Vektorrum. enote Generalisering af begrebet vektor

Vektorrum. enote Generalisering af begrebet vektor enote 7 1 enote 7 Vektorrum I denne enote opstilles en generel teori for mængder, for hvilke der er defineret addition og multiplikation med skalar, og som opfylder de samme regneregler som geometriske

Læs mere

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra Matrx-vektor produkt [ ] 1 2 3 1 0 2 1 10 4 Rotationsmatrix Sæt A θ = [ ] cosθ sinθ sinθ cosθ At gange vektor v R 2 med A θ svarer til at rotere vektor v med vinkelen θ til vektor w: [ ][ ] [ ] [ ] cosθ

Læs mere

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 1 of 7 31-05-2010 13:18 2010 Matematik 2A hold 4 : Prøveeksamen juni 2010 Welcome Jens Mohr Mortensen [ My Profile ] View Details View Grade Help Quit & Save Feedback: Details Report [PRINT] 2010 Matematik

Læs mere

Lineær Algebra F08, MØ

Lineær Algebra F08, MØ Lineær Algebra F08, MØ Vejledende besvarelser af udvalgte opgaver fra Ugeseddel 3 og 4 Ansvarsfraskrivelse: Den følgende vejledning er kun vejledende. Opgaverne kommer i vilkårlig rækkefølge. Visse steder

Læs mere

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2 Oversigt [LA] 9 Nøgleord og begreber Helt simple determinanter Determinant defineret Effektive regneregler Genkend determinant nul Test determinant nul Produktreglen Inversreglen Test inversregel og produktregel

Læs mere

Carl Friedrich Gauß ( ), malet af Christian Albrecht Jensen. Lineær algebra. Ib Michelsen

Carl Friedrich Gauß ( ), malet af Christian Albrecht Jensen. Lineær algebra. Ib Michelsen Carl Friedrich Gauß 777 8, malet af Christian Albrecht Jensen Lineær algebra Ikast Ikast Version Hæftet her skal ses som et supplement til Klaus Thomsens forelæsninger på Aarhus Universitet og låner flittigt

Læs mere

Matematisk modellering og numeriske metoder. Lektion 5

Matematisk modellering og numeriske metoder. Lektion 5 Matematisk modellering og numeriske metoder Lektion 5 Morten Grud Rasmussen 19. september, 2013 1 Euler-Cauchy-ligninger [Bogens afsnit 2.5, side 71] 1.1 De tre typer af Euler-Cauchy-ligninger Efter at

Læs mere

Vejledende besvarelse på august 2009-sættet 2. december 2009

Vejledende besvarelse på august 2009-sættet 2. december 2009 Vejledende besvarelse på august 29-sættet 2. december 29 Det følgende er en vejledende besvarelse på eksamenssættet i kurset Calculus, som det så ud i august 29. Den tjener primært til illustration af,

Læs mere

EKSAMENSOPGAVELØSNINGER CALCULUS 2 (2005) JANUAR 2006 AARHUS UNIVERSITET.. Beregn den retningsafledede D u f(0, 0).

EKSAMENSOPGAVELØSNINGER CALCULUS 2 (2005) JANUAR 2006 AARHUS UNIVERSITET.. Beregn den retningsafledede D u f(0, 0). EKSAMENSOPGAVELØSNINGER CALCULUS 2 (2005) JANUAR 2006 AARHUS UNIVERSITET H.A. NIELSEN & H.A. SALOMONSEN Opgave. Lad f betegne funktionen f(x, y) = x cos(y) + y sin(x). ) Angiv gradienten f. 2) Lad u betegne

Læs mere

Reeksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Reeksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet Reeksamen i Lineær Algebra Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet. februar 9 kl. 9:-: Dette eksamenssæt består af 8 nummererede sider

Læs mere

To ligninger i to ubekendte

To ligninger i to ubekendte Oversigt [LA] 6, 7 Nøgleord og begreber Løs ligninger Eliminer ubekendte Rækkereduktion Reduceret matrix Enten-eller princippet Test ligningssystem Rækkeoperationsmatricer Beregn invers matrix Calculus

Læs mere

Besvarelser til de to blokke opgaver på Ugeseddel 7

Besvarelser til de to blokke opgaver på Ugeseddel 7 Besvarelser til de to blokke opgaver på Ugeseddel 7 De anførte besvarelser er til dels mere summariske end en god eksamensbesvarelse bør være. Der kan godt være fejl i - jeg vil meget gerne informeres,

Læs mere

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version Opgaven består af et antal delopgaver Disse er af varierende omfang Der er også en

Læs mere

Om første og anden fundamentalform

Om første og anden fundamentalform Geometri, foråret 2005 Jørgen Larsen 9. marts 2005 Om første og anden fundamentalform 1 Tangentrummet; første fundamentalform Vi betragter en flade S parametriseret med σ. Lad P = σu 0, v 0 være et punkt

Læs mere

x 2 + y 2 dx dy. f(x, y) = ln(x 2 + y 2 ) + 2 1) Angiv en ligning for tangentplanen til fladen z = f(x, y) i punktet

x 2 + y 2 dx dy. f(x, y) = ln(x 2 + y 2 ) + 2 1) Angiv en ligning for tangentplanen til fladen z = f(x, y) i punktet Eksamensopgaver fra Matematik Alfa 1 Naturvidenskabelig Kandidateksamen August 1999. Matematik Alfa 1 Opgave 1. Udregn integralet 1 1 y 2 (Vink: skift til polære koordinater.) Opgave 2. Betragt funktionen

Læs mere

Sandt/falsk-opgave: Diskuter opgave 23 side 12 i gruppen, men husk at begrunde jeres svar, som teksten før opgave 23 kræver!

Sandt/falsk-opgave: Diskuter opgave 23 side 12 i gruppen, men husk at begrunde jeres svar, som teksten før opgave 23 kræver! LINEÆR ALGEBRA 28. januar 2005 Oversigt nr. 1 I kurset i skal vi bruge D. C. Lay: Linear algebra and its applications, 3. udgave Addison Wesley 2003; i store træk bliver det kapitel 1 3 og 5.1 5.3. Som

Læs mere

Oversigt Matematik Alfa 1, August 2002

Oversigt Matematik Alfa 1, August 2002 Oversigt [S], [LA] Nøgleord og begreber Egenvektorer, egenværdier og diagonalisering Dobbelt integral og polært koordinatskift Ortogonal projektion og mindste afstand Retningsafledt og gradient Maksimum/minimums

Læs mere

DesignMat Uge 1 Repetition af forårets stof

DesignMat Uge 1 Repetition af forårets stof DesignMat Uge 1 Repetition af forårets stof Preben Alsholm Efterår 008 01 Lineært ligningssystem Lineært ligningssystem Et lineært ligningssystem: a 11 x 1 + a 1 x + + a 1n x n = b 1 a 1 x 1 + a x + +

Læs mere