LinAlg 2013 Q3. Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013

Relaterede dokumenter
Lineær Algebra eksamen, noter

6.1 Reelle Indre Produkter

3.1 Baser og dimension

Diagonalisering. Definition (diagonaliserbar)

Lineær Algebra Dispositioner

Mat10 eksamensspørgsmål

DesignMat Uge 1 Gensyn med forårets stof

Symmetriske og ortogonale matricer Uge 7

Tidligere Eksamensopgaver MM505 Lineær Algebra

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017

Egenværdier og egenvektorer

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018

Symmetriske og ortogonale matricer Uge 6

9.1 Egenværdier og egenvektorer

4.1 Lineære Transformationer

Module 1: Lineære modeller og lineær algebra

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016

Symmetriske matricer

1.1 Legemer. Legemer er talsystemer udstyret med addition og multiplikation, hvor vi kan regner som vi plejer at gøre med de reelle tal.

Oversigt [LA] 1, 2, 3, [S] 9.1-3

Noter til Lineær Algebra

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016

Figur. To ligninger i to ubekendte. Definition Ved m lineære ligninger med n ubekendte forstås. Definition 6.4 Givet ligningssystemet

Kursusgang 3 Matrixalgebra Repetition

Ligningssystemer - nogle konklusioner efter miniprojektet

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Eksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Oversigt [LA] 11, 12, 13

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Oversigt [LA] 1, 2, 3, [S] 9.1-3

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer

Lineær algebra: Egenværdier, egenvektorer, diagonalisering

Ølopgaver i lineær algebra

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Besvarelser til Lineær Algebra Reeksamen August 2016

Lineær Algebra, TØ, hold MA3

Lineær algebra 1. kursusgang

Oversigt [LA] 3, 4, 5

Matematik for økonomer 3. semester

Lineær Algebra F08, MØ

(Prøve)eksamen i Lineær Algebra

Nøgleord og begreber Ortogonalt komplement Tømrerprincippet. [LA] 13 Ortogonal projektion

Oversigt [LA] 10, 11; [S] 9.3

12.1 Cayley-Hamilton-Sætningen

Kursusgang 3 Matrixalgebra fortsat

Oversigt [LA] 1, 2, 3, [S] 9.1-3

DesignMat Uge 1 Repetition af forårets stof

Matricer og lineære ligningssystemer

Eksamen i Lineær Algebra

Lineære 1. ordens differentialligningssystemer

Lineær Algebra, kursusgang

Reeksamen i Lineær Algebra

(Prøve)eksamen i Lineær Algebra

Matematik og Form: Matrixmultiplikation. Regulære og singu

Egenværdier og egenvektorer

Oversigt [LA] 6, 7, 8

Hilbert rum. Chapter Indre produkt rum

Eksamen i Lineær Algebra

Lineær algebra: Matrixmultiplikation. Regulære og singulære

Modulpakke 3: Lineære Ligningssystemer

Underrum - generaliserede linjer og planer

Lineær Algebra. Lars Hesselholt og Nathalie Wahl

Nøgleord og begreber

Lineære 1. ordens differentialligningssystemer

Eksempel 9.1. Areal = (a 1 + b 1 )(a 2 + b 2 ) a 1 a 2 b 1 b 2 2a 2 b 1 = a 1 b 2 a 2 b 1 a 1 a 2 = b 1 b 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Carl Friedrich Gauß ( ), malet af Christian Albrecht Jensen. Lineær algebra. Ib Michelsen

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA M. ANV. 4. oktober Miniprojekt: Lineær algebra på polynomier

Nøgleord og begreber. Definition 15.1 Den lineære 1. ordens differentialligning er

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17

Vektorrum. enote Generalisering af begrebet vektor

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling

Lineære 1. ordens differentialligningssystemer

Kursusgang 3 Matrixalgebra Repetition

Reeksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Definition. og lœngden, normen. og afstanden mellem vektorer a og b. Der gælder

Kvadratiske matricer. enote Kvadratiske matricer

Oversigt [LA] 11, 12, 13

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

Anvendt Lineær Algebra

Symmetriske matricer. enote Skalarprodukt

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra

LiA 5 Side 0. Lineær algebra Kursusgang 5

Matematik: Struktur og Form Matrixmultiplikation. Regulære og singulære matricer

Lidt alment om vektorrum et papir som grundlag for diskussion

Ekstremum for funktion af flere variable

Indhold. 5. Vektorrum og matricer Koordinattransformationer

1 Vektorrum. MATEMATIK 3 LINEÆR ALGEBRA 6. oktober 2016 Miniprojekt: Lineær algebra på polynomier

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra

Eksamen i Lineær Algebra

Besvarelse af Eksamensopgaver Juni 2005 i Matematik H1

Transkript:

LinAlg 2013 Q3 Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013 1

Lineær algebra Dispositioner - Dispo 0 2013 Contents 1 Løsninger, og MKL, af lineære ligningssystemer 3 2 Vektorrum og underrum 7 3 Lineær uafhængighed 11 4 Basis for vekturrum; koordinatisering 15 5 Matricer og lineære transformationer 20 6 Determinanter 23 7 Egenværdier og egenvektorer 26 8 Diagonalisering 29 9 Indre produkt 32 10 Ortogonalt komplement og projektion 35 11 Ortogonale og ortonormale baser 38 12 Ortogonale og unitære matricer 41 13 Unitær diagonalisering 45 14 Lineære differentialligninger 48 15 Eksempler 51 16 Skal opdateres 51 17 Første eksamensgennemløb 51 Side 2 af 51

Lineær algebra Dispositioner - Dispo 1 2013 1 Løsninger, og MKL, af lineære ligningssystemer Pensum: 1.2, 5.2, 7.2.10-7.2.13, 8.2.9 Disposition Lineært ligningssystem (Def. matrix, ERO) Rækkereducering, (Def. REF RREF) - Rækkeækvivalens for ERO (1.2.2) Bevis for lemma 1.2.7 (RREF til ligningssystem) Mindste kvadraters løsning (motivation og introduktion) Ax = p er konsistent og tættest (Bevis 5.2.2) stikord bevarelse af løsningsmængde for ERO og Specificering Givet et system af m lineære ligninger med n ubekendte: a 11 x 1 + + a 1n x n =b 1... a m1 x 1 + + a mn x n =b n Hvor vi kan skrive A =[a ij ] x 1 x =. x n a 11 x 1 + +a 1n x n Ax =. a m1 x 1 + +a mn x n 1.. b = b b n Vi får altså skrevet ligningsystemet op på en anden måde som forhåbenligt er nemmere at løse. Side 3 af 51

Lineær algebra Dispositioner - Dispo 1 2013 Def. rækkeechelon form, REF (1.2.3) En matrix er på REF hvis En række med kun 0 er, er under rækker med værdier 0 antal 0 er i starten af en række er højere eller lig antallet af preceeding 0 er i rækken over. Første indgang i rækken skal være 1 Def. reduceret rækkeechelon form, RREF (1.2.5) En matrix er på RREF hvis matricen er på REF, og hver pivot kun har 0 er i resten af søjlen. Løsningsmodel med RREF (Lemma 1.2.7) Antag, at [H c] er på RREF, hvor H Mat m,n (F), c F m. 1. Hvis [H c] har en pivot i den sidste søjle c, så har ligningssystemet Hx = c ingen løsning. 2. Antag, at [H c] har pivot erne i søjlerne j 1 < < j k <= n. Skriv i 1 < < i n k for tallene {1,..., n}\{j i,..., j k }. (Dvs. vi har i alt n søjler og k pivoter, hvis søjler vi kalder j. Dernæst kalder vi de resterende n - k søjler for i.) Da er alle løsninger til ligningssystemet Hx = c af formen z 1,..., z n F, hvor z i1,..., z in k F vælges frit (dvs. søjlerne uden pivot har frievariable), og z j1 = c 1 h 1,ip z ip p:i p>j 1. z jk = c k h k,ip z ip p:i p>j k Bevis for Lemma 1.2.7 1. Hvis der er pivot i den sidste søjle i [H c], så er rækken med denne pivot på formen [0... 0 1]. Dette svarer til, at en af ligningerne udtrykt ved Hx = c er 0x 1 + + 0x n = 1. Denne ligning har ingen løsning. Side 4 af 51

Lineær algebra Dispositioner - Dispo 1 2013 2. Betragt en matrix H med m rækker på RREF. Denne kan opskrives som et lineært ligningssystem med k ligninger. Hx = c Skriv søjle nr med pivot som j 1 < < j k Skriv søjle nr uden pivot som i 1 < < i m k Indgangene i H skrives som h i,j Der er k antal bundne variable som skrives z 1,..., z k R n Tag den L te række i [H c]. Tag den L te pivot læg den sammen med summen af alle ikke-pivotindgange til højre for, giver det det L te indgang i resultatvektoren. For L = 1,..., k z jl + p:i p>j L h L,ip z ip = c L, og hvis summen flyttes til den anden side af lighedstegnet, så får vi netop ligningerne fra 1.2.7, 2. For L = k + 1,..., m De resterende m k er nulrækker,så de stiller ingen krav. ligninger udtrykt ved Hx = c er De k Derfor giver z 1,..., z n F en løsning til Hx = c hvis og kun hvis z j1,..., z jk tilfredsstiller de angivne betingelser. Def. Mindste kvardrats løsning (5.2.3) Forståelses note (fremlæg som du selv finder passende) Mindste Kvadraters Løsning er det alternativ vi bruger når vi ikke er i stand til at finde en løsning ved brug af RREF metoden vi gennemgik ovenfor, MKL modellen er i stand til at finde det resultat der er tættest på en reel løsning. Def.: Lad A Mat m,n, lad b R m. Skriv r(x) = b Ax for x R n. En vektor ˆx R n, så r(ˆx) er mindst muligt, kaldes en mindste kvadrats løsning til Ax = b. Prop. 5.2.2 Lad A Mat m,n (R), og lad b R m, og skriv p = P Sø(A) (b) projektionen af b på søjlerummet Sø(A) af A. 1. System Ax = p er konsistent. 2. Lad x R n. Så er b Ax b p, med lighed Ax = p. Side 5 af 51

Lineær algebra Dispositioner - Dispo 1 2013 Bevis for 5.2.2 1. p Sø(A), så Ax = p er konsistent ifølge Lemma 2.2.4. (2.2.4: givet en vektor b i søjlerummet for A, så er Ax = b konsistent) 2. Vi kan skrive Sø(A)= {Ax x R n } da så får en linear kombination af søjlerne. Så følger beviser af at Sætning 5.1.22, som fortæller at p er det nærmeste punkt i Sø(A) til b. (5.1.22: p er projektionen af b på S, så er p nærmeste punkt i S til x) Ekstra Konsitens for Ax = b med b i søjlerum - Lemma 2.2.4 Lad A Mat m,n (F); skriv A = [a 1,..., a n ] i søjleform. Betragt ligningssystemet Ax = b, hvor b F m 1 Systemet er konsistent (dvs har en løsning) b Span(a 1,..., a n ) Nærmeste punkt på underrum - Sætning 5.1.22 Lad S være et underrum af R n. nærmeste punkt i S til x. Da er projektionene P S (x) af x på S det Side 6 af 51

Lineær algebra Dispositioner - Dispo 2 2013 2 Vektorrum og underrum Pensum: 2.1, 3.2 Disposition Def.: Vektorrum (2.1.1, med sætninger 2.1.2 tilknyttet) Bevis for 4 egenskaber (2.1.2) Def.: Underrum (2.1.4) Bevis: 2.1.5 (Et underrum af et vektorrum er også et vektorrum) Def.: Span (og linear kombination) 2.2.1 Bevis: Sætning 2.2.3 (span er et underrum) Definitioner Def. Vektorrum (2.1.1) Et F-vektorrum er en mængde af vektorer V der understøtter følgende operatioern: + : V V V : F V V A1: x, y V : x + y = y + x (kommutativ over addition) A2: x, y, z V : (x + y) + z = x + (y + z) (addition er associativ) A3: 0 V : x + 0 = x x V (neutralt element) A4: x V x V : x + ( x) = 0 (additiv invers) S1: α F, x, y V : α(x + y) = αx + αy (distributiv over skalar) S2: α, β F, x V : (α + β)x = αx + βx (distributiv over vektorer) S3: α, β F, x V : (αβ)x = α(βx) (multiplikation er associativ) S4: 1 F : 1 x = x x V (1 F er et neutralt element for skalarmultiplikation) Side 7 af 51

Lineær algebra Dispositioner - Dispo 2 2013 4 egenskaber for vektorrum (Sætning 2.1.2) Lad V være et F-vektorrum 1. 0 er det entydige neutrale element i V 2. 0 x = 0 x V 3. Hvis x, y V er således, at x + y = 0, så er y = x ( x er den entydige additive invers til x). 4. ( 1)x = x x V Det her bevis skrives med, men er ikke planlagt Bevis for sætning 2.1.2 1. Antag, at vi har endnu et neutralt element 0 V så x + 0 = x x V Så er specielt 0 + 0 = 0. Men vi ved også at 0 + 0 A3 = 0, og da addition er kommutativ 0 + 0 A1 = 0 + 0 er 0 = 0 2. Lad x V x S4 = 1x = (1 + 0)x S2 = 1x + 0x = x + 0x 0 A4ogA1 = x + x = x + (x + 0x) A2 = ( x + x) + 0x = 0 + 0x A1ogA3 = 0x 3. Hvis x + y = 0: x A3 = x + 0 = x + (x + y) A2 = ( x + x) + y = 0 + y A1 = y + 0 A3 = y 4. 0 = 0x = (1 + ( 1))x S2 = 1x + ( 1)x S4 = x + ( 1)x og det følger da af 3. at ( 1)x = x (fordi x + ( 1)x = 0 Def. Underrum (2.1.4) Lad S være en delmængde af et F-vektorrum; S kaldes et underrum hvis (Condition 0:) S (Underrummet er ikke tomt) Condition 1: x, y S : x + y S (Rummet er lukket under addition) Condition 2: skalering) x S, α F : αx S (Rummet er lukket under Condition 0 er ikke en del af den officielle definition, men immer væk vigtig og relevant. Side 8 af 51

Lineær algebra Dispositioner - Dispo 2 2013 Et underrum af et vektorrum er også et vektorrum (Prop. 2.1.5) Et underrum S af et F-vektorrum V er selv et F-vektorrum med den inducerede addition og skalarmultiplikation. Bevis for proporsition 2.1.5 Antag at S er et underrum til V. C1 og C2 gælder, og vi kan derfor vælge + : S S S svarende til V V, og : F S svarende til F V. C1 og C2 sikrer så lukkethed i S for addition og multiplikation. Vi ved at alle elementer som er i S kommer fra et vektorrum. Vi skal altså bare vise at for alle egenskaber holder vi os inde for S. Eksistens af nulelement: 0 = 0 s s S, så 0 S. Vi opfylder 2.1.2, 2. Eksistens af additiv invers: s = ( 1)s s S, så s S når s S. Vi opfylder 2.1.2, 4. Resten af aksiomerne følger nu fra de tilsvarende egenskaber for V. Forståelses note (fremlægges ikke) Underrummet vil altid indeholde 0-vektoren, da 0 er defineret i F, underrum siger at de skal være lukket under skalering, og 0-vektoren skal derfor være en del, for at der kan skaleres med 0. Antag for modstrid at vi har et underrum uden 0-vektoren. Da det er et underrum overholder det skalering af 0 fra F. Hvis vi skalerer en vektor fra underrummet giver det 0-vektoren, og vi kommer uden for underrummet, ergo er den ikke lukket under skalering. Ergo skal alle underrum indeholde et 0-vektor. Def. Linearkombination og span (2.2.1) Lad V være et F-vektorrum, og lad v 1,..., v n V. 1. En vektor givet ved α 1 v 1 + + α n v n V, med a 1,..., a n F, er en lineær kombination (eller linearkombination) af v 1,..., v n. 2. Mængden af alle lineære kombinationer af v 1,..., v n kaldes spannet af v 1,..., v n, og skrives Span(v 1,..., v n ). Span er et underrum (2.2.3) Span(v 1,..., v n ) er et underrum af V. Bevis for sætning 2.2.3 Intuitionen er at der blot vises at v 1 +... + v n er et underrum. Regler for vektorrum er givet i Def. 2.1.1 Definition 2.1.4 gælder for underrum, og har følgende conditions: Side 9 af 51

Lineær algebra Dispositioner - Dispo 2 2013 Condition 0: Condition 1: S Spannet indenholder v 1,..., v n altså er det ikke tomt. x, y S : x + y S (α 1 v 1 +... + α n v n ) + (β 1 v 1 +... + β n v n ) = α 1 v 1 + β 1 v 1... + α n v n + β n v n = (α 1 + β 1 )v 1 +... + (α n + β n )v n da α og β F er α + β F Condition 2: x S, α F : αx S β(α 1 v 1 +... + α n v n ) = βα 1 v 1 +... + βα n v n da α og β F er α β F (def. 2.1.1 S3) Side 10 af 51

Lineær algebra Dispositioner - Dispo 3 2013 3 Lineær uafhængighed Pensum: 2.2, 3.1 Disposition Def.: Linear kombination, span (2.2.1), Underrum (2.1.4) Bevis: Et span er et underrum (sætning 2.2.3) Def.: Lineær uafhængighed Bevis: Lin. uafh. Invertibel (sætning 2.2.8) Bevis: sætning 2.2.9, vektor uafhængihed og entydige udtrykt vektor Specificering Def. Linearkombination og span (2.2.1) Lad V være et F-vektorrum, og lad v 1,..., v n V. 1. En vektor givet ved α 1 v 1 + + α n v n V, med a 1,..., a n F, er en lineær kombination (eller linearkombination) af v 1,..., v n. 2. Mængden af alle lineære kombinationer af v 1,..., v n kaldes spannet af v 1,..., v n, og skrives Span(v 1,..., v n ). Def. Underrum (2.1.4) Lad S være en delmængde af et F-vektorrum; S kaldes et underrum hvis (Condition 0:) S (Underrummet er ikke tomt) Condition 1: x, y S : x + y S (Rummet er lukket under addition) Condition 2: skalering) x S, α F : αx S (Rummet er lukket under Condition 0 er ikke en del af den officielle definition, men immer væk vigtig og relevant. Span er et underrum (2.2.3) Span(v 1,..., v n ) er et underrum af V. Bevis for sætning 2.2.3 Intuitionen er at der blot vises at v 1 +... + v n er et underrum. Regler for vektorrum er givet i Def. 2.1.1 Definition 2.1.4 gælder for underrum, og har følgende conditions: Side 11 af 51

Lineær algebra Dispositioner - Dispo 3 2013 Condition 0: Condition 1: S Spannet indenholder v 1,..., v n altså er det ikke tomt. x, y S : x + y S (α 1 v 1 +... + α n v n ) + (β 1 v 1 +... + β n v n ) = α 1 v 1 + β 1 v 1... + α n v n + β n v n = (α 1 + β 1 )v 1 +... + (α n + β n )v n da α og β F er α + β F Condition 2: x S, α F : αx S β(α 1 v 1 +... + α n v n ) = βα 1 v 1 +... + βα n v n da α og β F er α β F (def. 2.1.1 S3) Def.: Lineær uafhængighed 2.2.6 Lad V være et F-vektorrum, og lad v 1,..., v n V. En lineær relation blandt v 1,..., v n er en identitet c 1 v 1 + + c n v n = 0 med c 1,..., c n F. Det er altså en måde at skrive 0-vektoren som lineær kombination af v 1,..., v n. Den oplagte måde at gøre dette på, er ved at sætte alle c i er til 0 så man får 0v 1 + + 0v n = 0 hvilket kaldes den trivielle lineære relation. v 1,..., v n er lineært afhængige, hvis der findes en ikke-triviel lineær relation blandt dem, dvs. hvis der findes et c i 0, så c 1 v 1 + + c n v n = 0. Dette betyder også, at et af v i erne kan skrives som en linear kombination af de andre vektorer. I modsat fald er v 1,..., v n lineært uafhængige. Dette formuleres således: v 1,..., v n er lineært uafhængige (c 1 v 1 + + c n v n = 0 c 1 = 0,..., c n = 0). Lineær uafhængig invertibel (Sætning 2.2.8) Lad x 1,..., x n F n, og skriv X = [x 1,..., x n ] (søjleform). x 1,..., x n er lineært uafhængige Xer invertibel. Side 12 af 51

Lineær algebra Dispositioner - Dispo 3 2013 Bevis for sætning 2.2.8 Ligningen c 1 x 1,..., c n x n = 0 kan omskrives til Xc = 0, hvor c = 1 c.. c n Ifølge Sætning 1.4.8 har denne ligning kun løsningen 0 hviss X er invertibel. v entydig v 1 v n lin. uafhængige (Sætning 2.2.9) Lad V være et F-vektorrum, lad v 1,..., v n V, og lad S = Span(v 1,..., v n ). Et element v S kan udtrykkes entydigt som lin. komb. af v 1,..., v n v 1,..., v n er lineært uafhængige. Bevis for sætning 2.2.9 Beskriver noget med entydighed og lineær afhængighed. Vi har givet at V som er et F-vektorrum Vektorer v 1,..., v n V og S = Span(v 1,..., v n ) : Antag at vi kan skrive V på to forskellige måder: Da de to er ens kan vi opskrive 0 som v = α 1 v 1 + + α n v n, α 1, α n F v = β 1 v 1 + + β n v n, β 1, β n F 0 = v v = (α 1 v 1 + + α n v n ) (β 1 v 1 + + β n v n ) = α 1 v 1 β 1 v 1 + + α n v n β n v n = (α 1 β 1 )v 1 + + (α n β n )v n = 0 Da de er lineær uafhængige er den eneste løsning på denne ligning hvis skalarene er 0, altså giver det os at alle α β = 0 α = β. Det giver altså at opskrivningen er entydig (da vi prøvede at skrive en vektor op på to måder, men fejlede) Side 13 af 51

Lineær algebra Dispositioner - Dispo 3 2013 : Vi har at et element er entydigt bestemt. Antag for kontraponering at v 1,..., v n ikke er lineær uafhængige. Dvs at der findes c 1,..., c n F hvor ikke alle er 0, som opfylder ligningen β 1 v 1 + + β n v n = 0 Vi kan skrive en vektor v V op som en linearkombination: (α 1 v 1 + + α n v n ) = v = v + 0 = (α 1 v 1 + + α n v n ) + (β 1 v 1 + + β n v n ) = α 1 v 1 + β 1 v 1 + + α n v 1 + β 1 v 1 = (α 1 + β 1 )v 1 + + (α n + β n )v n Da mindst ét af c erne ikke er nul, betyder det at vi kan skrive v op på mindst to forskellige måder. Det betyder at opskrivningen ikke er entydig, hvilket er en modstrid. Vores antagelse altså forkert, og de må altså være det modsatte, nemlig linær uafhængige. Ekstra Sætning 1.4.8 Lad A Mat m,n (F). Følgende er ækvavilente (a) A er ikke-singulær, dvs. invertibel (b) Ligningen Ax = 0 har kun løsningen 0. (c) A er række-ækvavilent til I Konsitens for Ax = b med b i søjlerum - Lemma 2.2.4 Lad A Mat m,n (F); skriv A = [a 1,..., a n ] i søjleform. Betragt ligningssystemet Ax = b, hvor b F m 1 Systemet er konsistent (dvs har en løsning) b Span(a 1,..., a n ) Side 14 af 51

Lineær algebra Dispositioner - Dispo 4 2013 4 Basis for vekturrum; koordinatisering Pensum: 3.1, 3.3 Disposition Definition af basis (2.2.11) Dimension af vektorrum (3.1.1) Vis at span og vektorrummet for dim = n er ækvivalente (3.1.4) + bevis Intro til koordinatisering (3.3.1) 3 egenskaber for koordinatisering - Prop. 3.3.7 + bevis Specificering Def. Basis af V (2.2.11) Lad V være et F-vektorrum, og lad v 1,..., v n V. {v 1,..., v n } er da en basis for V, hvis følgende betingelser er opfyldt: 1. v 1,..., v n er uafhængige 2. v 1,..., v n udspænder V. Def.: 3.1.1 (Noget med størrelsen af vektorrum) Lad V være et F-vektorrum. 1. Hvis V = {0}, så har V dimension 0. 2. Hvis V har en basis bestående af n vektorer, så har V dimension n. 3. Hvis V ikke har en endelig basis, så har den uendelig dimension Bemærkning: Det er nok mest vigtigt at man skriver 2 eren op, da de andre sjældent bliver brugt, så de kan bare nævnes. Sætning 3.1.4 Lad V være et F-vektorrum af dimension n > 0. 1. Enhver mængde bestående af n uafhængige vektorer fra V udspænder V (og er derfor en basis). 2. Enhver mængde af n vektorer, som udspænder V, består af uafhængige vektorer (og derfor en basis). Side 15 af 51

Lineær algebra Dispositioner - Dispo 4 2013 Bevis for sætning 3.1.4 Del 1 Antag at v 1,..., v n V er uafhængige. Lad v V. V har en basis med n elementer, der udspænder V. Sætning 2.2.15 fortæller at de n + 1 vektorer v, v 1,..., v n, er afhængige. Der findes altså c, c 1,..., c n F ikke alle 0, så cv + c 1 v 1 +... + c n v n = 0 c 0 må gælde, da vi ved at v 1,..., v n er uafhængige Følgende kan herefter udledes: så cv = ( c 1 )v 1 +... + ( c n )v n v = ( c 1 c 1 )v 1 +... + ( c n c 1 )v n Span(v 1,..., v n ) v kan udtrykkes ved en linearkombination v 1,..., v n, hvilket gør denne til et span(). Da v V er abritrært valgt, er V = Span(v 1,..., v n ). Del 2 lad v 1,..., v n udspænde V. Antag for modstrid at de er afhængige. Da de er afhængige kan vi skrive en vektor som en linearkombination af de andre linear kombination af de andre: v n = c 1 v 1 +... + c n 1 v n 1 I så fald vil V = Span(c 1 v 1 +... + c n 1 v n 1 ). Lad u 1,..., u n være basis for V. Pr. def baser at denne uafhængig. Altså er både u 1,..., u n og v 1,..., v n 1 er uafhængige. jvf. 2.2.15 MODSTRID! Vores antagelse om at vektorene er afhængige er altså forkert, og de må altså være uafhængige. Def: koordinatvektor (3.3.1) Lad V = {v 1,..., v n } være en ordnet basis for V. Lad en vektor v V. v kan skrives entydigt som linear kombination af v 1,..., v n som følger: Der er således een entydig vektor v = c 1 v 1 + + c n v n mht. V (entydig, da basen var ordnet). Det kaldes koordinatvektoren for v mht. V, og vi skriver 1.. c F n, som angiver koordinaterne for v c n Side 16 af 51

Lineær algebra Dispositioner - Dispo 4 2013 [v] V = 1 c. c n (Hvor v er vektoren der er bestemt af koordinaterne og V er den ordnede basis der bestemmer den ud fra koordinaterne) Vi kan altså skrive vektoren v som koordinaterne gange med den ordnede basis: v = [v] V V = 1 c. {v 1,..., v n } c n Prop. 3.3.7 Lad U = {u 1,..., u n }, V = {v 1,..., v n } være ordnede baser for et F vektorrum W. Lad K Mat n,n (F) være givet i søjleform som Der gælder: [[u 1 ] V,..., [u n ] V ]. 1. K er invertibel 2. For alle w W, [w] V = K[w] U. 3. K er den entydige matrix i Mat n,n (F) således at (2) gælder. Bevis for 3.3.7 x 1 1. Antag, at K. x n = 0, (altså på formen Ax = 0, for at kunne bruge sætning 1.4.8). Det kan omskrives til følgende (idet koordinatiseringen bevarer lineær struktur, jf. Lemma 3.3.2): 0 = x 1 [u 1 ] V + + x n [u n ] V = [x 1 u 1 + + x n u n ] V Opstil u erne som lineær komb. x 1 u 1 + + x n u n = 0, da de er lineært uafh. (basis) er x 1 = = x n = 0 (for at det skal gælde at liningssystemet er 0). Ligningssystemet Kx = 0 har derfor 0 som eneste løsning og jf. Sætning 1.4.8 er K invertibel. Side 17 af 51

Lineær algebra Dispositioner - Dispo 4 2013 2. Vi kan skrive u vektorene ved, for i = 1,..., n, at tage den i te søjle vektor i K ( k 1i. k ni = [u i ] V ) og gange V-basen på. u i = k 1i v 1 + + k ni v n Vi kan opskrive w W i U-basen ved w = c 1 u 1 + + c n u n, så [w] U = 1 c.. c n Vi kan da udskifte u i, så w bliver udtrykt i V-basen w = c 1 (k 11 v 1 + + k n1 v n ) + + c n (k 1n v 1 + + k nn v n ) = (c 1 k 11 + + c n k 1n )v 1 + + (c 1 k n1 + + c n k nn )v n Tag nu koordinaterne for w i V-basen k 11 c 1 + + k 1n c n [w] V =. = K k n1 c 1 + + k nn c n c 1. c n = K[w] U så ses at det kan udtrykkes ved K og koordinaterne i U-basen. 3. Antag, at der også findes en anden matrix K så [w] V = K [w] U w F n Så gælder dette specielt for u i, i = 1,..., n, så {den i te søjle i K} = [u i ] V (pr antagelse) = K [u i ] U (se nedenfor) = K e i = {den i te søjle i K } Da at finde koordinaterne til u i i basen for U er at sætte c i til 1 og resten til nul i u i = c 1 u 1 + + c i u i + + c n u n ved c-vektoren er udtrykt ved e i, som er vektoren med i te indgang sat til 1, og resten til 0. Da detter gælder for alle i så har K og K har de samme søjler; de er ens. Side 18 af 51

Lineær algebra Dispositioner - Dispo 4 2013 Ekstra Sætning 1.4.8 Lad A Mat m,n (F). Følgende er ækvavilente (a) A er ikke-singulær, dvs. invertibel (b) Ligningen Ax = 0 har kun løsningen 0. (c) A er række-ækvavilent til I Def. Linearkombination og span (2.2.1) Lad V være et F-vektorrum, og lad v 1,..., v n V. 1. En vektor givet ved α 1 v 1 + + α n v n V, med a 1,..., a n F, er en lineær kombination (eller linearkombination) af v 1,..., v n. 2. Mængden af alle lineære kombinationer af v 1,..., v n kaldes spannet af v 1,..., v n, og skrives Span(v 1,..., v n ). Def.: Lineær uafhængighed 2.2.6 Lad V være et F-vektorrum, og lad v 1,..., v n V. En lineær relation blandt v 1,..., v n er en identitet c 1 v 1 + + c n v n = 0 med c 1,..., c n F. Det er altså en måde at skrive 0-vektoren som lineær kombination af v 1,..., v n. Den oplagte måde at gøre dette på, er ved at sætte alle c i er til 0 så man får 0v 1 + + 0v n = 0 hvilket kaldes den trivielle lineære relation. v 1,..., v n er lineært afhængige, hvis der findes en ikke-triviel lineær relation blandt dem, dvs. hvis der findes et c i 0, så c 1 v 1 + + c n v n = 0. Dette betyder også, at et af v i erne kan skrives som en linear kombination af de andre vektorer. I modsat fald er v 1,..., v n lineært uafhængige. Dette formuleres således: v 1,..., v n er lineært uafhængige (c 1 v 1 + + c n v n = 0 c 1 = 0,..., c n = 0). Side 19 af 51

Lineær algebra Dispositioner - Dispo 5 2013 5 Matricer og lineære transformationer Pensum: 4.1, 4.2, 4.3 Disposition Lineær transformation (Def. 4.1.1) og den inv. trans. Lineær transformation lukket under underrum (Sætn. 4.1.7) + bevis Transformation er invertibel inverse er lineær (Prop. 4.3.5) + bevis evt. Matrix Repræsentation for lineær transformation (Nota. 4.2.5) Specificering Def 4.1.1 Lad V,W være et F-vektorrum. En lineær transformation L : V W er en afbildning, som respekterer lineær struktur., dvs: v 1, v 2 V, L(v 1 + v 2 ) = L(v 1 ) + L(v 2 ) α F, v V, L(αv) = αl(v). Definition af invertibel transformation (s.75 i forl. noter) En afbildning (f.eks. lineær transformation) er invertibel hvis der findes en modsat (invers) afbildning følgende gælder for f : X Y og g : Y X, hvor g er den inverse afbildning til f: g f = I X hvilket betyder g(f(x)) = x, x X og f g = I Y Notationen der bruges er som følger: og følgende gælder hvilket betyder f(g(y)) = y, y Y Den inverse til L = L 1 L(L 1 (x)) = x Det inverse billede kaldes ligeledes urbilledet. Sætn. 4.1.7 - Underrum er lukket over lin. trans. Lad V, W være F-vektorrum, lad L : V W være en lineær transformation. i) Lad S V være et underrum. Da er L(S) et underrum af W. ii) Lad T W være et underrum. Da er L 1 (T ) et underrum af V. Side 20 af 51

Lineær algebra Dispositioner - Dispo 5 2013 Bevis for 4.1.7 Vi anvender Lemma 4.1.2: S er et underrum α 1, α 2 F, s 1, s 2 S : α 1 s 1 + α 2 s 2 S (Hvis S er et underrum, så kan vektorerne i S skaleres og adderes, og omvendt) i) Idet 0 W = L(0 V ) er L(S). Lad w 1, w 2 L(S), α 1, α 2 F. Der findes s 1, s 2 S med L(s 1 ) = w 1, L(s 2 ) = w 2. Vi har α 1 s 1 + α 2 s 2 S (Lemma 4.1.2), så α 1 w 1 + α 2 w 2 = α 1 L(s 1 ) + α 2 L(s 2 ) = L(α 1 s 1 + α 2 s 2 ) L(S) ii) Idet 0 V L 1 (T ) er L 1 (T ). Lad v 1, v 2 L 1 (T ), α 1, α 2 F. Vi har L(α 1 v 1 + α 2 v 2 ) = α 1 L(v 1 ) + α 2 L(v 2 ) Da er så L(v 1 ), L(v 2 ) T α 1 L(v 1 ) + α 2 L(v 2 ) T α 1 v 1 + α 2 v 2 L 1 (T ) Prop. 4.3.5 Lad L : V W være en lineær transformation og antag, at L er invertibel. Så er L 1 lineær. Bevis for prop. 4.3.5 Lad α 1, α 2 F, w 1, w 2 W. Så er L 1 (α 1 w 1 + α 2 w 2 ) =L 1 (α 1 L(L 1 (w 1 )) + α 2 L(L 1 (w 2 )) (fordi L L 1 = I W ) =L 1 (L(α 1 L 1 (w 1 )) + L(α 2 L 1 (w 2 ))) =L 1 (L(α 1 L 1 (w 1 ) + α 2 L 1 (w 2 ))) (fordi L er lineær) =α 1 L 1 (w 1 ) + α 2 L 1 (w 2 ) (fordi L 1 L = I V ). Side 21 af 51

Lineær algebra Dispositioner - Dispo 5 2013 Nota. 4.2.5: Matrixrepresentation af lineær transformation M W,V (L) kaldes matrixrepræsentationen (MR) for L mht. W, V. Ekstra Def. Underrum (2.1.4) Lad S være en delmængde af et F-vektorrum; S kaldes et underrum hvis (Condition 0:) S (Underrummet er ikke tomt) Condition 1: x, y S : x + y S (Rummet er lukket under addition) Condition 2: skalering) x S, α F : αx S (Rummet er lukket under Condition 0 er ikke en del af den officielle definition, men immer væk vigtig og relevant. Side 22 af 51

Lineær algebra Dispositioner - Dispo 6 2013 6 Determinanter Pensum: 8.1, 8.2 Disposition 1 Minor af en matrix (Def. 8.1.1) 2 Definitionen af determinanten (Def 8.1.2) 3 Bevis. 8.1.15 A er singulær det(a) = 0 eller 6 Cramers regel + bevis En minor af en matrix. (Def. 8.1.1) Lad A Mat n,n (F) være en n n-matrix, n 2. Den (i, j) te minor M(A) ij af A er (n 1) (n 1)-matricen dannet ved at sløjfe (fjerne) i te række og j te søjle af A. Determinanten af en matrix. (Def. 8.1.2) Determinanten af en 1 1-matrix er dens eneste indgang. Lad nu n > 1, og antag, at determinanten er dfineret for (n 1) (n 1)- matricer. Lad A = [a ij ] være en n n-matrix. 1. For 1 i, j n er den (i, j) te cofaktor A ij af A givet som 2. Determinanten er A er givet som A ij = ( 1) i+j det(m(a) ij ) det(a) = a 11 A 11 + + a 1n A 1n vi siger, at determinanten udvikles efter matricens første række. Sætning 8.1.15 A Mat n,n (F) er singulær det(a) = 0 Bevis for 8.1.15 A kan reduceres til RREF H efter endelig mange rækkeoperationer, så A = E K E k 1 E 1 H Side 23 af 51

Lineær algebra Dispositioner - Dispo 6 2013 hvor E i erne er elementærmatricer. Så det(a) = det(e k (E k 1 E 1 H)). = det(e k )det(e k 1 E 1 H) = det(e k )det(e k 1 ) det(e 1 )det(h) hvor vi bruger 8.1.13 k gange. Hvis A er singulær, har H en nulrække, og det(h) = 0, så det(a) = 0. Hvis A er invertibel, er H = I og det(h) = 1, så det(a) 0. Note for H er singulær H har en 0-række: H er kvadratisk. Hvis vi antager at H er invertibel, er det tilfældet at antal pivoter i REF (H) = n, da H I (1.4.8). H er ikke-invertibel (altså singulær). Der kan ikke være flere pivoter end n, ergo må der være færre. Er der færre pivoter end n, er der en 0-række (Da vi ikke kan få dobbelttrin ). Sætning 8.1.16 Hvis A, B Mat n,n (F), så er det(ab) = det(a)det(b) Korollar 8.2.9 (Cramers regel) Lad A Mat n,n (F) være invertibel, og lad b F n. Lad A i være matricen, der fås ved at erstatte den i te søjle i A ved b. Den entydige løsning ˆx til systemet Ax = b er givet ved ˆx i = det(a i) det(a), i = 1,..., n Bevis for 8.2.9 (Cramers regel) A 1 b er den entydige løsning til Ax = b (jf. Korollar 1.4.9, fordi A er invertibel). Så vi har ˆx = A 1 b = 1 adj(a) b (Korollar 8.2.8) det(a) Side 24 af 51

Lineær algebra Dispositioner - Dispo 6 2013 og for i = 1,..., n er Ekstra ˆx i = 1 {i te række i adj(a)} b det(a) = 1 det(a) [A 1i A ni ] b = 1 det(a) (A 1ib 1 + + A ni b n ) = det(a i) det(a) Diverse lemmaer (Da vi udvikler determinanten ud fra den i te søjle i A i ) Man kan udvikle ud fra en hvilken som helst søjle og række (lemma 8.1.3; 6; 8) Hvis man bytter om på to rækker eller søjler skifter det fortegn det(b) = det(a) (8.1.5; 8) For en n n matrix gælder det at det(a T ) = det(a) det(a) = 0 hvis A: har to ens søjler; har to ens rækker; har en nul-række. (8.1.9; 10) Hvis en række bliver skaleret med et r bliver determinanten også skaleret med r (8.1.10;11(2)) Hvis en række el. søjle bliver adderet med et multiplum af en anden række, forbliver determinanten ens (8.1.10;11(3)) Hvis A er triangulær, er det(a) produktet af A s diagonalindgange (8.1.12) Side 25 af 51

Lineær algebra Dispositioner - Dispo 7 2013 7 Egenværdier og egenvektorer Pensum: 9.1 Disposition Definition af egenvektorer og egenrum (Def. 9.1.1) Ækvivalente udtryk (Prop. 9.1.4) + bevis Potensopløftning af diagonaliserbare matricer (9.2.3) Karakterisiske polynomium (Prop 9.1.5) Specificering Def. egenværdier og egenvektorer (9.1.1) For lineære transformationer: Lad v være et F-vektorrum og lad T : V V være en lineær transformation. λ F er en egenværdi for T, hvis der findes v V \{0}, så: T (v) = λv for ovenstående er v en egenvektor for T og λ den tilsvarende egenværdi For matricer: Lad A være en kvadratisk matrice Mat n,n (F). λ F er en egenværdi for A hvis der findes z F n \{0}, så Az = λz for alle z og λ hvor ovenstående gælder, er de henholdsvis egenevektorer og -værdier. Diverse egenskaber (Prop 9.1.4) Lad A Mat n,n (F), λ F. Følgende er ækvivalente: a) λ er en egenværdi for A. b) Ligningssystemet (A λi)x = 0 har en ikke-triviel løsning. c) N(A λi) {0} d) A λi er singulær e) det(a λi) = 0 Side 26 af 51

Lineær algebra Dispositioner - Dispo 7 2013 Bevis for Prop. 9.1.4 a) b): Der findes z F n \{0} så Az = λz, så 0 = Az λz = (A λi)z, og z er en ikke-triviel løsning til (A λi)x = 0 b) c): En ikke-triviel løsning z til (A λi)x = 0 ligger i N(A λi), og er ikke 0. c) a): Lad z N(A λi)\{0}, så 0 = (A λi)z = Az λz og Az = λz. Da z 0 er λ en egenværdi for A. b) d): Sætning 1.4.8 d) e): Sætning 8.1.15 Lemma 9.2.3 Lad A Mat n,n (F) være diagonaliserbar, og lad v 1,..., v n være en basis af F n bestående af egenvektorer for A med tilsvarende egenværdier λ 1,..., λ n. (1) Det gælder at A k (c 1 v 1 + + c n v n ) = c 1 λ k 1v 1 + + c n λ k nv n for alle c 1,..., c n F og k N. (2) Lad V = [v 1,..., v n ]. Der gælder, at for k N A k = V λ k 1... V 1 λ k n Bevis 9.2.3 A k = λ k i I (1) For k N er A k (c 1 v 1 + + c n v n ) = c 1 A k v 1 + + c n A k v n (2) fra def 9.2.3 (1) kan omskrives til, så A k V c 1. c n = V λ k 1... λ k n = c 1 λ k 1v 1 + + c n λ k nv n c 1. c n for alle c 1. c n F n Side 27 af 51

Lineær algebra Dispositioner - Dispo 7 2013 A k V = V λ k 1... λ k n Hvilket medfører (multiplikation med V 1 på begge sider) A k = V λ k 1... V 1 λ k n Polynomium grad n i λ (Prop. 9.1.5 - bevises ikke!!!) Hvis det(a λi) beregnes for et ubestemt λ, så fås et polynimium af grad n i λ, Vi har: p A (λ) = det(a λi) p A (λ) = ( 1) n λ n + ( 1) n 1 tr(a)λ n 1 + + det(a) hvor tr(a) = a 11 +... + a nn er summen af diagonalindgangene i A. λ 0 er rod λ 0 er egenværdi m.m (Prop. 9.1.7) Lad A Mat n,n (F). λ 0 er en rod for p A λ 0 er en egenværdi for A, og hvis λ 0 er en egenværdi for A så er v en tilsvarende egenvektor z N(A λ 0 I)\{0}. Bevis: Fra 9.1.4 (e) har vi at at hvis det(a λi) = 0 for et givent λ, er dette λ en egenværdi. Da p A = det(a λi) skal vi altså finde λ som giver p A = 0. p A er et polynomie, og det handler derfor bare om at vi skal finde rødder for at få det til at give 0. Extra Sætning 1.4.8 Lad A Mat m,n (F). Følgende er ækvavilente (a) A er ikke-singulær, dvs. invertibel (b) Ligningen Ax = 0 har kun løsningen 0. (c) A er række-ækvavilent til I Sætning 8.1.15 A Mat n,n (F) er singulær det(a) = 0 Side 28 af 51

Lineær algebra Dispositioner - Dispo 8 2013 8 Diagonalisering Pensum: 9.2, 11.1 Disposition Def. diagonaliserbar matrix (def. 9.2.1) Potensopløftning (lemma 9.2.3) + bevis Ækvivalens (lemma. 9.2.2) + bevis 1. basis af egenv. 2. n lineært uaf. egenv for A. 3. inv. matrix så V 1 AV er diag. Specificering Diagonaliserbar matrix (def. 9.2.1) Lad A Mat n,n (F). A er diagonaliserbar, hvis der findes en basis V = v 1,..., v n for F n bestående af egenvektorer for A. Lemma 9.2.3 Lad A Mat n,n (F) være diagonaliserbar, og lad v 1,..., v n være en basis af F n bestående af egenvektorer for A med tilsvarende egenværdier λ 1,..., λ n. (1) Det gælder at A k (c 1 v 1 + + c n v n ) = c 1 λ k 1v 1 + + c n λ k nv n for alle c 1,..., c n F og k N. (2) Lad V = [v 1,..., v n ]. Der gælder, at A k = V λ k 1... V 1 λ k n for k N Bevis 9.2.3 A k = λ k i I (1) For k N er A k (c 1 v 1 + + c n v n ) = c 1 A k v 1 + + c n A k v n = c 1 λ k 1v 1 + + c n λ k nv n Side 29 af 51

Lineær algebra Dispositioner - Dispo 8 2013 (2) fra def 9.2.3 (1) kan omskrives til, så A k V c 1. c n = V λ k 1 A k V = V... λ k n λ k 1 c 1. c n for alle... λ k n c 1. c n Hvilket medfører (multiplikation med V 1 på begge sider) Lemma 9.2.2 A k = V Lad A Mat n,n (F). følgende er ækvivalente: λ k 1... V 1 λ k n 1. Der findes en basis for F n bestående af egenvektorer for A. 2. Der findes n lineært uafhængige egenvektorer for A. F n 3. Der findes en invertibel matrix V Mat n,n (F) så V 1 AV er en diagonal matrix. Bevis 9.2.2 1 2 Er givet ved Def 3.1.1 som bl.a siger: hvis V = 0, så har V dimension 0. OG hvis V har en basis bestående af N vektorer, så har V dimension n. 2 1 Er givet ved sætn. 3.1.4 som siger: Enhver mængde af n vektorer, som udspænder V består af uafhængige vektorer. 2 3 Lad v 1,..., v n være lineært uafhængige egenvektorer for A; lad λ 1,..., λ n. være de tilsvarende egenværdier. skriv V = [v 1,..., v n ] i søjleform. Vi har AV = A[v 1,..., v n ] = [Av 1,..., Av n ] λ 1 0 = [λ 1 v 1,..., λ n v n ] = [v 1,..., v n ]... = V D 0 λ n Side 30 af 51

Lineær algebra Dispositioner - Dispo 8 2013 hvor λ 1 0 D =... 0 λ n er diagonal. Da V har uafhængige søjler er den invertibel (Sætning 2.2.8). Vi har derfor V 1 AV = V 1 V D = D. 3 2 Antag, at der findes en invertibel X = Mat n,n (F) så X 1 AX = D, hvor D er diagonal, λ 1 0 D =... 0 λ n Skriv X = [x 1,..., x n ] i søjleform. Da X er invertibel, er x 1,..., x n uafhængige (Sætning 2.2.8). Vi har AX = X(X 1 AX) = XD, dvs. [Ax 1,..., Ax n ] = [λ 1 x 1,..., λ n x n ]. Men så er Ax i = λ i x i for i = 1,..., n; x 1,..., x n er n uafhængige egenvektorer for A. Ekstra Def.: 3.1.1 (Noget med størrelsen af vektorrum) Lad V være et F-vektorrum. 1. Hvis V = {0}, så har V dimension 0. 2. Hvis V har en basis bestående af n vektorer, så har V dimension n. 3. Hvis V ikke har en endelig basis, så har den uendelig dimension Bemærkning: Det er nok mest vigtigt at man skriver 2 eren op, da de andre sjældent bliver brugt, så de kan bare nævnes. Sætning 3.1.4 Lad V være et F-vektorrum af dimension n > 0. 1. Enhver mængde bestående af n uafhængige vektorer fra V udspænder V (og er derfor en basis). 2. Enhver mængde af n vektorer, som udspænder V, består af uafhængige vektorer (og derfor en basis). Lineær uafhængig invertibel (Sætning 2.2.8) Lad x 1,..., x n F n, og skriv X = [x 1,..., x n ] (søjleform). x 1,..., x n er lineært uafhængige Xer invertibel. Side 31 af 51

Lineær algebra Dispositioner - Dispo 9 2013 9 Indre produkt Pensum: 6.1, 6.2, 6.3 Disposition Def. indre product (6.2.1) Ortogonalitet (def. 6.2.3) Skalar- og vektorprojektion (def. 6.2.5) Lemma 6.2.6 + bevis u p og v er ortogonale. u = p u er multiplum af v. Cauchy-schwarz - Sætning 6.2.7 + bevis Specificering Komplekse Indre produkt (def. 6.2.1) Læg mærke til at dette gælder for komplekse tal. Tænk selv hvis der bliver spurgt ind til Reelle indre produkter ;-) Et indre produkt er en funktion, : V V C, hvorom følgende gælder: 1.1) x, x 0 x, x R 1.2) x, x = 0 x = 0 2) x, y = y, x (kommutativ) 3) αx + βy, z = α x, z + β y, z Længden (norm) af et indre produkt er som følger v = v, v for v V Fra 1.2 kan det udledes at v = 0 v = 0 Def.: Ortogonalitet (6.2.3) Lad V være et C-vektorrum med indre produkt,. u, v V er ortogonale hvis u, v = 0. Side 32 af 51

Lineær algebra Dispositioner - Dispo 9 2013 Def.: 6.2.5 Lad V være et C-vektorrum med indre produkt,. Hvis u, v V, v 0, så er skalarprojektionen af u på v tallet mens vektorprojektionen er p = α α = u, v v ( ) 1 v v u, v = v, v v Lemma 6.2.6 Lad V være et komplekts vektorrum med indre produkt,, lad u, v V med v 0, og lad p være vektorprojektionen af u på v. 1. u p, v er ortogonale. 2. u = p u er et skalarmultiplum af v Bevis for Lemma 6.2.6 1. Iflg 6.2.3 et to vektorer ortogonale u, v = 0 u, v u, v u p, v = u, v p, v = u, v v, v = u, v v, v = 0 v, v v, v 2. Hvis u = βv, så er p = u, v v, v v = βv, v v, v v = β v, v v, v v, v v = βv = βv = u. v, v Hvis u = p så er ( ) 1 u = p = α v v = α v v. Da α v er en skalar (længden er en skalar) har vi nu et skalarmultiplum. Cauchy-schwarz-uligheden (6.2.7) Lad V være et C-vektorrum med indre produkt,. Lad u, v V. Der gælder: u, v u v. Ligheden gælder u, v er lineært afhængige. Side 33 af 51

Lineær algebra Dispositioner - Dispo 9 2013 Cauchy-schwarts uligheden (Bevis 6.2.7) For v = 0: Har vi lighed da: u, v = 0 = u v For v 0: u, v Lad p = v (vektorprojektionen u på v). p og u p er ifølge 6.2.6 (1) v, v ortogonale, så følgende gælder: p 2 + u p 2 = u 2 Vi udtrykker p 2 på to måder, den første isolere vi fra oven: p 2 + u p 2 = u 2 p 2 = u 2 u p 2 Den næste er ( ) p 2 6.2.5 1 = α v v 2 = α 2 v v 2 = α 2 1 2 så pr. 6.2.5 u, v 2 v 2 = u 2 u p 2 så vi ganger over og får (før nævneren på højresiden) u, v 2 = ( u 2 u p 2 ) v 2 u 2 v 2 ved p = u gælder der lighed: da p = u u p 2 = 0. Det betyder at ( u 2 u p 2 ) v 2 = ( u 2 0) v 2 = u 2 v 2 ved p u gælder der ulighed: da p u u p 2 0. Det betyder at ( u 2 u p 2 ) v 2 = ( u 2 ) v 2 = u 2 v 2 Vi har derfor u, v u v. Det følger af 6.2.6 (2), at ligheden i Cauchy-Schwarz-uligheden gælder hviss v = 0, eller u er et skalarprodukt af v, altså hviss u, v er lineært afhængige. Note på (*): p = α( 1 αv v v) = v = α v v = α 1 = α Side 34 af 51

Lineær algebra Dispositioner - Dispo 10 2013 10 Ortogonalt komplement og projektion Pensum: 5.1, 5.2.10, 6.4.12-6.4.17, 7.2.5-7.2.6 Disposition Definition Det ortogonale komplement (6.4.12) S er et underrum af V (6.4.13) + bevis Ortogonalprojektion 6.4.15 Ortogonalprojektionen er i S (6.4.14) + bevis Det ortogonale komplement (6.4.12) Lav V være et indre produkt rum (et vektorrum med et indreprodukt) med indre produkt,, og lad S være et underrum af V. Det ortogonale komplement til S i V er: S = {v V v, s = 0 s S} Det ortogonale kompliment er et underrum (6.4.13) S er et underrum af V. S er ikke tom, da 0 er ortogonal på sig selv. Det ortogonale kompliment er et underrum (6.4.13) bevis Lad v, u S, α, β K. s S gælder: αu + βv, s = α u, s + β v, s = 0 Ovenstående er sandt, da v, s = 0 og u, s = 0 jvf. definitionen af ortogonalitet. C1 er opfyldt da ligningen holder for alle α og β C2 er opfyldt da ligningen holder for alle u og v Notation 6.4.15 Lad S være et underrum af det indre-produkt,, lad {s 1,..., s k } være en ortonormalbasis for S, og lad v V p = k i=1 v, s i s i kaldes (ortogonal)projektionen af v på S. Side 35 af 51

Lineær algebra Dispositioner - Dispo 10 2013 Ortogonal projektion af v på S (6.4.14) Lad S være et underrum af det indre-produkt rum V med indre produkt. Lad {s 1,..., s k } være en ortonormalbasis for S og lad v V, p S. der gælder, at: k p v S p = v, s i s i. i=1 Ortogonal projektion af v på S (Bevis for 6.4.14) Da p S, vi kan skrive p = c 1 s 1 + + c k s k med c 1,..., c n K. Faktisk har vi, ifølge Sætning 6.4.8, at c i = p, s i for i = 1,..., k. Så p = k c i s i = i=1 k p, s i s i i=1 p v S s, p v = 0 for alle s S a 1 s k +... + a k s k, p v = 0 for alle a 1,..., a k K α 1 s 1, p v +... + α k s k, p v = 0 for alle a 1,..., a k K s i, p v = 0 for i = 1,..., k s i, p = s i, v for i = 1,..., k p, s i = v, s i for i = 1,..., k k p = v, s i s i i=1 (sidste til andensidste linje: p = k i=1 p, s i s i Vi ved at p, s i = v, s i, derefter udskiftes der blot) Ekstra definitioner Def. ortogonal mængde (6.4.2) Lad V være et indre produktrum. Lad v 1,..., v n V \{0}. Hvis v i, v j = 0 for i j er {v 1,..., v n } en ortogonal mængde. Sætning 6.4.8 Lad {u 1,..., u n } være en ortonormal mængde. Hvis v = c 1 u 1 +... + c n u n, så er c i = v, u i. Da: n n v, u i = c j u j, u i = c j u j, u i = c i j=1 j=1 Side 36 af 51

Lineær algebra Dispositioner - Dispo 10 2013 i og med at c i u i, u i = c i 1 c i u j, u i = c i 0 for i j Def. Underrum (2.1.4) Lad S være en delmængde af et F-vektorrum; S kaldes et underrum hvis (Condition 0:) S (Underrummet er ikke tomt) Condition 1: x, y S : x + y S (Rummet er lukket under addition) Condition 2: skalering) x S, α F : αx S (Rummet er lukket under Condition 0 er ikke en del af den officielle definition, men immer væk vigtig og relevant. Komplekse Indre produkt (def. 6.2.1) Læg mærke til at dette gælder for komplekse tal. Tænk selv hvis der bliver spurgt ind til Reelle indre produkter ;-) Et indre produkt er en funktion, : V V C, hvorom følgende gælder: 1.1) x, x 0 x, x R 1.2) x, x = 0 x = 0 2) x, y = y, x (kommutativ) 3) αx + βy, z = α x, z + β y, z Længden (norm) af et indre produkt er som følger v = v, v for v V Fra 1.2 kan det udledes at v = 0 v = 0 Side 37 af 51

Lineær algebra Dispositioner - Dispo 11 2013 11 Ortogonale og ortonormale baser Pensum: 7.2, 6.4 Disposition Def af ortogonale og ortonormale mængder (6.4.2 og 6.4.4) Def af ortonormalbasis (6.4.7) Gram-Schmidt (7.2.1) (konstruering af ortonormal basis fra vilkårlig basis) + bevis Udvidelse af ortonormal mængde til ortonormal basis. (7.2.4) + bevis Specificering Def. ortogonal mængde (6.4.2) Lad V være et indre produktrum. Lad v 1,..., v n V \{0}. Hvis v i, v j = 0 for i j er {v 1,..., v n } en ortogonal mængde. Def. ortonormal mængde (6.4.4) En ortonormal mængde er en ortogonal mængde af enhedsvektorer (dvs. vektorer af længde 1). Så {u 1,..., u n } er ortonormal u i, u j = δ ij, hvor { 1 i = j δ ij = 0 i j (det såkaldte Kronecker-delta ). En ortonormal mængde kan altid nemt findes ud fra en ortogonal mængde: hvis {v 1,..., v n } er ortogonal, så er { 1 v v 1 1 1,..., v v n n} ortonormal. Def. ortonormal basis (6.4.7) Lad U = {u 1,..., u n } være en ortonormal mængde i et indre produktrum, og lad S = Span{u 1,..., u n }. Så er U en basis for S, en ortonormal basis. Sætn.: Gram-Schmidt (7.2.1) Vi ser her hvordan man kan konstruere en ortonormal basis ud fra en vilkårlig basis. Lad V være et indre-produkt rum; skriv, for indre-produkt. Lad {x 1,..., x n } være en basis for V. Definer u 1 = 1 x 1 x 1, Side 38 af 51

Lineær algebra Dispositioner - Dispo 11 2013 og definer u 2,..., u n rekursivt ved hvor u k+1 = 1 x k+1 p k (x k+1 p k ) p k = x k+1, u 1 u 1 + + x k+1, u k u k den ortogonale projektion af x k+1 på Span(u 1,..., u k ). Da er {u 1,..., u n } en ortonormal basis for Span(x 1,..., x k ), for k = 1,..., n; specielt er {u 1,..., u n } en ortonormal basis for V. Bevis af Gram-Schmidt (7.2.1) - Bevis Skriv S k = Span(x 1,..., x k ) for k = 1,..., n. Det er klart, at Span(u 1 ) = Span(x 1 ) = S 1, og at {u 1 } er en ortonormal basis for S 1. Antag induktivt, at u 1,..., u k, k < n, er konstruerede, og at {u 1,..., u k } er en ortonormal basis for S k. Lad p k være projektionen af x k+1 på S k, så (Sætning 6.4.14) p k = x k+1, u 1 u 1 + + x k+1, u k u k. Da p k S k kan p k skrives som lineær kombination af x 1,..., x n : og p k = c 1 x 1 + + c k x k, x k+1 p k = x k+1 c 1 x 1 c k x k (1) Da x 1,..., x k+1 er uafhængige, er x k+1 p k 0 (fordi højresiden af (1) er en ikke-triviel lineær kombination af x 1,....x k+1 ). Bemærk også, at x k+1 p k Span(x 1,..., x k+1 ) = S k+1 Ifølge Sætning 6.4.14 er x k+1 p k Sk, så x k+1 p k u i for i = 1,..., k. 1 Lad nu u k+1 = x k+1 p k (x k+1 p k ). Så er {u 1,..., u k+1 } ortonormal og indeholdt i S k+1. Da u 1,..., u k+1 er k+1 uafhængige elementer i rummet S k+1 af dimension k+1 udgør de en basis; og {u 1,..., u k+1 } er en ortogonal basis for S k+1. Induktionsskridtet er taget, og resultatet dermed bevist. Udvidelse af ortonormal mængde til ortonormal basis. (7.2.4) Enhver ortonormal mængde i et indre produktrum kan udvides til en ortonormal basis. Udvidelse af ortonormal mængde. (Bevis for 7.2.4) Lad dimv = n. Antag, at {u 1,..., u k } V er ortonormal. {u 1,..., u k } kan udvides til en basis {u 1,..., u k, v 1,..., v n k } af V ; når Gram-Schmidtprocessen anvendes på denne basis fås en basis {u 1,..., u k, u k+1,..., u n } som udvider {u 1,..., u k }. Side 39 af 51

Lineær algebra Dispositioner - Dispo 11 2013 Ekstra Komplekse Indre produkt (def. 6.2.1) Læg mærke til at dette gælder for komplekse tal. Tænk selv hvis der bliver spurgt ind til Reelle indre produkter ;-) Et indre produkt er en funktion, : V V C, hvorom følgende gælder: 1.1) x, x 0 x, x R 1.2) x, x = 0 x = 0 2) x, y = y, x (kommutativ) 3) αx + βy, z = α x, z + β y, z Længden (norm) af et indre produkt er som følger v = v, v for v V Fra 1.2 kan det udledes at v = 0 v = 0 Ortogonal projektion af v på S (6.4.14) Lad S være et underrum af det indre-produkt rum V med indre produkt. Lad {s 1,..., s k } være en ortonormalbasis for S og lad v V, p S. der gælder, at: k p v S p = v, s i s i. i=1 Side 40 af 51

Lineær algebra Dispositioner - Dispo 12 2013 12 Ortogonale og unitære matricer Pensum: 6.4.19-6.4.23, 11.1 Disposition Def af ortogonal matrix (6.4.19) Diverse egenskaber + bevis (6.4.21) Evt skal vi nævne 6.4.22-23, hvis det bruges Def af hermitisk matrix (11.1.1) (Konjugeret-Transponeret) Def af unitær matrix (11.1.3) Diverse egenskaber (vises ikke da det er som 6.4.21) (11.1.4) Evt skal vi nævne 11.1.5-7, hvis det bruges Specificering Ortogonal matrix (6.4.19) En matrix Q Mat n,n (R) er ortogonal hvis søjlerne i Q udgør en ortonormal basis for R n Ækvivalente udsagn om ortogonalitet (6.4.21) Lad Q Mat n,n (R). Følgende er ækvivalente udsagn: (a) Q er ortogonal, (b) Q T Q = I, (c) Q er invertibel og Q T = Q 1, (d) (Qx) T (Qy) = x T y x, y R n, (e) Qx = x x R n. Ækvivalente udsagn om ortogonalitet (Bevis for 6.4.21) (a) (b): Da Q s søjler er en ortonormal mængde er dette er et specielt tilfælde af Lemma 6.4.18. (b) (d): (Qx) T (Qy) = x T Q T Qy = x T y x, y R n. (d) (a): Skriv Q = [q 1,..., q n ] i søjleform. Der gælder q T i q j = (Qe i ) T Qe j = e T i e j = δ ij så {q 1,..., q n } er en ortonormal basis for R n, iflg Definition 6.4.4 Side 41 af 51

Lineær algebra Dispositioner - Dispo 12 2013 (b) (c): Lemma 1.4.10. (c) (b): Følger fra definitionen af invers. AB = BA = I AA 1 = A 1 A = I (definition af A 1 ) Vi ved at Q 1 = Q T og at Q er invatibel. Q T Q = Q 1 Q = I (d) (e): Qx 2 = Qx, Qx = (Qx) T Qx = x T x = x 2 x R n. (e) (d): Lad x, y R n. Den reelle polariseringsidentitet (Prop. 6.3.5) giver og x T y = 1 4 ( x + y 2 x y 2 ) (Qx) T (Qx) = 1 4 ( Qx + Qy 2 Qx Qy 2 ) = 1 4 ( Q(x + y) 2 Q(x y) 2 ) (e) fortæller, at højresiderne ovenfor er ens, så derfor er venstresiderne også ens: (Qx) T (Qy) = x T y. Transponering af orgotonal Q Korollar (6.4.22) Lad Q Mat n,n (R) være ortogonal. Så er Q T ortogonal Multiplum af ortogonale matricer er ortogonale (korollar 6.4.23) Lad A, B Mat n,n (R n ) være ortogonale, så er AB ortogonal. Bevis (6.4.23) Da A,B er ortogonale gælder at A T A = I, B T B = I iflg. 6.4.21 (b) der gælder altså at: (AB) T AB = (B T A T )(AB) = B T (A T A)B = B T IB = B T B = I så er AB ortogonal iflg. samme sætning. Def: Hermitisk matrix (11.1.1) Den konjugeret-transponerede C H af C er givet ved C H = (C) T = (C T ) Side 42 af 51

Lineær algebra Dispositioner - Dispo 12 2013 Hermiti sk matrix (Def: 11.1.7) En matrix A Mat n,n (C) er hermite sk hvis A = A H Def: Unitær matrix (11.1.3) En matrix U Mat n,n (C) er unitær, hvis søjlerne i U udgør en ortonormalbasis for C n. Ækvivalente udsagn om ortogonalitet (11.1.4) Lad U Mat n,n (C). Følgende er ækvivalente udsagn: (a) U er ortogonal, (b) U T U = I, (c) U er invertibel og U T = U 1, (d) (Ux) T (Uy) = x T y x, y C n, (e) Ux = x x C n. Lemma 11.1.5 Lad U Mat n,n (C) være unitær. Så er U H unitær. Multiplumet af to unitære matricer er unitar (Lemma 11.1.6) Lad U 1, U 2 Mat n,n (C) være unitære. Så er U 1, U 2 unitær. Hermiti sk matrix (Def: 11.1.7) En matrix A Mat n,n (C) er hermite sk hvis A = A H Ekstra definitioner Lemma 1.4.10 Lad A, B Mat n,n (F); og antag, at AB = I. Så er A, B invertible, med A 1 = B, B 1 = A Polariserings-identitet (Prop. 6.3.5) Lad V være et reelt eller komplekst indre produkt rum. Skriv, for det indre produkt og for længden. Lad u, v V. R-tilfælde: u, v = 1 4 ( u + v 2 u v 2 ) Side 43 af 51

Lineær algebra Dispositioner - Dispo 12 2013 C-tilfælde: u, v = 1 4 ( u + v 2 u v 2 + i( u + iv 2 u iv 2 )) Side 44 af 51

Lineær algebra Dispositioner - Dispo 13 2013 13 Unitær diagonalisering Pensum: 11.1 Disposition Def.: Kompleks-konjugerede (11.1.1) Def.: Hermitisk matrix (11.1.7) Schurs Sætning (U H AU =ØT (11.1.9) (bevises ikke) Spektralsætningen for hermitiske matricer + bevis (11.1.10) Specificering Def: Hermitisk matrix (11.1.1) Den konjugeret-transponerede C H af C er givet ved C H = (C) T = (C T ) Regneregler for C H I (C H ) H = C II (αa + βb) H = ᾱa H + βb H III (AB) H = B H A H Hermiti sk matrix (Def: 11.1.7) En matrix A Mat n,n (C) er hermite sk hvis A = A H Schurs sætning (11.1.9) Lad A Mat n,n (C). Der findes en unitær matrix U Mat n,n (C), så U H AU er en øvretrekantsmatrix. Spektralsætning. Hvis hermitisk kan den diagonaliseres (Sætning 11.1.10) Lad A Mat n,n (C) være hermite sk. Så kan A diagonaliseres unitært. Dvs. der findes en unitær matrix U Mat n,n (C) så U 1 AU = U H AU er diagonal, med reelle diagonalindgange Side 45 af 51

Lineær algebra Dispositioner - Dispo 13 2013 Spektralsætning for hermiteske matricer (Bevis for 11.1.10) Der findes en unitær matrix U Mat n,n så U H AU = T er en øvretrekantsmatrix. T er hermiteske idet: T H = (U H AU) H = U H A H (U H ) H = U H AU = T Da A er hermitisk er A H = A, og pr def er (U H ) H = U Men t 11 t 12 t 1n t 22 t 2n T = 0 og t 11... tnn T H t 12 t 22 0 =.... ; t 1n t 2n t nn så t ij = 0 for i j og t ii = t ii for i, j = 1,..., n, og T er reel diagonal. Spektralsætning for reelle symmetriske matricer (11.1.11) Lad A Mat n,n (R) være symmetrisk. Så kan A diagonaliseres ortogonalt, dvs. der findes en ortogonal matrix V Mat n,n (R) så er diagonal. V T AV = V 1 AV A kan diagonaliseres ortogonalt A er symmetrisk (Adden. 11.1.12) Lad A Mat n,n (R). A kan diagonaliseres ortogonalt A er symmetrisk. A kan diagonaliseres ortogonalt A er symmetrisk (Bevis for 11.1.12) : Korollar 11.1.11 siger nøjagtigt, at hvis A er symmetrisk så kan A diagonaliseres ortogonalt. : Hvis A kan diagonaliseres ortogonalt, så findes der et V Mat n,n (R), som er ortogonal og V T AV = D er diagonal. Så lad os finde en alternativ definition for A som er, fordi V T = V 1, og vi kan så vise A = V V T AV V T = V DV T, A T = (V DV T ) T = (V T ) T D T V T = V DV T = A. Når A = A T, så er A symmetrisk. Side 46 af 51

Lineær algebra Dispositioner - Dispo 13 2013 Ekstra Def: Unitær matrix (11.1.3) En matrix U Mat n,n (C) er unitær, hvis søjlerne i U udgør en ortonormalbasis for C n. Side 47 af 51

Lineær algebra Dispositioner - Dispo 14 2013 14 Lineære differentialligninger Pensum: 10.1, 12.2 Disposition Lineære differentialligninger Bevis for løsningsform Bevis for linearkombination Højereordens ligninger Lineære differentialligninger Givet et system af n lineære differentialligninger med n ubekendte (et førsteordens system): y 1 = a 11 y 1 + + a 1n y n... y n = a n1 y 1 + + a nn y n hvor y i = f i (t) er en funktion. Vi kan også skrive den op på matrix form ved: y 1 y 2 Y =. og Y y 2 =. A = y n Så kan vi opstille ligningssystemet som Løsningsform For n = 1 kender vi løsningen som: y 1 y n a 11 a 1n.. a n1 a nn Y = AY y = ay y(t) = ce at Grunden til at y(t) = ce at gælder, er at det passer med y = ay når man differentierer y. Side 48 af 51