Anvendt Lineær Algebra

Relaterede dokumenter
Lineær algebra Kursusgang 6

Anvendt Lineær Algebra

LiA 5 Side 0. Lineær algebra Kursusgang 5

LiA 2 Side 0. Lineær algebra 3. kursusgang

Lineær algebra 4. kursusgang

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.

Udjævning. Peter Cederholm

Lineær algebra 1. kursusgang

Diagonalisering. Definition (diagonaliserbar)

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Egenværdier og egenvektorer

DesignMat Uge 4 Systemer af lineære differentialligninger I

Lineær algebra: Egenværdier, egenvektorer, diagonalisering

Symmetriske og ortogonale matricer Uge 7

Ekstremum for funktion af flere variable

Kursusgang 3 Matrixalgebra Repetition

Landmålingens fejlteori - Lektion 5 - Fejlforplantning

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

Tidligere Eksamensopgaver MM505 Lineær Algebra

Ligningssystemer - nogle konklusioner efter miniprojektet

Københavns Universitet, Det naturvidenskabelige Fakultet. Forelæsningsnote 8. (NB: Noten er ikke en del af pensum)

Module 1: Lineære modeller og lineær algebra

Kursusgang 3 Matrixalgebra Repetition

Landmålingens fejlteori - Repetition - Fordeling af slutfejl - Lektion 8

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund

Vægte motiverende eksempel. Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl. Vægtet model. Vægtrelationen

Aflevering 4: Mindste kvadraters metode

Kursusgang 3 Matrixalgebra fortsat

Skriftlig eksamen Vejledende besvarelse MATEMATIK B (MM02)

Lineær Algebra - Beviser

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Symmetriske og ortogonale matricer Uge 6

Nøgleord og begreber. Definition 15.1 Den lineære 1. ordens differentialligning er

Oversigt [S] 7.3, 7.4, 7.5, 7.6; [LA] 15, 16, 17

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser

Reeksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Matematik for økonomer 3. semester

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Eksempel på 2-timersprøve 2 Løsninger

Modulpakke 3: Lineære Ligningssystemer

Besvarelser til Lineær Algebra Ordinær Eksamen - 5. Januar 2018

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2017

DesignMat Uge 5 Systemer af lineære differentialligninger II

Lineær Algebra eksamen, noter

Det Ingeniør-, Natur- og Sundhedsvidenskabelige basisår Matematik 2A, Forår 2007, Hold 4 Opgave A Kommenteret version

DesignMat. Preben Alsholm. September Egenværdier og Egenvektorer. Preben Alsholm. Egenværdier og Egenvektorer

Oversigt [LA] 10, 11; [S] 9.3

Symmetriske matricer

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

DesignMat Uge 1 Gensyn med forårets stof

LinAlgDat 2014/2015 Google s page rank

Eksamen i Lineær Algebra. Første Studieår ved Det Tekniske Fakultet for IT og Design samt Det Ingeniør- og Naturvidenskabelige Fakultet

Besvarelser til Lineær Algebra Ordinær eksamen - 6. Juni 2016

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

Biologisk model: Epidemi

Lineær Algebra Dispositioner

Sandsynlighed og Statistik

2010 Matematik 2A hold 4 : Prøveeksamen juni 2010

To find the English version of the exam, please read from the other end! Eksamen i Lineær Algebra

Eksamen i Lineær Algebra

Besvarelser til Lineær Algebra med Anvendelser Ordinær Eksamen 2016

Lineær algebra: Matrixmultiplikation. Regulære og singulære

Middelværdi og varians. Kovarians. korrelation = 0.02 korrelation = 0.7 korrelation = 1.0

Module 3: Statistiske modeller

Eksempel på 2-timersprøve 1 Løsninger

hvor a og b er konstanter. Ved middelværdidannelse fås videre

Eksamen i Lineær Algebra

Sylvesters kriterium. Nej, ikke mit kriterium. Sætning 9. Rasmus Sylvester Bryder

(Prøve)eksamen i Lineær Algebra

Besvarelser til Lineær Algebra Ordinær Eksamen Juni 2018

Forelæsning 11: Kapitel 11: Regressionsanalyse

Matematik og FormLineære ligningssystemer

Opgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved

Sandt/falsk-opgave: Diskuter opgave 23 side 12 i gruppen, men husk at begrunde jeres svar, som teksten før opgave 23 kræver!

Ølopgaver i lineær algebra

Den todimensionale normalfordeling

Reeksamen i Lineær Algebra

Matematik og Form: Matrixmultiplikation. Regulære og singu

(Prøve)eksamen i Lineær Algebra

Lineær Algebra F08, MØ

LinAlg 2013 Q3. Tobias Brixen Mark Gottenborg Peder Detlefsen Troels Thorsen Mads Buch 2013

Noter til Lineær Algebra

Eksamen i Lineær Algebra

Besvarelser til Lineær Algebra Reeksamen August 2016

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Naturvidenskabelig Bacheloruddannelse Forår 2006 Matematisk Modellering 1 Side 1

Matricer og lineære ligningssystemer

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Lineær algebra: Spænd. Lineær (u)afhængighed

Eksamen i Lineær Algebra

Besvarelser til de to blokke opgaver på Ugeseddel 7

Forelæsningsnoter til. Lineær Algebra. Niels Vigand Pedersen. Udgivet af. Asmus L. Schmidt. Københavns Universitet Matematisk Afdeling

Lineær Algebra, kursusgang

Investerings- og finansieringsteori, F04, ugeseddel 14

Oversigt [LA] 3, 4, 5

Transkript:

Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32

Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger med n ubekendte) Ax = b er en mindste kvadraters løsning ˆx en løsning til normalligningen (A T A)x = A T b. AAS (I17) Anvendt Lineær Algebra 2 / 32

Hvis 1 A =. og b = 1 b 1. b m så er A T A = m og A T b = b 1 +... + b m og derfor er ˆx = b 1 +... + b m, m altså (ikke-vægtet) gennemsnit af b 1,..., b m. Det vægtede gennemsnit af b 1,..., b m med vægte hhv. c 1,..., c m (hvor c 1,..., c m er positive tal) er c 1 b 1 +... + c m b m c 1 +... + c m. AAS (I17) Anvendt Lineær Algebra 3 / 32

Betragt nu et ligningssystem af m ligninger med n ubekendte Ax = b. De m ligninger (observationer) tildeles vægte c 1,..., c m som skrives i en matrix c 1 0... 0 0 c 2... 0 C =.... 0 0... c m Som vægte kan vi bruge c i = 1 σi 2 eventuelt c i = konst. 1. σi 2 hvor σ 2 i er variansen af den i te observation, eller Skrives også (i Lay) som wi 2 = c i hvor w i = 1 σ i og w 1 0... 0 0 w 2... 0 W =.... 0 0... w m Så er W T W = WW = C. AAS (I17) Anvendt Lineær Algebra 4 / 32

Hvis vægtene c 1,..., c m er hele tal (positive) så svarer det vægtede ligningssystem til at betragte (ikke-vægtet) ligningssystem Ãx = b, hvor ligning nr. i fra ligningssystemet Ax = b skrives c i gange. En mindste kvadraters løsning til det nye ligningssystem er en løsning til normalligningen à T Ãx = ÃT b. AAS (I17) Anvendt Lineær Algebra 5 / 32

Eksempel: A = a b c d e f, b = r s t, C = 2 0 0 0 1 0 0 0 3. Så kan vi betragte à = a b a b c d e f e f e f, b = r r s t t t. AAS (I17) Anvendt Lineær Algebra 6 / 32

Normalligningen for ligningssystemet Ãx = b er à T Ãx = ÃT b. Da ÃT à = A T CA og ÃT b = A T Cb er denne ligning ækvivalent med A T CAx = A T Cb. AAS (I17) Anvendt Lineær Algebra 7 / 32

Det vægtede ligningssytem Ax = b med generelle vægte har normalligning A T CAx = A T Cb. En vægtet mindste kvadraters løsning til Ax = b er en løsning til normalligningen. AAS (I17) Anvendt Lineær Algebra 8 / 32

I observationsligningen Aˆx = b + ˆr indgår residual vektoren ˆr = 1 ˆr.. ˆr m Vi udregner c 1 0... 0 ˆr T 0 c 2... 0 1 Cˆr = [ˆr 1... ˆr m ] ˆr.... = ˆr 0 0... c m m c 1ˆr 1 [ˆr 1... ˆr m ]. = c 1ˆr 1 2 +... + c mˆr m. 2 c mˆr m Dette er kvadratet på den vægtede længde af vektoren ˆr. Altså kvadratet på den vægtede afstand mellem Aˆx og b. En vægtet mindste kvadraters løsning er en vektor x som minimerer ˆr T Cˆr = (Ax b) T C(Ax b). AAS (I17) Anvendt Lineær Algebra 9 / 32

Eksempel. Hvis 1 A =., b = 1 b 1. b m og C = c 1 0... 0 0 c 2... 0... 0 0... c m så er A T CA = c 1 +... + c m og A T Cb = c 1 b 1 +... + c m b m og den vægtede mindste kvadraters løsning er derfor det vægtede gennemsnit ˆx = c 1b 1 +... + c m b m c 1 +... + c m. AAS (I17) Anvendt Lineær Algebra 10 / 32

Eksempel. Find linie y = αx + β der passer bedst til punkterne med vægte hhv. 1, 5, 1, 5, 1. (1, 3), (2, 5), (3, 9), (4, 12), (5, 14) Vi betragter ligningssystemet 1 1 3 1 2 [ ] 1 3 β 5 = 1 4 α 9 12. 1 5 14 AAS (I17) Anvendt Lineær Algebra 11 / 32

Normalligningen: [ (A T β CA) = A α] T Cb. Den vægtede mindste kvadraters løsning er [ ] β = (A T CA) 1 A T Cb = α [ ] 0.96. 3.17 Den vægtede mindste kvadraters linie har ligning y = 3.17x 0.96. Denne linie er grøn på næste side. Den ikke-vægtede mindste kvadraters linie er rød på næste side. AAS (I17) Anvendt Lineær Algebra 12 / 32

15 10 5 0 1 2 3 4 5 6 x AAS (I17) Anvendt Lineær Algebra 13 / 32

Den generelle fejlforplantningslov X 1,..., X n er stokastiske variable med middelværdier E(X i ) og varianser Kovarianserne er V (X i ) = E((X i E(X i )) 2 ) = E(X 2 i ) E(X i ) 2. Cov(X i, X j ) = E((X i E(X i ))(X j E(X j ))). Hvis X i og X j er uafhængige så er Cov(X i, X j ) = 0. Cov(X i, X i ) = V (X i ). AAS (I17) Anvendt Lineær Algebra 14 / 32

Kovariansmatricen for er X = hvor σi 2 = V (X i ) og σ ij = Cov(X i, X j ) = Cov(X j, X i ) = σ ji. Σ X er en symmetrisk matrix. X 1. X n σ1 2 σ 12 σ 13... σ 1n σ 21 σ2 2 σ 23... σ 2n Σ X = σ 31 σ 32 σ3 2... σ 3n,.... σ n1 σ n2 σ n3... σn 2 AAS (I17) Anvendt Lineær Algebra 15 / 32

Hvis en anden vektor af stokastiske variable afhænger lineært af X: Y = Y 1. Y m Y = AX hvor A er en m n matrix, så giver fejlforplantningsloven en sammenhæng mellem kovariansmatricerne: Σ Y = AΣ X A T. AAS (I17) Anvendt Lineær Algebra 16 / 32

En vægtet mindste kvadraters løsning til ligningssystemet Ax = b med vægtmatrix C = diag(c 1,..., c m ) afhænger lineært af observationsvektoren b: ˆx = (A T CA) 1 A T Cb. Vi har valgt C så c i = konst. 1. Dermed er σi 2 c 1 1 0... 0 σ C 1 0 c 1 1 2 0... 0 2... 0 =... = 1 0 σ2 2... 0 konst.... = 1 konst. Σ b. 0 0... cm 1 0 0... σm 2 Hvor den sidste lighed skyldes at observationerne antages at være uafhængige. Dermed Cov(b i, b j ) = 0, når i j. Vi skriver C = σ0 2Σ 1 b, hvor σ2 0 kaldes variansfaktoren. Variansfaktoren estimeres som ˆσ 2 0 = ˆrT Cˆr m n. AAS (I17) Anvendt Lineær Algebra 17 / 32

Kovariansmatricen Σˆx kan bestemmes fra fejlforplantningsloven Σˆx = ((A T CA) 1 A T C)Σ b ((A T CA) 1 A T C) T = σ 2 0(A T CA) 1. Vi bruger estimatet for σ 2 0 : Σˆx = ˆσ 2 0(A T CA) 1. AAS (I17) Anvendt Lineær Algebra 18 / 32

Fortsættelse af eksempel fra kursusgang 2: Mellem fem punkter A, B, C, D, E er der målt følgende højdeforskelle: E er et fikspunkt med højde 10. Fra punkt Til punkt Højdeforskel Afstand B A 8 12 B C 2 20 B E 5 8 C A 7 14 C D 1 16 D A 6 13 D E 4 20 E A 3 8 AAS (I17) Anvendt Lineær Algebra 19 / 32

AAS (I17) Anvendt Lineær Algebra 20 / 32

Sæt 1 1 0 0 0 1 1 0 0 1 0 0 A = 1 0 1 0 0 0 1 1 1 0 0 1 0 0 0 1 1 0 0 0 8 ˆr 1 2 ˆr 2 5 ˆr 3, b = 7 1, og ˆr = ˆr 4 ˆr 5. 6 ˆr 6 6 ˆr 7 13 ˆr 8 Så er observationsligningen: Ax = b + ˆr. Som vægtmatrix bruges C = diag ( 1 12, 1 20, 1 8, 1 14, 1 16, 1 13, 1 20, 1 ). 8 AAS (I17) Anvendt Lineær Algebra 21 / 32

En vægtet mindste kvadraters løsning: 12.9 ˆx = (A T CA) 1 A T Cb = 4.80 6.09. 6.73 Vi får følgende residualvektor 0.117 0.705 0.204 ˆr = Aˆx b = 0.178 0.360. 0.182 0.730 0.0878 AAS (I17) Anvendt Lineær Algebra 22 / 32

Variansfaktor ˆσ 2 0 = ˆrT Cˆr 8 4 = 0.0179. Kovariansmatrix 0.083 0.039 0.061 0.054 Σˆx = ˆσ 0(A 2 T CA) 1 = 0.039 0.092 0.051 0.033 0.061 0.051 0.16 0.078. 0.054 0.033 0.078 0.14 AAS (I17) Anvendt Lineær Algebra 23 / 32

Introduktion til Cholesky dekomposition. Først: repetition af diagonalisering. En m n matrix A er kvadratisk hvis m = n. En kvadratisk matrix A er symmetrisk hvis A T = A. Idet (BC) T = C T B T er enhver matrix på formen A T A symmetrisk: (A T A) T = A T (A T ) T = A T A. En vektor x R n, x 0 er egenvektor for en n n matrix A hvis der findes et tal (en egenværdi) λ så Ax = λx. AAS (I17) Anvendt Lineær Algebra 24 / 32

En matrix A er diagonaliserbar hvis der findes en basis {x 1,..., x n } for R n, hvor hver vektor er en egenvektor Ax i = λ i x i. Dette er ækvivalent med at der findes en matrix P og en diagonalmatrix D så P 1 AP = D. Enhver symmetrisk matrix er diagonaliserbar. Enhver matrix på formen A T A er altså diagonaliserbar. AAS (I17) Anvendt Lineær Algebra 25 / 32

Hvis λ er en egenværdi for A T A med en tilhørende egenvektor x, A T Ax = λx, så er λ x 2 = λx x = (A T Ax) x = (A T Ax) T x = Altså λ 0. x T A T Ax = (Ax) T Ax = Ax 2 0. Hvis søjlerne i A er lineært uafhængige så gælder der faktisk λ > 0. En symmetrisk matrix hvis egenværdier alle er > 0 siges at være positiv definit. AAS (I17) Anvendt Lineær Algebra 26 / 32

En kvadratisk matrix U siges at være en øvre (upper) triangulær matrix hvis der står 0 på alle pladser under diagonalen. u 11 u 12 u 13 u 1n 0 u 22 u 23 u 2n U = 0 0 u 33 u 3n........ 0 0 0 u nn AAS (I17) Anvendt Lineær Algebra 27 / 32

En kvadratisk matrix L siges at være en nedre (lower) triangulær matrix hvis der står 0 på alle pladser over diagonalen. l 11 0 0 0 l 21 l 22 0 0 L = l 31 l 32 l 33 0........ l n1 l n2 l n3 l nn U er en øvre triangulær matrix hvis og kun hvis U T er nedre triangulær matrix. En matrix D er en diagonalmatrix hvis og kun hvis den er både øvre triangulær og nedre triangulær. AAS (I17) Anvendt Lineær Algebra 28 / 32

Cholesky dekomposition Vi ønsker nu at skrive en n n matrix A som et produkt A = U T U, hvor U er en øvre triangulær matrix. Dette kaldes Cholesky dekompositionen af A. I litteraturen skriver man ofte Cholesky dekompositionen som A = LL T, hvor L = U T er en nedre triangulær matrix. MATLAB: chol(a) beregner Cholesky dekomposition U Maple: LUDecomposition(A,method=Cholesky) beregner L = U T AAS (I17) Anvendt Lineær Algebra 29 / 32

Enhver matrix på formen U T U er symmetrisk og hvis tallene på diagonalen i U er 0 så er søjlerne lineært uafhængige og dermed er U T U positiv definit. Vi vil derfor antage at A er symmetrisk, positiv definit matrix. AAS (I17) Anvendt Lineær Algebra 30 / 32

Cholesky dekomposition og mindste kvadraters metode Vi ønsker nu at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem Ax = b. Vi betragter derfor normalligningen A T Ax = A T b. Matricen A T A er symmetrisk og da søjlerne i A sædvanligvis er lineært uafhængige er A T A også positiv definit. AAS (I17) Anvendt Lineær Algebra 31 / 32

Vi kan derfor finde en Cholesky dekomposition A T A = U T U, hvor U er en øvre triangulær matrix og dermed skrive normalligningen som hvor y = A T b. U T Ux = y, Vi kan løse denne ligning ved at sætte z = Ux og løse først U T z = y og derefter Ux = z. Disse ligninger kan let løses uden brug af rækkeoperationer, da U er triangulær. AAS (I17) Anvendt Lineær Algebra 32 / 32