Udjævning. Peter Cederholm

Størrelse: px
Starte visningen fra side:

Download "Udjævning. Peter Cederholm"

Transkript

1 Udjævning Peter Cederholm

2 Udjævning Peter Cederholm Udjævning. 2. udgave, 1. revision, 2000.

3 Forord Disse noter er skrevet i forbindelse med afholdelse af udjævningskurser for landinspektørstuderende på studiets 5. og 8. semester. Noterne dækker ikke alt det stof, der gennemgås i kurserne, hvorfor anden litteratur må studeres sideløbende. Noterne er udarbejdet på baggrund af materialet i litteraturlisten. På landinspektørstudiet bruges i øjeblikket udjævningsprogrammet Turbo- Net. Et kapitel omhandler derfor brug af dette program. De øvrige kapitler er af generel karakter. Som supplement til noterne findes en diskette med blandt andet de Turbo-Net filer, der gennemgås i noterne. Udjævningsteorien er løbende suppleret med eksempler, der anvender teorien. Eksemplerne bør derfor ved læsningen tillægges lige så stor vægt som den omgivende tekst. Tegnet angiver afslutningen på et eksempel. Eksemplerne er i høj grad beregnet med Matlab. En del Matlab filer findes på disketten. Noterne er suppleret med opgaver. Svar til disse er givet sidst inoterne. En tak skal rettes til Karsten Jensen, Laboratoriet for Geoinformatik, AAU for at have kommenteret en del af noterne. Kommentarer, rettelser og ændringsforslag modtages gerne. Torpet, september 2000

4 Indhold 1 Introduktion 1 2 Udjævning af lineære problemer Mindste kvadraters princip Observationsligninger A priori varians Normalligninger Normalligninger for observationer med ens vægt Normalligninger for observationer med forskellig vægt Generel udledning af normalligninger Opgaver Udjævning af ulineære problemer Linearisering Iterativ løsning Opgaver Vurdering af udjævning I A posteriori variansfaktor A posteriori varians A posteriori varians for elementer A posteriori varians for residualer Normaliserede residualer Konfidensellipser Relative konfidensellipser Testnet Opgaver Turbo-Net Data A priori spredning Horisontalvinkler Zenitdistancer Skråafstande ii

5 iii Geometrisk nivellement Koordinatobservationer GPS Udjævning Fri udjævning af GPS vektorer Fri udjævning af terrestriske observationer Fri udjævning af alle observationer Fri udjævning af alle observationer Fastholdt udjævning af GPS vektorer Fastholdt udjævning af terrestriske observationer Fastholdt udjævning af alle observationer Vurdering af udjævning II Global test Turbo-Net Data Snooping Redundanstal Variansestimation Pålidelighed Intern pålidelighed Ekstern pålidelighed A priori brug af tests Skematisk fremstilling af testforløb Opgaver A Testteori 129 B Kritiske værdier, χ 2 fordeling 135 C Svar til opgaver 137 Litteratur 144

6 Kapitel 1 Introduktion Landmålingsobservationer såsom afstande og retninger observeres ikke kun fordi de selv er af interesse, men fordi de ofte er nødvendige for at bestemme andre størrelser. For eksempel kan observation af retninger og afstande danne grundlag for bestemmelsen af arealet af den figur, observationerne indgår i. Arealet er således beregnet udfra de observerede størrelser. Det er ofte koordinater, der ønskes afledt af observationerne. De sammenhænge, der sammenknytter observationerne og de ønskede størrelser betegnes en matematisk model. Modellen er et teoretisk system, der beskriver en fysisk situation. En sådan beskrivelse er ikke nødvendigvis komplet men omhandler kun de egenskaber, der søges. Den matekatiske modellen opsplittes i to dele: en funktionel model og en stokastisk model. I landmåling beskriver den funktionelle model de geometriske sammenhænge, der forbinder observationerne og de søgte størrelser. Selvom man måske ikke eksplicit tænker på den model, der knytter sig til et specifikt problem, anvendes modellen når observationer bearbejdes til at give det ønskede resultat. Observationer er altid behæftet med tilfældige fejl. Fra et praktisk synspunkt er det vanskeligt at skaffe sig kendskab til de statistiske egenskaber, der knyttet sig til observationer. En metode til at få kendskab til disse egenskaber er at foretage gentagne målinger for på den måde at aflede egenskaberne, men dette er ofte en krævende proces. En anden metode, der ofte anvendes, er at tillægge observationerne statistiske egenskaber, man kender fra tilsvarende observationer foretaget tidligere under lignende forhold. Et eksempel herpå er ved retningsobservationer at anvende den retningsspredning, instrumentfabrikanten angiver i instrumentets manual. Summen af de statistiske antagelser, der knyttet sig til observationerne og de søgte størrelser kaldes den stokastiske model.

7 Kapitel 1. Introduktion 2 Som eksempel på en funktional model ses på størrelsen og formen af en trekant. Fra den plane geometri ved vi, at 1. formen af en trekant kan entydigt bestemmes af to variable. Disse kan være to vilkårlige vinkler i trekanten. 2. størrelsen og formen af en trekant kan entydigt bestemmes af tre variable, hvoraf mindst en må beskrive en sidelængde i trekanten. 3. hvis ydeligere trekantens placering og orientering ønskes bestemt, kræves ydeligere tre variable; ialt seks variable. De tre beskrivelser af trekanten er tre modeller, der bestemmer trekenten på forskellig vis. Det antal variable, der er nødvendig for akkurat at bestemme en model kaldes n. Den variable, der er nødvendige for at bestemme modellen kaldes modellens elementer. I de tre modeller for trekanten er n henholdsvis n = 2, n = 3 og n = 6. Elementerne måvælges,sådeer uafhængige. Hvis trekantens størrelse og form ønskes bestemt, kan de tre vinkler i trekenten ikke vælges som elementer, da den tredie vinkel kan bestemmes udfra de to øvrige. Endvidere kan størrelsen ikke bestemmes udfra tre vinkler alene; der må tilføjes en sidelængde. Formålet med udjævning er at bestemme de bedst mulige værdier for elementerne. Udjævningen kaldes af denne grund en elementudjævning. Inden en udjævning gennemføres må elementerne derfor vælges. Afhængigt af hvad vi ønsker at bestemmes gennem udjævningen, må der vælges forskellige elementer; jævnfør eksemplerne med trekanten. Når elementerne vælges skal følgende betingelser påfyldes: 1. Antallet af elementer skal akkurat kunne bestemme modellen; der må hverken være for mange eller for få elementer. 2. Elementerne skal være uafhængige. Hvis ikke observationerne er i stand til at bestemme de n elementer, er modellen ikke bestemt. Når observationerne akkurat kan bestemme de n elementer er modellen entydigt bestemt. Hvis en af observationerne er behæftet med en grov fejl, er der imidlertid ingen mulighed for at opdage dette. Der er derfor altid god praksis at foretage flere observationer end det absolut minimum, der er nødvendigt for at bestemme modellen. Antallet af observationer kaldes m. Selve observationerne benævnes b. 1. Hvis m<ner modellen ikke bestemt. 2. Hvis m = n er modellen akurat bestemt. 3. Hvis m>ner modellen overbestemt.

8 Kapitel 1. Introduktion 3 I tilfældet hvor m>ner modellen overbestemt, og en udjævning er nødvendig for at bestemme de n elementer entydigt. Hver observation, der overstiger det nødvendige antal observationer n, udgør en overbestemmelse. Antallet af overbestemmelser kaldes u; u = m n. Antallet af overbestemmelser er altså forskellen mellem antallet af observationer og antallet af elementer. Antallet af overbestemmelser kaldes også antallet af frihedsgrader. Overbestemmelserne er kun meningsfulde, hvis observationerne er i stand til at bestemme de n elementer, der beskriver modellen. Som nævnt tidligere kan for eksempel størrelse og form af en trekant ikke bestemmes udfra tre vinkler. Hvis vinklerne måles to gange, så der ialt er seks vinkler, er der tilsyneladende tre overbestemmelser. Modellen kan dog stadig ikke bestemmes, og i det tilfælde giver det derfor ingen mening at tale om overbestemmelser. Når overbestemmelser er til stede, opstår en interessant situation. For hver anvendelig delmængde på n observationer ud af de m tilgængelige observationer fås formodentlig en forskellig bestemmelse af modellen. Hvis for eksempel en sidelængde og de tre vinkler i en trekant er målt, kan trekantens størrelse og form bestemmes på tre måder. For hver af disse kombinationer vil trekanten have forskellig størrelse og form. Dette skyldes, at observationerne er påvirket af tilfældige fejl. De m observationer opfylder altså ikke til sammen modellen. Denne uoverensstemmelse mellem observationer og model løses ved at udskifte observationerne b med et sæt korrigerede observationer ˆb, således detnyesætobservationerˆb bestemmer modellen eksakt. I trekanteksemplet vil det nye sæt estimater for sidelængden og de tre vinkler give præcis den samme trekant ligegyldigt hvordan observationerne kombineres. Alle observationer er nu konsistente med modellen. Dette angiver, at den funktionelle model anses for at være observationerne overlegen. Vi ved, at en sidelængde og to vinkler kan bestemme trekantens størrelse og form, og derfor må observationerne tilpasses dette krav. Hver korrigeret observation ˆb i bestemmes altså udfra den observerede størrelse b i og en korrektion ˆr i,detvilsige ˆb i = b i +ˆr i. (1.1) Korrektionen ˆr i kaldes residualet. Residualerne er ukendte og må bestemmes før ˆb i kan udregnes. På grund af overbestemmelserne er der et uendeligt antal mulige residualer, der vil give et tilsvarende antal korrigerede observationer, der alle opfylder modellen. Blandt alle disse muligheder, er der et sæt residualer, der give den optimale løsning. For at finde denne løsning må endnu et kriterium opfyldes. Der er flere mulige kriterier, men det der oftest bruges i landmåling er mindste kvadraters princip. Processen med at finde

9 Kapitel 1. Introduktion 4 det nye sæt estimater ˆb i overensstemmelse med mindste kvadraters princip kaldes udjævning. Mindste kvadraters udjævning bruges flittigt, ikke kun i landmåling, fotogrammetri og geodæsi, men også i mange andre naturvidenskaber. I de følgende kapitler vises, hvordan mindste kvadraters princip anvendes i forskellige sammenhænge i landmålingen.

10 Kapitel 2 Udjævning af lineære problemer 2.1 Mindste kvadraters princip Når et problem er overbestemt, er en udjævning nødvendig for at finde en entydig løsning på problemet. Hvis vi i øjeblikket antager, at alle observationer er uafhængige og har ens vægt, er mindste kvadraters princip baseret på følgende kriterium: Summen af de kvadrerede residualer skal være minimum, det vil sige φ =ˆr 2 1 +ˆr ˆr2 m = m i=1 ˆr 2 i minimum. (2.1) I (2.1) benævnes φ vægtfunktionen. Når observationerne er uafhængige og har forskellig vægt lyder mindste kvadraters princip: Summen af de kvadrerede og vægtede residualer skal være minimum m φ = c 1ˆr c 2ˆr c mˆr m 2 = c iˆr i 2 i=1 minimum, (2.2) hvor c 1, c 2,, c m er vægtene svarende til observationerne b 1, b 2,, b m. Efter endt udjævning skal to betingelser være opfyldt: 1. Modellen skal opfyldes perfekt af de korrigerede observationer ˆb,jævnfør kapitel 1. Grunden til der foretages en udjævning er jo, at der er for mange observationer til entydigt at bestemme modellen. 2. Mindste kvadraters princip skal være opfyldt. Gennem resten af kapitlet vises ved hjælp af eksempler hvordan princippet bruges i praksis. Eksemplerne bliver gradvist mere komplicerede for til sidst i kapitlet at munde ud i en generel udledning af mindste kvadraters princip.

11 Kapitel 2. Udjævning af lineære problemer 6 Eksempel 2.1 Ved hjælp af mindste kvadraters princip ønskes en afstand x bestemt udfra målinger af denne. Da modellen kun involverer et element (selve afstanden), er kun en observation nødvendig for entydigt at bestemme afstanden, det vil sige n = 1. Antag at vi har to målinger, b 1 = og b 2 = I dette tilfælde er m = 2ogdererenoverbestemmelse,da u = m n = 2 1 = 1. Den endelige værdi for afstanden ˆx kan findes fra observationerne som ˆx = b 1 +ˆr 1 = ˆb 1 (2.3) ˆx = b 2 +ˆr 2 = ˆb 2. (2.4) Der er mange mulige værdier for ˆr 1 og ˆr 2, der opfylder disse ligninger. For eksempel kan vi have ˆr 1 = 0 og ˆr 2 = 0.02; eller ˆr 1 = og ˆr 2 = 0.01; eller ˆr 1 = og ˆr 2 = Alle disse værdier for ˆr 1 og ˆr 2 opfylder modellen som udtrykt ved ligning (2.3) og (2.4). Mindste kvadraters løsning er den, der sikrer, at φ = (ˆr 2 1 +ˆr2 2 )eretminimum.for de tre sæt residualer er de tilsvarende summer af de kvadrerede residualer φ 1 =(0) 2 +( 0.02) 2 = φ 2 =(+0.01) 2 +( 0.01) 2 = φ 3 =(+0.015) 2 +( 0.005) 2 = Det er tydeligt, at φ 2 er den mindste af de tre værdier, men det egentlige spørgsmål er, om det er det absolutte minimum når alle mulige kombinationer af residualer tages i betragtning. Svaret illustreres i figur 2.1, der samtidig demonstrerer mindste kvadraters princip. De to udjævnede observationer ˆb 1 og ˆb 2 er knyttet til hinanden ved ˆb1 = ˆb 2, (2.5) hvilket findes ved at trække ligning (2.3) og (2.4) fra hinanden. Hvis første aksen i figuren repræsenterer ˆb 1 og anden aksen repræsenterer ˆb 2, vil (2.5) beskrive en ret linie med hældningskoefficienten 1, som vist i figuren.

12 Kapitel 2. Udjævning af lineære problemer 7 ˆb A φ3 ˆb1 = ˆb φ1 φ2 A 2 A 3 A ˆb1 Figur 2.1: Illustration af mindste kvadraters princip. De to observationer b 1 = og b 2 =15.14 definerer et punkt, der ligger over linien fordi b 1 <b 2. Linien ˆb 1 = ˆb 2 repræsenterer den betingelse, der skal være opfyldt mellem ˆb 1 og ˆb 2.Når denne betingelse er opfyldt, er den underliggende model bestemt. Hvis punkt A udskiftes med at andet punkt, der ligger på linien, vil en udjævning derfor være gennemført. Det er muligt at bestemme uendeligt mange punkter på linien, hvoraf de tre, der er markeret med A 1, A 2 og A 3, svarer til de tre beregnede værdier φ 1, φ 2 og φ 3. Af alle muligheder vælger mindste kvadraters princip punkt A 2,så afstanden AA 2 er kortest mulig, det vil sige minimum. Denne betingelse er opfyldt for A 2, da linien AA 2 er vinkelret på linien ˆb 1 = ˆb 2. Dette punkt opfylder også den intuitive betingelse, at de nye estimater for observationerne ˆb 1, ˆb 2 skal afvige så lidt som muligt fra de givne observationer b 1, b 2. Da linien AA 2 er vinkelret på linie ˆb 1 = ˆb 2,erˆr 1 og ˆr 2 lige store men med modsat fortegn. De udjævnede observationer ender således med at være ens; ˆb 1 = ˆb 2 = Det endelige estimat for afstanden er ˆx = 15.13, hvilket også intuitivt virker rigtigt, da den udjævnede værdi er middelværdien af observationerne, det vil sige ˆx = =15.13.

13 Kapitel 2. Udjævning af lineære problemer 8 Dette er det simpleste eksempel på, at når målinger af en størrelse er uafhængige og har ens vægt, er mindste kvadraters estimat af størrelsen lig med middelværdien af målingerne. 2.2 Observationsligninger Når modellen i et udjævningsproblem er fastlagt er første skridt at opstille observationsligningerne. Observationsligninger udtrykker sammenhængen mellem observationer og elementer. For hver observation opstilles en ligning, der udtrykker elementernes funktionelle sammenhæng med observationen. Observtionsligningerne har følgende karakteristika: Antallet af observationsligninger er det samme som antallet af observationer, m. Hver af de m observationsligninger må kun indeholde en observation. Observationsligningerne kan både indeholde observatioener, elementer og konstanter. Eksempel 2.2 Figur 2.2 viser et lille nivellementsnet, hvori A er et fikspunkt med højden m. Følgende højdeforskelle er observeret i nettet Fra punkt Til punkt Højdeforskel [m] B A b 1 =1.207 D B b 2 =1.115 D A b 3 =2.305 B C b 4 =2.097 D C b 5 =3.203 A C b 6 =0.906

14 Kapitel 2. Udjævning af lineære problemer 9 B b 1 b 2 b 4 b 3 D b 5 A b 6 C Figur 2.2: Nivellementsnet. Koten i punkt A kaldes H A,koteniBkaldesH B og så videre. Observationerne antages at være uafhængige og af ens præcision. Udfra observationerne og koten i punkt A ønskes H B, H C og H D bestemt. Som elementer i udjævningen vælges netop H B, H C og H D. Antallet af elementer er derfor tre; n = 3. Der er seks observationer (m =6),så der er tre overbestemmelser, u = m n =6 3 = 3. Hvis observationerne ikke er behæftet med fejl, er lukkesummerne i ringene 0. Dette er dog ikke tilfældet. For eksempel er der i ringen ABD en fejl på ( ) = Der må derfor indføres seks residualer, ˆr 1,ˆr 2,,ˆr 6, en for hver observation. Udfra tabellen og figur 2.2 opstilles nu de seks ligninger, der skal være opfyldt efter endt udjævning. ˆb1 = H A H B ˆb2 = H B H D ˆb3 = H A H D ˆb4 = H C H B ˆb5 = H C H D ˆb6 = H C H A. Ved at indsætte residualerne i ligningerne ovenfor fås observationslignin-

15 Kapitel 2. Udjævning af lineære problemer 10 gerne: b 1 = H A H B ˆr 1 b 2 = H B H D ˆr 2 b 3 = H A H D ˆr 3 b 4 = H C H B ˆr 4 (2.6) b 5 = H C H D ˆr 5 b 6 = H C H A ˆr 6. Observationsligningerne opfylder kravene, der blev stillet på side 8. Der er seks observationsligninger, der hver kun indeholder en observation. Eksempel 2.3 Ligningssystemer løses mest hensigtsmæssigt af computeren, når disse er givet på matrixform. Observationsligningerne opstilles derfor endnu engang men nu på matrixform. Der tages udgangspunkt i ligningssystemet (2.6), der fuldt udskrevet ser således ud: b 1 = 1 H A 1 H B +0 H C +0 H D ˆr 1 b 2 = 0 H A +1 H B +0 H C 1 H D ˆr 2 b 3 = 1 H A +0 H B +0 H C 1 H D ˆr 3 b 4 = 0 H A 1 H B +1 H C +0 H D ˆr 4 b 5 = 0 H A +0 H B +1 H C 1 H D ˆr 5 b 6 = 1 H A +0 H B +1 H C +0 H D ˆr 6. Højden i punkt A er kendt i forvejen. Derfor flyttes H A overpå venstre side af lighedstegnet, således venstre side af ligningerne indeholder målte og kendte størrelser, mens højre side indeholder de ukendte elementer (koter) og de ukendte residualer: b 1 H A = 1 H B +0 H C +0 H D ˆr 1 b 2 =+1 H B +0 H C 1 H D ˆr 2 b 3 H A =+0 H B +0 H C 1 H D ˆr 3 b 4 = 1 H B +1 H C +0 H D ˆr 4 b 5 =+0 H B +1 H C 1 H D ˆr 5 b 6 + H A =+0 H B +1 H C +0 H D ˆr 6. Ligningssystemet opstilles nu på matrixform. Observationerne og residualerne samles i to m 1 søjlevektorer b 1 H A ˆr 1 b ˆr b = b 3 H A b 4 = b 5 b 6 + H A 2.097, ˆr = ˆr 3 ˆr ˆr ˆr 6

16 Kapitel 2. Udjævning af lineære problemer 11 Koefficienterne til elementerne samles i en m n designmatrix kaldet A A = , og endelig samles elementerne i en n 1 søjlevektor H B ˆx = H C. H D Observationsligningerne kan nu skrives som ˆr = H B ˆr H C ˆr H D ˆr 4, ˆr ˆr 6 hvilket i matrixnotation svarer til b = Aˆx ˆr. (2.7) 2.3 A priori varians Gentagne observationer af den samme størrelse resulterer altid i en vis variation. Dette skyldes grove fejl, systematiske fejl og tilfældige fejl. Det antages, at observationerne er fri for grove fejl og korrigeret for systematiske fejl. På grund af de tilfældige fejl vil observationerne stadig variere; det er ikke muligt at bestemme den sande værdi for en observeret størrelse udfra gentagne observationer. Observationernes sande værdier kan højst estimeres.på grund af fejlenes tilfældige karakter må observationerne betragtes som stokastiske variable. I landmåling antages, at observationerne er normalfordelte N(µ, σ 2 ). Tæthedsfunktionen for en normalfordelt observation er vist i figur 2.3. Middelværdien af observationen er µ.når observationen ikke er påvirket af grove og systematiske fejl, antages µ for at væredensande værdi for observationen. Spredningen på observationen er σ, der er et målforhvor bred eller spredt

17 Kapitel 2. Udjævning af lineære problemer 12 sandsynlighedsfunktionen er. Hvis en observation A har større variation end en observation B, har A en større spredning end B. σ µ σ Figur 2.3: Normalfordeling. Præcisionen af en observation bestemmes af hvor tæt gentagne observationer ligger på hinanden. Når observationerne ligger tæt sammen, har de en høj præcision; hvis de ligger spredt, har de en lav præcision. Præcisionen ses af formen af sandsynlighedsfunktionen. Jo smallere sandsynlighedsfunktion jo større præcision og vice versa. Spredningen σ er mål for observationens præcision. Jo højere præcision jo mindre spredning og omvendt. Høj præsicion Lav præsicion Figur 2.4: Høj og lav præcision. Nøjagtigheden af en observation bestemmes af hvor tæt observationen ligger på den sande værdi. Når observationen ikke er påvirket af systematiske fejl, kan spredningen også bruges som mål for nøjagtigheden. Hvis spredningen skal bruges som et mål for nøjagtighed, er det derfor vigtigt, at systematiske fejl er reduceres til et ubetydeligt niveau. Middelværdien for observationen b er givet ved µ b = E[b], hvor E[b] også kaldes forventningen til b. Variansenforb er givet ved σ 2 b = E[(b µ b) 2 ]

18 Kapitel 2. Udjævning af lineære problemer 13 Variansen er spredningen kvadreret. Variansen er således også mål for observationens præcision. En observation af stor præcision har derfor en lille varians og vice versa. Variansen er omvendt proportional med præcisionen. Derfor anvendes ofte et andet mål for præcisionen, der er ligefrem proportional med denne. Dette mål kaldes observationens vægt. En observation medenstorvægtharsåledes en stor præcision og omvendt. Vægten c i for en enkelt observation er defineret som den inverse af observationens varians σ 2 i,detvilsige c i = σ2 0 σi 2, (2.8) hvor σ0 2 er en proportionalitetsfaktor, der kaldes variansfaktoren. Ligning (2.8) kaldes vægtrelationen. Hvis en observation har vægten 1, er observationens varians og σ0 2 ifølge (2.8) lige store. Variansfaktoren σ2 0 er derfor variansenafenobservationmedvægten1.hvisenobservationharenvarians større end σ0 2, er observationen altså bestemt med mindre præcision end observationen, der svarer til σ0 2. Vægten bliver i dette tilfælde mindre end 1på grund af den lavere præcision. Omvendt, hvis en observation har en varians, der en mindre end σ0 2, bliver vægten større end 1. Dette er rimeligt, da observationen har en større præcision end observationen, der svarer til σ0 2. Kvadratroden af variansfaktoren kaldes spredningen på vægtenheden σ 0. Hidtil er hver observation behandlet for sig. Hvis to (eller flere) observationer b 1, b 2 er indbyrdes forbundet, det kan for eksempel være Y og X koordinaterne til et punkt, må ydeligere korrelationen mellem dem beskrives. Hver observation har en varians σ 2 1, σ2 2.Hertilkommerkovariansen σ b 1 b 2,der udtrykker graden af korrelation mellem b 1 og b 2. Kovariansen er defineret ved σ b1 b 2 = E[(b 1 µ b1 )(b 2 µ b2 )] Kovariansen kan være positiv, negativ eller nul. Når σ b1 b 2 er positiv siges b 1 og b 2 at være positivt korrelerede; når σ b1 b 2 er negativ er de negativt korrelerede, og når σ b1 b 2 er nul er b 1 og b 2 ukorrelerede. Hvis b 1 og b 2 er uafhængige er kovariansen nul. Det modsatte er imidlertid ikke nødvendigvis tilfældet, det vil sige, at en kovarians med værdien nul ikke betyder, at de to observationer er uafhængige.

19 Kapitel 2. Udjævning af lineære problemer 14 Observationerne er tidligere blevet samlet i en m 1vektorb b 1 b 2 b =.. b m Hver af observationerne har en varians og mellem alle kombinationer af observationer er der kovarianser. For nemheds skyld indsættes varianserne og kovarianserne i en m m kovariansmatrix Σ b σ 11 σ 12 σ 1m σ 2 1 σ 12 σ 1m σ 21 σ 22 σ 2m Σ b = = σ 21 σ2 2 σ 2m σ m1 σ m2 σ mm σ m1 σ m2 σm 2 På diagonalen i Σ b står varianserne for observationerne og udenfor diagonalen står kovarianserne. Kovariansmatricen er symmetrisk om diagonalen, da kovariansen mellem observation 1 og observation m (σ 1m ) er lig kovariansen mellem observation m og observation 1 (σ m1 ) σ ij = σ ji. Det gælder derfor, at Σ b = Σ T b. Alle kovarianser forekommer derfor en gang over diagonalen i kovariansmatricen og en gang under diagonalen. Det antages nu, som det oftest gør i landmåling, at observationerne er uafhængige. Kovarianserne mellem observationerne er derfor nul og kovariansmatricen får derfor en simplere struktur, hvor der kun står varianser på diagonalen σ σ2 2 0 Σ b = σm 2 Fra (2.8) kendes sammenhænges mellem varians og vægt. Med udgangspunkt

20 Kapitel 2. Udjævning af lineære problemer 15 i kovariansmatricen kan vægtmatricen C opstilles. c c 2 0 C = c m σ σ σ σ = σ2 2. = σ σ σm 2 σ 2 0 σ 2 m Ligesom kovariansmatricen er vægtmatricen diagonal. Den inverse af en diagonal matrix er en anden diagonal matrix, hvor hvert element er den reciprokke af det tilsvarende element i den originale matrix. Vægtmatricen er i matrixnotation givet ved C = σ 2 0 Σ 1 b. (2.9) Ligning (2.9) er generel og gælder hvad enten observationerne er uafhængige eller ej. Oftest sættes σ0 2 a priori lig 1, hvorfor (2.9) reduceres til C = Σ 1 b. Vægtmatricen er en beskrivelse af den stokastiske model. 2.4 Normalligninger Efter observationsligningerne er opstillet, er næste skridt at opstille normalligningerne. Når observationsligningerne er opstillet, er der m ligninger, men der er m + n ubekendte; der er n ukendte elementer samt m ukendte residualer. Umiddelbart er der altså flere ubekendte end observationer. Ligningssystemet giver ikke en entydig løsning. For at finde en entydig løsning måderaltså opstilles ydeligere n ligninger. Herved opnår vi at have lige så mange ubekendte som vi har ligninger, og dermed er løsningen entydig. Ved nu at anvende mindste kvadraters princip får vi netop n ekstra ligninger. Disse ligninger kaldes normalligningerne. Ved at arbejde videre med nivellementseksemplet vises hvordan normalligningerne fremkommer Normalligninger for observationer med ens vægt Når observationerne har ens vægt, som vi hidtil har antaget, er mindstekvadraters princip givet ved ligning (2.1). Dette krav påføres nu nivellementsproblemet.

21 Kapitel 2. Udjævning af lineære problemer 16 Eksempel 2.4 Fortsat fra eksempel 2.2. Ligning (2.6) omskrives så residualerne udtrykkes eksplicit, og observationerne samt den kendte kote til punkt A indsættes i ligningerne ˆr 1 = H A H B b 1 =6.923 H B ˆr 2 = H B H D b 2 = H B H D ˆr 3 = H A H D b 3 =5.825 H D ˆr 4 = H C H B b 4 = H C H B ˆr 5 = H C H D b 5 = H C H D ˆr 6 = H C H A b 6 = H C Ifølge mindste kvadraters princip skal følgende størrelse minimeres φ =ˆr 1 2 +ˆr 2 2 +ˆr 3 2 +ˆr 4 2 +ˆr 5 2 +ˆr 6 2 =(6.923 H B ) 2 +(H B H D 1.115) 2 +(5.825 H D ) 2 +(H C H B 2.097) 2 +(H C H D 3.203) 2 +(H C 9.036) 2. (2.10) Størrelsen minimeres ved at finde de partielt afledede af φ med hensyn til de ukendte koter, H B, H C og H D. De partielt afledede sættes lig nul. φ = 2(6.923 H B )+2(H B H D 1.115) H B 2(H C H B 2.097) = 0 φ =2(H C H B 2.097) + 2(H C H D 3.203) H C +2(H C 9.036) = 0 φ = 2(H B H D 1.115) 2(5.825 H D ) H D 2(H C H D 3.203) = 0 Ved at gange ligningerne ovenfor ud kan de omskrives til 3H B H C H D =5.941 H B +3H C H D = H B H C +3H D = (2.11) Ligningerne (2.11) er normalligningerne. Antallet af normalligninger svarer til antallet af ukendte størrelse i modellen; i dette tilfælde 3. Der er altså tre ligninger med tre ubekendte. Løsningen af dette ligningssysten giver mindste kvadraters estimat for koterne i de tre punkter: H B =6.931 H C =9.030 H D =5.823.

22 Kapitel 2. Udjævning af lineære problemer 17 Eksempel 2.5 Fortsat fra eksempel 2.3. Mindste kvadraters estimat for koterne i punkt B, C og D findes nu ved matrixregning. Udfra matricerne A, b og ˆx, der blev opstillet i eksempel 2.3, kan normalligningerne konstrueres fra følgende ligning (A T A)ˆx = A T b. (2.12) H B H C H D = Ved at gange matricerne ud fås normalligningssystemet nedenfor, der svarer til ligning (2.11). Ved at anvende ligning (2.12) og matricerne fra eksempel 2.3 er det altså muligt at opstille normalligningerne, hvis løsning tilfredsstiller mindste kvadraters princip. Det er lettere at opstille normalligningerne på denne måde fremfor som det blev gjort i eksempel 2.4. Mindste kvadraters princip er altså indbygget i (2.12); brugeren behøver ikke spekulere på minimering af vægtfunktionen, φ H B H C H D = Løsningen af normalligningerne er på matrixform givet ved ˆx =(A T A) 1 A T b = 9.030, hvilket svarer til løsningen fundet i eksempel 2.4.

23 Kapitel 2. Udjævning af lineære problemer Normalligninger for observationer med forskellig vægt Nu ses på tilfældet hvor observationerne har forskellig vægt. Mindste kvadraters princip er nu givet ved ligning (2.2). Igen anvendes nivellementseksemplet til i to eksempler at illustrere hvordan princippet bruges. Eksemplerne svarer til eksempel 2.4 og 2.5, blot der nu anvendes vægte. Eksempel 2.6 Fortsat fra eksempel 2.4. Denne gang antages de seks observerede højdeforskelle stadig at være uafhængige, men nu har de forskellig spredning og dermed forskellig vægt. Spredningerne regnes efter (5.2). Kilometerspredningen antages at være m km 0.5. De seks vægte kaldes c 1, c 2,, c 6. Observation Afstand(L) [km] Spredning [m] Vægt b b b b b b Vægtfunktionen, der skal minimeres i dette eksempel, er givet ved φ = c 1ˆr c 2ˆr c 3ˆr c 4ˆr c 5ˆr c 6ˆr 2 6 = c 1 (6.923 H B ) 2 + c 2 (H B H D 1.115) 2 + c 3 (5.825 H D ) 2 + c 4 (H C H B 2.097) 2 + c 5 (H C H D 3.203) 2 + c 6 (H C 9.036) 2. Denne ligning svarer til ligning (2.10) blot er vægtene tilføjet. For at minimere funktionen differentieres med hensyn til de ukendte koter, og udtrykkene sættes lig nul φ = 2c 1 (6.923 H B )+2c 2 (H B H D 1.115) H B 2c 4 (H C H B 2.097) = 0 φ =2c 4 (H C H B 2.097) + 2c 5 (H C H D 3.203) H C +2c 6 (H C 9.036) = 0 φ = 2c 2 (H B H D 1.115) 2c 3 (5.825 H D ) H D 2c 5 (H C H D 3.203) = 0.

24 Kapitel 2. Udjævning af lineære problemer 19 Når ligningerne ganges ud, reduceres og omordnes fås normalligningerne (c 1 + c 2 + c 4 )H B +( c 4 )H C +( c 2 )H D =6.923c c c 4 ( c 4 )H B +(c 4 + c 5 + c 6 )H C +( c 5 )H D =2.097c c c 6 ( c 2 )H B +( c 5 )H C +(c 2 + c 3 + c 5 )H D = 1.115c c c 5. Ved indsættelse af de numeriske værdier for vægtene fås H B H C H D = H B H C H D = H B H C H D = (2.13) Løsningen af normalligningerne giver koterne til punkt B, C og D H B =6.933 H C =9.030 H D = På grund af at observationerne nu vægtes forskelligt, er de fundne koter forskellige fra de, der blev fundet i eksempel 2.4 og 2.5. Eksempel 2.7 Fortsat fra eksempel 2.6. Nu gentages regningerne som matrixregning. Igen tages udgangspunkt i matricerne A, b og ˆx fra eksempel 2.3. Ydeligere introduceres vægtmatricen C. Denne er en diagonalmatrix med vægtene til observationerne på diagonalen: c 1 c 2 C = c 3 c 4 c 5 c 6 Normalligningerne konstrueres nu udfra følgende ligning (A T CA)ˆx = A T Cb. (2.14)

25 Kapitel 2. Udjævning af lineære problemer 20 Når de numeriske værdier indsættes fås: H B H C = H D Når ligningerne ganges ud fås H B H C = H D Ligningssystemet er magen til ligning (2.13), og løsningerne er derfor også ens H B H C = H D Der fås samme resultat som i eksempel 2.6. Ved brug at (2.14) er mindste kvadraters princip således indbygget i regningerne. Det er ikke nødvendigt eksplicit at tænke på minimering af vægtfunktionen.

26 Kapitel 2. Udjævning af lineære problemer Generel udledning af normalligninger Normalligningerne givet ved ligning (2.14) er fuldstændig generelle, selvom de indtil videre kun er illustreret ved et eksempel. Normalligningerne har altid denne form, når udjævningsproblemet formuleres som ligning (2.7). Nu følger en generel udledning, der leder frem til normalligningerne. Når observationerne er uafhængige og har forskellig vægt, kræver mindste kvadraters princip, at vægtfunktionen (2.2) minimeres. Vægtfunktionen kan på matrix form skrives som c 1 ˆr 1 φ = [ˆr ] c 2 ˆr 2 1 ˆr 2 ˆr m... (2.15). cm ˆr m da den, når den ganges ud, giver φ = c 1ˆr c 2ˆr c mˆr 2 m. Da residualvektoren ˆr i eksempel 2.3 blev opstillet som en m 1vektor,kan (2.15) skrives som φ = ˆr T Cˆr. (2.16) Ligning (2.7) omskrives til ˆr = Aˆx b og indsættes i ligning (2.16) φ =(Aˆx b) T C(Aˆx b) =(ˆx T A T b T )C(Aˆx b) =(ˆx T A T C b T C)(Aˆx b) = ˆx T A T CAˆx b T CAˆx ˆx T A T Cb + b T Cb. (2.17) Da φ er en skalar, er hvert led i ligning (2.17) også skalarer. Endvidere er en skalar transponeret lig sig selv. Andet og tredie led er derfor lig hinanden, da b T CAˆx =(b T CAˆx) T = ˆx T A T C T b = ˆx T A T Cb. Da vægtmatricen C altid er symmetrisk, er den lig sig selv transponeret. Ved at slå andet og tredie led i ligning (2.17) sammen fås φ = ˆx T (A T CA)ˆx 2b T CAˆx + b T Cb. (2.18)

27 Kapitel 2. Udjævning af lineære problemer 22 Ligning (2.18) er vægtfunktionen, der skal minimeres for at opfylde mindste kvadraters princip. I ligningen er alle matricer og vektorer konstanter pånær ˆx, der indeholder de ukendte elementer. For at minimere φ mådepartielt afledede med hensyn til ˆx derfor sættes lig nul. Da sidste led i (2.18) ikke indeholder ˆx, er den partielt afledede af dette led nul. Ved at differentiere φ med hensyn til ˆx fås φ ˆx =2ˆxT (A T CA) 2b T CA =0. Ved at dividere med 2, flytte om på leddene og transponere fås (A T CA)ˆx = A T Cb, der er identisk med (2.14). Denne generelle udledning betyder, at når vi har et sæt observationsligninger, der kan skrives som b = Aˆx ˆr så bestemmes normalligningerne som (A T CA)ˆx = A T Cb, (2.19) hvor C er vægtmatricen for observationerne. Ved bestemmelsen af vægtmatricen indgår σ0 2,jævnfør(2.9).DaC indgår i både venstre side og højre side af normalligningerne, kan σ0 2 imidlertid forkortes væk. Ved opstillingen af normallignignerne er det derfor ikke nødvendigt at have kendskab til σ0 2. Venstre side af normalligningerne er en n n matrix, der er symmetrisk om diagonalen, jævnfør eksemplerne i dette kapitel. Normalligningernes løsning findes ved ˆx =(A T CA) 1 A T Cb = N 1 A T Cb. (2.20) Ligning (2.20) gælder både for diagonale vægtmatricer og for fulde vægtmatricer. I de tilfælde, hvor observationerne er ens vægtet og uafhængige, er C diagonel, og denne reduceres til enhedsmatricen I, der har et-taller på diagonalen. Når normalligningerne er løst, har vi det bedste estimat (i mindste kvadraters forstand) for elementerne i modellen. Residualerne kan

28 Kapitel 2. Udjævning af lineære problemer 23 herefter bestemmes ved ˆr = Aˆx b. (2.21) 2.5 Opgaver Opgave 2.1 Langs en målelinie er målt 4 fodpunkter og 4 perpendikulærer f 1 =15 p 1 =15.97 f 2 =25 p 2 =17.23 f 3 =40 p 3 =19.19 f 4 =60 p 4 = p 1 p 2 p 3 p 4 f 1 f 2 f 3 f 4 Fodpunkterne antages at være bestemt fejlfrit. Bestem den rette linie p = a f +b, der bedst muligt beskriver de fire punkter. Beregn residualerne til perpendikulærerne. Opgave 2.2 I et nivellementsnet er fem højdeforskelle målt mellem fire punkter ved geometrisk nivellement. Koten til punkt A er kendt, H A = Observationerne er b 1 = 2.023, b 2 = 1.016, b 3 =1.982, b 4 = 0.998og b 5 =1.022.

29 Kapitel 2. Udjævning af lineære problemer 24 B b 2 C b 1 b 5 b 3 A b 4 D Bestem lukkesummerne for ring ABC og ring ACD. Opstil A matricen og bestemt koterne til punkt B, punkt C og punkt D. Beregn residualerne og bestemt de korrigerede observationer. Kontroller efter udjævningen, at lukkesummerne er nul, når de korrigerede observationer anvendes. Opgave 2.3 Perpendikulærerne i opgave 2.1 er bestemt med følgende spredninger: σ p1 =0.02, σ p2 =0.01, σ p3 =0.01 og σ p4 =0.02. Opstil vægtmatricen C og bestemt koefficienterne til den rette linie ved hjælp af (2.20). Beregn residualerne. Sammenlign med resultaterne fra opgave 2.1. Opgave 2.4 Længderne af de nivellerede strækninger i opgave 2.2 er, udtrykt i kilometer, s 1 =3.2, s 2 =4.0, s 3 =2.7, s 4 =5.7 ogs 5 =6.9. Opstil ved hjælp af (5.2) vægtmatricen C for nivellementsobservationerne. Kilometerspredningen er m/ km. Beregn koterne til punkterne B, C og D ved at inddrage vægtmatricen i udjævningen. Beregn ydeligere residualer og korrigerede observatioener. Sammenlign med resultaterne fra opgave 2.2. Opgave 2.5 Regn opgave 2.4 som fri udjævning.

30 Kapitel 3 Udjævning af ulineære problemer Hidtil er kun problemer med lineære observationerligninger blevet udjævnet. Denne type problemer er karakteriseret ved, at A matricen udelukkende indeholder konstanter jævnfør kapitel 2. Normalligningerne har ligeledes været lineære. Dette betyder, at når normalligningerne er løst, har vi umiddelbart mindste kvadraters estimat for elementerne. Det er i midlertid kun få af de problemer vi arbejder med i landmåling, der leder til lineære observationsligninger; oftest er de ulineære. Mindste kvadraters princip kan anvendes på ulineære problemer, men det komplicerer regningerne. Dette kapitlet beskriver derfor, hvordan det er muligt at anvende formelapparatet fra kapitel 2, selvom der arbejdes med ulineære problemer. Det skal pointeres, at lineariseringen og den iterative løsning af udjævningsproblemet, der præsenteres i dette kapitel, udelukkende er teknikker, der gør det muligt at bruge formlerne fra kapitel Linearisering Mindste kvadraters princip anvendes som regel på lineære modeller. Når vi møder modeller, der involverer ulineære ligninger, må ligningerne derfor lineariseres. Ligningerne lineariseres ved en Taylor rækkeudvikling. For at kunne linearisere en ligning ved rækkeudvikling, må vi kende et godt bud på hvilke værdier de ubekendte variable i ligningen har. Ved linearisering af observationsligninger må vi derfor kende gode værdier for elementerne, der er de ubekendte variable i observationsligningerne. Dette bud på elementernes værdier kaldes de foreløbige værdier. Nu er det jo elementerne, vi ønsker at bestemme gennem udjævningen, og derfor kender vi ikke elementernes værdier på forhånd. Der er desværre ingen entydig opskrift på hvordan de foreløbige værdier bestemmes. Oftest er det dog muligt at beregne foreløbige værdier udfra en del af observationsmaterialet.

31 Kapitel 3. Udjævning af ulineære problemer 26 En ulineær observationsligning i en ubekendt kan skrives som b = F (x). I dette tilfælde er den ubekendte x. Den lineariserede ligning er givet ved b = F (x 0 ) + F(x) }{{} x (x x 0 ) + }{{}, (3.1) x=x 0 0 te orden }{{} højere orden 1 te orden hvor x 0 er den foreløbige værdi for x. 0 te ordens leddet er første led i (3.1). Dette er observationen, der svarer til x 0. Den numeriske værdi for leddet findes ved at indsætte x 0 iden ulineære observationslingning. 1 te ordens leddet er andet led i i (3.1). Dette led består af den partielt afledede af funktionen med hensyn til elementet udregnet i den foreløbige værdi ganget med forskellen mellem elementet og den foreløbige værdi. Højere ordens led medtages ikke. Rækkeudviklingen sluttes altså efter 1 te ordens leddet, således 2. ordens og højere led bortfalder. Grunden hertil er, at 2. ordens og højere led er ulineære. Y F (x) P Ulineær funktion F (x 0 )+ F(x) x x 0 (x x 0 ) P F(x) x Lineær funktion x 0 (x x 0 ) F (x 0 ) O x 0 x x 0 x X Figur 3.1: Linearisering af funktion.

32 Kapitel 3. Udjævning af ulineære problemer 27 Lineariseringen er illustreret i figur 3.1. Den ulineære funktion er vist i figuren som en krum kurve, mens den lineariserede funktion er givet ved den rette linie. Den foreløbige værdi for elementet er benævnt x 0. 0 te ordens leddet i rækkeudviklingen er funktionsværdien svarende til x 0. Punktet svarende hertil er markeret med O. 1 te ordens leddet i rækkeudviklingen er hældningskvotienten i x 0 ganget med forskellen mellem x og x 0. Hældningskvotienten i punkt x 0 ) er hældningen for tangenten til kurven i punkt x0.1 te x=x 0 ( F(x) x ordens leddet er altså funktionstilvæksten for tangenten for stykket (x x 0 ). Denne størrrelse er den vertikale afstand mellem punkt O og punkt P på figuren. Højere orden. Funktionsværdien for den ulineære funktion svarende til elementet x er F (x). Punktet på kurven, der svarer hertil, er markeret med P. Den vertikale afstand mellem P og P er den fejl, der begås ved at stoppe rækkeudviklingen efter 1 te ordens leddet. Jo større forskellen er mellem x og x 0, jo større fejl begås. Det er derfor vigtigt, at den forløbige værdi x 0 ligger så tætpå x som muligt. Eksempel 3.1 En observationsligning, der beskriver en parabel, lineariseres. Ligningen er givet ved b = x 2. Den lineariserede ligning er ifølge (3.1) b = (x 0 ) 2 }{{} +2x 0 (x x 0 ). }{{} 0 te orden 1 te orden Vi vælger at linearisere funktionen om den foreløbige værdi x 0 =2.Samtidig antager vi, at x = 3. Funktionsværdien for den lineariserede observationsligninger er 8mens den den ulineære observationsligning har værdien 9. Ved lineariseringen begår vi altså enfejlpå9 8= 1 ved at vælge 2 som foreløbig værdi. Vi antager nu, at den ulineære observationsligning er funktion af to variable, x 1 og x 2,detvilsige b = F (x 1,x 2 ). (3.2) Den lineariserede ligning er nu givet ved b = F (x 0 F(x) 1,x0 2 )+ (x 1 x 0 F(x) 1 )+ x 1 x 2 x1 =x 0 1 x2 =x 0 2 (x 2 x 0 2 ). (3.3)

33 Kapitel 3. Udjævning af ulineære problemer 28 De foreløbige værdier for x 1 og x 2 kaldes x 0 1 og x0 2. Ligningen svarer til (3.1) blot der er tilføjet endnu en variabel. Når antallet af ubekendte stiger, vokser (3.3) tilsvarende. For at udtrykke (3.3) så kompakt som muligt indføres ma- trixnotation. Differentialkvotienterne F(x) x1 x 1 =x 0 1 j 1 og j 2. Ligning (3.3) kan derfor skrives som og F(x) x 2 x2 =x 0 2 benævnes b = F (x 0 1,x 0 2)+j 1 (x 1 x 0 1)+j 2 (x 2 x 0 2) = b 0 + j 1 (x 1 x 0 1 )+j 2(x 2 x 0 2 ). (3.4) 0 te ordens leddet b 0 bestemmes ved at indsætte de foreløbige værdier i den ulineære observationsligning (3.2). Differentialkvotienterne samles i en rækkevektor j og forskellene mellem de ukendte variable (elementer) og de foreløbige værdier samles i søjlevektoren ˆx. Endelig flyttes b 0 over på ligningens venstre side og b b 0 samles i en b vektor j = [ [ ] (x1 x j 1 j 2 ˆx = 0 1 ) ] (x 2 x 0 2 ) b = [ b b 0]. (3.5) Ligning (3.4) kan nu skrives som b = jˆx. (3.6) Hvis antallet af variable stiger til n har (3.6) stadig følgende generelle form b = jˆx, (3.7) hvor j og ˆx begge indeholder n elementer. Ligning (3.7) udtrykker lineariseringen af en ligning, der er funktion af n forskellige variable. For at forblive ved observationsligningerne er det altså ligningen for én observation, der er funktion af n elementer. Eksempel 3.2 Eksempel 3.1, side 63 i (Borre, 1992) gennemarbejdes i større detalje. Fra tre kendte punkter er målt afstande til et fjerde punkt, hvis koordinater ønskes bestemt. I første omgang vælges koordinaterne til alle punkterne som elementer eller ubekendte i udjævningen. Der er derfor otte elementer (Y 1, Y 2, Y 3, Y P, X 1, X 2, X 3, X P ). Svarende til de otte elementer vælges otte foreløbige koordinater (Y1 0, Y 2 0, Y 3 0, Y P 0, X0 1, X0 2, X0 3, X0 P ). De tre afstandsobservationer er målt med ens præcision, så vægtmatricen C er identisk med enhedsmatricen I, der har ettaller på diagonalen og nuller udenfor. Observationsligningen for en afstandsobservation fra punkt j til punkt k er givet ved b i = F i (Y k,y j,x k,x j )= (Y k Y j ) 2 +(X k X j ) 2. (3.8)

34 Kapitel 3. Udjævning af ulineære problemer 29 Indeks i henviser til den i te observation. I lineariseringsprocessen skal de partielt afledede af funktionen med hensyn til elementerne bestemmes b i Y j b i Y k b i X j b i X k Yj =Y 0 j Yk =Y 0 k Xj =X 0 j Xk =X 0 k = Yk 0 + Y j 0 (Y 0 k + Y 0 j )2 +(X 0 k X0 j )2 = = Y k 0 Y j 0 b 0 i = X0 k + X0 j b 0 i = X0 k X0 j b 0 i =sinα 0 jk = cos α 0 jk =cosα 0 jk. Yk 0 + Y j 0 b 0 i = sin α 0 jk (3.9) Afstanden mellem de foreløbige koordinater kaldes b 0 i. Denne findes ved indsætte de foreløbige værdier i (3.8). Nu ses på afstandsobservationen frapunkt 1 til punkt P. Den ulineære observationsligning er b 1 = F 1 (Y 1,Y P,X 1,X P )= (Y 1 Y P ) 2 +(X 1 X P ) 2. Observationsligningen er funktion af koordinaterne til punkt 1 og punkt P. Fremover angives ikke, at partielt afledede beregnes i de foreløbige værdier. I lineariseret form er ligningen givet ved b 1 = F 1 (Y 0 1,Y0 P,X0 1,X0 P ) + b 1 Y 1 (Y 1 Y 0 1 )+ b 1 Y P (Y P Y 0 P ) + b 1 X 1 (X 1 X 0 1 )+ b 1 X P (X P X 0 P ) = b Y P 0 + Y 1 0 b 0 (Y 1 Y 1 0 )+ YP 0 Y b 0 (Y P YP 0 ) 1 + X0 P + X0 1 b 0 1 (X 1 X 0 1 )+X0 P X0 1 b 0 1 (X P X 0 P ) = b j 1Y 1 (Y 1 Y 0 1 )+j 1Y P (Y P Y 0 P )j 1X 1 (X 1 X 0 1 )+j 1X P (X P X 0 P ). Dobbeltindekseringen af j erne angiver hvilken observationsligning, der differentieres med hensyn til hvilket element. For eksempel er j 1XP første observationsligning differentieret med hensyn til X P.

35 Kapitel 3. Udjævning af ulineære problemer 30 Analogt til (3.5) opstilles j, ˆx og b vektorerne j 1 = [ j 1Y1 j 1YP j 1X1 j 1XP ] ˆx 1 = (Y 1 Y 0 1 ) (Y P Y 0 P ) (X 1 X 0 1 ) (X P X 0 P ) b 1 = [ b 1 b 0 ] 1, så den lineariserede ligning nu kan skrives som b 1 = j 1ˆx 1. Indeks 1 ved j, ˆx og b vektorerne henviser til observation nummer et. I udjævningsproblemer arbejdes med flere observationer ad gangen. Derfor udvides beskrivelsen fra at omhandle én observation til at omhandle m observationer, der hver især er funktion af de n variable. b 1 = F 1 (x 1,x 2,,x n ) b 2 = F 2 (x 1,x 2,,x n ). b m = F m (x 1,x 2,,x n ). Analogt til (3.4) lineariseres hver ligning b 1 = b j 11 (x 1 x 0 1)+j 12 (x 2 x 0 2)+ + j 1n (x n x 0 n) b 2 = b j 21(x 1 x 0 1 )+j 22(x 2 x 0 2 )+ + j 2n(x n x 0 n ). b m = b 0 m + j m1(x 1 x 0 1 )+j m2(x 2 x 0 2 )+ + j mn(x n x 0 n ). (3.10) Ligning (3.10) skrives mere kompakt ved at samle de partielt afledede i m rækkevektorer, j 1 = [ j 11 j 12 j 1n ], j2 = [ j 21 j 22 j 2n ] og så videre. Analogt til (3.5) opstilles m søjlevektorer ˆx i indeholdende forskellene mellem elementerne og de foreløbige værdier. Ligningen (3.10) skrives nu som b 1 = b j 1ˆx 1 b 2 = b j 2ˆx 2. b m = b 0 m + j mˆx m.

36 Kapitel 3. Udjævning af ulineære problemer 31 Ligningen omordnes b 1 b 0 1 = j 1ˆx 1 b 2 b 0 2 = j 2ˆx 2. b m b 0 m = j mˆx m. (3.11) Der er m j vektorer, der hver indeholder n partielt afledede. Vektorerne kan samles i en m n J matrix, hvor j 1 udgør første række, j 2 udgør anden række og så videre. Venstre side af ligning 3.11 samles i en m 1 søjlevektor b j 11 j 12 j 1n b 1 b 0 1 j 21 j 22 j 2n J =......, b = b 2 b j m1 j m2 j mn b m b 0 m J matricen omdøbes til A og (3.11) skrives ganske kort i matrixform som b = Aˆx. A er designmatricen. Ved endeligt at introducere residualvektoren fås observationsligningerne, der kendes fra kapitel 2. b = Aˆx ˆr. Eksempel 3.3 Fortsat fra eksempel 3.2. Efter samme fremgangsmåde som i eksempel 3.2 opstilles de lineariserede observationsligninger for anden og tredie observation b 2 = j 2ˆx 2 b 3 = j 3ˆx 3. For disse to observationer indeholder j, ˆx og b vektorerne (Y 2 Y2 0) j 2 = [ ] (Y P YP 0 j 2Y2 j 2YP j 2X2 j 2XP ˆx 2 = ) (X 2 X2 0) b 2 = [ b 2 b 0 ] 2 (X P XP 0 ) (Y 3 Y3 0) j 3 = [ ] (Y P YP 0 j 3Y3 j 3YP j 3X3 j 3XP ˆx 3 = ) (X 3 X3 0) b 3 = [ b 3 b 0 ] 3. (X P XP 0 )

37 Kapitel 3. Udjævning af ulineære problemer 32 De tre j vektorer samles nu til A matricen, således j 1 udgør første række i matricen, j 2 udgør anden række i matricen og j 3 udgør tredie række i matricen j 1Y1 0 0 j 1YP j 1X1 0 0 j 1XP A = 0 j 2Y2 0 j 2YP 0 j 2X2 0 j 2XP. 0 0 j 3Y3 j 3YP 0 0 j 3X3 j 3XP De tre ˆx vektorer samles ligeledes til én vektor. Endelig samles b vektorerne til én vektor (Y 1 Y1 0) (Y 2 Y2 0) (Y 3 Y3 0) ˆx = (Y P YP 0 ) b 1 b 0 1 (X 1 X1 0 ) b = b 2 b 0 2. (X 2 X2 0 ) b 3 b 0 3 (X 3 X3 0) (X P XP 0 ) Hver række i A svarer til en observation og hver søjle svarer til et element i udjævningen; i dette tilfælde altså en koordinat. Række et svarer til observation 1, række to svarer til observation 2 og række tre svarer til observation 3. I eksempel 3.2 valgtes følgende rækkefølge af elementerne: Y 1, Y 2, Y 3, Y P, X 1, X 2, X 3, X P.SøjlerneiA kommer i samme rækkefølge. Første søjle svarer til Y 1, anden søjle svarer til Y 2 og så videre. Rækkefølgen i ˆx vektoren skal være den samme som rækkefølgen af søjlerne i A. Tilsvarende skal rækkefølgen i b svare til rækkefølgen af rækkerne i A. Første række i A beskriver afstandsobservationen fra punkt 1 til punkt P. Denne observation er kun funktion af netop koordinaterne til disse to punkter. Derfor er kun pladserne i søjle 1, 4, 5 og 8besat, da disse er knyttet til de fire koordinater Y 1, Y P, X 1 og X P. Det forholder sig tilsvarende med de to øvrige rækker i A. Koordinaterne til punkterne 1, 2 og 3 er kendte i forvejen som nævnt i eksempel 3.2. Det er kun koordinaterne til punkt P, der ønskes bestemt gennem udjævningen. Søjlerne i A svarende til de tre kendte koordinater slettes derfor; det er søjle 1, 2, 3, 5, 6 og 7. De tilsvarende pladser i ˆx slettes ligeledes. Matricerne er nu reduceret til A = j 1YP j 2YP j 3YP j 1XP j 2XP j 3XP ˆx = [ (YP YP 0) ] (X P XP 0 ) b 1 b 0 1 b = b 2 b 0 2. b 3 b 0 3

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 3 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 38 Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte)

Læs mere

Anvendt Lineær Algebra

Anvendt Lineær Algebra Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger

Læs mere

LiA 2 Side 0. Lineær algebra 3. kursusgang

LiA 2 Side 0. Lineær algebra 3. kursusgang LiA 2 Side 0 Lineær algebra 3. kursusgang LiA 2 Side 1 Højdeforskelle. D C 0.7 0.7 0.8 E LiA 2 Side 2 Vi har tre punkter C, D og E. Højderne er h C, h D, h E. (I det følgende benævnes disse også x, y,

Læs mere

Lineær algebra 4. kursusgang

Lineær algebra 4. kursusgang Lineær algebra 4. kursusgang Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte) Ax = b. Ligningssystemet antages at være inkonsistent (ingen løsninger) fordi tallene er fremkommet

Læs mere

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n. Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),

Læs mere

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/36 Estimation af varians/spredning Antag X 1,...,X n stokastiske

Læs mere

Vægte motiverende eksempel. Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl. Vægtet model. Vægtrelationen

Vægte motiverende eksempel. Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl. Vægtet model. Vægtrelationen Vægte motiverende eksempel Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - kkb@mathaaudk Institut for Matematiske Fag Aalborg Universitet Højdeforskellen mellem punkterne P

Læs mere

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Institut for Matematiske Fag Aalborg Universitet 1/1 Vægtet

Læs mere

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X

Læs mere

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0. Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:

Læs mere

Landmålingens fejlteori - Repetition - Fordeling af slutfejl - Lektion 8

Landmålingens fejlteori - Repetition - Fordeling af slutfejl - Lektion 8 Landmålingens fejlteori Repetition - Fordeling af slutfejl Lektion 8 - tvede@math.aau.dk http://www.math.aau.dk/ tvede/teaching/l4 Institut for Matematiske Fag Aalborg Universitet 15. maj 2008 1/13 Fordeling

Læs mere

Lineær algebra Kursusgang 6

Lineær algebra Kursusgang 6 Lineær algebra Kursusgang 6 Mindste kvadraters metode og Cholesky dekomposition Vi ønsker at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem hvor A er en m n matrix. Ax = b,

Læs mere

LiA 5 Side 0. Lineær algebra Kursusgang 5

LiA 5 Side 0. Lineær algebra Kursusgang 5 LiA 5 Side 0 Lineær algebra Kursusgang 5 LiA 5 Side 1 Ved bestemmelse af mindste kvadraters løsning til (store) ligningssystemer vil man gerne anvende en metode der opfylder to krav: antallet af regneoperationer

Læs mere

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:

Læs mere

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen Landmålingens fejlteori Lektion Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet En stokastisk variabel er en variabel,

Læs mere

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable Landmålingens fejlteori - lidt om kurset Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet Kursusholder

Læs mere

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan

Læs mere

Aflevering 4: Mindste kvadraters metode

Aflevering 4: Mindste kvadraters metode Aflevering 4: Mindste kvadraters metode Daniel Østergaard Andreasen December 2, 2011 Abstract Da meget få havde løst afleveringsopgave 4, giver jeg har en mulig (men meget udførlig) løsning af opgaven.

Læs mere

Landmålingens fejlteori - Lektion 5 - Fejlforplantning

Landmålingens fejlteori - Lektion 5 - Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke

Læs mere

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006 Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af

Læs mere

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2

Affine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2 Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket

Læs mere

Tema. Dagens tema: Indfør centrale statistiske begreber.

Tema. Dagens tema: Indfør centrale statistiske begreber. Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i

Læs mere

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/41 Landmålingens fejlteori - lidt om kurset

Læs mere

Den todimensionale normalfordeling

Den todimensionale normalfordeling Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives

Læs mere

Matricer og lineære ligningssystemer

Matricer og lineære ligningssystemer Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem

Læs mere

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,

Læs mere

Kursusgang 3 Matrixalgebra Repetition

Kursusgang 3 Matrixalgebra Repetition Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte

Læs mere

Løsning til eksaminen d. 14. december 2009

Løsning til eksaminen d. 14. december 2009 DTU Informatik 02402 Introduktion til Statistik 200-2-0 LFF/lff Løsning til eksaminen d. 4. december 2009 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition,

Læs mere

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i. Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og

Læs mere

Produkt og marked - matematiske og statistiske metoder

Produkt og marked - matematiske og statistiske metoder Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 19, 2016 1/26 Kursusindhold: Sandsynlighedsregning og lagerstyring

Læs mere

Vektorer og lineær regression

Vektorer og lineær regression Vektorer og lineær regression Peter Harremoës Niels Brock April 03 Planproduktet Vi har set, at man kan gange en vektor med et tal Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder

Læs mere

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser

Uge 43 I Teoretisk Statistik, 21. oktober Forudsigelser Uge 43 I Teoretisk Statistik,. oktober 3 Simpel lineær regressionsanalyse Forudsigelser Fortolkning af regressionsmodellen Ekstreme observationer Transformationer Sammenligning af to regressionslinier

Læs mere

Vektorer og lineær regression. Peter Harremoës Niels Brock

Vektorer og lineær regression. Peter Harremoës Niels Brock Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.

Læs mere

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17

Analysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17 nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse

Læs mere

Afstande, skæringer og vinkler i rummet

Afstande, skæringer og vinkler i rummet Afstande, skæringer og vinkler i rummet Frank Nasser 9. april 20 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her.

Læs mere

Matematik for økonomer 3. semester

Matematik for økonomer 3. semester Matematik for økonomer 3. semester cand.oecon. studiet, 3. semester Planchesæt 2 - Forelæsning 3 Esben Høg Aalborg Universitet 10. september 2009 Institut for Matematiske Fag Aalborg Universitet Esben

Læs mere

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M. Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen

Læs mere

Landmålingens fejlteori - Lektion 3. Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering

Landmålingens fejlteori - Lektion 3. Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering Landmålingens fejlteori Lektion 3 Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition: Middelværdi og

Læs mere

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.

Nøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix. Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse

Læs mere

Kvantitative Metoder 1 - Forår 2007

Kvantitative Metoder 1 - Forår 2007 Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte

Læs mere

Kapitel 11 Lineær regression

Kapitel 11 Lineær regression Kapitel 11 Lineær regression Peter Tibert Stoltze stat@peterstoltze.dk Elementær statistik F2011 1 / 1 Indledning Vi modellerer en afhængig variabel (responset) på baggrund af en uafhængig variabel (stimulus),

Læs mere

Forelæsning 11: Kapitel 11: Regressionsanalyse

Forelæsning 11: Kapitel 11: Regressionsanalyse Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske Universitet 2800

Læs mere

Afstande, skæringer og vinkler i rummet

Afstande, skæringer og vinkler i rummet Afstande, skæringer og vinkler i rummet Frank Villa 2. maj 202 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her. Indhold

Læs mere

Analyse af måledata II

Analyse af måledata II Analyse af måledata II Usikkerhedsberegning og grafisk repræsentation af måleusikkerhed Af Michael Brix Pedersen, Birkerød Gymnasium Forfatteren gennemgår grundlæggende begreber om måleusikkerhed på fysiske

Læs mere

1 Regressionsproblemet 2

1 Regressionsproblemet 2 Indhold 1 Regressionsproblemet 2 2 Simpel lineær regression 3 2.1 Mindste kvadraters tilpasning.............................. 3 2.2 Prædiktion og residualer................................. 5 2.3 Estimation

Læs mere

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version

University of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version university of copenhagen University of Copenhagen Notat om statistisk inferens Larsen, Martin Vinæs Publication date: 2014 Document Version Peer-review version Citation for published version (APA): Larsen,

Læs mere

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning

Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 1 Regressionsproblemet 2 Simpel lineær regression Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 3

Læs mere

Lineære normale modeller (4) udkast

Lineære normale modeller (4) udkast E6 efterår 1999 Notat 21 Jørgen Larsen 2. december 1999 Lineære normale modeller (4) udkast 4.5 Regressionsanalyse 4.5.1 Præsentation 1 Regressionsanalyse handler om at undersøge hvordan én målt størrelse

Læs mere

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning

Chapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis

Læs mere

Algebra - Teori og problemløsning

Algebra - Teori og problemløsning Algebra - Teori og problemløsning, januar 05, Kirsten Rosenkilde. Algebra - Teori og problemløsning Kapitel -3 giver en grundlæggende introduktion til at omskrive udtryk, faktorisere og løse ligningssystemer.

Læs mere

Oversigt [LA] 3, 4, 5

Oversigt [LA] 3, 4, 5 Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers

Læs mere

Kvadratiske matricer. enote Kvadratiske matricer

Kvadratiske matricer. enote Kvadratiske matricer enote enote Kvadratiske matricer I denne enote undersøges grundlæggende egenskaber ved mængden af kvadratiske matricer herunder indførelse af en invers matrix for visse kvadratiske matricer. Det forudsættes,

Læs mere

Statistiske modeller

Statistiske modeller Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder

Læs mere

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition

Læs mere

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com

Matrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund mail@jesperlund.com http://www.jesperlund.com 28. august 2002 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder

Læs mere

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.

3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven. PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve

Læs mere

Normalfordelingen og Stikprøvefordelinger

Normalfordelingen og Stikprøvefordelinger Normalfordelingen og Stikprøvefordelinger Normalfordelingen Standard Normal Fordelingen Sandsynligheder for Normalfordelingen Transformation af Normalfordelte Stok.Var. Stikprøver og Stikprøvefordelinger

Læs mere

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x) Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen

Læs mere

Det teknisk-naturvidenskabelige basisår Matematik 1A, Efterår 2005, Hold 3 Prøveopgave B

Det teknisk-naturvidenskabelige basisår Matematik 1A, Efterår 2005, Hold 3 Prøveopgave B Det teknisk-naturvidenskabelige basisår Matematik 1A, Efterår 2005, Hold 3 Opgaven består af fire dele, hver med en række spørgsmål, efterfulgt af en liste af teorispørgsmål. I alle opgavespørgsmålene

Læs mere

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse.

Tema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. Tema Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. (Fx. x. µ) Hypotese og test. Teststørrelse. (Fx. H 0 : µ = µ 0 ) konfidensintervaller

Læs mere

4 Oversigt over kapitel 4

4 Oversigt over kapitel 4 IMM, 2002-09-14 Poul Thyregod 4 Oversigt over kapitel 4 Introduktion Hidtil har vi beskæftiget os med data. Når data repræsenterer gentagne observationer (i bred forstand) af et fænomen, kan det være bekvemt

Læs mere

Matematisk modellering og numeriske metoder. Lektion 13

Matematisk modellering og numeriske metoder. Lektion 13 Matematisk modellering og numeriske metoder Lektion 3 Morten Grud Rasmussen 3. november 206 Numerisk metode til Laplace- og Poisson-ligningerne. Finite difference-formulering af problemet I det følgende

Læs mere

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode

Oversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Oversigt 1 Gennemgående eksempel: Højde og vægt 2 Korrelation 3 Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse

Læs mere

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt

Læs mere

Om hypoteseprøvning (1)

Om hypoteseprøvning (1) E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;

Læs mere

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007

Rettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007 Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave

Læs mere

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6

Udeladelse af én observation. Note til kapitlerne 4, 5 og 6 Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række

Læs mere

Kursusgang 3 Matrixalgebra fortsat

Kursusgang 3 Matrixalgebra fortsat Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse

Læs mere

Løsning eksamen d. 15. december 2008

Løsning eksamen d. 15. december 2008 Informatik - DTU 02402 Introduktion til Statistik 2010-2-01 LFF/lff Løsning eksamen d. 15. december 2008 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition, 7th

Læs mere

Kapitel 12 Variansanalyse

Kapitel 12 Variansanalyse Kapitel 12 Variansanalyse Peter Tibert Stoltze stat@peterstoltzedk Elementær statistik F2011 Version 7 april 2011 1 / 43 Indledning Sammenligning af middelværdien i to grupper indenfor en stikprøve kan

Læs mere

Affine transformationer/afbildninger

Affine transformationer/afbildninger Affine transformationer. Jens-Søren Kjær Andersen, marts 2011 1 Affine transformationer/afbildninger Følgende afbildninger (+ sammensætninger af disse) af planen ind i sig selv kaldes affine: 1) parallelforskydning

Læs mere

Lineær algebra 1. kursusgang

Lineær algebra 1. kursusgang Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra

Læs mere

Institut for Matematiske Fag Matematisk Modellering 1 UGESEDDEL 6

Institut for Matematiske Fag Matematisk Modellering 1 UGESEDDEL 6 Institut for Matematiske Fag Matematisk Modellering 1 Aarhus Universitet Eva B. Vedel Jensen 25. februar 2008 UGESEDDEL 6 Forelæsningerne torsdag den 21. februar og tirsdag den 26. februar. Jeg har gennemgået

Læs mere

Oprids over grundforløbet i matematik

Oprids over grundforløbet i matematik Oprids over grundforløbet i matematik Dette oprids er tænkt som en meget kort gennemgang af de vigtigste hovedpointer vi har gennemgået i grundforløbet i matematik. Det er en kombination af at repetere

Læs mere

Kursus i Landmåling, Cad og GIS (LCG) Vej og Trafik, 5. semester og Byggeri og Anlæg, 1. semester, 2012

Kursus i Landmåling, Cad og GIS (LCG) Vej og Trafik, 5. semester og Byggeri og Anlæg, 1. semester, 2012 Kursus i Landmåling, Cad og GIS (LCG) Vej og Trafik, 5. semester og yggeri og Anlæg, 1. semester, 2012 LCG-1. Introduktion til landmåling 1. Danmarks fikspunktsregister (I) 2. Horisontalretningsmåling

Læs mere

Kvadratisk regression

Kvadratisk regression Kvadratisk regression Helle Sørensen Institut for Matematiske Fag Københavns Universitet Juli 2011 I kapitlet om lineær regression blev det vist hvordan man kan modellere en lineær sammenhæng mellem to

Læs mere

Elementær sandsynlighedsregning

Elementær sandsynlighedsregning Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en

Læs mere

Module 3: Statistiske modeller

Module 3: Statistiske modeller Department of Statistics ST502: Statistisk modellering Pia Veldt Larsen Module 3: Statistiske modeller 31 ANOVA 1 32 Variabelselektion 4 321 Multipel determinationskoefficient 5 322 Variabelselektion med

Læs mere

Vejledende besvarelser til opgaver i kapitel 14

Vejledende besvarelser til opgaver i kapitel 14 Vejledende besvarelser til opgaver i kapitel 14 Opgave 1 a) Det første trin i opstillingen af en hypotesetest er at formulere to hypoteser, hvoraf den ene støtter den teori vi vil teste, mens den anden

Læs mere

Anvendt Statistik Lektion 8. Multipel Lineær Regression

Anvendt Statistik Lektion 8. Multipel Lineær Regression Anvendt Statistik Lektion 8 Multipel Lineær Regression 1 Simpel Lineær Regression (SLR) y Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke

Læs mere

Anvendt Statistik Lektion 7. Simpel Lineær Regression

Anvendt Statistik Lektion 7. Simpel Lineær Regression Anvendt Statistik Lektion 7 Simpel Lineær Regression 1 Er der en sammenhæng? Plot af mordraten () mod fattigdomsraten (): Scatterplot Afhænger mordraten af fattigdomsraten? 2 Scatterplot Et scatterplot

Læs mere

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret

Læs mere

Introduktion til differentialregning 1. Jens Siegstad og Annegrethe Bak

Introduktion til differentialregning 1. Jens Siegstad og Annegrethe Bak Introduktion til differentialregning 1 Jens Siegstad og Annegrete Bak 16. juli 2008 1 Indledning I denne note vil vi kort introduktion til differentilregning, idet vi skal bruge teorien i et emne, Matematisk

Læs mere

Module 1: Lineære modeller og lineær algebra

Module 1: Lineære modeller og lineær algebra Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........

Læs mere

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager

Læs mere

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006

Økonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006 Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W

Læs mere

Modulpakke 3: Lineære Ligningssystemer

Modulpakke 3: Lineære Ligningssystemer Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system

Læs mere

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k

Poul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k Dagens program: Likelihoodfunktion, begreber : Mandag den 4. februar Den generelle lineære model score-funktion: første afledede af log-likelihood har middelværdien nul observeret information: anden afledede

Læs mere

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3 Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april

Læs mere

Opgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved

Opgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved Matematisk Modellering 1 (reeksamen) Side 1 Opgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved { 1 hvis x {1, 2, 3}, p X (x) = 3 0 ellers,

Læs mere

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra

Matrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra Matrx-vektor produkt [ ] 1 2 3 1 0 2 1 10 4 Rotationsmatrix Sæt A θ = [ ] cosθ sinθ sinθ cosθ At gange vektor v R 2 med A θ svarer til at rotere vektor v med vinkelen θ til vektor w: [ ][ ] [ ] [ ] cosθ

Læs mere

Nanostatistik: Opgavebesvarelser

Nanostatistik: Opgavebesvarelser Nanostatistik: Opgavebesvarelser JLJ Nanostatistik: Opgavebesvarelser p. 1/16 Pakkemaskine En producent hævder at poserne indeholder i gennemsnit 16 ounces sukker. Data: 10 pakker sukker: 16.1, 15.8, 15.8,

Læs mere

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Kursus 02402 Introduktion til Statistik Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske

Læs mere

Kvantitative Metoder 1 - Forår Dagens program

Kvantitative Metoder 1 - Forår Dagens program Dagens program Kontinuerte fordelinger Simultane fordelinger Kovarians og korrelation Uafhængighed Betingede fordelinger - Middelværdi og varians - Sammenhæng med uafhængighed 1 Figur 1: En tæthedsfunktion

Læs mere