Udjævning. Peter Cederholm
|
|
- Sidsel Madsen
- 6 år siden
- Visninger:
Transkript
1 Udjævning Peter Cederholm
2 Udjævning Peter Cederholm Udjævning. 2. udgave, 1. revision, 2000.
3 Forord Disse noter er skrevet i forbindelse med afholdelse af udjævningskurser for landinspektørstuderende på studiets 5. og 8. semester. Noterne dækker ikke alt det stof, der gennemgås i kurserne, hvorfor anden litteratur må studeres sideløbende. Noterne er udarbejdet på baggrund af materialet i litteraturlisten. På landinspektørstudiet bruges i øjeblikket udjævningsprogrammet Turbo- Net. Et kapitel omhandler derfor brug af dette program. De øvrige kapitler er af generel karakter. Som supplement til noterne findes en diskette med blandt andet de Turbo-Net filer, der gennemgås i noterne. Udjævningsteorien er løbende suppleret med eksempler, der anvender teorien. Eksemplerne bør derfor ved læsningen tillægges lige så stor vægt som den omgivende tekst. Tegnet angiver afslutningen på et eksempel. Eksemplerne er i høj grad beregnet med Matlab. En del Matlab filer findes på disketten. Noterne er suppleret med opgaver. Svar til disse er givet sidst inoterne. En tak skal rettes til Karsten Jensen, Laboratoriet for Geoinformatik, AAU for at have kommenteret en del af noterne. Kommentarer, rettelser og ændringsforslag modtages gerne. Torpet, september 2000
4 Indhold 1 Introduktion 1 2 Udjævning af lineære problemer Mindste kvadraters princip Observationsligninger A priori varians Normalligninger Normalligninger for observationer med ens vægt Normalligninger for observationer med forskellig vægt Generel udledning af normalligninger Opgaver Udjævning af ulineære problemer Linearisering Iterativ løsning Opgaver Vurdering af udjævning I A posteriori variansfaktor A posteriori varians A posteriori varians for elementer A posteriori varians for residualer Normaliserede residualer Konfidensellipser Relative konfidensellipser Testnet Opgaver Turbo-Net Data A priori spredning Horisontalvinkler Zenitdistancer Skråafstande ii
5 iii Geometrisk nivellement Koordinatobservationer GPS Udjævning Fri udjævning af GPS vektorer Fri udjævning af terrestriske observationer Fri udjævning af alle observationer Fri udjævning af alle observationer Fastholdt udjævning af GPS vektorer Fastholdt udjævning af terrestriske observationer Fastholdt udjævning af alle observationer Vurdering af udjævning II Global test Turbo-Net Data Snooping Redundanstal Variansestimation Pålidelighed Intern pålidelighed Ekstern pålidelighed A priori brug af tests Skematisk fremstilling af testforløb Opgaver A Testteori 129 B Kritiske værdier, χ 2 fordeling 135 C Svar til opgaver 137 Litteratur 144
6 Kapitel 1 Introduktion Landmålingsobservationer såsom afstande og retninger observeres ikke kun fordi de selv er af interesse, men fordi de ofte er nødvendige for at bestemme andre størrelser. For eksempel kan observation af retninger og afstande danne grundlag for bestemmelsen af arealet af den figur, observationerne indgår i. Arealet er således beregnet udfra de observerede størrelser. Det er ofte koordinater, der ønskes afledt af observationerne. De sammenhænge, der sammenknytter observationerne og de ønskede størrelser betegnes en matematisk model. Modellen er et teoretisk system, der beskriver en fysisk situation. En sådan beskrivelse er ikke nødvendigvis komplet men omhandler kun de egenskaber, der søges. Den matekatiske modellen opsplittes i to dele: en funktionel model og en stokastisk model. I landmåling beskriver den funktionelle model de geometriske sammenhænge, der forbinder observationerne og de søgte størrelser. Selvom man måske ikke eksplicit tænker på den model, der knytter sig til et specifikt problem, anvendes modellen når observationer bearbejdes til at give det ønskede resultat. Observationer er altid behæftet med tilfældige fejl. Fra et praktisk synspunkt er det vanskeligt at skaffe sig kendskab til de statistiske egenskaber, der knyttet sig til observationer. En metode til at få kendskab til disse egenskaber er at foretage gentagne målinger for på den måde at aflede egenskaberne, men dette er ofte en krævende proces. En anden metode, der ofte anvendes, er at tillægge observationerne statistiske egenskaber, man kender fra tilsvarende observationer foretaget tidligere under lignende forhold. Et eksempel herpå er ved retningsobservationer at anvende den retningsspredning, instrumentfabrikanten angiver i instrumentets manual. Summen af de statistiske antagelser, der knyttet sig til observationerne og de søgte størrelser kaldes den stokastiske model.
7 Kapitel 1. Introduktion 2 Som eksempel på en funktional model ses på størrelsen og formen af en trekant. Fra den plane geometri ved vi, at 1. formen af en trekant kan entydigt bestemmes af to variable. Disse kan være to vilkårlige vinkler i trekanten. 2. størrelsen og formen af en trekant kan entydigt bestemmes af tre variable, hvoraf mindst en må beskrive en sidelængde i trekanten. 3. hvis ydeligere trekantens placering og orientering ønskes bestemt, kræves ydeligere tre variable; ialt seks variable. De tre beskrivelser af trekanten er tre modeller, der bestemmer trekenten på forskellig vis. Det antal variable, der er nødvendig for akkurat at bestemme en model kaldes n. Den variable, der er nødvendige for at bestemme modellen kaldes modellens elementer. I de tre modeller for trekanten er n henholdsvis n = 2, n = 3 og n = 6. Elementerne måvælges,sådeer uafhængige. Hvis trekantens størrelse og form ønskes bestemt, kan de tre vinkler i trekenten ikke vælges som elementer, da den tredie vinkel kan bestemmes udfra de to øvrige. Endvidere kan størrelsen ikke bestemmes udfra tre vinkler alene; der må tilføjes en sidelængde. Formålet med udjævning er at bestemme de bedst mulige værdier for elementerne. Udjævningen kaldes af denne grund en elementudjævning. Inden en udjævning gennemføres må elementerne derfor vælges. Afhængigt af hvad vi ønsker at bestemmes gennem udjævningen, må der vælges forskellige elementer; jævnfør eksemplerne med trekanten. Når elementerne vælges skal følgende betingelser påfyldes: 1. Antallet af elementer skal akkurat kunne bestemme modellen; der må hverken være for mange eller for få elementer. 2. Elementerne skal være uafhængige. Hvis ikke observationerne er i stand til at bestemme de n elementer, er modellen ikke bestemt. Når observationerne akkurat kan bestemme de n elementer er modellen entydigt bestemt. Hvis en af observationerne er behæftet med en grov fejl, er der imidlertid ingen mulighed for at opdage dette. Der er derfor altid god praksis at foretage flere observationer end det absolut minimum, der er nødvendigt for at bestemme modellen. Antallet af observationer kaldes m. Selve observationerne benævnes b. 1. Hvis m<ner modellen ikke bestemt. 2. Hvis m = n er modellen akurat bestemt. 3. Hvis m>ner modellen overbestemt.
8 Kapitel 1. Introduktion 3 I tilfældet hvor m>ner modellen overbestemt, og en udjævning er nødvendig for at bestemme de n elementer entydigt. Hver observation, der overstiger det nødvendige antal observationer n, udgør en overbestemmelse. Antallet af overbestemmelser kaldes u; u = m n. Antallet af overbestemmelser er altså forskellen mellem antallet af observationer og antallet af elementer. Antallet af overbestemmelser kaldes også antallet af frihedsgrader. Overbestemmelserne er kun meningsfulde, hvis observationerne er i stand til at bestemme de n elementer, der beskriver modellen. Som nævnt tidligere kan for eksempel størrelse og form af en trekant ikke bestemmes udfra tre vinkler. Hvis vinklerne måles to gange, så der ialt er seks vinkler, er der tilsyneladende tre overbestemmelser. Modellen kan dog stadig ikke bestemmes, og i det tilfælde giver det derfor ingen mening at tale om overbestemmelser. Når overbestemmelser er til stede, opstår en interessant situation. For hver anvendelig delmængde på n observationer ud af de m tilgængelige observationer fås formodentlig en forskellig bestemmelse af modellen. Hvis for eksempel en sidelængde og de tre vinkler i en trekant er målt, kan trekantens størrelse og form bestemmes på tre måder. For hver af disse kombinationer vil trekanten have forskellig størrelse og form. Dette skyldes, at observationerne er påvirket af tilfældige fejl. De m observationer opfylder altså ikke til sammen modellen. Denne uoverensstemmelse mellem observationer og model løses ved at udskifte observationerne b med et sæt korrigerede observationer ˆb, således detnyesætobservationerˆb bestemmer modellen eksakt. I trekanteksemplet vil det nye sæt estimater for sidelængden og de tre vinkler give præcis den samme trekant ligegyldigt hvordan observationerne kombineres. Alle observationer er nu konsistente med modellen. Dette angiver, at den funktionelle model anses for at være observationerne overlegen. Vi ved, at en sidelængde og to vinkler kan bestemme trekantens størrelse og form, og derfor må observationerne tilpasses dette krav. Hver korrigeret observation ˆb i bestemmes altså udfra den observerede størrelse b i og en korrektion ˆr i,detvilsige ˆb i = b i +ˆr i. (1.1) Korrektionen ˆr i kaldes residualet. Residualerne er ukendte og må bestemmes før ˆb i kan udregnes. På grund af overbestemmelserne er der et uendeligt antal mulige residualer, der vil give et tilsvarende antal korrigerede observationer, der alle opfylder modellen. Blandt alle disse muligheder, er der et sæt residualer, der give den optimale løsning. For at finde denne løsning må endnu et kriterium opfyldes. Der er flere mulige kriterier, men det der oftest bruges i landmåling er mindste kvadraters princip. Processen med at finde
9 Kapitel 1. Introduktion 4 det nye sæt estimater ˆb i overensstemmelse med mindste kvadraters princip kaldes udjævning. Mindste kvadraters udjævning bruges flittigt, ikke kun i landmåling, fotogrammetri og geodæsi, men også i mange andre naturvidenskaber. I de følgende kapitler vises, hvordan mindste kvadraters princip anvendes i forskellige sammenhænge i landmålingen.
10 Kapitel 2 Udjævning af lineære problemer 2.1 Mindste kvadraters princip Når et problem er overbestemt, er en udjævning nødvendig for at finde en entydig løsning på problemet. Hvis vi i øjeblikket antager, at alle observationer er uafhængige og har ens vægt, er mindste kvadraters princip baseret på følgende kriterium: Summen af de kvadrerede residualer skal være minimum, det vil sige φ =ˆr 2 1 +ˆr ˆr2 m = m i=1 ˆr 2 i minimum. (2.1) I (2.1) benævnes φ vægtfunktionen. Når observationerne er uafhængige og har forskellig vægt lyder mindste kvadraters princip: Summen af de kvadrerede og vægtede residualer skal være minimum m φ = c 1ˆr c 2ˆr c mˆr m 2 = c iˆr i 2 i=1 minimum, (2.2) hvor c 1, c 2,, c m er vægtene svarende til observationerne b 1, b 2,, b m. Efter endt udjævning skal to betingelser være opfyldt: 1. Modellen skal opfyldes perfekt af de korrigerede observationer ˆb,jævnfør kapitel 1. Grunden til der foretages en udjævning er jo, at der er for mange observationer til entydigt at bestemme modellen. 2. Mindste kvadraters princip skal være opfyldt. Gennem resten af kapitlet vises ved hjælp af eksempler hvordan princippet bruges i praksis. Eksemplerne bliver gradvist mere komplicerede for til sidst i kapitlet at munde ud i en generel udledning af mindste kvadraters princip.
11 Kapitel 2. Udjævning af lineære problemer 6 Eksempel 2.1 Ved hjælp af mindste kvadraters princip ønskes en afstand x bestemt udfra målinger af denne. Da modellen kun involverer et element (selve afstanden), er kun en observation nødvendig for entydigt at bestemme afstanden, det vil sige n = 1. Antag at vi har to målinger, b 1 = og b 2 = I dette tilfælde er m = 2ogdererenoverbestemmelse,da u = m n = 2 1 = 1. Den endelige værdi for afstanden ˆx kan findes fra observationerne som ˆx = b 1 +ˆr 1 = ˆb 1 (2.3) ˆx = b 2 +ˆr 2 = ˆb 2. (2.4) Der er mange mulige værdier for ˆr 1 og ˆr 2, der opfylder disse ligninger. For eksempel kan vi have ˆr 1 = 0 og ˆr 2 = 0.02; eller ˆr 1 = og ˆr 2 = 0.01; eller ˆr 1 = og ˆr 2 = Alle disse værdier for ˆr 1 og ˆr 2 opfylder modellen som udtrykt ved ligning (2.3) og (2.4). Mindste kvadraters løsning er den, der sikrer, at φ = (ˆr 2 1 +ˆr2 2 )eretminimum.for de tre sæt residualer er de tilsvarende summer af de kvadrerede residualer φ 1 =(0) 2 +( 0.02) 2 = φ 2 =(+0.01) 2 +( 0.01) 2 = φ 3 =(+0.015) 2 +( 0.005) 2 = Det er tydeligt, at φ 2 er den mindste af de tre værdier, men det egentlige spørgsmål er, om det er det absolutte minimum når alle mulige kombinationer af residualer tages i betragtning. Svaret illustreres i figur 2.1, der samtidig demonstrerer mindste kvadraters princip. De to udjævnede observationer ˆb 1 og ˆb 2 er knyttet til hinanden ved ˆb1 = ˆb 2, (2.5) hvilket findes ved at trække ligning (2.3) og (2.4) fra hinanden. Hvis første aksen i figuren repræsenterer ˆb 1 og anden aksen repræsenterer ˆb 2, vil (2.5) beskrive en ret linie med hældningskoefficienten 1, som vist i figuren.
12 Kapitel 2. Udjævning af lineære problemer 7 ˆb A φ3 ˆb1 = ˆb φ1 φ2 A 2 A 3 A ˆb1 Figur 2.1: Illustration af mindste kvadraters princip. De to observationer b 1 = og b 2 =15.14 definerer et punkt, der ligger over linien fordi b 1 <b 2. Linien ˆb 1 = ˆb 2 repræsenterer den betingelse, der skal være opfyldt mellem ˆb 1 og ˆb 2.Når denne betingelse er opfyldt, er den underliggende model bestemt. Hvis punkt A udskiftes med at andet punkt, der ligger på linien, vil en udjævning derfor være gennemført. Det er muligt at bestemme uendeligt mange punkter på linien, hvoraf de tre, der er markeret med A 1, A 2 og A 3, svarer til de tre beregnede værdier φ 1, φ 2 og φ 3. Af alle muligheder vælger mindste kvadraters princip punkt A 2,så afstanden AA 2 er kortest mulig, det vil sige minimum. Denne betingelse er opfyldt for A 2, da linien AA 2 er vinkelret på linien ˆb 1 = ˆb 2. Dette punkt opfylder også den intuitive betingelse, at de nye estimater for observationerne ˆb 1, ˆb 2 skal afvige så lidt som muligt fra de givne observationer b 1, b 2. Da linien AA 2 er vinkelret på linie ˆb 1 = ˆb 2,erˆr 1 og ˆr 2 lige store men med modsat fortegn. De udjævnede observationer ender således med at være ens; ˆb 1 = ˆb 2 = Det endelige estimat for afstanden er ˆx = 15.13, hvilket også intuitivt virker rigtigt, da den udjævnede værdi er middelværdien af observationerne, det vil sige ˆx = =15.13.
13 Kapitel 2. Udjævning af lineære problemer 8 Dette er det simpleste eksempel på, at når målinger af en størrelse er uafhængige og har ens vægt, er mindste kvadraters estimat af størrelsen lig med middelværdien af målingerne. 2.2 Observationsligninger Når modellen i et udjævningsproblem er fastlagt er første skridt at opstille observationsligningerne. Observationsligninger udtrykker sammenhængen mellem observationer og elementer. For hver observation opstilles en ligning, der udtrykker elementernes funktionelle sammenhæng med observationen. Observtionsligningerne har følgende karakteristika: Antallet af observationsligninger er det samme som antallet af observationer, m. Hver af de m observationsligninger må kun indeholde en observation. Observationsligningerne kan både indeholde observatioener, elementer og konstanter. Eksempel 2.2 Figur 2.2 viser et lille nivellementsnet, hvori A er et fikspunkt med højden m. Følgende højdeforskelle er observeret i nettet Fra punkt Til punkt Højdeforskel [m] B A b 1 =1.207 D B b 2 =1.115 D A b 3 =2.305 B C b 4 =2.097 D C b 5 =3.203 A C b 6 =0.906
14 Kapitel 2. Udjævning af lineære problemer 9 B b 1 b 2 b 4 b 3 D b 5 A b 6 C Figur 2.2: Nivellementsnet. Koten i punkt A kaldes H A,koteniBkaldesH B og så videre. Observationerne antages at være uafhængige og af ens præcision. Udfra observationerne og koten i punkt A ønskes H B, H C og H D bestemt. Som elementer i udjævningen vælges netop H B, H C og H D. Antallet af elementer er derfor tre; n = 3. Der er seks observationer (m =6),så der er tre overbestemmelser, u = m n =6 3 = 3. Hvis observationerne ikke er behæftet med fejl, er lukkesummerne i ringene 0. Dette er dog ikke tilfældet. For eksempel er der i ringen ABD en fejl på ( ) = Der må derfor indføres seks residualer, ˆr 1,ˆr 2,,ˆr 6, en for hver observation. Udfra tabellen og figur 2.2 opstilles nu de seks ligninger, der skal være opfyldt efter endt udjævning. ˆb1 = H A H B ˆb2 = H B H D ˆb3 = H A H D ˆb4 = H C H B ˆb5 = H C H D ˆb6 = H C H A. Ved at indsætte residualerne i ligningerne ovenfor fås observationslignin-
15 Kapitel 2. Udjævning af lineære problemer 10 gerne: b 1 = H A H B ˆr 1 b 2 = H B H D ˆr 2 b 3 = H A H D ˆr 3 b 4 = H C H B ˆr 4 (2.6) b 5 = H C H D ˆr 5 b 6 = H C H A ˆr 6. Observationsligningerne opfylder kravene, der blev stillet på side 8. Der er seks observationsligninger, der hver kun indeholder en observation. Eksempel 2.3 Ligningssystemer løses mest hensigtsmæssigt af computeren, når disse er givet på matrixform. Observationsligningerne opstilles derfor endnu engang men nu på matrixform. Der tages udgangspunkt i ligningssystemet (2.6), der fuldt udskrevet ser således ud: b 1 = 1 H A 1 H B +0 H C +0 H D ˆr 1 b 2 = 0 H A +1 H B +0 H C 1 H D ˆr 2 b 3 = 1 H A +0 H B +0 H C 1 H D ˆr 3 b 4 = 0 H A 1 H B +1 H C +0 H D ˆr 4 b 5 = 0 H A +0 H B +1 H C 1 H D ˆr 5 b 6 = 1 H A +0 H B +1 H C +0 H D ˆr 6. Højden i punkt A er kendt i forvejen. Derfor flyttes H A overpå venstre side af lighedstegnet, således venstre side af ligningerne indeholder målte og kendte størrelser, mens højre side indeholder de ukendte elementer (koter) og de ukendte residualer: b 1 H A = 1 H B +0 H C +0 H D ˆr 1 b 2 =+1 H B +0 H C 1 H D ˆr 2 b 3 H A =+0 H B +0 H C 1 H D ˆr 3 b 4 = 1 H B +1 H C +0 H D ˆr 4 b 5 =+0 H B +1 H C 1 H D ˆr 5 b 6 + H A =+0 H B +1 H C +0 H D ˆr 6. Ligningssystemet opstilles nu på matrixform. Observationerne og residualerne samles i to m 1 søjlevektorer b 1 H A ˆr 1 b ˆr b = b 3 H A b 4 = b 5 b 6 + H A 2.097, ˆr = ˆr 3 ˆr ˆr ˆr 6
16 Kapitel 2. Udjævning af lineære problemer 11 Koefficienterne til elementerne samles i en m n designmatrix kaldet A A = , og endelig samles elementerne i en n 1 søjlevektor H B ˆx = H C. H D Observationsligningerne kan nu skrives som ˆr = H B ˆr H C ˆr H D ˆr 4, ˆr ˆr 6 hvilket i matrixnotation svarer til b = Aˆx ˆr. (2.7) 2.3 A priori varians Gentagne observationer af den samme størrelse resulterer altid i en vis variation. Dette skyldes grove fejl, systematiske fejl og tilfældige fejl. Det antages, at observationerne er fri for grove fejl og korrigeret for systematiske fejl. På grund af de tilfældige fejl vil observationerne stadig variere; det er ikke muligt at bestemme den sande værdi for en observeret størrelse udfra gentagne observationer. Observationernes sande værdier kan højst estimeres.på grund af fejlenes tilfældige karakter må observationerne betragtes som stokastiske variable. I landmåling antages, at observationerne er normalfordelte N(µ, σ 2 ). Tæthedsfunktionen for en normalfordelt observation er vist i figur 2.3. Middelværdien af observationen er µ.når observationen ikke er påvirket af grove og systematiske fejl, antages µ for at væredensande værdi for observationen. Spredningen på observationen er σ, der er et målforhvor bred eller spredt
17 Kapitel 2. Udjævning af lineære problemer 12 sandsynlighedsfunktionen er. Hvis en observation A har større variation end en observation B, har A en større spredning end B. σ µ σ Figur 2.3: Normalfordeling. Præcisionen af en observation bestemmes af hvor tæt gentagne observationer ligger på hinanden. Når observationerne ligger tæt sammen, har de en høj præcision; hvis de ligger spredt, har de en lav præcision. Præcisionen ses af formen af sandsynlighedsfunktionen. Jo smallere sandsynlighedsfunktion jo større præcision og vice versa. Spredningen σ er mål for observationens præcision. Jo højere præcision jo mindre spredning og omvendt. Høj præsicion Lav præsicion Figur 2.4: Høj og lav præcision. Nøjagtigheden af en observation bestemmes af hvor tæt observationen ligger på den sande værdi. Når observationen ikke er påvirket af systematiske fejl, kan spredningen også bruges som mål for nøjagtigheden. Hvis spredningen skal bruges som et mål for nøjagtighed, er det derfor vigtigt, at systematiske fejl er reduceres til et ubetydeligt niveau. Middelværdien for observationen b er givet ved µ b = E[b], hvor E[b] også kaldes forventningen til b. Variansenforb er givet ved σ 2 b = E[(b µ b) 2 ]
18 Kapitel 2. Udjævning af lineære problemer 13 Variansen er spredningen kvadreret. Variansen er således også mål for observationens præcision. En observation af stor præcision har derfor en lille varians og vice versa. Variansen er omvendt proportional med præcisionen. Derfor anvendes ofte et andet mål for præcisionen, der er ligefrem proportional med denne. Dette mål kaldes observationens vægt. En observation medenstorvægtharsåledes en stor præcision og omvendt. Vægten c i for en enkelt observation er defineret som den inverse af observationens varians σ 2 i,detvilsige c i = σ2 0 σi 2, (2.8) hvor σ0 2 er en proportionalitetsfaktor, der kaldes variansfaktoren. Ligning (2.8) kaldes vægtrelationen. Hvis en observation har vægten 1, er observationens varians og σ0 2 ifølge (2.8) lige store. Variansfaktoren σ2 0 er derfor variansenafenobservationmedvægten1.hvisenobservationharenvarians større end σ0 2, er observationen altså bestemt med mindre præcision end observationen, der svarer til σ0 2. Vægten bliver i dette tilfælde mindre end 1på grund af den lavere præcision. Omvendt, hvis en observation har en varians, der en mindre end σ0 2, bliver vægten større end 1. Dette er rimeligt, da observationen har en større præcision end observationen, der svarer til σ0 2. Kvadratroden af variansfaktoren kaldes spredningen på vægtenheden σ 0. Hidtil er hver observation behandlet for sig. Hvis to (eller flere) observationer b 1, b 2 er indbyrdes forbundet, det kan for eksempel være Y og X koordinaterne til et punkt, må ydeligere korrelationen mellem dem beskrives. Hver observation har en varians σ 2 1, σ2 2.Hertilkommerkovariansen σ b 1 b 2,der udtrykker graden af korrelation mellem b 1 og b 2. Kovariansen er defineret ved σ b1 b 2 = E[(b 1 µ b1 )(b 2 µ b2 )] Kovariansen kan være positiv, negativ eller nul. Når σ b1 b 2 er positiv siges b 1 og b 2 at være positivt korrelerede; når σ b1 b 2 er negativ er de negativt korrelerede, og når σ b1 b 2 er nul er b 1 og b 2 ukorrelerede. Hvis b 1 og b 2 er uafhængige er kovariansen nul. Det modsatte er imidlertid ikke nødvendigvis tilfældet, det vil sige, at en kovarians med værdien nul ikke betyder, at de to observationer er uafhængige.
19 Kapitel 2. Udjævning af lineære problemer 14 Observationerne er tidligere blevet samlet i en m 1vektorb b 1 b 2 b =.. b m Hver af observationerne har en varians og mellem alle kombinationer af observationer er der kovarianser. For nemheds skyld indsættes varianserne og kovarianserne i en m m kovariansmatrix Σ b σ 11 σ 12 σ 1m σ 2 1 σ 12 σ 1m σ 21 σ 22 σ 2m Σ b = = σ 21 σ2 2 σ 2m σ m1 σ m2 σ mm σ m1 σ m2 σm 2 På diagonalen i Σ b står varianserne for observationerne og udenfor diagonalen står kovarianserne. Kovariansmatricen er symmetrisk om diagonalen, da kovariansen mellem observation 1 og observation m (σ 1m ) er lig kovariansen mellem observation m og observation 1 (σ m1 ) σ ij = σ ji. Det gælder derfor, at Σ b = Σ T b. Alle kovarianser forekommer derfor en gang over diagonalen i kovariansmatricen og en gang under diagonalen. Det antages nu, som det oftest gør i landmåling, at observationerne er uafhængige. Kovarianserne mellem observationerne er derfor nul og kovariansmatricen får derfor en simplere struktur, hvor der kun står varianser på diagonalen σ σ2 2 0 Σ b = σm 2 Fra (2.8) kendes sammenhænges mellem varians og vægt. Med udgangspunkt
20 Kapitel 2. Udjævning af lineære problemer 15 i kovariansmatricen kan vægtmatricen C opstilles. c c 2 0 C = c m σ σ σ σ = σ2 2. = σ σ σm 2 σ 2 0 σ 2 m Ligesom kovariansmatricen er vægtmatricen diagonal. Den inverse af en diagonal matrix er en anden diagonal matrix, hvor hvert element er den reciprokke af det tilsvarende element i den originale matrix. Vægtmatricen er i matrixnotation givet ved C = σ 2 0 Σ 1 b. (2.9) Ligning (2.9) er generel og gælder hvad enten observationerne er uafhængige eller ej. Oftest sættes σ0 2 a priori lig 1, hvorfor (2.9) reduceres til C = Σ 1 b. Vægtmatricen er en beskrivelse af den stokastiske model. 2.4 Normalligninger Efter observationsligningerne er opstillet, er næste skridt at opstille normalligningerne. Når observationsligningerne er opstillet, er der m ligninger, men der er m + n ubekendte; der er n ukendte elementer samt m ukendte residualer. Umiddelbart er der altså flere ubekendte end observationer. Ligningssystemet giver ikke en entydig løsning. For at finde en entydig løsning måderaltså opstilles ydeligere n ligninger. Herved opnår vi at have lige så mange ubekendte som vi har ligninger, og dermed er løsningen entydig. Ved nu at anvende mindste kvadraters princip får vi netop n ekstra ligninger. Disse ligninger kaldes normalligningerne. Ved at arbejde videre med nivellementseksemplet vises hvordan normalligningerne fremkommer Normalligninger for observationer med ens vægt Når observationerne har ens vægt, som vi hidtil har antaget, er mindstekvadraters princip givet ved ligning (2.1). Dette krav påføres nu nivellementsproblemet.
21 Kapitel 2. Udjævning af lineære problemer 16 Eksempel 2.4 Fortsat fra eksempel 2.2. Ligning (2.6) omskrives så residualerne udtrykkes eksplicit, og observationerne samt den kendte kote til punkt A indsættes i ligningerne ˆr 1 = H A H B b 1 =6.923 H B ˆr 2 = H B H D b 2 = H B H D ˆr 3 = H A H D b 3 =5.825 H D ˆr 4 = H C H B b 4 = H C H B ˆr 5 = H C H D b 5 = H C H D ˆr 6 = H C H A b 6 = H C Ifølge mindste kvadraters princip skal følgende størrelse minimeres φ =ˆr 1 2 +ˆr 2 2 +ˆr 3 2 +ˆr 4 2 +ˆr 5 2 +ˆr 6 2 =(6.923 H B ) 2 +(H B H D 1.115) 2 +(5.825 H D ) 2 +(H C H B 2.097) 2 +(H C H D 3.203) 2 +(H C 9.036) 2. (2.10) Størrelsen minimeres ved at finde de partielt afledede af φ med hensyn til de ukendte koter, H B, H C og H D. De partielt afledede sættes lig nul. φ = 2(6.923 H B )+2(H B H D 1.115) H B 2(H C H B 2.097) = 0 φ =2(H C H B 2.097) + 2(H C H D 3.203) H C +2(H C 9.036) = 0 φ = 2(H B H D 1.115) 2(5.825 H D ) H D 2(H C H D 3.203) = 0 Ved at gange ligningerne ovenfor ud kan de omskrives til 3H B H C H D =5.941 H B +3H C H D = H B H C +3H D = (2.11) Ligningerne (2.11) er normalligningerne. Antallet af normalligninger svarer til antallet af ukendte størrelse i modellen; i dette tilfælde 3. Der er altså tre ligninger med tre ubekendte. Løsningen af dette ligningssysten giver mindste kvadraters estimat for koterne i de tre punkter: H B =6.931 H C =9.030 H D =5.823.
22 Kapitel 2. Udjævning af lineære problemer 17 Eksempel 2.5 Fortsat fra eksempel 2.3. Mindste kvadraters estimat for koterne i punkt B, C og D findes nu ved matrixregning. Udfra matricerne A, b og ˆx, der blev opstillet i eksempel 2.3, kan normalligningerne konstrueres fra følgende ligning (A T A)ˆx = A T b. (2.12) H B H C H D = Ved at gange matricerne ud fås normalligningssystemet nedenfor, der svarer til ligning (2.11). Ved at anvende ligning (2.12) og matricerne fra eksempel 2.3 er det altså muligt at opstille normalligningerne, hvis løsning tilfredsstiller mindste kvadraters princip. Det er lettere at opstille normalligningerne på denne måde fremfor som det blev gjort i eksempel 2.4. Mindste kvadraters princip er altså indbygget i (2.12); brugeren behøver ikke spekulere på minimering af vægtfunktionen, φ H B H C H D = Løsningen af normalligningerne er på matrixform givet ved ˆx =(A T A) 1 A T b = 9.030, hvilket svarer til løsningen fundet i eksempel 2.4.
23 Kapitel 2. Udjævning af lineære problemer Normalligninger for observationer med forskellig vægt Nu ses på tilfældet hvor observationerne har forskellig vægt. Mindste kvadraters princip er nu givet ved ligning (2.2). Igen anvendes nivellementseksemplet til i to eksempler at illustrere hvordan princippet bruges. Eksemplerne svarer til eksempel 2.4 og 2.5, blot der nu anvendes vægte. Eksempel 2.6 Fortsat fra eksempel 2.4. Denne gang antages de seks observerede højdeforskelle stadig at være uafhængige, men nu har de forskellig spredning og dermed forskellig vægt. Spredningerne regnes efter (5.2). Kilometerspredningen antages at være m km 0.5. De seks vægte kaldes c 1, c 2,, c 6. Observation Afstand(L) [km] Spredning [m] Vægt b b b b b b Vægtfunktionen, der skal minimeres i dette eksempel, er givet ved φ = c 1ˆr c 2ˆr c 3ˆr c 4ˆr c 5ˆr c 6ˆr 2 6 = c 1 (6.923 H B ) 2 + c 2 (H B H D 1.115) 2 + c 3 (5.825 H D ) 2 + c 4 (H C H B 2.097) 2 + c 5 (H C H D 3.203) 2 + c 6 (H C 9.036) 2. Denne ligning svarer til ligning (2.10) blot er vægtene tilføjet. For at minimere funktionen differentieres med hensyn til de ukendte koter, og udtrykkene sættes lig nul φ = 2c 1 (6.923 H B )+2c 2 (H B H D 1.115) H B 2c 4 (H C H B 2.097) = 0 φ =2c 4 (H C H B 2.097) + 2c 5 (H C H D 3.203) H C +2c 6 (H C 9.036) = 0 φ = 2c 2 (H B H D 1.115) 2c 3 (5.825 H D ) H D 2c 5 (H C H D 3.203) = 0.
24 Kapitel 2. Udjævning af lineære problemer 19 Når ligningerne ganges ud, reduceres og omordnes fås normalligningerne (c 1 + c 2 + c 4 )H B +( c 4 )H C +( c 2 )H D =6.923c c c 4 ( c 4 )H B +(c 4 + c 5 + c 6 )H C +( c 5 )H D =2.097c c c 6 ( c 2 )H B +( c 5 )H C +(c 2 + c 3 + c 5 )H D = 1.115c c c 5. Ved indsættelse af de numeriske værdier for vægtene fås H B H C H D = H B H C H D = H B H C H D = (2.13) Løsningen af normalligningerne giver koterne til punkt B, C og D H B =6.933 H C =9.030 H D = På grund af at observationerne nu vægtes forskelligt, er de fundne koter forskellige fra de, der blev fundet i eksempel 2.4 og 2.5. Eksempel 2.7 Fortsat fra eksempel 2.6. Nu gentages regningerne som matrixregning. Igen tages udgangspunkt i matricerne A, b og ˆx fra eksempel 2.3. Ydeligere introduceres vægtmatricen C. Denne er en diagonalmatrix med vægtene til observationerne på diagonalen: c 1 c 2 C = c 3 c 4 c 5 c 6 Normalligningerne konstrueres nu udfra følgende ligning (A T CA)ˆx = A T Cb. (2.14)
25 Kapitel 2. Udjævning af lineære problemer 20 Når de numeriske værdier indsættes fås: H B H C = H D Når ligningerne ganges ud fås H B H C = H D Ligningssystemet er magen til ligning (2.13), og løsningerne er derfor også ens H B H C = H D Der fås samme resultat som i eksempel 2.6. Ved brug at (2.14) er mindste kvadraters princip således indbygget i regningerne. Det er ikke nødvendigt eksplicit at tænke på minimering af vægtfunktionen.
26 Kapitel 2. Udjævning af lineære problemer Generel udledning af normalligninger Normalligningerne givet ved ligning (2.14) er fuldstændig generelle, selvom de indtil videre kun er illustreret ved et eksempel. Normalligningerne har altid denne form, når udjævningsproblemet formuleres som ligning (2.7). Nu følger en generel udledning, der leder frem til normalligningerne. Når observationerne er uafhængige og har forskellig vægt, kræver mindste kvadraters princip, at vægtfunktionen (2.2) minimeres. Vægtfunktionen kan på matrix form skrives som c 1 ˆr 1 φ = [ˆr ] c 2 ˆr 2 1 ˆr 2 ˆr m... (2.15). cm ˆr m da den, når den ganges ud, giver φ = c 1ˆr c 2ˆr c mˆr 2 m. Da residualvektoren ˆr i eksempel 2.3 blev opstillet som en m 1vektor,kan (2.15) skrives som φ = ˆr T Cˆr. (2.16) Ligning (2.7) omskrives til ˆr = Aˆx b og indsættes i ligning (2.16) φ =(Aˆx b) T C(Aˆx b) =(ˆx T A T b T )C(Aˆx b) =(ˆx T A T C b T C)(Aˆx b) = ˆx T A T CAˆx b T CAˆx ˆx T A T Cb + b T Cb. (2.17) Da φ er en skalar, er hvert led i ligning (2.17) også skalarer. Endvidere er en skalar transponeret lig sig selv. Andet og tredie led er derfor lig hinanden, da b T CAˆx =(b T CAˆx) T = ˆx T A T C T b = ˆx T A T Cb. Da vægtmatricen C altid er symmetrisk, er den lig sig selv transponeret. Ved at slå andet og tredie led i ligning (2.17) sammen fås φ = ˆx T (A T CA)ˆx 2b T CAˆx + b T Cb. (2.18)
27 Kapitel 2. Udjævning af lineære problemer 22 Ligning (2.18) er vægtfunktionen, der skal minimeres for at opfylde mindste kvadraters princip. I ligningen er alle matricer og vektorer konstanter pånær ˆx, der indeholder de ukendte elementer. For at minimere φ mådepartielt afledede med hensyn til ˆx derfor sættes lig nul. Da sidste led i (2.18) ikke indeholder ˆx, er den partielt afledede af dette led nul. Ved at differentiere φ med hensyn til ˆx fås φ ˆx =2ˆxT (A T CA) 2b T CA =0. Ved at dividere med 2, flytte om på leddene og transponere fås (A T CA)ˆx = A T Cb, der er identisk med (2.14). Denne generelle udledning betyder, at når vi har et sæt observationsligninger, der kan skrives som b = Aˆx ˆr så bestemmes normalligningerne som (A T CA)ˆx = A T Cb, (2.19) hvor C er vægtmatricen for observationerne. Ved bestemmelsen af vægtmatricen indgår σ0 2,jævnfør(2.9).DaC indgår i både venstre side og højre side af normalligningerne, kan σ0 2 imidlertid forkortes væk. Ved opstillingen af normallignignerne er det derfor ikke nødvendigt at have kendskab til σ0 2. Venstre side af normalligningerne er en n n matrix, der er symmetrisk om diagonalen, jævnfør eksemplerne i dette kapitel. Normalligningernes løsning findes ved ˆx =(A T CA) 1 A T Cb = N 1 A T Cb. (2.20) Ligning (2.20) gælder både for diagonale vægtmatricer og for fulde vægtmatricer. I de tilfælde, hvor observationerne er ens vægtet og uafhængige, er C diagonel, og denne reduceres til enhedsmatricen I, der har et-taller på diagonalen. Når normalligningerne er løst, har vi det bedste estimat (i mindste kvadraters forstand) for elementerne i modellen. Residualerne kan
28 Kapitel 2. Udjævning af lineære problemer 23 herefter bestemmes ved ˆr = Aˆx b. (2.21) 2.5 Opgaver Opgave 2.1 Langs en målelinie er målt 4 fodpunkter og 4 perpendikulærer f 1 =15 p 1 =15.97 f 2 =25 p 2 =17.23 f 3 =40 p 3 =19.19 f 4 =60 p 4 = p 1 p 2 p 3 p 4 f 1 f 2 f 3 f 4 Fodpunkterne antages at være bestemt fejlfrit. Bestem den rette linie p = a f +b, der bedst muligt beskriver de fire punkter. Beregn residualerne til perpendikulærerne. Opgave 2.2 I et nivellementsnet er fem højdeforskelle målt mellem fire punkter ved geometrisk nivellement. Koten til punkt A er kendt, H A = Observationerne er b 1 = 2.023, b 2 = 1.016, b 3 =1.982, b 4 = 0.998og b 5 =1.022.
29 Kapitel 2. Udjævning af lineære problemer 24 B b 2 C b 1 b 5 b 3 A b 4 D Bestem lukkesummerne for ring ABC og ring ACD. Opstil A matricen og bestemt koterne til punkt B, punkt C og punkt D. Beregn residualerne og bestemt de korrigerede observationer. Kontroller efter udjævningen, at lukkesummerne er nul, når de korrigerede observationer anvendes. Opgave 2.3 Perpendikulærerne i opgave 2.1 er bestemt med følgende spredninger: σ p1 =0.02, σ p2 =0.01, σ p3 =0.01 og σ p4 =0.02. Opstil vægtmatricen C og bestemt koefficienterne til den rette linie ved hjælp af (2.20). Beregn residualerne. Sammenlign med resultaterne fra opgave 2.1. Opgave 2.4 Længderne af de nivellerede strækninger i opgave 2.2 er, udtrykt i kilometer, s 1 =3.2, s 2 =4.0, s 3 =2.7, s 4 =5.7 ogs 5 =6.9. Opstil ved hjælp af (5.2) vægtmatricen C for nivellementsobservationerne. Kilometerspredningen er m/ km. Beregn koterne til punkterne B, C og D ved at inddrage vægtmatricen i udjævningen. Beregn ydeligere residualer og korrigerede observatioener. Sammenlign med resultaterne fra opgave 2.2. Opgave 2.5 Regn opgave 2.4 som fri udjævning.
30 Kapitel 3 Udjævning af ulineære problemer Hidtil er kun problemer med lineære observationerligninger blevet udjævnet. Denne type problemer er karakteriseret ved, at A matricen udelukkende indeholder konstanter jævnfør kapitel 2. Normalligningerne har ligeledes været lineære. Dette betyder, at når normalligningerne er løst, har vi umiddelbart mindste kvadraters estimat for elementerne. Det er i midlertid kun få af de problemer vi arbejder med i landmåling, der leder til lineære observationsligninger; oftest er de ulineære. Mindste kvadraters princip kan anvendes på ulineære problemer, men det komplicerer regningerne. Dette kapitlet beskriver derfor, hvordan det er muligt at anvende formelapparatet fra kapitel 2, selvom der arbejdes med ulineære problemer. Det skal pointeres, at lineariseringen og den iterative løsning af udjævningsproblemet, der præsenteres i dette kapitel, udelukkende er teknikker, der gør det muligt at bruge formlerne fra kapitel Linearisering Mindste kvadraters princip anvendes som regel på lineære modeller. Når vi møder modeller, der involverer ulineære ligninger, må ligningerne derfor lineariseres. Ligningerne lineariseres ved en Taylor rækkeudvikling. For at kunne linearisere en ligning ved rækkeudvikling, må vi kende et godt bud på hvilke værdier de ubekendte variable i ligningen har. Ved linearisering af observationsligninger må vi derfor kende gode værdier for elementerne, der er de ubekendte variable i observationsligningerne. Dette bud på elementernes værdier kaldes de foreløbige værdier. Nu er det jo elementerne, vi ønsker at bestemme gennem udjævningen, og derfor kender vi ikke elementernes værdier på forhånd. Der er desværre ingen entydig opskrift på hvordan de foreløbige værdier bestemmes. Oftest er det dog muligt at beregne foreløbige værdier udfra en del af observationsmaterialet.
31 Kapitel 3. Udjævning af ulineære problemer 26 En ulineær observationsligning i en ubekendt kan skrives som b = F (x). I dette tilfælde er den ubekendte x. Den lineariserede ligning er givet ved b = F (x 0 ) + F(x) }{{} x (x x 0 ) + }{{}, (3.1) x=x 0 0 te orden }{{} højere orden 1 te orden hvor x 0 er den foreløbige værdi for x. 0 te ordens leddet er første led i (3.1). Dette er observationen, der svarer til x 0. Den numeriske værdi for leddet findes ved at indsætte x 0 iden ulineære observationslingning. 1 te ordens leddet er andet led i i (3.1). Dette led består af den partielt afledede af funktionen med hensyn til elementet udregnet i den foreløbige værdi ganget med forskellen mellem elementet og den foreløbige værdi. Højere ordens led medtages ikke. Rækkeudviklingen sluttes altså efter 1 te ordens leddet, således 2. ordens og højere led bortfalder. Grunden hertil er, at 2. ordens og højere led er ulineære. Y F (x) P Ulineær funktion F (x 0 )+ F(x) x x 0 (x x 0 ) P F(x) x Lineær funktion x 0 (x x 0 ) F (x 0 ) O x 0 x x 0 x X Figur 3.1: Linearisering af funktion.
32 Kapitel 3. Udjævning af ulineære problemer 27 Lineariseringen er illustreret i figur 3.1. Den ulineære funktion er vist i figuren som en krum kurve, mens den lineariserede funktion er givet ved den rette linie. Den foreløbige værdi for elementet er benævnt x 0. 0 te ordens leddet i rækkeudviklingen er funktionsværdien svarende til x 0. Punktet svarende hertil er markeret med O. 1 te ordens leddet i rækkeudviklingen er hældningskvotienten i x 0 ganget med forskellen mellem x og x 0. Hældningskvotienten i punkt x 0 ) er hældningen for tangenten til kurven i punkt x0.1 te x=x 0 ( F(x) x ordens leddet er altså funktionstilvæksten for tangenten for stykket (x x 0 ). Denne størrrelse er den vertikale afstand mellem punkt O og punkt P på figuren. Højere orden. Funktionsværdien for den ulineære funktion svarende til elementet x er F (x). Punktet på kurven, der svarer hertil, er markeret med P. Den vertikale afstand mellem P og P er den fejl, der begås ved at stoppe rækkeudviklingen efter 1 te ordens leddet. Jo større forskellen er mellem x og x 0, jo større fejl begås. Det er derfor vigtigt, at den forløbige værdi x 0 ligger så tætpå x som muligt. Eksempel 3.1 En observationsligning, der beskriver en parabel, lineariseres. Ligningen er givet ved b = x 2. Den lineariserede ligning er ifølge (3.1) b = (x 0 ) 2 }{{} +2x 0 (x x 0 ). }{{} 0 te orden 1 te orden Vi vælger at linearisere funktionen om den foreløbige værdi x 0 =2.Samtidig antager vi, at x = 3. Funktionsværdien for den lineariserede observationsligninger er 8mens den den ulineære observationsligning har værdien 9. Ved lineariseringen begår vi altså enfejlpå9 8= 1 ved at vælge 2 som foreløbig værdi. Vi antager nu, at den ulineære observationsligning er funktion af to variable, x 1 og x 2,detvilsige b = F (x 1,x 2 ). (3.2) Den lineariserede ligning er nu givet ved b = F (x 0 F(x) 1,x0 2 )+ (x 1 x 0 F(x) 1 )+ x 1 x 2 x1 =x 0 1 x2 =x 0 2 (x 2 x 0 2 ). (3.3)
33 Kapitel 3. Udjævning af ulineære problemer 28 De foreløbige værdier for x 1 og x 2 kaldes x 0 1 og x0 2. Ligningen svarer til (3.1) blot der er tilføjet endnu en variabel. Når antallet af ubekendte stiger, vokser (3.3) tilsvarende. For at udtrykke (3.3) så kompakt som muligt indføres ma- trixnotation. Differentialkvotienterne F(x) x1 x 1 =x 0 1 j 1 og j 2. Ligning (3.3) kan derfor skrives som og F(x) x 2 x2 =x 0 2 benævnes b = F (x 0 1,x 0 2)+j 1 (x 1 x 0 1)+j 2 (x 2 x 0 2) = b 0 + j 1 (x 1 x 0 1 )+j 2(x 2 x 0 2 ). (3.4) 0 te ordens leddet b 0 bestemmes ved at indsætte de foreløbige værdier i den ulineære observationsligning (3.2). Differentialkvotienterne samles i en rækkevektor j og forskellene mellem de ukendte variable (elementer) og de foreløbige værdier samles i søjlevektoren ˆx. Endelig flyttes b 0 over på ligningens venstre side og b b 0 samles i en b vektor j = [ [ ] (x1 x j 1 j 2 ˆx = 0 1 ) ] (x 2 x 0 2 ) b = [ b b 0]. (3.5) Ligning (3.4) kan nu skrives som b = jˆx. (3.6) Hvis antallet af variable stiger til n har (3.6) stadig følgende generelle form b = jˆx, (3.7) hvor j og ˆx begge indeholder n elementer. Ligning (3.7) udtrykker lineariseringen af en ligning, der er funktion af n forskellige variable. For at forblive ved observationsligningerne er det altså ligningen for én observation, der er funktion af n elementer. Eksempel 3.2 Eksempel 3.1, side 63 i (Borre, 1992) gennemarbejdes i større detalje. Fra tre kendte punkter er målt afstande til et fjerde punkt, hvis koordinater ønskes bestemt. I første omgang vælges koordinaterne til alle punkterne som elementer eller ubekendte i udjævningen. Der er derfor otte elementer (Y 1, Y 2, Y 3, Y P, X 1, X 2, X 3, X P ). Svarende til de otte elementer vælges otte foreløbige koordinater (Y1 0, Y 2 0, Y 3 0, Y P 0, X0 1, X0 2, X0 3, X0 P ). De tre afstandsobservationer er målt med ens præcision, så vægtmatricen C er identisk med enhedsmatricen I, der har ettaller på diagonalen og nuller udenfor. Observationsligningen for en afstandsobservation fra punkt j til punkt k er givet ved b i = F i (Y k,y j,x k,x j )= (Y k Y j ) 2 +(X k X j ) 2. (3.8)
34 Kapitel 3. Udjævning af ulineære problemer 29 Indeks i henviser til den i te observation. I lineariseringsprocessen skal de partielt afledede af funktionen med hensyn til elementerne bestemmes b i Y j b i Y k b i X j b i X k Yj =Y 0 j Yk =Y 0 k Xj =X 0 j Xk =X 0 k = Yk 0 + Y j 0 (Y 0 k + Y 0 j )2 +(X 0 k X0 j )2 = = Y k 0 Y j 0 b 0 i = X0 k + X0 j b 0 i = X0 k X0 j b 0 i =sinα 0 jk = cos α 0 jk =cosα 0 jk. Yk 0 + Y j 0 b 0 i = sin α 0 jk (3.9) Afstanden mellem de foreløbige koordinater kaldes b 0 i. Denne findes ved indsætte de foreløbige værdier i (3.8). Nu ses på afstandsobservationen frapunkt 1 til punkt P. Den ulineære observationsligning er b 1 = F 1 (Y 1,Y P,X 1,X P )= (Y 1 Y P ) 2 +(X 1 X P ) 2. Observationsligningen er funktion af koordinaterne til punkt 1 og punkt P. Fremover angives ikke, at partielt afledede beregnes i de foreløbige værdier. I lineariseret form er ligningen givet ved b 1 = F 1 (Y 0 1,Y0 P,X0 1,X0 P ) + b 1 Y 1 (Y 1 Y 0 1 )+ b 1 Y P (Y P Y 0 P ) + b 1 X 1 (X 1 X 0 1 )+ b 1 X P (X P X 0 P ) = b Y P 0 + Y 1 0 b 0 (Y 1 Y 1 0 )+ YP 0 Y b 0 (Y P YP 0 ) 1 + X0 P + X0 1 b 0 1 (X 1 X 0 1 )+X0 P X0 1 b 0 1 (X P X 0 P ) = b j 1Y 1 (Y 1 Y 0 1 )+j 1Y P (Y P Y 0 P )j 1X 1 (X 1 X 0 1 )+j 1X P (X P X 0 P ). Dobbeltindekseringen af j erne angiver hvilken observationsligning, der differentieres med hensyn til hvilket element. For eksempel er j 1XP første observationsligning differentieret med hensyn til X P.
35 Kapitel 3. Udjævning af ulineære problemer 30 Analogt til (3.5) opstilles j, ˆx og b vektorerne j 1 = [ j 1Y1 j 1YP j 1X1 j 1XP ] ˆx 1 = (Y 1 Y 0 1 ) (Y P Y 0 P ) (X 1 X 0 1 ) (X P X 0 P ) b 1 = [ b 1 b 0 ] 1, så den lineariserede ligning nu kan skrives som b 1 = j 1ˆx 1. Indeks 1 ved j, ˆx og b vektorerne henviser til observation nummer et. I udjævningsproblemer arbejdes med flere observationer ad gangen. Derfor udvides beskrivelsen fra at omhandle én observation til at omhandle m observationer, der hver især er funktion af de n variable. b 1 = F 1 (x 1,x 2,,x n ) b 2 = F 2 (x 1,x 2,,x n ). b m = F m (x 1,x 2,,x n ). Analogt til (3.4) lineariseres hver ligning b 1 = b j 11 (x 1 x 0 1)+j 12 (x 2 x 0 2)+ + j 1n (x n x 0 n) b 2 = b j 21(x 1 x 0 1 )+j 22(x 2 x 0 2 )+ + j 2n(x n x 0 n ). b m = b 0 m + j m1(x 1 x 0 1 )+j m2(x 2 x 0 2 )+ + j mn(x n x 0 n ). (3.10) Ligning (3.10) skrives mere kompakt ved at samle de partielt afledede i m rækkevektorer, j 1 = [ j 11 j 12 j 1n ], j2 = [ j 21 j 22 j 2n ] og så videre. Analogt til (3.5) opstilles m søjlevektorer ˆx i indeholdende forskellene mellem elementerne og de foreløbige værdier. Ligningen (3.10) skrives nu som b 1 = b j 1ˆx 1 b 2 = b j 2ˆx 2. b m = b 0 m + j mˆx m.
36 Kapitel 3. Udjævning af ulineære problemer 31 Ligningen omordnes b 1 b 0 1 = j 1ˆx 1 b 2 b 0 2 = j 2ˆx 2. b m b 0 m = j mˆx m. (3.11) Der er m j vektorer, der hver indeholder n partielt afledede. Vektorerne kan samles i en m n J matrix, hvor j 1 udgør første række, j 2 udgør anden række og så videre. Venstre side af ligning 3.11 samles i en m 1 søjlevektor b j 11 j 12 j 1n b 1 b 0 1 j 21 j 22 j 2n J =......, b = b 2 b j m1 j m2 j mn b m b 0 m J matricen omdøbes til A og (3.11) skrives ganske kort i matrixform som b = Aˆx. A er designmatricen. Ved endeligt at introducere residualvektoren fås observationsligningerne, der kendes fra kapitel 2. b = Aˆx ˆr. Eksempel 3.3 Fortsat fra eksempel 3.2. Efter samme fremgangsmåde som i eksempel 3.2 opstilles de lineariserede observationsligninger for anden og tredie observation b 2 = j 2ˆx 2 b 3 = j 3ˆx 3. For disse to observationer indeholder j, ˆx og b vektorerne (Y 2 Y2 0) j 2 = [ ] (Y P YP 0 j 2Y2 j 2YP j 2X2 j 2XP ˆx 2 = ) (X 2 X2 0) b 2 = [ b 2 b 0 ] 2 (X P XP 0 ) (Y 3 Y3 0) j 3 = [ ] (Y P YP 0 j 3Y3 j 3YP j 3X3 j 3XP ˆx 3 = ) (X 3 X3 0) b 3 = [ b 3 b 0 ] 3. (X P XP 0 )
37 Kapitel 3. Udjævning af ulineære problemer 32 De tre j vektorer samles nu til A matricen, således j 1 udgør første række i matricen, j 2 udgør anden række i matricen og j 3 udgør tredie række i matricen j 1Y1 0 0 j 1YP j 1X1 0 0 j 1XP A = 0 j 2Y2 0 j 2YP 0 j 2X2 0 j 2XP. 0 0 j 3Y3 j 3YP 0 0 j 3X3 j 3XP De tre ˆx vektorer samles ligeledes til én vektor. Endelig samles b vektorerne til én vektor (Y 1 Y1 0) (Y 2 Y2 0) (Y 3 Y3 0) ˆx = (Y P YP 0 ) b 1 b 0 1 (X 1 X1 0 ) b = b 2 b 0 2. (X 2 X2 0 ) b 3 b 0 3 (X 3 X3 0) (X P XP 0 ) Hver række i A svarer til en observation og hver søjle svarer til et element i udjævningen; i dette tilfælde altså en koordinat. Række et svarer til observation 1, række to svarer til observation 2 og række tre svarer til observation 3. I eksempel 3.2 valgtes følgende rækkefølge af elementerne: Y 1, Y 2, Y 3, Y P, X 1, X 2, X 3, X P.SøjlerneiA kommer i samme rækkefølge. Første søjle svarer til Y 1, anden søjle svarer til Y 2 og så videre. Rækkefølgen i ˆx vektoren skal være den samme som rækkefølgen af søjlerne i A. Tilsvarende skal rækkefølgen i b svare til rækkefølgen af rækkerne i A. Første række i A beskriver afstandsobservationen fra punkt 1 til punkt P. Denne observation er kun funktion af netop koordinaterne til disse to punkter. Derfor er kun pladserne i søjle 1, 4, 5 og 8besat, da disse er knyttet til de fire koordinater Y 1, Y P, X 1 og X P. Det forholder sig tilsvarende med de to øvrige rækker i A. Koordinaterne til punkterne 1, 2 og 3 er kendte i forvejen som nævnt i eksempel 3.2. Det er kun koordinaterne til punkt P, der ønskes bestemt gennem udjævningen. Søjlerne i A svarende til de tre kendte koordinater slettes derfor; det er søjle 1, 2, 3, 5, 6 og 7. De tilsvarende pladser i ˆx slettes ligeledes. Matricerne er nu reduceret til A = j 1YP j 2YP j 3YP j 1XP j 2XP j 3XP ˆx = [ (YP YP 0) ] (X P XP 0 ) b 1 b 0 1 b = b 2 b 0 2. b 3 b 0 3
Anvendt Lineær Algebra
Anvendt Lineær Algebra Kursusgang 3 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 38 Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte)
Læs mereAnvendt Lineær Algebra
Anvendt Lineær Algebra Kursusgang 4 Anita Abildgaard Sillasen Institut for Matematiske Fag AAS (I17) Anvendt Lineær Algebra 1 / 32 Vægtet mindste kvadraters metode For et lineært ligningssystem (af m ligninger
Læs mereLiA 2 Side 0. Lineær algebra 3. kursusgang
LiA 2 Side 0 Lineær algebra 3. kursusgang LiA 2 Side 1 Højdeforskelle. D C 0.7 0.7 0.8 E LiA 2 Side 2 Vi har tre punkter C, D og E. Højderne er h C, h D, h E. (I det følgende benævnes disse også x, y,
Læs mereLineær algebra 4. kursusgang
Lineær algebra 4. kursusgang Vi betragter et lineært ligningssystem (af m ligninger med n ubekendte) Ax = b. Ligningssystemet antages at være inkonsistent (ingen løsninger) fordi tallene er fremkommet
Læs mereAntag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.
Simple fejlforplantningslov Landmålingens fejlteori Lektion 6 Den generelle fejlforplantningslov Antag X, X,, X n er n uafhængige stokastiske variable, hvor Var(X )σ,, Var(X n )σ n Lad Y g(x, X,, X n ),
Læs mereLandmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl
Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/36 Estimation af varians/spredning Antag X 1,...,X n stokastiske
Læs mereVægte motiverende eksempel. Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl. Vægtet model. Vægtrelationen
Vægte motiverende eksempel Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - kkb@mathaaudk Institut for Matematiske Fag Aalborg Universitet Højdeforskellen mellem punkterne P
Læs mereLandmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl
Landmålingens fejlteori Lektion 4 Vægtet gennemsnit Fordeling af slutfejl - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Institut for Matematiske Fag Aalborg Universitet 1/1 Vægtet
Læs mereInstitut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med
Repetition: Varians af linear kombination Landmålingens fejlteori Lektion 5 Fejlforplantning - rw@math.aau.dk Antag X 1, X,..., X n er uafhængige stokastiske variable, og Y er en linearkombination af X
Læs mereDefinition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.
Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet Repetition:
Læs mereLandmålingens fejlteori - Repetition - Fordeling af slutfejl - Lektion 8
Landmålingens fejlteori Repetition - Fordeling af slutfejl Lektion 8 - tvede@math.aau.dk http://www.math.aau.dk/ tvede/teaching/l4 Institut for Matematiske Fag Aalborg Universitet 15. maj 2008 1/13 Fordeling
Læs mereLineær algebra Kursusgang 6
Lineær algebra Kursusgang 6 Mindste kvadraters metode og Cholesky dekomposition Vi ønsker at finde en mindste kvadraters løsning til det (inkonsistente) ligningssystem hvor A er en m n matrix. Ax = b,
Læs mereLiA 5 Side 0. Lineær algebra Kursusgang 5
LiA 5 Side 0 Lineær algebra Kursusgang 5 LiA 5 Side 1 Ved bestemmelse af mindste kvadraters løsning til (store) ligningssystemer vil man gerne anvende en metode der opfylder to krav: antallet af regneoperationer
Læs mereLandmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable
Landmålingens fejlteori Lektion 2 Transformation af stokastiske variable - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf12 Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition:
Læs mereLandmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen
Landmålingens fejlteori Lektion Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet En stokastisk variabel er en variabel,
Læs mere1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable
Landmålingens fejlteori - lidt om kurset Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet Kursusholder
Læs mereFejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning
Fejlforplantning Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf13 Landmåling involverer ofte bestemmelse af størrelser som ikke kan
Læs mereAflevering 4: Mindste kvadraters metode
Aflevering 4: Mindste kvadraters metode Daniel Østergaard Andreasen December 2, 2011 Abstract Da meget få havde løst afleveringsopgave 4, giver jeg har en mulig (men meget udførlig) løsning af opgaven.
Læs mereLandmålingens fejlteori - Lektion 5 - Fejlforplantning
Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30 Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke
Læs mereEt eksempel på en todimensional normalfordeling Anders Milhøj September 2006
Et eksempel på en todimensional normalfordeling Anders Milhøj September 006 I dette notat gennemgås et eksempel, der illustrerer den todimensionale normalfordelings egenskaber. Notatet lægger sig op af
Læs mereAffine rum. a 1 u 1 + a 2 u 2 + a 3 u 3 = a 1 u 1 + (1 a 1 )( u 2 + a 3. + a 3. u 3 ) 1 a 1. Da a 2
Affine rum I denne note behandles kun rum over R. Alt kan imidlertid gennemføres på samme måde over C eller ethvert andet legeme. Et underrum U R n er karakteriseret ved at det er en delmængde som er lukket
Læs mereTema. Dagens tema: Indfør centrale statistiske begreber.
Tema Dagens tema: Indfør centrale statistiske begreber. Model og modelkontrol Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse. konfidensintervaller Vi tager udgangspunkt i Ex. 3.1 i
Læs mereLandmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable
Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/41 Landmålingens fejlteori - lidt om kurset
Læs mereDen todimensionale normalfordeling
Den todimensionale normalfordeling Definition En todimensional stokastisk variabel X Y siges at være todimensional normalfordelt med parametrene µ µ og når den simultane tæthedsfunktion for X Y kan skrives
Læs mereMatricer og lineære ligningssystemer
Matricer og lineære ligningssystemer Grete Ridder Ebbesen Virum Gymnasium Indhold 1 Matricer 11 Grundlæggende begreber 1 Regning med matricer 3 13 Kvadratiske matricer og determinant 9 14 Invers matrix
Læs mereKursusgang 3 Matrixalgebra Repetition
Kursusgang 3 Repetition - froberg@mathaaudk http://peoplemathaaudk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12 september 2008 1/12 Lineære ligningssystemer Et lineært ligningssystem
Læs mereMLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som
MLR antagelserne Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som y = β 0 + β 1 x 1 + β 2 x 2 + + β k x k + u, hvor β 0, β 1, β 2,...,β k er ukendte parametere,
Læs mereKursusgang 3 Matrixalgebra Repetition
Kursusgang 3 Repetition - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 16. september 2008 1/19 Betingelser for nonsingularitet af en Matrix
Læs mereKursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo
Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte
Læs mereKursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo
Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet Sandsynlighedsregning og lagerstyring Normalfordelingen og Monte
Læs mereLøsning til eksaminen d. 14. december 2009
DTU Informatik 02402 Introduktion til Statistik 200-2-0 LFF/lff Løsning til eksaminen d. 4. december 2009 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition,
Læs mereTænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.
Repetition af vektor-regning Økonometri: Lektion 3 Matrix-formulering Fordelingsantagelse Hypotesetest Antag vi har to n-dimensionelle (søjle)vektorer a 1 b 1 a 2 a =. og b = b 2. a n b n Tænk på a og
Læs mereProdukt og marked - matematiske og statistiske metoder
Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet February 19, 2016 1/26 Kursusindhold: Sandsynlighedsregning og lagerstyring
Læs mereVektorer og lineær regression
Vektorer og lineær regression Peter Harremoës Niels Brock April 03 Planproduktet Vi har set, at man kan gange en vektor med et tal Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Den hændelse, der ikke indeholder
Læs mereUge 43 I Teoretisk Statistik, 21. oktober Forudsigelser
Uge 43 I Teoretisk Statistik,. oktober 3 Simpel lineær regressionsanalyse Forudsigelser Fortolkning af regressionsmodellen Ekstreme observationer Transformationer Sammenligning af to regressionslinier
Læs mereVektorer og lineær regression. Peter Harremoës Niels Brock
Vektorer og lineær regression Peter Harremoës Niels Brock April 2013 1 Planproduktet Vi har set, at man kan gange en vektor med et tal. Et oplagt spørgsmål er, om man også kan gange to vektorer med hinanden.
Læs mereAnalysestrategi. Lektion 7 slides kompileret 27. oktober 200315:24 p.1/17
nalysestrategi Vælg statistisk model. Estimere parametre i model. fx. lineær regression Udføre modelkontrol beskriver modellen data tilstrækkelig godt og er modellens antagelser opfyldte fx. vha. residualanalyse
Læs mereAfstande, skæringer og vinkler i rummet
Afstande, skæringer og vinkler i rummet Frank Nasser 9. april 20 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her.
Læs mereMatematik for økonomer 3. semester
Matematik for økonomer 3. semester cand.oecon. studiet, 3. semester Planchesæt 2 - Forelæsning 3 Esben Høg Aalborg Universitet 10. september 2009 Institut for Matematiske Fag Aalborg Universitet Esben
Læs mereKursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.
Kursusindhold: Produkt og marked - matematiske og statistiske metoder Rasmus Waagepetersen Institut for Matematiske Fag Aalborg Universitet March 1, 2013 Sandsynlighedsregning og lagerstyring Normalfordelingen
Læs mereLandmålingens fejlteori - Lektion 3. Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering
Landmålingens fejlteori Lektion 3 Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering - rw@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/31 Repetition: Middelværdi og
Læs mereDefinition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereNøgleord og begreber. Definition multiplikation En m n-matrix og en n p-matrix kan multipliceres (ganges sammen) til en m p-matrix.
Oversigt [LA] 3, 4, 5 Matrix multiplikation Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse
Læs mereKvantitative Metoder 1 - Forår 2007
Dagens program Kapitel 8.7, 8.8 og 8.10 Momenter af gennemsnit og andele kap. 8.7 Eksempel med simulationer Den centrale grænseværdisætning (Central Limit Theorem) kap. 8.8 Simulationer Normalfordelte
Læs mereKapitel 11 Lineær regression
Kapitel 11 Lineær regression Peter Tibert Stoltze stat@peterstoltze.dk Elementær statistik F2011 1 / 1 Indledning Vi modellerer en afhængig variabel (responset) på baggrund af en uafhængig variabel (stimulus),
Læs mereForelæsning 11: Kapitel 11: Regressionsanalyse
Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske Universitet 2800
Læs mereAfstande, skæringer og vinkler i rummet
Afstande, skæringer og vinkler i rummet Frank Villa 2. maj 202 c 2008-20. Dette dokument må kun anvendes til undervisning i klasser som abonnerer på MatBog.dk. Se yderligere betingelser for brug her. Indhold
Læs mereAnalyse af måledata II
Analyse af måledata II Usikkerhedsberegning og grafisk repræsentation af måleusikkerhed Af Michael Brix Pedersen, Birkerød Gymnasium Forfatteren gennemgår grundlæggende begreber om måleusikkerhed på fysiske
Læs mere1 Regressionsproblemet 2
Indhold 1 Regressionsproblemet 2 2 Simpel lineær regression 3 2.1 Mindste kvadraters tilpasning.............................. 3 2.2 Prædiktion og residualer................................. 5 2.3 Estimation
Læs mereUniversity of Copenhagen. Notat om statistisk inferens Larsen, Martin Vinæs. Publication date: Document Version Peer-review version
university of copenhagen University of Copenhagen Notat om statistisk inferens Larsen, Martin Vinæs Publication date: 2014 Document Version Peer-review version Citation for published version (APA): Larsen,
Læs mereMindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning
1 Regressionsproblemet 2 Simpel lineær regression Mindste kvadraters tilpasning Prædiktion og residualer Estimation af betinget standardafvigelse Test for uafhængighed Konfidensinterval for hældning 3
Læs mereLineære normale modeller (4) udkast
E6 efterår 1999 Notat 21 Jørgen Larsen 2. december 1999 Lineære normale modeller (4) udkast 4.5 Regressionsanalyse 4.5.1 Præsentation 1 Regressionsanalyse handler om at undersøge hvordan én målt størrelse
Læs mereChapter 3. Modulpakke 3: Egenværdier. 3.1 Indledning
Chapter 3 Modulpakke 3: Egenværdier 3.1 Indledning En vektor v har som bekendt både størrelse og retning. Hvis man ganger vektoren fra højre på en kvadratisk matrix A bliver resultatet en ny vektor. Hvis
Læs mereAlgebra - Teori og problemløsning
Algebra - Teori og problemløsning, januar 05, Kirsten Rosenkilde. Algebra - Teori og problemløsning Kapitel -3 giver en grundlæggende introduktion til at omskrive udtryk, faktorisere og løse ligningssystemer.
Læs mereOversigt [LA] 3, 4, 5
Oversigt [LA] 3, 4, 5 Nøgleord og begreber Matrix multiplikation Identitetsmatricen Transponering Fra matrix til afbildning Fra afbildning til matrix Test matrix-afbildning Inverse matricer Test invers
Læs mereKvadratiske matricer. enote Kvadratiske matricer
enote enote Kvadratiske matricer I denne enote undersøges grundlæggende egenskaber ved mængden af kvadratiske matricer herunder indførelse af en invers matrix for visse kvadratiske matricer. Det forudsættes,
Læs mereStatistiske modeller
Statistiske modeller Statistisk model Datamatrice Variabelmatrice Hændelse Sandsynligheder Data Statistiske modeller indeholder: Variable Hændelser defineret ved mulige variabel værdier Sandsynligheder
Læs mereRepetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable
Normal fordelingen Normal fordelingen Egenskaber ved normalfordelingen Standard normal fordelingen Find sandsynligheder ud fra tabel Transformation af normal fordelte variable Invers transformation Repetition
Læs mereMatrix Algebra med Excel Forelæsningsnoter til FR86. Jesper Lund mail@jesperlund.com http://www.jesperlund.com
Matrix Algebra med Excel Forelæsningsnoter til FR86 Jesper Lund mail@jesperlund.com http://www.jesperlund.com 28. august 2002 1 Indledning Matrix algebra er et uundværligt redskab til økonometri, herunder
Læs mere3.600 kg og den gennemsnitlige fødselsvægt kg i stikprøven.
PhD-kursus i Basal Biostatistik, efterår 2006 Dag 1, onsdag den 6. september 2006 Eksempel: Sammenhæng mellem moderens alder og fødselsvægt I dag: Introduktion til statistik gennem analyse af en stikprøve
Læs mereNormalfordelingen og Stikprøvefordelinger
Normalfordelingen og Stikprøvefordelinger Normalfordelingen Standard Normal Fordelingen Sandsynligheder for Normalfordelingen Transformation af Normalfordelte Stok.Var. Stikprøver og Stikprøvefordelinger
Læs mereRegneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)
Formelsamlingen 1 Regneregler for middelværdier M(a + bx) a + bm X M(X+Y) M X +M Y Spredning varians og standardafvigelse VAR(X) 1 n n i1 ( X i - M x ) 2 Y a + bx VAR(Y) VAR(a+bX) b²var(x) 2 Kovariansen
Læs mereDet teknisk-naturvidenskabelige basisår Matematik 1A, Efterår 2005, Hold 3 Prøveopgave B
Det teknisk-naturvidenskabelige basisår Matematik 1A, Efterår 2005, Hold 3 Opgaven består af fire dele, hver med en række spørgsmål, efterfulgt af en liste af teorispørgsmål. I alle opgavespørgsmålene
Læs mereTema. Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. Hypotese og test. Teststørrelse.
Tema Model og modelkontrol ( Fx. en normalfordelt obs. række m. kendt varians) Estimation af parametre. Fordeling. (Fx. x. µ) Hypotese og test. Teststørrelse. (Fx. H 0 : µ = µ 0 ) konfidensintervaller
Læs mere4 Oversigt over kapitel 4
IMM, 2002-09-14 Poul Thyregod 4 Oversigt over kapitel 4 Introduktion Hidtil har vi beskæftiget os med data. Når data repræsenterer gentagne observationer (i bred forstand) af et fænomen, kan det være bekvemt
Læs mereMatematisk modellering og numeriske metoder. Lektion 13
Matematisk modellering og numeriske metoder Lektion 3 Morten Grud Rasmussen 3. november 206 Numerisk metode til Laplace- og Poisson-ligningerne. Finite difference-formulering af problemet I det følgende
Læs mereOversigt. 1 Gennemgående eksempel: Højde og vægt. 2 Korrelation. 3 Regressionsanalyse (kap 11) 4 Mindste kvadraters metode
Kursus 02402 Introduktion til Statistik Forelæsning 11: Kapitel 11: Regressionsanalyse Oversigt 1 Gennemgående eksempel: Højde og vægt 2 Korrelation 3 Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse
Læs mereLineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable
E6 efterår 999 Notat 8 Jørgen Larsen 22. november 999 Lineære normale modeller ) udkast Ved hjælp af lineær algebra kan man formulere og analysere de såkaldte lineære normale modeller meget overskueligt
Læs mereOm hypoteseprøvning (1)
E6 efterår 1999 Notat 16 Jørgen Larsen 11. november 1999 Om hypoteseprøvning 1) Det grundlæggende problem kan generelt formuleres sådan: Man har en statistisk model parametriseret med en parameter θ Ω;
Læs mereRettevejledning til eksamen i Kvantitative metoder 1, 2. årsprøve 2. januar 2007
Rettevejledning til eksamen i Kvantitative metoder 1,. årsprøve. januar 007 I rettevejledningen henvises der til Berry and Lindgren "Statistics Theory and methods"(b&l) hvis ikke andet er nævnt. Opgave
Læs mereUdeladelse af én observation. Note til kapitlerne 4, 5 og 6
Udeladelse af én observation Note til kapitlerne 4, 5 og 6 I de følgende resultater 1-10 bevises en række resultater, der alle vedrører udeladelse af én observation. Derved bevises og uddybes en række
Læs mereKursusgang 3 Matrixalgebra fortsat
Kursusgang 3 fortsat - froberg@math.aau.dk http://people.math.aau.dk/ froberg/oecon3 Institut for Matematiske Fag Aalborg Universitet 12. september 2008 1/31 Nødvendige betingelser En nødvendig betingelse
Læs mereLøsning eksamen d. 15. december 2008
Informatik - DTU 02402 Introduktion til Statistik 2010-2-01 LFF/lff Løsning eksamen d. 15. december 2008 Referencer til Probability and Statistics for Engineers er angivet i rækkefølgen [8th edition, 7th
Læs mereKapitel 12 Variansanalyse
Kapitel 12 Variansanalyse Peter Tibert Stoltze stat@peterstoltzedk Elementær statistik F2011 Version 7 april 2011 1 / 43 Indledning Sammenligning af middelværdien i to grupper indenfor en stikprøve kan
Læs mereAffine transformationer/afbildninger
Affine transformationer. Jens-Søren Kjær Andersen, marts 2011 1 Affine transformationer/afbildninger Følgende afbildninger (+ sammensætninger af disse) af planen ind i sig selv kaldes affine: 1) parallelforskydning
Læs mereLineær algebra 1. kursusgang
Lineær algebra 1. kursusgang Eksempel, anvendelse To kendte punkter A og B på en linie, to ukendte punkter x 1 og x 2. A x 1 x 2 B Observationer af afstande: fra A til x 1 : b 1 fra x 1 til x 2 : b 2 fra
Læs mereInstitut for Matematiske Fag Matematisk Modellering 1 UGESEDDEL 6
Institut for Matematiske Fag Matematisk Modellering 1 Aarhus Universitet Eva B. Vedel Jensen 25. februar 2008 UGESEDDEL 6 Forelæsningerne torsdag den 21. februar og tirsdag den 26. februar. Jeg har gennemgået
Læs mereOprids over grundforløbet i matematik
Oprids over grundforløbet i matematik Dette oprids er tænkt som en meget kort gennemgang af de vigtigste hovedpointer vi har gennemgået i grundforløbet i matematik. Det er en kombination af at repetere
Læs mereKursus i Landmåling, Cad og GIS (LCG) Vej og Trafik, 5. semester og Byggeri og Anlæg, 1. semester, 2012
Kursus i Landmåling, Cad og GIS (LCG) Vej og Trafik, 5. semester og yggeri og Anlæg, 1. semester, 2012 LCG-1. Introduktion til landmåling 1. Danmarks fikspunktsregister (I) 2. Horisontalretningsmåling
Læs mereKvadratisk regression
Kvadratisk regression Helle Sørensen Institut for Matematiske Fag Københavns Universitet Juli 2011 I kapitlet om lineær regression blev det vist hvordan man kan modellere en lineær sammenhæng mellem to
Læs mereElementær sandsynlighedsregning
Elementær sandsynlighedsregning Sandsynlighedsbegrebet Et udfaldsrum S er mængden af alle de mulige udfald af et eksperiment. En hændelse A er en delmængde af udfaldsrummet S. Et sandsynlighedsmål er en
Læs mereModule 3: Statistiske modeller
Department of Statistics ST502: Statistisk modellering Pia Veldt Larsen Module 3: Statistiske modeller 31 ANOVA 1 32 Variabelselektion 4 321 Multipel determinationskoefficient 5 322 Variabelselektion med
Læs mereVejledende besvarelser til opgaver i kapitel 14
Vejledende besvarelser til opgaver i kapitel 14 Opgave 1 a) Det første trin i opstillingen af en hypotesetest er at formulere to hypoteser, hvoraf den ene støtter den teori vi vil teste, mens den anden
Læs mereAnvendt Statistik Lektion 8. Multipel Lineær Regression
Anvendt Statistik Lektion 8 Multipel Lineær Regression 1 Simpel Lineær Regression (SLR) y Sammenhængen mellem den afhængige variabel (y) og den forklarende variabel (x) beskrives vha. en SLR: ligger ikke
Læs mereAnvendt Statistik Lektion 7. Simpel Lineær Regression
Anvendt Statistik Lektion 7 Simpel Lineær Regression 1 Er der en sammenhæng? Plot af mordraten () mod fattigdomsraten (): Scatterplot Afhænger mordraten af fattigdomsraten? 2 Scatterplot Et scatterplot
Læs mereSupplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable
IMM, 00--6 Poul Thyregod Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable Todimensionale stokastiske variable Lærebogens afsnit 4 introducerede sandsynlighedsmodeller formuleret
Læs mereIntroduktion til differentialregning 1. Jens Siegstad og Annegrethe Bak
Introduktion til differentialregning 1 Jens Siegstad og Annegrete Bak 16. juli 2008 1 Indledning I denne note vil vi kort introduktion til differentilregning, idet vi skal bruge teorien i et emne, Matematisk
Læs mereModule 1: Lineære modeller og lineær algebra
Module : Lineære modeller og lineær algebra. Lineære normale modeller og lineær algebra......2 Lineær algebra...................... 6.2. Vektorer i R n................... 6.2.2 Regneregler for vektorrum...........
Læs mereStatistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen
Statistik Lektion 3 Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen Repetition En stokastisk variabel er en funktion defineret på S (udfaldsrummet, der antager
Læs mereØkonometri 1. Dagens program. Den multiple regressionsmodel 18. september 2006
Dagens program Økonometri Den multiple regressionsmodel 8. september 006 Opsamling af statistiske resultater om den simple lineære regressionsmodel (W kap..5). Den multiple lineære regressionsmodel (W
Læs mereModulpakke 3: Lineære Ligningssystemer
Chapter 4 Modulpakke 3: Lineære Ligningssystemer 4. Homogene systemer I teknikken møder man meget ofte modeller der leder til systemer af koblede differentialligninger. Et eksempel på et sådant system
Læs merePoul Thyregod, introslide.tex Specialkursus vid.stat. foraar Lad θ = θ(β) R k for β B R m med m k
Dagens program: Likelihoodfunktion, begreber : Mandag den 4. februar Den generelle lineære model score-funktion: første afledede af log-likelihood har middelværdien nul observeret information: anden afledede
Læs mereLandmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3
Landmålingens fejlteori Repetition - Kontinuerte stokastiske variable Lektion 4 - kkb@math.aau.dk http://people.math.aau.dk/ kkb/undervisning/lf10 Institut for Matematiske Fag Aalborg Universitet 29. april
Læs mereOpgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved
Matematisk Modellering 1 (reeksamen) Side 1 Opgave 1 Betragt to diskrete stokastiske variable X og Y. Antag at sandsynlighedsfunktionen p X for X er givet ved { 1 hvis x {1, 2, 3}, p X (x) = 3 0 ellers,
Læs mereMatrx-vektor produkt Mikkel H. Brynildsen Lineær Algebra
Matrx-vektor produkt [ ] 1 2 3 1 0 2 1 10 4 Rotationsmatrix Sæt A θ = [ ] cosθ sinθ sinθ cosθ At gange vektor v R 2 med A θ svarer til at rotere vektor v med vinkelen θ til vektor w: [ ][ ] [ ] [ ] cosθ
Læs mereNanostatistik: Opgavebesvarelser
Nanostatistik: Opgavebesvarelser JLJ Nanostatistik: Opgavebesvarelser p. 1/16 Pakkemaskine En producent hævder at poserne indeholder i gennemsnit 16 ounces sukker. Data: 10 pakker sukker: 16.1, 15.8, 15.8,
Læs mereForelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)
Kursus 02402 Introduktion til Statistik Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup) Per Bruun Brockhoff DTU Compute, Statistik og Dataanalyse Bygning 324, Rum 220 Danmarks Tekniske
Læs mereKvantitative Metoder 1 - Forår Dagens program
Dagens program Kontinuerte fordelinger Simultane fordelinger Kovarians og korrelation Uafhængighed Betingede fordelinger - Middelværdi og varians - Sammenhæng med uafhængighed 1 Figur 1: En tæthedsfunktion
Læs mere