Landmålingens fejlteori - Lektion 5 - Fejlforplantning

Relaterede dokumenter
Fejlforplantning. Landmålingens fejlteori - Lektion 5 - Fejlforplantning. Repetition: Varians af linear kombination. Eksempel: Vinkelberegning

Institut for Matematiske Fag Aalborg Universitet Specielt: Var(aX) = a 2 VarX 1/40. Lad X α, X β og X γ være stokastiske variable (vinkelmålinger) med

Landmålingens fejlteori - Lektion 3. Estimation af σ Dobbeltmålinger Geometrisk nivellement Linearisering

Antag X 1, X 2,..., X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 2 1,..., Var(X n )=σ 2 n.

Landmålingens fejlteori - Lektion 2 - Transformation af stokastiske variable

Definition: Normalfordelingen. siges at være normalfordelt med middelværdi µ og varians σ 2, hvor µ og σ er reelle tal og σ > 0.

Vægte motiverende eksempel. Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl. Vægtet model. Vægtrelationen

Landmålingens fejlteori - Lektion 2. Sandsynlighedsintervaller Estimation af µ Konfidensinterval for µ. Definition: Normalfordelingen

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Landmålingens fejlteori - Lektion4 - Vægte og Fordeling af slutfejl

Landmålingens fejlteori - Repetition - Fordeling af slutfejl - Lektion 8

Fejlforplantning. Landmålingens fejlteori - Lektion 9 - Repetition - Fejlforplantning. Kovariansmatrix. Kovariansmatrix

1/41. 2/41 Landmålingens fejlteori - Lektion 1 - Kontinuerte stokastiske variable

Landmålingens fejlteori - Repetition - Kontinuerte stokastiske variable - Lektion 3

Kvantitative Metoder 1 - Forår Dagens program

Noter i fejlteori. Kasper Klitgaard Berthelsen Poul Winding & Jens Møller Pedersen. Diverse opdateringer ved Rasmus Waagepetersen. Version 1.

Repetition Stokastisk variabel

Landmålingens fejlteori Lektion 1 Det matematiske fundament Kontinuerte stokastiske variable

Elementær sandsynlighedsregning

Definition. Definitioner

Kvantitative Metoder 1 - Forår Dagens program

Statistik og Sandsynlighedsregning 2

Kvantitative Metoder 1 - Efterår Dagens program

Den todimensionale normalfordeling

hvor a og b er konstanter. Ved middelværdidannelse fås videre

Et eksempel på en todimensional normalfordeling Anders Milhøj September 2006

Anvendt Lineær Algebra

Noter i fejlteori. Kasper Klitgaard Berthelsen Poul Winding & Jens Møller Pedersen. Version 1.2

Noter i fejlteori. Kasper Klitgaard Berthelsen Poul Winding & Jens Møller Pedersen. Version 1.1

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

Motivation. Konfidensintervaller og vurdering af usikkerhed på estimerede størrelser

Kursusindhold: X i : tilfældig værdi af ite eksperiment. Antag X i kun antager værdierne 1, 2,..., M.

Kursusindhold: Produkt og marked - matematiske og statistiske metoder. Monte Carlo

MLR antagelserne. Antagelse MLR.1:(Lineære parametre) Den statistiske model for populationen kan skrives som

Produkt og marked - matematiske og statistiske metoder

Reeksamen 2014/2015 Mål- og integralteori

Elementær sandsynlighedsregning

INSTITUT FOR MATEMATISKE FAG c

MM501/MM503 forelæsningsslides

MM501 forelæsningsslides

Sætning: Middelværdi og varians for linearkombinationer. Lad X 1,X 2,...,X n være stokastiske variable. Da gælder. Var ( a 0 + a 1 X a n X n

Betingede sandsynligheder Aase D. Madsen

Statistik Lektion 3. Simultan fordelte stokastiske variable Kontinuerte stokastiske variable Normalfordelingen

Differentiation af Trigonometriske Funktioner

Tænk på a og b som to n 1 matricer. a 1 a 2 a n. For hvert i = 1,..., n har vi y i = x i β + u i.

Analysestrategi. Lektion 7 slides kompileret 27. oktober :24 p.1/17

Geometrisk nivellement. Landmålingens fejlteori - Lektion 7 - Repetition - Fejlforplantning ved geometrisk nivellement. Modellen.

Statistik. Hjemmeside: kkb. Statistik - lektion 1 p.1/22

3 Stokastiske variable 3.1 Diskrete variable

4 Oversigt over kapitel 4

Note om Monte Carlo metoden

Sandsynlighedsregning Oversigt over begreber og fordelinger

Repetition. Diskrete stokastiske variable. Kontinuerte stokastiske variable

VUC Vestsjælland Syd, Slagelse Nr. 1 Institution: Projekt Trigonometri

Supplement til kapitel 4 Om sandsynlighedsmodeller for flere stokastiske variable

Kvantitative Metoder 1 - Efterår Dagens program

Kvantitative Metoder 1 - Forår Dagens program

standard normalfordelingen på R 2.

Tema. Dagens tema: Indfør centrale statistiske begreber.

Kvantitative Metoder 1 - Forår Dagens program

Lineære normale modeller (1) udkast. 1 Flerdimensionale stokastiske variable

Besvarelser til Calculus og Lineær Algebra Globale Forretningssystemer Eksamen - 3. Juni 2014

Naturvidenskabelig Bacheloruddannelse Forår 2006 Matematisk Modellering 1 Side 1

Sandsynlighedsregning 12. forelæsning Bo Friis Nielsen

Økonometri Lektion 1 Simpel Lineær Regression 1/31

Statistik ved Bachelor-uddannelsen i folkesundhedsvidenskab. Statistisk Model

Eksamen 2014/2015 Mål- og integralteori

Sandsynlighed og Statistik

Analyse af måledata II

Agenda Sandsynlighedsregning. Regneregler (kap. 3-4) Fordelinger og genkendelse af fordelinger (kap. 3-5) Simultane, marginale og betingede

Sandsynlighedsregning 11. forelæsning Bo Friis Nielsen

Forelæsning 5: Kapitel 7: Inferens for gennemsnit (One-sample setup)

StatDataN: Middelværdi og varians

Regneregler for middelværdier M(X+Y) = M X +M Y. Spredning varians og standardafvigelse. 1 n VAR(X) Y = a + bx VAR(Y) = VAR(a+bX) = b²var(x)

Mike Vandal Auerbach. Differentialregning (2) (1)

Matematisk modellering og numeriske metoder

Kvantitative Metoder 1 - Forår 2007

Mat2SS Vejledende besvarelse uge 11

Simpel Lineær Regression

Program. Statistik og Sandsynlighedsregning. Eksempler. Sandsynlighedstæthed og sandsynlighedsmål

Teoretisk Statistik, 9 marts nb. Det forventes ikke, at alt materialet dækkes d. 9. marts.

Hvorfor er normalfordelingen så normal?

Module 1: Lineære modeller og lineær algebra

Elementær Matematik. Trigonometriske Funktioner

Statistik og Sandsynlighedsregning 2

Lidt om fordelinger, afledt af normalfordelingen

Matematisk modellering og numeriske metoder. Lektion 8

Pointen med Differentiation

Modul 6: Regression og kalibrering

Program. 1. Repetition 2. Fordeling af empirisk middelværdi og varians, t-fordeling, begreber vedr. estimation. 1/18

Anvendt Statistik Lektion 7. Simpel Lineær Regression

Statistik og Sandsynlighedsregning 2

Teoretisk Statistik, 16. februar Generel teori,repetition

Stamoplysninger til brug ved prøver til gymnasiale uddannelser

Susanne Ditlevsen Institut for Matematiske Fag susanne

Matematisk modellering og numeriske metoder. Lektion 10

Normalfordelingen og Stikprøvefordelinger

MASO Uge 8. Invers funktion sætning og Implicit given funktion sætning. Jesper Michael Møller. Department of Mathematics University of Copenhagen

Økonometri: Lektion 2 Multipel Lineær Regression 1/27

enote 2: Kontinuerte fordelinger Introduktion til Statistik Forelæsning 3: Kontinuerte fordelinger Peder Bacher enote 2: Continuous Distributions

Transkript:

Landmålingens fejlteori Lektion 5 Fejlforplantning - kkb@math.aau.dk Institut for Matematiske Fag Aalborg Universitet 1/30

Fejlforplantning Landmåling involverer ofte bestemmelse af størrelser som ikke kan måles direkte, men kan beregnes ud fra andre målinger: Vinkler - vha differenser af retningsmålinger. Arealer - vha vinkler og længder. Længder - vha trigonometriske relationer.... I resten af kurset gennemgår vi hvorledes fejlene på de målbare størrelser forplanter sig i fejlen af den interessante ikke-målbare størrelse. Eksempelvis kan arealet, T, af en trekant bestemmes ved T = 1 absinc, hvor længdemålingerne a og b samt vinklen C måles med usikkerhed. Mere teknisk: Vi vil finde tilnærmede udtryk for (teoretiske) middelværdi og varians for de ikke-målbare størrelser på baggrund af middelværdi og varians for de målbare størrelse. /30

Repetition: Varians af linear kombination Antag X 1,X,...,X n er uafhængige stokastiske variable, og Y er en linearkombination af X 1,X,...,X n : Da er variansen for Y givet ved Y = a 0 +a 1 X 1 +a X + +a n X n Var(Y) = a 1Var(X 1 )+a Var(X )+ +a nvar(x n ). 3/30

Eksempel: Vinkelberegning R i V ij Vinkler bestemmes som differensen mellem to retningsbestemmelser. Fx. er V ij = R j R i hvor både R j og R i er uafhængige stokastiske variable. Vi antager retningerne er målt med samme nøjagtighed, dvs Var(R j ) = Var(R i ) = σ R. Variansen på V ji er givet ved σ V = Var(V ji ) = Var(R j R i ) = Var(R j )+( 1) Var(R i ) = σ R. R j 4/30

Repetition: Linearisering Vi har tidligere set, hvordan vi finder tilnærmede udtryk for middelværdi og varians for Y, når Y ikke er en lineær funktion af én stokatisk variabel: Lineær approximation af g omkring µ: Y = g(x) g(µ)+g (µ)(x µ) = g (µ)x g (µ)µ+g(µ) = ax +b, hvor a = g (µ) og b = g (µ)µ+g(µ). ax+b g(x) g(µ) µ 5/30

Repetition: Linearisering Vi har en approksimation af g(x): Y ax +b, hvor a = g (µ) og b = g (µ)µ+g(µ). Heraf følger approximativ middelvædi og varians for Y: E(Y) ae(x)+b = g (µ)µ g (µ)µ+g(µ) = g(µ) Var(Y) a Var(X) = g (µ) σ, hvor approximationen er god, hvis σ er lille. 6/30

Linearisering: Flere variable Antag X 1,X,...,X n er n uafhængige stokastiske variable. Middelværdi og varians for X i er hhv. µ i og σ i. Antag Y er en funktion af X 1,X,...,X n : hvor g er differentiabel. Y = g(x 1,X,...,X n ), Vi ønsker at finde (tilnærmede) udtryk for middelværdi og varians for Y. Hvis g ikke er lineær i X 1,...,X n kan vi ikke anvende de sædvanlige udtryk. 7/30

Linearisering: Flere variable Løsningen er at linearisere g omkring punktet (µ 1,µ,...,µ n ): Y g(µ 1,µ,...,µ n )+ X 1 (X 1 µ 1 )+ + X n (X n µ n ), hvor vi anvender notationen X 1 (x 1,x,...,x n ) x i x1=µ 1,x =µ,...,x n=µ n, dvs. X 1 betegner den i te partielle afledede evalueret i punktet (µ 1,µ,...,µ n ). I praksis kender vi typisk ikke µ 1,...,µ n. I stedet anvender vi estimater, fx. gennemsnit af en eller flere målinger af µ i. 8/30

Fejlforplantningsloven Vi kan approximere variansen på Y ( Var(Y) Var g(µ 1,µ,...,µ n )+ (X 1 µ 1 )+ + ) (X n µ n ) X 1 X n ( = Var g(µ 1,µ,...,µ n ) µ 1 µ n + X 1 X }{{ n } konstant ( = Var X 1 + + ) X n X 1 X n ( ) ( = Var(X 1 )+ + X 1 X n X 1 + + ) X n X 1 X n ) Var(X n ) 9/30

Den simple fejlforplantningslov Antag X 1,X,...,X n er n uafhængige stokastiske variable, hvor Var(X 1 )=σ 1,...,Var(X n )=σ n. Lad Y = g(x 1,X,...,X n ), hvor g er en differentiabel funktion. Et tilnærmet udtryk for variansen for Var(Y)=σ Y er ( ) ( ) σy σ1 + + σn X 1 X n Bemærk: For en linære transformation Y = a 0 +a 1 X 1 +a X +...+a n X n gælder X 1 = a 1,..., X n = a n. I dette tilfælder giver ovenstående resultatet det samme som den sædvanlige variansregel på slide 3. 10/30

Trigonmetriske funktioner: Gon og radianer Lad sin r (x) og sin(x) betegne sinus når vinklen x er målt i hhv. radianer og gon. Tilsvarende for cosinus og tangens. Vi har ( ) π sin(c) = sin r 400 gon C ( ) 1 = sin r ω C, hvor er en konverterings-faktor. ω = 00 gon, π 11/30

Trigonmetriske funktioner: Differentitation Vi har regneregler for differentiation af trigonmetriske funktioner, når vinklen er målt i radianer. Fx. dsin r (x) dx = cos r (x). Når vinklen er målt i gon får vi: dsin(x) = dsin ( 1 r ω x) ( ) 1 1 = cos r dx dx ω x ω = cos(x)1 ω. Konverterings-faktoren 1 ω = π/00 gon optræder på samme måde ved differentiation af cosinus og tangens: dcos(x) dx = sin(x) 1 ω og dtan(x) dx = 1/30

Fejlforplantning ved arealbestemmelse A b c C a B Arealet T kan bestemmes på flere måder: T = 1 absinc (1) T = 1 acsinb () T = 1 bcsina (3) 13/30

Fejlforplantning anvendt på (1) Vi analyserer arealudtrykket (1): T = 1 absinc. Jf. fejlforplantningsloven gælder der, ( ) ( T T σt σa + a b De partielt afledte er: ) σ b + ( ) T σc C T a = 1 1 bsinc = absinc = T a a T b = 1 1 asinc = absinc = T b b T C = 1 abcosc 1 ω = 1 absinccosc 1 sinc ω = T cosc 1 sinc ω = T 1 tanc ω. Sidste omskrivning gælder idet tanx = sinx cosx 1 tanx = cosx sinx. 14/30

Estimat af T I et eksempel fra noterne er følgende oplysninger givet: a = 115.53m, b = 15.17m C = 93.73gon σ a = σ b = 1cm. σ C = 0.00gon. Dvs. vi kan regne estimatet for T som T = 1 absinc = 1 115.53m 15.17m sin93.73 = 8741.07m 15/30

Variansen σ T Variansen σt på estimatet T er fra forrige slide påvirket af σ a, σ b og σ C på følgende måde, ( ) T ( ) T ( ) T σt σa + σb a b + 1 σc tanc ω ( 8741m ) 8741m = (0.01m) +( ) 8741m (0.01m) ) 1 +( (0.00gon) 115.53m 15.17m tan 93.73 ω = 0.57m 4 +0.33m 4 +0.0008m 4 = 0.9033m 4. Standard-afvigelsen er: σ T = σ T = 0.9504m. 16/30

Eksempel - Extended edition Antag nu at målene i trekanten er målt således: a b c A B C 1 115.5603 15.1643 181.136 43.7505 6.9538 93.993 115.5397 15.1410 181.146 43.7485 6.9498 93.3008 3 115.557 15.1700 181.131 6.9514 93.730 4 115.5350 181.1141 6.9511 5 115.5341 181.1138 6 115.5431 7 115.5519 8 115.5300 x 115.5434 15.1584 181.140 43.7495 6.9515 93.910 Var( X) σ a 8 σ b 3 σ c 5 σ A σ B 4 σ C 3 17/30

Estimater af arealet T Fra tidligere kan arealet T beregnes på mindst tre måder (1)-(3). Hvis vi anvender gennemsnitsmålingerne fra forrige slide har vi: (1) T 1 = 1 absinc = 115.5434 15.1584 sin93.910 = 8741.681m () T = 1 acsinb = 115.5434 181.140 sin6.9515 = 8741.376m (3) T 3 = 1 bcsina = 15.1584 181.140 sin43.7495 = 8741.710m 18/30

Vægte til estimat af T vha x Tidligere så vi hvordan σt blev bestemt for (1) med data fra noternes eksempel. Nedenfor bestemmes σt 1, σt og σt 3 : σ T 1 ( ) 8741 0.01 ( ) 8741 115.54 8 + 0.01 ( 8741 15.16 3 + tan 93.9 = 0.181850m 4. ) 1 0.00 ω 3 σ T ( ) 8741 0.01 ( ) 8741 115.54 8 + 0.01 ( 8741 181.1 5 + tan 6.95 = 0.16968m 4. ) 1 0.00 ω 4 σ T 3 ( ) 8741 0.01 ( ) 8741 15.16 3 + 0.01 ( 8741 181.1 5 + tan 43.75 = 0.1644m 4. ) 1 0.00 ω 19/30

Vægte til estimat af T vha x Vægtene i det vægtede gennemsnit x skal opfylde vægtrelationen, p 1 σ T 1 = p σ T = p 3 σ T 3. Fx. kan vi vælge p 1 = 1, hvilket medfører at p = σ T 1 σ T = 0.1819 0.163 = 1.4399 og p 3 = σ T 1 σ T 3 = 0.1819 0.16 = 0.8553 Således er p + = 1+1.4366+0.8553 = 3.951 og estimatet af T, x = p 1 p + T 1 + p p + T + p 3 p + T 3 = 1 1.4399 0.8553 8741.681+ 8741.376+ 3.951 3.951 3.951 8741.710 = 8741.81m 0/30

Konfidensinterval for T Fra tidligere har vi at [ x 1.96 σ 0 ; x +1.96 σ ] 0 p+ p+ Idet vægtrelationen foreskriver σ 0 = p 1 σ T 1 = p σ T = p 3 σ T 3 gælder der i vores tilfælde med p 1 = 1 at σ 0 = σ T 1 = 0.1819. Med p + = 3.951 og x = 8741.81m bliver et 95% konfidensintervallet [ ] 0.1819 0.1819 8741.81 1.96 ; 8741.81+1.96 3.951 3.951 [8741.35 ; 874.7] 1/30

Kovarians Vi har indtil nu antaget at vores målinger, X 1 og X, er uafhængige. Dvs at Cov(X 1,X ) = 0. Lader vi nu X 1 og X være afhængige, dvs ændringer i de to variable kan påvirke hinanden. Dette betyder at Var(X 1 +X ) bliver mere kompliceret. Lad E(X 1 ) = µ 1 og E(X ) = µ : Var(X 1 +X ) = E [[(X 1 +X ) (µ 1 +µ )] ] = E [[(X 1 µ 1 )+(X µ )] ] = E [ (X 1 µ 1 ) +(X µ ) +(X 1 µ 1 )(X µ ) ] = E[(X 1 µ 1 ) ]+E[(X µ ) ]+E[(X 1 µ 1 )(X µ )] = Var(X 1 )+Var(X )+Cov(X 1,X ) hvor Cov(X 1,X ) kaldes kovariansen mellem X 1 og X. /30

Kovarians Definition: Kovarians Antag X 1 og X er to stokastiske variable med middelværdier hhv. µ 1 og µ. Kovariansen mellem X 1 og X er da defineret som Cov(X 1,X ) = E[(X 1 µ 1 )(X µ )]. Notation: Kovariansen mellem to stokastiske variable X 1 og X betegnes ofte σ 1. Egenskab: Kovarians og uafhængighed Hvis X 1 og X er uafhængige, så er Cov(X 1,X ) = 0. Det modsatte gælder ikke!! Dvs. Cov(X 1,X ) = 0 er ikke ensbetydende med uafhængighed. 3/30

Kovarians: Regneregler Kovariansen mellem a 1 X 1 og a X er Cov(a 1 X 1,a X ) = a 1 a Cov(X 1,X ). Det medfører at variansen for a 1 X 1 +a X er Var(a 1 X 1 +a X ) = Var(a 1 X 1 )+Var(a X )+Cov(a 1 X 1,a X ) = a 1Var(X 1 )+a Var(X )+a 1 a Cov(X 1,X ). 4/30

Korrelation Definition: Korrelation Antag X 1 og X er to stokastiske variable med varianser σ 1 and σ. Korrelation Corr(X 1,X ) mellem de stokastiske variable X 1 og X er defineret som Corr(X 1,X ) = Cov(X 1,X ) Var[X1 ]Var[X ]. Ofte skrives korrelation som ρ 1 = Corr(X 1,X ). Med notationen Var[X i ] = σ i og Cov(X 1,X ) = σ 1 er korrelationen mellem X 1 og X ρ 1 = σ 1 σ 1 σ. Hvis vi kender korrelation og varianserne har vi kovariasen: σ 1 = σ 1 σ ρ 1. 5/30

Korrelation: Egenskaber og Eksempler 1 ρ 1 Mål for graden af lineær sammenhæng. ρ = 1 og ρ = 1 perfekt lineær sammenhæng. Uafhængighed ρ = 0. Eksempler: ρ er korrelationen i populationen og r er den estimerede korrelation for de viste stikprøver. 10 8 6 4 0 0 4 ρ = 1 r = 1 0 4 6 8 10 ρ = 0.4 r = 0.45 0 4 6 8 10 1 10 8 6 4 0 6 4 0 4 6 ρ = 0.9 r = 0.90 0 4 6 8 10 ρ = 0 r = 0.08 0 4 6 8 10 4 0 4 6 8 5 0 15 10 5 0 5 ρ = 0 r = 0.053 0 4 6 8 10 ρ = 0 r = 0.157 0 4 6 8 10 6/30

Fejlforplantning: Afhængige målinger Tidligere har vi set Y=g(X 1,X ) hvor g er en transformation af X 1 og X. En lineær approximation af Y omkring punktet (µ 1,µ ) er givet ved: Y = g(x 1,X ) g(µ 1,µ )+ X 1 (X 1 µ 1 )+ X (X µ ) Hvis X 1 og X er uafhængige har vi set, at ( ) ( ) Var(Y) Var(X 1 )+ + Var(X n ) X 1 X n Hvordan ser det ud, hvis X 1 og X er afhængige, dvs. når Cov(X 1,X ) 0? 7/30

Fejlforplantning - fortsat Hvis Cov(X 1,X ) = σ 1 0 bliver variansen af Y: ( Var(Y) Var g(µ 1,µ )+ (X 1 µ 1 )+ ) (X µ ) X 1 X = Var g(µ 1,µ ) µ 1 µ + X 1 + X X 1 X }{{ X } 1 X ( = Var = = X 1 ( konstant X 1 + ) X X 1 X ( ) ( σ1 + X 1 ) σ 1 + X ( X ) σ + Cov(X 1,X ) X 1 X ) σ + X 1 X σ 1 8/30

Fejlforplantning: Matrix-formulering Udtrykket for variansen af Y kan opskrives vha. matricer: [ ][ ][ ] Var(Y) σ 1 σ 1 X 1 X }{{} σ 1 σ X 1 }{{} X G }{{} K X G hvor K X kaldes kovariansmatricen for X = (X 1,X ) og G er Jacobi-matricen. Bemærk: Cov(X 1,X ) = Cov(X,X 1 ) hvilket vil sige σ 1 = σ 1 og K X er derfor symmetrisk. 9/30

Udregning af udtrykket Var(Y) = [ X 1 ] X } {{ } 1 [ X 1 ( = X 1 ( = X 1 ] X [ ] σ 1 σ 1 σ 1 σ }{{} [ ) σ 1 + ) σ 1 + [ X 1 X ] }{{} 1 X 1 σ1 + X σ 1 X 1 σ 1 + X σ ] ( σ 1 + X X σ 1 + X 1 X X 1 ( ) σ + σ 1 X 1 X X ) σ 30/30