grundlagen der...
TRANSCRIPT
Technische Universität Ausgleichungsrechnung I
Prof. Dr.-Ing. L. Gründig
Grundlagen der Ausgleichungsrechnung
April 2003
Inhaltsverzeichnis
Seite i
Inhaltsverzeichnis
Inhaltsverzeichnis..................................................................................................................................... i 1. Einführung und wiederholende Übersicht....................................................................................... 1
1.1 Einführung............................................................................................................................... 1 1.2 Literaturhinweise..................................................................................................................... 3
2 Grundlagen für die funktionale Modellierung................................................................................. 4 2.1 Matrizenrechnung.................................................................................................................... 4
2.1.1 Allgemeine Regeln .......................................................................................................... 4 2.1.2 Berechnung der inversen Matrix ..................................................................................... 6 2.1.3 Untermatrizen.................................................................................................................. 7 2.1.4 Skalares und dyadisches Produkt von Vektoren.............................................................. 8 2.1.5 Summenproben.............................................................................................................. 11 2.1.6 Bilineare und quadratische Formen............................................................................... 13
2.2 Vektordifferentiation ............................................................................................................. 16 2.2.1 Differential bei einer Funktion einer Variablen ............................................................ 16 2.2.2 Vektordifferential .......................................................................................................... 17
2.3 Kettenregel ............................................................................................................................ 19 2.4 Produktregel .......................................................................................................................... 20 2.5 Ableitung eines Vektordiagonal-Matrix-Produktes............................................................... 22
3 Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik .............................................. 23 3.1 Messprozess und mathematisches Modell............................................................................. 23 3.2 Häufigkeit, relative Häufigkeit, relative Summenhäufigkeit................................................. 23 3.3 Wahrscheinlichkeit ................................................................................................................ 25
3.3.1 Zusammengesetzte Ereignisse....................................................................................... 25 3.4 Bedingte Wahrscheinlichkeit, stochastische Unabhängigkeit ............................................... 28 3.5 Stochastische Veränderliche, Verteilung, Wahrscheinlichkeitsdichte .................................. 30
3.5.1 Merkmale von zufälligen Ereignissen ........................................................................... 30 3.5.2 Stetige Veränderliche .................................................................................................... 31
3.6 Verteilungsfunktion............................................................................................................... 32 3.6.1.1 Diskrete Verteilungen:............................................................................................... 32 3.6.1.2 Stetige Verteilungen: ................................................................................................. 32
3.7 Maßzahlen zur Charakterisierung von Grundgesamtheiten beliebiger Wahrscheinlichkeitsdichte................................................................................................................. 33
3.7.1 Erwartungswert ............................................................................................................. 33 3.7.2 Streuung, Varianz, Dispersion, Standardabweichung ................................................... 35
3.8 Zusammenwirken mehrerer Zufallsvariabler ........................................................................ 35
Inhaltsverzeichnis
Seite ii
3.8.1 Verteilungsfunktion und Dichte .................................................................................... 35 3.8.2 Erwartungswert bei einer Funktion von mehreren Zufalls-veränderlichen................... 37 3.8.3 Varianz für Funktionen von Zufallsveränderlichen....................................................... 39
3.8.3.1 Linearisierung von nichtlinearen Funktionen............................................................ 39 3.8.3.2 Varianz einer linearen Funktion von korrelierten Zufallsveränderlichen Xi ............. 40 3.8.3.3 Varianz einer linearen Funktion von unabhängigen Zufallsveränderlichen Xi ......... 42
3.8.4 Kovarianz und Korrelationskoeffizient zweier Zufallsveränderlicher .......................... 45 3.8.4.1 Definitionen und mathematische Beziehungen ......................................................... 45 3.8.4.2 Berechnung von Kovarianzen und Kovarianzmatrizen............................................. 46
3.9 Effiziente Schätzung = wirksame Schätzung ........................................................................ 48 3.9.1 Maximum - Likelihood - Methode = Methode der größten Mutmaßlichkeit ................ 48
4 Ausgleichung nach vermittelnden Beobachtungen ....................................................................... 49 4.1 Lineare beste Schätzung der Unbekannten............................................................................ 49
4.1.1 Vorbemerkung............................................................................................................... 49 4.1.2 Lineare Schätzung, unverzerrt....................................................................................... 49 4.1.3 Beste Schätzung ............................................................................................................ 49
4.2 Vermittelnde Ausgleichung................................................................................................... 52 4.2.1 Zusammenstellung der linearen Beziehungen bei vermittelnden Beobachtungen ........ 55
4.3 Ermittlung der Kofaktoren (=Gewichtsreziproken) von Größen, welche aus der Ausgleichung hervorgehen................................................................................................................ 56
4.3.1 Vorbemerkungen: .......................................................................................................... 56 4.3.2 Aufgabenstellung........................................................................................................... 57
4.4 Beweis der Formel m vvP n h0 = −[ ] /( ) für die vermittelnde Ausgleichung in der üblichen Darstellung.......................................................................................................................... 57 4.5 Herleitung von Gebrauchsformeln ........................................................................................ 60 4.6 In der Ausgleichung übliches Vorgehen ............................................................................... 62 4.7 Arithmetisches Mittel mit Einführung eines Näherungswertes............................................. 65
4.7.1 Mittlerer Fehler des arithmetischen Mittels................................................................... 66 4.7.2 Mittlerer Fehler einer Verbesserung.............................................................................. 66 4.7.3 Mittlerer Fehler aus gleichgewichtigen Beobachtungsdifferenzen, konstanter Fehleranteil.................................................................................................................................... 68
4.8 Beispiel zum allgemeinen arithmetischen Mittel mit Einführung eines Näherungswertes ... 72 4.9 Einige Beispiele für das Aufstellen der Fehlergleichungen .................................................. 74
4.9.1 Beispiel: Winkelmessung .............................................................................................. 74 4.9.2 Beispiel: Richtungen und Strecken ............................................................................... 75
4.10 m0 = Berechnung für eine Beobachtung der Ausgleichung .................................................. 76 5 Rechentechnische Probleme bei der Ausgleichung nach vermittelnden Beobachtungen ............. 78
5.1 Beispiel: Nivellementsnetz.................................................................................................... 78 5.2 Aufstellen der Normalgleichungen........................................................................................ 80
Inhaltsverzeichnis
Seite iii
5.3 Berechnung der Unbekannten; Gaußscher Algorithmus ....................................................... 80 5.4 Proben, [pvv] aus den Fehlergleichungen, mittlere Fehler, Schlußergebnis ......................... 81 5.5 Mittlerer Fehler einer Funktion der ausgeglichenen Werte................................................... 82 5.6 Normalgleichungen aus Anteilen der Fehlergleichungen ..................................................... 83 5.7 Zusammenfassung von Beobachtungen ................................................................................ 84
5.7.1 Mehrfache Messung der gleichen Größe....................................................................... 84 5.7.2 Zusammenfassung von Messungen verschiedener Größen zur Elimination einer nicht überbestimmten Unbekannten ....................................................................................................... 84
5.8 Verfahren zur partiellen Elimination von Unbekannten........................................................ 85 5.8.1 Vorbemerkungen ........................................................................................................... 85 5.8.2 Das Eliminationsverfahren nach Schreiber ................................................................... 86 5.8.3 Das Verfahren der reduzierten Fehlergleichungen........................................................ 88
6 Sonderformen der Ausgleichung................................................................................................... 90 6.1 Ausgleichung nach bedingten Beobachtungen...................................................................... 90 6.2 Herleitung der Gebrauchsformeln für die bedingte Ausgleichung........................................ 91
6.2.1 Allgemeiner, nichtlinearer Ansatz zur Aufstellung von Bedingungs-, Korrelaten- und Normalgleichungen ....................................................................................................................... 91 6.2.2 Linearisierung und üblicher linearer Ansatz ................................................................. 93 6.2.3 Ermittlung der Verbesserungen und der [vvp] .............................................................. 94 6.2.4 Zusammenstellung der linearen Beziehungen bei der Ausgleichung nach bedingten Beobachtungen .............................................................................................................................. 95 6.2.5 Kofaktoren von Größen, welche aus der Ausgleichung hervorgehen ........................... 97
6.3 Beispiel.................................................................................................................................. 98 6.4 Vermittelnde Ausgleichung mit Bedingungen zwischen den Unbekannten ....................... 101 6.5 Bedingungsgleichungen mit Unbekannten.......................................................................... 104 6.6 Allgemeinfall....................................................................................................................... 109 6.7 Anwendungsbeispiele.......................................................................................................... 109
6.7.1 Ausgleichende Gerade................................................................................................. 109 6.7.2 Ausgleichung von linearen Funktionen....................................................................... 110
6.8 Helmerttransformation ........................................................................................................ 114 6.8.1 Lösungsansätze............................................................................................................ 114 6.8.2 2.Ansatz: vermittelnde Ausgleichung ......................................................................... 115 6.8.3 1. Ansatz: bedingte Ausgleichung mit Unbekannten .................................................. 118
7 Fehlerellipse und Fehlerellipsoid ................................................................................................ 119 7.1 Einführung und Problemstellung......................................................................................... 119 7.2 Lösung................................................................................................................................. 120 7.3 Weitere Fragestellungen bzw. Verallgemeinerungen.......................................................... 123 7.4 Herleitung mit Hilfe von Eigenwerten und Eigenvektoren ................................................. 123
7.4.1 Allgemeiner Ansatz ..................................................................................................... 124
Inhaltsverzeichnis
Seite iv
7.4.2 Praktische Bestimmung der Eigenwerte...................................................................... 125 7.4.3 Praktische Bestimmung der Eigenvektoren................................................................. 126
7.5 Geometrische Deutung der bisherigen Ergebnisse (ebener Fall) ........................................ 127 7.5.1 Hauptachsentransformation......................................................................................... 127 7.5.2 Geometrische Deutung ................................................................................................ 129 7.5.3 Die Fußpunktkurve und ihr Zusammenhang mit der Fehlerellipse ............................. 131
8 Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen ........................................... 136 8.1 Voraussetzungen und Bezeichnungen................................................................................. 136 8.2 Ausgleichung nach vermittelnden Beobachtungen ............................................................. 137 8.3 Die Ausgleichung nach bedingten Beobachtungen ............................................................. 138
8.3.1 Die Wahl eines Hauptsystems und Bestimmung der überschüssigen Beobachtungen 138 Anhang A: Schematische Zusammenstellung der Ausgleichung nach vermittelnden Beobachtungen............................................................................................................................................................. 143 9 Anhang B: Schematische Zusammenstellung der Ausgleichung nach bedingten Beobachtungen 145
Kapitel 1: Einführung und wiederholende Übersicht
Seite 1
1. Einführung und wiederholende Übersicht
1.1 Einführung Die Methode der kleinsten Quadrate wurde zu Beginn des 19. Jahrhunderts ungefähr gleichzeitig von Carl Friedrich Gauß und A.M. Legendre gefunden.
Gauß
1794 gefunden (Gauß 17 Jahre alt)
1802 praktische Anwendung bei Berechnung Umlaufbahn Planet Ceres, welcher von ital. Astronom Piazzi entdeckt und an 41 Tagen nur auf 9° seiner Umlaufbahn beobachtet werden konnte; Wiederentdeckung gelang v. Zach in Gotha aufgrund der Gaußschen Berechnungen
1809-1826 verschiedene Veröffentlichungen von Gauß über die Methode der kleinsten Quadrate, meistens in lateinischer Sprache
Legendre
1806 erstmalig am Schluss eines Wiener Werkes über die Berechnung von Kometenbahnen veröffentlicht
1810 zweite Abhandlung über die Methode der kleinsten Quadrate von Legendre veröffentlicht
Obwohl Legendre Priorität der Veröffentlichung dennoch Priorität der Entdeckung mit großer Wahrscheinlichkeit bei Gauß. Gauß bereits Ausbau zu einem praktisch anwendbaren Verfahren mit entsprechenden Bezeichnungen und entsprechender Nomenklatur, die sich bis heute erhalten haben.
Zu den Begründern ist auch Bessel zu zählen: Untersuchungen über die Bahn des Olberschen Kometen, Berliner Akademie der Wissenschaften 1812/13
Bessel
1837 „Gradmessung in Ostpreußen“, Lösung der Aufgabe: vermittelnde Beobachtungen mit Bedingungsgleichung
Für allgemeinen Gebrauch beim Praktiker Veröffentlichungen von Gauß und Bessel zu schwierig.
Durchbruch der Methode durch Lehrbuch „Ausgleichungsrechnungen in der praktischen Geometrie oder die Methode der kleinsten Quadrate“ von GERLING, Marburg 1843. In seiner Vorrede sagte Gerling:
„Ich erinnere mich noch gar wohl der Zeit, wo der Landmesser, welcher mit den log. Tafeln umzugehen wusste, für den Gelehrten unter seinen Kollegen galt. Jetzt würde sich einer lächerlich zu machen glauben, wenn er sich ohne diese Kenntnisse nur zum Examen melden wollte. In ähnlicher Weise wird es demnächst wohl auch mit der Ausgleichungsrechnung gehen.“
Diese Prophezeiung wird heute wahr.
Nach anfänglichen vorwiegend astronomischen Anwendungen aufsehenerregende Bewährung in der Geodäsie bei der badischen Landesvermessung 1850 durch Obergeometer Rheiner.
Einführung in die Triangulation II. bis IV. Ordnung erst 30 bis 40 Jahre später.
Friedrich Gustav Gauß (Organisator des preuß. Katasters): 1881 Katasteranweisung IX Einführung der Methode der kleinsten Quadrate
Lehren von Gauß und ihre Weiterentwicklung zusammengefasst von F.R. HELMERT, 1907: „Die Ausgleichung nach der Methode der kleinsten Quadrate mit Anwendungen auf die Geodäsie, die Physik und die Theorie der Messinstrumente“. Heute noch grundlegendes und empfehlenswertes Werk.
Kapitel 1: Einführung und wiederholende Übersicht
Seite 2
Wichtige Erweiterung der Technik der Methode der kleinsten Quadrate 1923 durch H. BOLTZ: „Das Entwicklungsverfahren zum Ausgleichen geodätischer Netze“.
Bis vor einigen Jahrzehnten Fortschreiten und Ausbau der Methode der kleinsten Quadrate im eigenen Bereich. Neuerdings jedoch Entwicklungen mit dem Bestreben, andere Gebiete der angewandten Mathematik der Ausgleichungsrechnung nutzbar zu machen.
Dabei besonders hervorzuheben:
• Anwendungen der mathematischen Statistik auf Probleme der Ausgleichungsrechnung (Hugershoff, Tienstra, welche sich mit der Bedeutung der Statistik für die Grundlagen der Ausgleichungsrechnung beschäftigt). Dieser Zweig noch besonders entwicklungsfähig, besonders im Hinblick auf die Interpretation und Glaubwürdigkeit der Ergebnisse der Ausgleichungsrechnung.
• Herausarbeitung von Parallelen zwischen Statistik und Ausgleichungsrechnung, mit der sich eine gesamte Schule von österreichischen Geodäten um die Jahrhundertwende beschäftigte und die neuerdings mit der Ausgleichung von Trilaterationsnetzen als auch in der Analogaerotriangulation Bedeutung gewonnen haben. Dieser Zweig ist interessant im Hinblick auf Stabilitätsuntersuchungen, d.h. Genauigkeit von Punktbestimmungen in trigonometrischen Netzen.
• Einführung der Matrizenrechnung in die Ausgleichungsrechnung, welche den Formelapparat selbst zwar nicht änderte, aber die Ableitungen und Zusammenhänge klarer als irgend eine andere Methode darzustellen gestattet.
• Erweiterung der Ausgleichungsrechnung auf gegenseitig abhängige, d.h. korrelierte Größen, vor allem durch Tienstra.
Zweck und Ziel der Ausgleichungsrechnung sind mit folgenden Stichworten zu umschreiben:
• Methode der kleinsten Quadrate berücksichtigt alle (überschüssigen) Beobachtungen zur Ermittlung der Unbekannten gleichmäßig und frei von Willkür.
• Sie liefert Einblick in die Größenordnung, die Verteilung und Auswirkung der unvermeidlichen Messungsungenauigkeiten. Mit deren Kenntnis sind daher auch Möglichkeiten zur Bekämpfung gegeben, d.h. sie trägt bei zur Auswahl geeigneter Messmethoden und -konfigurationen, und sie erlaubt ein Urteil über die erzielte Genauigkeit (nachträglich) und Kontrolliertheit (Zuverlässigkeit).
• Sie erlaubt schließlich eine Genauigkeits- und Zuverlässigkeitsabschätzung vor der eigentlichen Messung und Beobachtung und trägt damit dazu bei, den Gesamtmessaufwand zu ökonomisieren (günstigste Gewichtsverteilung). Gültigkeits- und Aufwendungsbereich von Näherungsverfahren deshalb immer an der strengen Methode der kleinsten Quadrate zu überprüfen und Näherungsverfahren nur dann anwenden, wenn mit wesentlich geringerem Rechenaufwand ein ähnlich plausibles und widerspruchsfreies Ergebnis wie mit der Methode der kleinsten Quadrate erreicht werden kann.
Messkunst:
• geometrische Modellierung
• Fehlermodellierung
• funktionales Modell
• stochastisches Modell
• Analyse, Überprüfung, Integration
Kapitel 1: Einführung und wiederholende Übersicht
Seite 3
1.2 Literaturhinweise GROßMANN, W. Grundzüge der Ausgleichungsrechnung, Springer-Verlag, Berlin/Göttingen,
3. Auflage 1969
WOLF, H. Ausgleichungsrechnung, Dümmler-Verlag, 1975
HELMERT, F.R. Die Ausgleichungsrechnung nach der Methode der kleinsten Quadrate, B.G. Teubner, Leipzig u. Berlin 1907, 1924
GOTTHARDT, E. Ableitung der Grundformeln der Ausgleichungsrechnung mit Hilfe der Matrizenrechnung, Veröffentl. der DGK, München 1952
TIENSTRA, J.M. Theory of the adjustment of normally distributed observations, Amsterdam 1956
MARCHANT, R. La compensation des mesures surabondantes, Bruxelles 1956
BJERHAMMAR, A.
Alle Veröffentlichungen über Ausgleichungsrechnung an der Techn. Hochschule Stockholm
GOTTHARDT, E. Ausgleichungsrechnung, Herbert Wichmann Verlag, 1969, 1978
HÖPCKE, W. Ausgleichungsrechnung, W. de Gruyter, ca. 1980
Statistik
HEIN Statistische Verfahren der Ingenieurpraxis, Bibliographisches Institut Mannheim/Wien/Zürich, 1978
KREYSZIG Statistische Methoden und ihre Anwendungen, Vandenhoeck v. Ruprecht, Göttingen 1977, 6. Auflage
KOCH Parameterschätzung und Hypothesentests in linearen Modellen, Dümmler-Verlag, 1980
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 4
2 Grundlagen für die funktionale Modellierung
2.1 Matrizenrechnung
2.1.1 Allgemeine Regeln Definition:
Ein rechteckiges Zahlenschema
=
mn1m
n111
aa
aa
LL
M
M
LL
A (2.1)
heißt (m,n)-Matrix mit den Elementen aik ∈ R. Speziell heißt eine
• (1,n)-Matrix einzeilig
• (m,1)-Matrix einspaltig
• (n,n)-Matrix quadratisch
Definition:
Unter dem Transponieren (Spiegeln, Stürzen) einer Matrix versteht man das Spiegeln an der Hauptdiagonalen. Bezeichnung: AT. Dimension: (n,m)-Matrix
Definition:
Die Addition und Skalarmultiplikation von Matrizen geschieht elementweise. Man kann immer nur Matrizen desselben Typs addieren.
Definition:
Unter einer Transformation von Unbestimmten x1, … ,xn in Unbestimmte y1, … ,ym, d.h.
n
1
x
xM →
m
1
y
yM
mit gegebener (m,n)-Matrix A versteht man das lineare Gleichungssystem
nmn11mm
nn11111
xaxay
xaxay
++=
++=
K
M
K
(2.2)
(geschrieben: y = Ax).
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 5
Definition:
Unter der Produktmatrix C einer (m,n)-Matrix A und einer (n,p)-Matrix B versteht man die Matrix derjenigen Transformation, die man durch Zusammensetzen der zu A und B gehörenden Transformation erhält. Schreibweise in Elementen: (vgl.Beispiel 2.1)
p,,1k und n,,1ifür babac nkinlkilik KKK ==++= (2.3)
D.h.:
Spalte te-k Zeilete-i
b
b aaac
nk
k1
in2i1iik
=
MMM
L
L
L
M
LL
M
Die Produktmatrix ist dann eine (m,p)-Matrix.
Beispiel 2.1:
⋅+⋅+⋅⋅+⋅+⋅⋅+⋅+⋅⋅+⋅+⋅⋅+⋅+⋅⋅+⋅+⋅
=
1007664492822
=694827593817664524563514634221533211
654321
987654321
Achtung: Das Kommutativgesetz der Multiplikation von reellen Zahlen gilt nicht für die Multiplikation von Matrizen. D. h. die Faktoren einer Matrizenmultiplikation können nicht beliebig vertauscht werden.
AB BA A B , z.B. = , 1 -1
-1≠
=
i A. . 1 11 1 1
→ Nachrechnen!
Definition:
Unter der Einheitsmatrix versteht man die Matrix der identischen Transformation, also derjenigen Transformation, die die xi in die xi überführt.
E =
1 0
0 1O (2.4)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 6
Definition:
Unter der zu einer Matrix A inversen Matrix A-1 versteht man im Fall m = n und Det(A) ≠ 0 die Matrix derjenigen Transformation, die die yi in die xi transformiert (i = 1,…,n), also die Matrix der inversen Transformation, d.h.:
yAxAxy 1und −== (2.5)
2.1.2 Berechnung der inversen Matrix Zur Berechnung der inversen Matrix gibt es zwei Möglichkeiten.
1. Möglichkeit:
Auflösen des linearen Gleichungssystems y = Ax nach den xi mit Hilfe des Gaußschen Eliminationsverfahrens
2. Möglichkeit (Anwendung der Cramerschen Regel):
Man betrachte das lineares Gleichungssystem: y = Ax Auflösung nach xi:
n1n1+n
221
111
1
2nn2n
n332
n112
1nn2n
n222
lnentwicke
nn2nn
n1121
1
y A
(-1)+ +y A
y A
x
+y aa
aaaa
y aa
aa
aay
aay
=x
AAA
AAA
K
KL
M
L
L
L
M
L
L
M
L
−=
−=
analog x2, … ,xn.
Damit ergibt sich:
+−
−+
=
AA
AA
AA
A
nnn1n+1
2212
2111
1-
AA (-1)
AA
AA
L
M
L
L
Satz:
Tik
k+i1 ) A (-1) ( 1 A
A =− (2.6)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 7
Beispiel 2.2:
gegeben:
=
032432021
A gesucht: A-1
0 4 = 2)2-3(14- = 0 3221
4 - 0 ≠⋅⋅⋅+⋅=A
A11 = -12 A21 = 0 A31 = 8
A12 = - 8 A22 = 0 A32 = 4
A13 = 0 A23 = - 1 A33 = - 1
−+−++−
=−
41
41
1
0102203
A
Probe:
1 2 0
2 3 4
2 3 0
3 0 2
2 0 1
0
1 0 0
0 1 0
0 0 114
14
− +
+ −
+ −
=
Bemerkung: Es gilt
EAAEAA =⋅=⋅ −− 11 und (2.7)
d.h., eine rechtsinverse Matrix ist auch linksinvers.
Beweis: A mit |A| ≠ 0 Transformationen: y = Ax, x = A-1y
2.1.3 Untermatrizen Matrizen können in Untermatrizen aufgespaltet werden; dann sind die Elemente einer solchen aufgespalteten „Hypermatrix“ ihrerseits Untermatrizen.
Nach Unterteilung der Matrizen in
=
2
1 AA
A und ( )21 BBB =
ergibt sich:
=
2212
2111 BABABABA
C (2.8)
In dieser Auffassung ergibt sich die Produktmatrix C als das dyadische Produkt der beiden Hypervektoren A und B, deren Elemente die Matrizen A1 und A2 bzw. B1 und B2 sind.
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 8
Die Erweiterung dieses Konzepts führt auf Hypermatrizen, deren Elemente beliebig viele Untermatrizen sind.
C
CCCC
GGGG
BBBBB
G
2221
1211
2221
1211
2221
1211
2222122122
2212121112
2122112121
2112111111
BGBGC
BGBGC
BGBGC
BGBGC
⋅+⋅=
⋅+⋅=
⋅+⋅=
⋅+⋅=
(2.9)
Bemerkung:
Die Unterteilung in Untermatrizen muss derart geschehen, dass die einzelnen Unterprodukte jedoch aus verketteten Untermatrizen bestehen.
Anwendung:
• Erweiterung der Algorithmen zur Auflösung linearer Gleichungssysteme derart, dass im Algorithmus anstelle der Elemente von Matrizen (= reelle Zahlen) Matrizen auftreten.
• Summenproben bei der praktischen Berechnung von Matrizenprodukten. Die Matrizen A und B werden mit Summenzeile bzw. Summenspalte ergänzt (Rändeln einer Matrix), und diese zusätzlichen Zeilen und Spalten werden bei der Multiplikation mitgeführt.
2.1.4 Skalares und dyadisches Produkt von Vektoren Skalares Produkt von zwei Vektoren:
Das skalare Produkt zweier Vektoren a und b wird zurückgeführt auf die Matrizenmultiplikation, indem man aT als einzeilige und b als einspaltige Matrix auffasst:
paaa
b
bb
n21
Tn
2
1
L
M
a
b
[ ] = ba =ba babap Tn
1=iiinn2211
T ababba =∑+++== L (2.10)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 9
Dyadisches Produkt von zwei Vektoren:
Unter dem dyadischen Produkt einer einspaltigen Matrix a mit den Elementen ai, i = 1, … ,m (Spaltenvektors m Elementen) mit einer einzeiligen Matrix bT mit den Elementen bj, j = 1, … ,n (Zeilenvektor mit n Elementen) versteht man die m,n-Matrix C mit den Elementen jiij bac = .
( )
nm2m1m
n22212
n12111
m
2
1
n21
T
bababa)(
babababababa
a
aa
b b b
L
MMM
L
L
M
L
Ca
b (2.11)
Bei der Anwendung des skalaren und des dyadischen Vektorprodukts auf die Multiplikation von Matrizen (A⋅B = C) werden A und B als Hypermatrizen aufgefasst, deren Elemente Vektoren sind. Es ergeben sich zwei Möglichkeiten:
1. Möglichkeit:
A bestehe aus Zeilenvektoren und B aus Spaltenvektoren
CAa
aa
bbb
B
mr2m1m
r22221
r11211
mnT
m2m1m
n2T
22221
n1T
11211
nr2n1n
r21
r22221
r11211
ccc....
cccccc
a)(aa......
a)(aaa)(aa
b. bb.
)(. )()(.
b. bbb. bb
L
L
L
LL
LL
LL
MMM
MMM
Und somit
( )r21
Tm
T2
T1
= ; = bbbB
a
aa
A LM
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 10
C ergibt sich als dyadisches Produkt der Hypervektoren A und B:
( )
rT
m2T
m1T
m
rT
22T
21T
2
rT
12T
11T
1
Tm
T2
T1
r21
)(
bababaC
babababababa
a
aa
bbb
L
MMM
L
L
M
L
(2.12)
Die Elemente von C ergeben sich als Skalarprodukte der „Untervektoren“ von A und B, Ähnlichkeit der Gaußschen Schreibweise cik = [ai bk].
2. Möglichkeit:
A bestehe aus Spaltenvektoren und B aus Zeilenvektoren
A
Caaa
b
bb
B
mn2m1m
n21
n22221
n11211
nrT
n2n1n
r2T
22221
r1T
11211
aaa
)()()(aaaaaa
b)(bb
b)(bbb)(bb
L
MLMM
L
L
L
LL
MLMLMM
LL
LL
D.h.: Hypervektor A besteht aus einer Zeile (Elemente sind Spaltenvektoren)
( )n21 = aaaA L
und Hypervektor B besteht aus einer Spalte (Elemente sind Zeilenvektoren)
Tn
T2
T1
=
b
bb
BM
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 11
somit:
( )
CCCCC
C
ba
C
ba
C
baaaaBA
b
bb
=
= =
n21
n
Tnn
2
T22
1
T11n21
Tn
T2
T1
Produkt dyadisches
==+++
⋅++⋅+⋅⋅
L
444444 8444444 76
43421L
4342143421L
M
(2.13)
Die Produktmatrix C ergibt sich als ∑n
1=ii C , wobei sich die iC als dyadische Produkte T
ii ba ⋅
ergeben. (Beweis durch Nachrechnen)
Anwendung:
Elementeweiser Aufbau der Cik bei der Multiplikation AB = C im Computer (Die beiden Matrizen A und B brauchen nicht vollständig abgespeichert zu werden!), insbesondere aber elementeweiser Aufbau von N = ATA bei der Ermittlung von Normalgleichungen aus Fehler- bzw. Bedingungsgleichungen!
2.1.5 Summenproben Bei umfangreichen Matrizenmultiplikationen sind zur Rechenkontrolle Summenproben unerlässlich. Diese sind entweder als Zeilensummenproben oder Spaltensummenproben möglich.
Prinzip:
Die zur Summenprobe notwendige zusätzliche Summenspalte bzw. Summenzeile erhält man durch Multiplikation mit dem Einsvektor bzw. mit dem transponierten Einsvektor
1
1 1
=M
e bzw. ( )111 =T Le
Zeilensummen:
Aes
e
=
m
2
1
mn2m1m
n22221
n11211
s
ss
aaa
aaaaaa
1
11
M
L
MMMM
L
L
M
(2.14)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 12
Spaltensummen:
( ) ( ) Aes TTn21
mn2m1m
n22221
n11211
s s s 111
aaa
aaaaaa
=
LL
L
MMMM
L
L
(2.15)
BACA
B
⋅=
⋅=⋅⋅=
⋅⋅=
−−
⋅=
−−
⇒
⇒
⇒
⇒
321321L
MMMM
L
L
L
MMMM
L
L
L
MLMM
L
L
1
2
mr2m1m
r22221
r11211
mn2m1m
n22221
n11211
1
nr2n1n
r22221
r11211
s)eB(Ae
C)BA(
eBAs
ccc
cccccc
aaa
aaaaaa
|
m
|n
eBs
bbb
bbbbbb
|
n
|r
Die Summenprobe besteht also in der Anwendung des Assoziativgesetzes.
Mehrfaches Matrizenprodukt ABCD = F:
?)(=)(:Probe )( |
m|
n
? )(=)(:Probe)(|n|
-r-
? )(=)e(:Probe )( |r|
p
| p |
q
4
3
4
4
3
2
3
3
2
1
2
2
1
44 344 21
4484476
44 344 21
43421
48476
43421
43421
876
43421
s
s
eDCBAs
eDCBAsDCBAA
s
s
eDCBs
eDCBsDCBB
s
s
eDCsDCsDCC
sD
⋅⋅⋅⋅⋅⋅
⋅⋅⋅
−−
⋅⋅⋅⋅
⋅⋅
⋅⋅
⋅
−−
−−
Die Produktmatrix F wird aus ABCD von rechts beginnend aufgebaut.
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 13
2.1.6 Bilineare und quadratische Formen In der Fehlerlehre und Ausgleichungsrechnung treten häufig bilineare und quadratische Formen auf.
Definition:
Ein Ausdruck in der Darstellung
yQxQxy TTT:g == (2.16)
heißt bilineare Form und in der Darstellung
QxxT:f = (2.17)
heißt quadratische Form.
Dabei sind g, f reelle Zahlen
x, y Vektoren
Q quadratische, im allgemeinen symmetrische Matrix, welche auch Formmatrix der bilinearen bzw. quadratischen Form genannt wird.
Die Ausrechnung der bilinearen Form im Falkschen Schema ergibt:
( ) (g) QyQyQy yyy
x
xx
Q Q Q
Q Q Q Q Q Q
n
1=iini
n
1=i2ii
n
1=i1iin21
T
n
2
1
nnn2n1
2n2221
1n1211
∑∑∑
LL
M
L
MMMM
L
L
y
xQ
Aus dem Falkschen Schema liest man:
g x Q x Q x Q
g x Q
i i n in
k ik
= ∑ + ∑ + + ∑
= ∑ ∑
1 1 2 2y y y
y
ii=1
n
ii=1
n
ii=1
n
i=1
n
ik=1
n
L
(2.18)
Ausführlich:
n,1n1nnn1-n
n22nn2232332
n11nn1131331121221
nnnn22221111
Q)yxyx(
Q)yxyx( Q)yxyx( Q)yxyx( Q)yxyx(Q)yxyx(
Qyx QyxQyxg
−−+++
++++++++++++
+++=
LLLLLLLLLLLLLLLLLL
L
L
L
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 14
Die quadratische Form ergibt sich für
y: = x
sofort zu:
f x Qk ik= ∑ ∑i=1
n
ik=1
nx (2.19)
Ausführlich:
f x Q x Q x Q
x x Q x x Q x x Q
x x Q x x Q
x x Q
nn
n n
n n
n n n
= + + ++ + + +
+ + ++
+ −
1 2 n
1 1 1
2 2
n-1
211
222
2
2 12 3 13 1
3 23 2
1
2 2 2
2 2
2
L
L
L
LLLLLLLLLLL
,
Gelegentlich sind die folgenden Umformungen von Nutzen:
QxyQxy TT Spurg == (2.20)
QxxQxx TT Spurf == (2.21)
Definition:
Unter der Spur einer (symmetrischen) Matrix versteht man die Summe der Elemente der Hauptdiagonalen.
( )
QT
inin2iin1iin
ini22ii21ii2
n
1=iini1
n
1=i2ii1
n
1=i1ii1
nn2n1n
Tn22212
n12111
n
2
1
n21
nnn2n1
2n2221
1n1211
QyxQyxQyx
QyxQyxQyx
QyxQyxQyx
yxyxyxxy
yxyxyxyxyxyx
x
xx
y y y
Q Q Q Q Q Q Q Q Q
xy
∑∑∑
∑∑∑
∑∑∑
L
MMMM
L
L
L
MMM
L
L
M
L
L
MMMM
L
L
Man liest aus dem Schema ab:
∑++∑+∑=n
1=iinin
n
1=i2ii2
n
1=i1ii1
T Qyx QyxQyx Spur LQxy
gQxy Spurn
1=kikki
n
1=i
T =∑∑=Qxy (2.22)
Da die quadratische Form eine Spezialisierung der bilinearen Form darstellt, ist damit zugleich auch die entsprechende Umformung für die quadratische Form nachgewiesen!
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 15
Für die praktische (numerische) Berechnung bilinearer und quadratischer Formen wurde von dem niederländischen Geodäten Tienstra eine Methode angegeben, die symbolische Multiplikation bzw. symbolisches Quadrieren nach Tienstra heißt; dazu führt man ein und definiert:
Definition:
Einfach indizierte Elemente Qi, i = 1, … , n von Q heißen symbolische Elemente von Q.
Für die symbolische Multiplikation und das symbolische Quadrieren der Qi gilt:
( ): ,( ): ) :
)( ): )( ):
)( ):
)( ): ( ):
,
Q Q Q Q Q
Q Q Q Q Q
Q Q Q
Q Q Q Q Q
nn
n n
n n n
k ik ii
1 2 n
1 1
n-1
i i
, , (Q
( , ,(Q
(
(
211
222
2
2 12 1
1
2
= = == =
=
= =
−
L
L
LLLLLLLLLLLL
Nach dieser Vereinbarung kann man dann ansetzen
n,1n1nnn1-n
n11nn1121221
nnnn22221111
nn2211nn2211T
Q)yxyx(
Q)yxyx( Q)yxyx(
Qyx QyxQyx
)Qx QxQx)(Qy QyQy(g
−−++
+++++
+++=
++++++==
LLLLLLLLLLLLLLLLLL
L
L
LLQxy
(2.23)
und entsprechend für die quadratische Form
n,1nn1-n
n1n11221
nn2
n222
2112
1
2nn2211
T
Qxx2
Qxx2 Qxx2
Qx QxQx
)Qx QxQx(f
−+
+++
+++=
+++==
LLLLLLLLLLL
L
L
LQxx
(2.24)
Bemerkung:
Immer wenn in der Ausgleichungsrechnung bilineare und quadratische Formen auftreten, können sie nach Tienstra ausgewertet werden!
Definition (Spur eines dreifachen Matrizenproduktes):
Sei X eine (m,n)-, A eine (n,n)- und Y eine (n,m)-Matrix, dann gilt:
Spur XAY = Spur YXA = Spur AYX (2.25)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 16
Beweis:
=
mmm2m1
2m2221
1m1211
Tm
T2
T1
mnT
m2m1m
n2T
22221
n1T
11211
nmn2n1
2m2221
1m1211
nn2n1n
n22221
n11211
hhh)(
hhhhhh
X )(
X X
xXxx)(
xXxxxXxx
yyy )(
yyyyyy
aaa)(
aaaaaa
L
MMM
L
L
LL
MMMMM
LL
LL
L
MMM
L
L
L
MMM
L
L
XAYHA
XAAA
X
YA
AYX
AAA
AAAH
)=
XY XYXY( Spur
XY Spur XY SpurXY Spur
YX YXYXh Spur
Tmm
T22
T11
Tmm
T22
T11
mT
m2T
21T
1
m
1=iii
44444 344444 21L
L
L
+++=
+++=
+++=∑=
Spur H = Spur XAY = Spur YXA = Spur AYX nach zyklischer Vertauschung
2.2 Vektordifferentiation
2.2.1 Differential bei einer Funktion einer Variablen • f(x) Funktion einer Variablen x, differenzierbar
• f’(x) Ableitung von f(x)
• dx beliebig (große oder kleine) reelle Zahl
Definition:
Differential von f(x) ist die von x und dx abhängige Funktion df zweier Variablen gegeben durch
( )dxxfdf ′= (2.26)
Geometrische Veranschaulichung:
Abbildung 2.1: Unterschied zwischen df und ∆f
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 17
Definition:
Die Differenzenfunktion ∆f ist die Funktion von den zwei Variablen x und dx gemäß
( ) ( )xfdxxff −+=∆ (2.27)
Das Differential df wird zur Approximation von ∆f verwendet (Abschätzung).
Fehlerabschätzung:
Die Differenz ∆f - df ergibt sich bei zweimal differenzierbarer Funktion über Taylor-Entwicklung mit Restglied zweiter Ordnung aus
[ ]dx xx, dx2
)(fdff 2 +∈ξξ′′
=−∆ (2.28)
df ist die auf der Tangente berechnete Änderung von f beim Übergang von x nach x+dx (Linearisierung).
2.2.2 Vektordifferential Es seien
( )xy fmit RR:f mn =→
mehrere Funktionen von mehreren Variablen, d.h.
( )( )
( )n1mm
n122
n111
x,,xfy
x,,xfy
x,,xfy
K
M
K
K
=
=
=
Für eine Funktion von n Variablen
( )n1 x,,xf K=y
ergibt sich das Differential zu
nn
22
11
dxxf dx
xfdx
xfd
∂∂
++∂∂
+∂∂
= Ly (2.29)
y = f(x) sei ein m-Vektor, dessen m Komponenten Funktionen von n Variablen sind:
=
n
1
x
xMx
Wir verwenden das Differential einer Funktion y1 = f1 (x1, … , xn)
dyf
xdx
f
xdx
f
xdx
nn1
1
11
1
22
1= + + +∂
∂
∂
∂
∂
∂ L
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 18
Abbildung 2.2: Veranschaulichung bei zwei Variablen
Analog Differentiale für alle Komponenten:
dyf
xdx
f
xdx
f
xdx
dyf
xdx
f
xdx
f
xdx
dyf
xdx
f
xdx
f
xdx
nn
nn
mm m m
nn
11
11
1
22
1
22
11
2
22
2
11
22
= + + +
= + + +
= + + +
∂
∂
∂
∂
∂
∂∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
L
L
M M M M
L
(2.30)
Abkürzung für Differential von y bzw. Differential von x:
=
m
2
1
dy
dydy
dM
y und
=
n
2
1
dx
dxdx
dM
x (2.31)
Jakobi-Matrix des Vektors als Funktion y = f(x) bezüglich x:
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
∂∂
=∂∂
n
m
2
m
1
m
n
2
2
2
1
2
n
1
2
1
1
1
xf
xf
xf
xf
xf
xf
xf
xf
xf
f
L
MMMM
L
L
x (2.32)
damit Vektordifferential
xx
y dfd∂∂
= (2.33)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 19
Definition:
Die Jakobi-Matrix eines m-Vektors y = f(x), der vom n-Vektor abhängt, ist die (m,n)-Matrix
n) , 2, 1, Spalten(k k
m) , , 2, 1, Zeilen(i i
xff
k
i
…==
…==
∂∂
=∂∂x
(2.34)
Bemerkung:
Es gilt bei
f(x) = x: ∆x = dx
entsprechend Definition
∆x = x + dx - x = dx
Anwendung der Taylorformel:
( ) yxfy 0 ∆+=
( ) dyxfy 0 += + Restglieder, /Restglieder → 0
Beschränkung auf linearen Anteil:
y ≈ f(x0) + dy
y f xf
xdx≈ +
( )00
∂
∂ /Iteration (2.35)
2.3 Kettenregel Wir betrachten den m-Vektor a abhängig vom p-Vektor y. Dieser hängt ab vom n-Vektor x. Gesucht ist die Jakobi-Matrix von a bezüglich x, d.h.
∂∂
)x x(y
) x x(y=)(=
)y y(a
)y y(a=
bezüglich von Ableitung ; :gesucht
n1p
n11
p1m
p11
K
M
K
K
M
K
xyya
xaxa
(2.36)
z.B.: Die 4 Richtungsmessungen r1, r1’, r2, r2’ werden durch 2 Winkelmessungen α, β ersetzt.
Behauptung:
))((=)(
l"Kettenrege" )n,p()p,m()n,m(
xyaxa
xy
ya
xa
∂∂
⋅∂∂
=∂∂
(2.37)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 20
Beweis durch Vergleich der linken Seiten mit den rechten Seiten:
Formel ausführlich:
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
a
x
a
x
a
x
a
x
a
x
a
x
a
y
a
y
a
y
a
y
a
y
a
y
y
x
y
x
y
x
y
x
y
x
y
x
n
m m m
n
p
m m m
p
n
p p p
n
1
1
1
2
1
1 2
1
1
1
2
1
1 2
1
1
1
2
1
1 2
L
M M M M
L
L
M M M M
L
L
M M M M
L
=
⋅
(m,n) (m,p) (p,n) (m,n)
1 244444444444 344444444444
( i,k ) links: ∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
a
x
a
y
y
x
a
y
y
x
a
y
y
xi
k
i
k
i
k
i
p
p
k
= ⋅ + ⋅ + + ⋅1
1
2
2 L
Kettenregel bei einer Funktion
( i,k ) rechts: entsteht durch Multiplikation der i-ten Zeile mit
der k-ten Spalte also ∂
∂
∂
∂
∂
∂
∂
∂
a
y
a
y
y
x
y
x
i i
p
k
p
k
1
1
L M
2.4 Produktregel Ableitung eines Skalarproduktes:
Seien a(x) und b(x) zwei von x abhängige m-Vektoren (x ∈ Rn), dann hängt auch die skalare Größe
)(baj
jjT xba Φ=∑=⋅=Φ
von x ab.
Gesucht:
n)(1, Typ
x)(
x)(
x)()(
n
T
2
T
1
TT
∂
∂∂
∂∂
∂=
∂∂
=∂Φ∂ bababa
xba
xL
Darstellung mittels : , xb
xa
∂∂
∂∂
xab
xba
xba
∂∂⋅+
∂∂⋅=
∂∂ TT
T )( (2.38)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 21
( ) ( )TTT
)(
elProduktreg
bax
ba
xa
xb
+=
∂∂
∂∂
∂∂
Beweis durch Vergleich: links = rechts.
Ableitung einer Bilinearform:
Es sei
Φ = xTAy, (A quadratische Matrix)
mit
x = x(z) und y = y(z)
Gesucht ist die einzeilige Jakobimatrix
z
)( T
∂∂ Ayx
Mit t = A y folgt
zzz
zzz)( TT
T
∂∂⋅=
∂∂⋅
∂∂
=∂∂
∂∂⋅+
∂∂⋅=
∂∂
yAyytt
xttxtx
zzz
)( TTTT
∂∂⋅⋅+
∂∂⋅⋅=
∂∂ xAyyAxAyx (2.39)
Ableitung einer quadratischen Form
Es sei
Φ = xTAx, (A symmetrische Matrix)
z
2z
)( TT
∂∂⋅⋅⋅=
∂∂ xAxAxx (2.40)
Kapitel 2: Grundlagen für die funktionale Modellierung
Seite 22
2.5 Ableitung eines Vektordiagonal-Matrix-Produktes Vorbemerkung:
)yx(z = iii ⋅=⋅ yXz (2.41)
n
2
1
n
2
1
n
2
1
y
yy
x
xx
=
z
zz
MOM
Schreibweise:
ttrixprodukDiagonalma =
x
x=
x
x
n
1
n
1
xYyXz
Xx
⋅=⋅
= OM
Es gilt auch: xX =
1
11
⋅M
Es seien x = x(t)
y = y(t)
=
u
1
t
tMt
Bilde: z = z(t) = X ⋅ y
gesucht: L =∂∂
tz
Es gilt )u,n()n,n()u,n()n,n()u,n( +=
∂∂
⋅+∂∂
⋅=∂∂
txY
tyX
tz
(2.42)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 23
3 Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
3.1 Messprozess und mathematisches Modell „Die Statistik als Zweig der angewandten Mathematik ist die Wissenschaft von Ereignissen, die vom Zufall abhängen.“ (ZURMÜHL)
Beobachtungen können als Zufallsereignisse betrachtet werden.
Messprozess: Maßzahl und Beschreibung des Messungsvorganges
Annahme: Beliebig viele Beobachtungen unter gleichen Messbedingungen sind möglich.
Die Maßzahl ist eine stochastische Größe (Zufallsgröße, zufällige Fehler).
Durch ein mathematisches Modell werden die Beziehungen der Zufallsgrößen zueinander mathematisch beschrieben. Je nach Wahl des mathematischen Modells kann die Übereinstimmung mit der Wirklichkeit besser oder schlechter sein.
Modellfehler (systematischer Fehler): Modellfehler können bei ausreichender Beschreibung des Messvorganges durch Änderung des mathematischen Modells verringert werden.
Ziel: Wahl eines mathematischen Modells, für das die Modellfehler im Rahmen der Aufgabenstellung ohne Bedeutung sind.
Irrtümer (grobe Fehler): Für die weiteren Betrachtungen wird vorausgesetzt, dass keine groben Fehler vorhanden sind.
Problem: Entscheidung, ob es sich ggf. tatsächlich um einen Irrtum handelt.
3.2 Häufigkeit, relative Häufigkeit, relative Summenhäufigkeit Häufigkeit ni: Anzahl der Messungen, die den Messwert xi ergeben (unter den n = ∑ ni
durchgeführten Messungen)
Relative Häufigkeit:
rn
nri
ii= ∑ = mit 1 (3.1)
Relative Summenhäufigkeit:
Rn
nRi
i
i= ∑ ≤ ≤= 0 1λ
λ 1 (3.2)
Erfahrungstatsache:
Die relative Häufigkeit konvergiert stochastisch gegen einen Grenzwert, wenn die Annahme gleicher Messbedingungen zutrifft.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 24
Abbildung 3.1: relative Häufigkeit und relative Summenhäufigkeit
Beispiel 3.1:
Relative Häufigkeit für das Ereignis „Würfeln einer 2“ bei wachsendem Stichprobenumfang n:
n
beobachtete Anzahl
Theoretische Anzahl (bei
idealem Würfel)
∆
ri (beob.)
ri (theoret.)
(bei idealem Würfel)
60
120
180
240
300
360
420
480
540
600
660
720
780
840
900
960
1020
1080
1140
1200
9
22
35
43
52
68
74
82
88
96
103
109
118
130
143
150
170
186
197
207
10
20
30
40
50
60
70
80
90
100
110
120
130
140
150
160
170
180
190
200
- 1
+ 2
+ 5
+ 3
+ 2
+ 8
+ 4
+ 2
- 2
- 4
- 7
- 11
- 12
- 10
- 7
- 5
0
+ 6
+ 7
+ 7
0,150
0,183
0,194
0,179
0,173
0,189
0,176
0,171
0,163
0,160
0,156
0,151
0,151
0,155
0,159
0,161
0,167
0,172
0,173
0,172
0,167
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 25
3.3 Wahrscheinlichkeit Jedem Ereignis A ist eine Wahrscheinlichkeit P(A) zugeordnet (P = probability).
0 ≤ P(A) ≤ 1 (3.3)
Definition der Wahrscheinlichkeit nach Bernoulli/Laplace (Bernoulli 1713!, Laplace 1812-1820):
PZahl der günstigen Fälle
Zahl der möglichen Fälle= (3.4)
Voraussetzung:
Die einzelnen Fälle sind gleich möglich (Problem der Idealisierung - Mathematisches Modell).
Definition der Wahrscheinlichkeit von v. Mises (1931) (statistische Wahrscheinlichkeit):
r lim= Nf limP i
N
i
Ni
∞→∞→= (3.5)
(stochastische Konvergenz)
fi = Häufigkeit des Ereignisses
N = Gesamtanzahl
ri = relative Häufigkeit
Idealisierung:
Die Experimente wurden unter gleichen Bedingungen ausgeführt, d.h. alle Ereignisse müssen der gleichen Grundgesamtheit angehören.
V. Mises’ Definition führt zu mathematischen Schwierigkeiten bzgl. lim-Begriff.
3.3.1 Zusammengesetzte Ereignisse 1. Mit A wird das Ereignis Nicht A bezeichnet.
A ∪ A = E (A oder A ) (3.6)
2. Mit E wird das sichere Ereignis bezeichnet, entsprechend für beliebige Ereignisse A, B:
A ∪ B = C (A oder B ) (Vereinigungsmenge, Summe) (3.7)
(andere Schreibweise: A + B = C)
Das Ereignis C ist das Eintreten des Ereignisses A oder B oder auch A und B gleichzeitig.
3. Fremde Ereignisse: Ereignisse, die sich gegenseitig ausschließen. Z. B. Würfel: A = Wurf einer geraden Zahl
B = Wurf einer 3
4. Teilweise überdeckte Ereignisse: Z. B. Würfel: A = Wurf einer Zahl < 3 = 1, 2
B = Wurf einer geraden Zahl = 2, 4, 6
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 26
5. Der beiden gemeinsame Ereignisteil wird bezeichnet:
D = A ∩ B (sowohl A als auch B, und) (3.8)
(Durchschnittsmenge, Produkt) (andere Schreibweise: A ⋅ B = D) Z. B. Würfel: D = Wurf einer 2
Axiomatische Begründung der Wahrscheinlichkeitsrechnung durch KOLMOGOROFF (1933) (kein Widerspruch zu den älteren Definitionen):
1. Sind A und B Ereignisse, so sind auch A , A ∪ B, A ∩ B, B Ereignisse.
2. Jedem Ereignis ist eine reelle Zahl P(A) ≥ 0 zugeordnet.
3. Ein sicheres Ereignis E hat die Wahrscheinlichkeit P(E) = 1.
4. Wenn sich A und B ausschließen, so ist P(A ∪ B) = P(A) + P(B).
5. Sind A1, A2, …, An Ereignisse, die niemals alle gleichzeitig eintreffen können, so ist:
n
1 2 nlim P(A A A ) = 0→∞
∩ ∩ K (3.9)
Aus den Axiomen abgeleitete Beziehungen:
Das unmögliche Ereignis 0 hat die Wahrscheinlichkeit 0.
P(0) = 0 (3.10)
0 ≤ P(A) ≤ 1 (3.11)
Für paarweise fremde Ereignisse A1, A2 … gilt:
P(A1 ∪ A2 ∪ A3 ∪ … An) = P(A1) + P(A2) + … P(An) (3.12)
Zusammenhang zwischen den Wahrscheinlichkeiten der Ereignisse A ∪ B und A ∩ B bei Ereignissen, die sich nicht ausschließen:
Abbildung 3.2: zusammengesetzte Ereignisse
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 27
Ereignisse:
A ∪ B = (A ∩ B ) ∪ (A ∩ B) ∪ (A ∩ B) (3.13)
A = (A ∩ B ) ∪ (A ∩ B) (3.14)
B = (A ∩ B) ∪ (A ∩ B) (3.15)
Wahrscheinlichkeiten:
P(A ∪ B) = P(A ∩ B ) + P(A ∩ B) + P(A ∩ B) +
P(A) = P(A ∩ B ) + P(A ∩ B) -
P(B) = P(A ∩ B) + P(A ∩ B) -
P(A ∪ B) - P(A) - P(B) = - P(A ∩ B)
P(A ∪ B) = P(A) + P(B) - P(A ∩ B)
Beispiel 3.2:
Abbildung 3.3
A: Wurf einer Zahl < 3:
1, 2; P(A) =2
6
B: Wurf einer geraden Zahl:
2, 4, 6; P(B) =3
6
A ∪ B: Wurf einer geraden Zahl oder einer Zahl < 3:
1, 2, 4, 6; P(A B) =4
6∪
A ∩ B: Wurf einer geraden Zahl < 3:
2; P(A B) =1
6∩
P(A B) =2
6
3
6
1
6
4
6∪ + − =
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 28
Durch die Axiomatik ist festgelegt, wie man mit Wahrscheinlichkeiten rechnet, nicht aber, was der Begriff Wahrscheinlichkeit bedeutet. Auf eine solche Definition wird nach der objektivistischen Auffassung verzichtet; man begnügt sich mit der Häufigkeitsinterpretation: Bei einer langen Versuchsreihe nähert sich die relative Häufigkeit der Wahrscheinlichkeit für das Eintreten eines bestimmten Ereignisses, wenn die Versuchsbedingungen gleich bleiben (stochastische Konvergenz). Ist P(A) = pi, so ist bei N Versuchen das Ereignis A in etwa Npi Fällen zu erwarten (theoretische Anzahl).
3.4 Bedingte Wahrscheinlichkeit, stochastische Unabhängigkeit Voraussetzung: P(A) ≠ 0; P(B) ≠ 0
P(A/B) = Wahrscheinlichkeit für das Eintreten des Ereignisses A unter der Voraussetzung, dass Ereignis B eingetreten ist.
P(B/A) = Wahrscheinlichkeit für das Eintreten des Ereignisses B unter der Voraussetzung, dass Ereignis A eingetreten ist.
Definition der bedingten Wahrscheinlichkeit:
P(A / B) =P(A B)
P(B) P(B / A) =
P(A B)
P(A)
∩ ∩ (3.16)
Beispiel 3.3:
Würfel A = 2 B = gerade Zahl = 2, 4, 6
1
16
61 =P(B/A) ;
31
12
61 =P(A/B)
21=P(B) ;
61=P(A) ;
61=B)P(A
=⋅=⋅
∩
Definition der stochastischen Unabhängigkeit:
P(A/B) = P(A) und P(B/A) = P(B) (3.17)
Die Kenntnis über das Eintreten des Ereignisses B gibt keinerlei Hinweise darauf, ob das Ereignis A eintritt oder ob es nicht eintritt.
Folgerung aus der Definition der bedingten Wahrscheinlichkeit:
P(A ∩ B) = P(A/B) P(B) = P(B/A) P(A) (3.18)
Für stochastisch unabhängige Ereignisse gilt dann:
P(A ∩ B) = P(A) P(B) (3.19)
Beispiel 3.4:
Nivellementsnetz mit drei Schleifen:
Als Zufallsereignisse werden die Vorzeichen der Widersprüche betrachtet.
Voraussetzung:
Positive und negative Vorzeichen treten gleich häufig auf; die Vorzeichen in den Schleifen sind stochastisch unabhängig.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 29
Abbildung 3.4: Nivellementschleifen
Elementarereignisse:
A (w1 positiv) P(A) = 0,5
A (w1 negativ) P(A) = 0,5
B (w2 positiv) P(B) = 0,5
B (w2 negativ) P(B) = 0,5
C (w3 positiv) P(C) = 0,5
C (w3 negativ) P(C) = 0,5
Einige zusammengesetzte Ereignisse:
B ∩ C (w2 und w3 positiv)
P(B ∩ C) = P(B) ⋅ P(C) = 0,25
(wegen Annahme der Unabhängigkeit)
B ∪ C (w2 oder w3 oder beide positiv)
P(B ∪ C) = P(B) + P(C) - P(B ∩ C) = 0,75
B/C (w2 positiv unter Voraussetzung, dass w3 positiv)
P(B / C) =P(B )
P(C)=
0,25
0,5= 0,5 = P(B)
∩ C
Die Ereignisse B und C sind stochastisch unabhängig.
B ∩ C/C (w2 und w3 positiv unter Voraussetzung, dass w3 positiv)
P(B C / C) =P(B )
P(C)=
P(B )
P(C)=
0,25
0,5= 0,5 P(B C)∩
∩ ∩ ∩≠ ∩
C C C
Das zusammengesetzte Ereignis B ∩ C ist abhängig von C.
B ∩ C/C (w2 und w3 positiv unter Voraussetzung, dass w3 negativ)
P(B C / C) =P(B )
P(C)=
0
0,5= 0∩
∩ ∩C C
Das Ereignis ist unmöglich.
A ∩ B ∩ C (alle w sind positiv)
P(A ∩ B ∩ C) = P(A ∩ B) ⋅ P(C) = P(A) ⋅ P(B) ⋅ P(C) = 0,125
(A ∩ B ∩ C) ∪ (A ∩ B ∩ C ) (Die drei Widersprüche haben gleiches Vorzeichen)
P{(A ∩ B ∩ C) ∪ (A ∩ B ∩ C )} = P(A ∩ B ∩ C) + P(A ∩ B ∩ C ) = 0,125 + 0,125 = 0,25
Grundgesamtheit (wenn die Voraussetzung zutrifft):
w1 w2 w3
1
2
3
4
5
6
7
8
+
+
+
+
-
-
-
-
+
+
-
-
+
+
-
-
+
-
+
-
+
-
+
-
pi = const
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 30
A ∩ B ∩ C/B ∩ C (Alle Widersprüche positiv unter Voraussetzung., dass w2 und w3 positiv)
P(A B C / B C) =P(A B )
P(B C)=
0,125
0,25= 0,5∩ ∩ ∩
∩ ∩
∩
C
(A ∩ B ∩ C) ∪ (A ∩ B ∩ C )/C (Die drei Widersprüche haben gleiches Vorzeichen unter der Voraussetzung, dass w3 positiv)
P{[(A B C) (A B C)]/ C} =P{[(A B ) (A B C)] C}
P(C)=
P(A B )
P(C)= 0,25
= P{(A B C) (A B C)}
∩ ∩ ∪ ∩ ∩∩ ∩ ∪ ∩ ∩ ∩
∩ ∩
∩ ∩ ∪ ∩ ∩
C
C
Die Ereignisse „gleiches Vorzeichen aller Widersprüche“ und „w3 positiv“ sind voneinander stochastisch unabhängig.
3.5 Stochastische Veränderliche, Verteilung, Wahrscheinlichkeitsdichte Ein Ereignis A kann als Ausfall eines stochastischen Experimentes (z.B. Wurf mit einem Würfel) durch eine Zahlenangabe charakterisiert werden. Dazu gehört eine Beschreibung des Experimentes.
Beispiel 3.5:
Würfel: li = Augenzahl
Beschreibung: idealer Würfel, ggf. Angaben über die Augenzahlanordnung
Beispiel 3.6:
Beobachtungen: li = Meßwert, Ablesung
Beschreibung: Messvorgang, Genauigkeitsangaben, u.U. Zusatzmessungen für Korrekturen
3.5.1 Merkmale von zufälligen Ereignissen determinierte Ereignisse - zufällige Ereignisse
qualitative Merkmale quantitative Merkmale
(artmäßig) (zahlenmäßig) z.B. Geschlecht, z.B. Alter, Einkommen,
Autotyp, Beruf, Messungszahlen aller Art
Beobachter
diskrete Merkmale stetige Merkmale
(alle Werte innerhalb eines
Bereiches sind möglich)
Die Unterteilung kann bei Anwendung auf praktische Probleme nicht durchgeführt werden. Die Übergänge sind fließend.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 31
Z.B. ist das Gewicht eines Menschen zweifellos ein stetiges Merkmal. Durch die begrenzte Messgenauigkeit einer Waage kann das Gewicht nur klassenweise erfasst werden; die Maßzahl ist diskret.
Andererseits ist das Einkommen eines Menschen sicher diskret (es kann sich nicht weniger als um einen Cent ändern). In der Praxis lassen sich derartig feinabgestufte diskrete Merkmale genauso behandeln wie stetige Merkmale.
Die dem „Experiment“ zugeordnete Variable heißt stochastische Veränderliche (Zufallsveränderliche).
Es wird unterschieden zwischen der Zufallsvariablen X und dem Zahlenwert xi, der sich in dem Experiment i für die Variable ergibt.
Beispiel 3.7:
Würfelexperiment: X = Augenzahl
P(X = 5) =1
6 ; P(X > 2) =
2
3
Bei diskreten Veränderlichen:
jj p=)x=X(P
∑ = 1p j (3.20)
Beispiel 3.8:
Würfel
Abbildung 3.5: punktweise Massenbelegung
pj kann auch als punktweise Massenbelegung gedeutet werden.
3.5.2 Stetige Veränderliche Hier ist es nur sinnvoll, nach der Wahrscheinlichkeit dafür zu fragen, dass das Ereignis in einem bestimmten Intervall liegt.
P X b(a < ) = f(t)dta
b
< ∫ (3.21)
f(t) heißt Wahrscheinlichkeitsdichte.
P X(- ) = f(t)dt-
+
∞ < < +∞ =∞
∞
∫ 1 (3.22)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 32
Differential an der Stelle t = x (entspricht pj bei diskreter Verteilung):
dP(x) = P(t < x < t+dt) = f(t)dt (3.23)
Abbildung 3.6:stetige Massenbelegung, Wahrscheinlichkeitsdichte
f(t) kann auch als stetige Massenbelegung gedeutet werden (Wahrscheinlichkeitsdichte).
3.6 Verteilungsfunktion
3.6.1.1 Diskrete Verteilungen:
Definition nach KREYSZIG:
F(x) = P(X ≤ x) (3.24)
(Summenkurve der pj von -∞ bis X = x einschließlich)
Andere, jedoch nicht benutzte Definition nach GNEDENKO:
FG(x) = P(X<x) (3.25)
3.6.1.2 Stetige Verteilungen:
F x P X x( ) = = ∞ ≤ ≤∞
∫ f(t)dt (- )-
x
(3.26)
( ) ( ) ( ) ( )( ) ( ) ( )( ) ( ) ( )bXaPaFbF
bXaPaXPbXP
xfxF,1F,0F
<<+=
<<+<=<
=′=∞+=∞−
Wahrscheinlichkeit dafür ,dass X im Intervall a…b liegt:
dt)t(f)a(F)b(F=)b<X<a(Pb
a∫=− (3.27)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 33
Abbildung 3.7: Wahrscheinlichkeitsdichte (f(t) und F(t) in unterschiedlichem Maßstab)
Abbildung 3.8: Wahrscheinlichkeitsfunktion
3.7 Maßzahlen zur Charakterisierung von Grundgesamtheiten beliebiger Wahrscheinlichkeitsdichte
3.7.1 Erwartungswert Erwartungswert:
• Mittelwert,
• wahrer Wert bei stetigen Verteilungen,
• Durchschnitt
• Maßstab für die Lage der Verteilung, andere Maße sind möglich
•
Definition des Erwartungswertes:
für diskrete Verteilungen
ξ = = ∑E X x pi i( ) (3.28)
für stetige Verteilungen
ξ = = ⋅ = ⋅∞
∞
∞
∞
∫ ∫E X( ) x f(x)dx x dF(x)-
+
-
+
(3.29)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 34
Benutzt man v. Mises Wahrscheinlichkeitsdefinition:
pn
ni
i=→∞ →∞n
in
lim r = lim (3.5)
so wird:
ξ = ∑ =→∞ →∞n nlim lim
n x
n
l
ni i [ ]
(3.30)
Ist eine Zufallsvariable oft beobachtet, so erwartet man, dass das arithmetische Mittel dem Erwartungswert sehr nahe kommt.
Verallgemeinerung:
{ }E g X g x pi i( ) ( )= ∑ (3.31)
{ }E g X( ) = ⋅ = ⋅∞
∞
∞
∞
∫ ∫g(x) f(x)dx g(x) dF(x)-
+
-
+
(3.32)
Beispiel 3.9:
g(X) = aX + b (lineare Funktion)
43421434211
(x)dxfb
)X(E
(x)dxfxaf(x)dx)bax()baX(E+
-
+
-
+
-∫∫∫∞
∞
∞
∞
∞
∞
⋅+⋅⋅=⋅+=+
E(aX+b) = a(EX) + b
Eine häufig gebrauchte lineare Funktion ist:
E = ξ -X = E(X) - X (3.33)
→ Abweichung vom Erwartungswert = wahrer Fehler
E(E) = ξ - E(X) = 0 (3.34)
Bei nichtlinearen Funktionen g(X) ist in der Regel die Kenntnis der Wahrscheinlichkeitsdichte notwendig, um den Erwartungswert E{g(X)} berechnen zu können.
Spezielle nichtlineare Funktionen:
Die Erwartungswerte der Funktionen g(X) = Xν mit ν = 0, 1, 2, … heißen Momente.
Die Erwartungswerte der Funktionen (-E)ν = (X- ξ )ν mit ν = 0, 1, 2, … heißen zentrale Momente.
E(E0) = 1 (3.35)
E(E1) = 0 (3.36)
E(E2) = E{( ξ -X)2} (3.37)
M
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 35
3.7.2 Streuung, Varianz, Dispersion, Standardabweichung Maß für die Breitenausdehnung der Verteilung; andere Maße sind möglich.
Definition der Varianz (siehe z.B. KREYSZIG, S.87ff.):
σ2 = E{(X-E(X))2} (3.38)
Aus der Definition abgeleitet:
( ){ } ( ) ( )
( ) ( ) ( )43421
ξ
+∞
∞−
ξ+⋅ξ−=ξ+ξ−=σ
==ξ−=σ ∫22222
22
XE2XEX2XE
dfEXE EEEE 22
σ2 = E(X2) - ξ 2 (3.39)
Varianz = (Erwartungswert von X2) minus (Quadrat des Erwartungswertes von X)
Benutzt man v. Mises Wahrscheinlichkeitsdefinition:
pn
ni
i=→∞ →∞n
in
lim r = lim (3.5)
so wird nach Abschnitt3.7.1:
σ2 = E(E2) = nlim →∞
n
ni Ei
2 = nlim →∞
1
n[E2] (3.40)
Beachte die verschiedenen gebräuchlichen Bezeichnungsweisen:
σ2 = Varianz, Streuung, Streuungsquadrat, mittleres Fehlerquadrat, Dispersion D2(X)
σ = Standardabweichung, Streuung, mittlerer Fehler
σ bezieht sich jeweils auf ein Element der Grundgesamtheit.
Verallgemeinerung:
σg2 = E{(g(X) - E(g(X)))2} (3.41)
Für g(X) = aX + b gilt:
σ2aX+b = E{(aX+b - a ξ - b)2} = a2 E{(X - ξ )2} = a2σ2 (3.42)
(Fehlerfortpflanzungsgesetz)
3.8 Zusammenwirken mehrerer Zufallsvariabler
3.8.1 Verteilungsfunktion und Dichte Bei einem Experiment interessiert das gleichzeitige Eintreten mehrerer Ereignisse A, B, …, deren Merkmale durch die stochastischen Veränderlichen X, Y, … beschrieben werden.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 36
Bei zwei Veränderlichen:
Zweidimensionale stetige Dichteverteilung f(x,y):
-
+
-
+
∞
∞
∞
∞
∫ ∫ =f x y dxdy( , ) 1 (3.43)
Definition der Verteilungsfunktion:
F(x,y) = P(X<x ∩ Y<y)
F(x,y) = - -∞ ∞
∫ ∫x y
ft zdtdz( , ) (3.44)
Will man allein ein Merkmal der Verteilung untersuchen, so betrachtet man
( ) ( ) ( ) ( )( ) ( ) ( ) ( )yYPyYXPy,FxF
xXPYxXP,xFxF
2
1
<=<∩∞<=∞=
<=∞<∩<=∞=
F1(x) und F2(y) heißen Randverteilungen.
Sind A und B stochastisch unabhängig, so heißen auch X und Y voneinander unabhängig.
Für unabhängige Veränderliche gilt:
F(x,y) = P(X<x ∩ Y<y) = P(X<x) ⋅ P(Y<y)
F(x,y) = F1(x) ⋅ F2(y) (3.45)
f(x,y) = f1(x) ⋅ f2(y) (3.46)
Beispiel 3.10:
Instrumentensammlung, in der u.a. 30 Lote sind
Merkmal Ι : Länge der Lotschnur 1m, 2m, 3m (x)
Merkmal ΙΙ : Gewicht der Lote 200g, 400g, 600g (y)
Ι
ΙΙ
1m 2m 3m f2(y)
200g
400g
600g
4
3
1
2
6
4
0
4
6
6/30
13/30
11/30
f1 (x) 8/30 12/30 10/30
⇒ f(x,y) ≠ f1(x) ⋅ f2(y), da x und y nicht voneinander unabhängig sind.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 37
Abbildung 3.9: Wahrscheinlichkeitsdichte f(x,y)
Bei einer stetigen zweidimensionalen Verteilung lässt sich die Dichte als Raumfläche darstellen. Die Raumfläche kann auch durch Höhenlinien = Linien gleicher Wahrscheinlichkeitsdichte dargestellt werden.
Abbildung 3.10: stetige zweidimensionale Verteilung
3.8.2 Erwartungswert bei einer Funktion von mehreren Zufalls-veränderlichen Definition:
E g X Y g x y dF f{( , )} ( , )= = ⋅∞
∞
∞
∞
∫ ∫(x,y) g(x,y) (x,y)dxdy-
+
-
+
(3.47)
Erwartungswert für die Summe bzw. Differenz zweier Veränderlicher:
g(X,Y) = X ± Y
)Y(E )X(E
)y,x(ydF)y,x(xdF)y,x(dF)yx()YX(E+
-
+
-
+
-
+
-
+
-
+
-
±=
±=±=± ∫∫∫∫∫∫∞
∞
∞
∞
∞
∞
∞
∞
∞
∞
∞
∞
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 38
In jedem Fall, auch wenn X und Y nicht stochastisch unabhängig sind, gilt also
E(X ± Y) = E(X) ± E(Y) (3.48)
(siehe Beispiel 3.11)
Erwartungswert für das Produkt der Funktionen zweier Veränderlicher:
g(X,Y) = g(X) ⋅ h(Y)
∫∫∞
∞
∞
∞
⋅=⋅+
-
+
-
dxdy)y,x(f)y(h)x(g)}Y(h)X(g{E
Für stochastisch unabhängige Veränderliche zerfällt die Dichte f(x,y) in f1(x)f2(y). Nur dann lässt sich das Doppelintegral durch das Produkt zweier Integrale darstellen:
E g X h Y g xf f
E h Y
{ ( ) ( )} ( )
{( )}
⋅ = ⋅∞
∞
∞
∞
∫ ∫1 2(x)dx
E{g(X)}
h(y) (y)dy-
+
-
+
1 244 344 1 2444 3444
Bei stochastischer Unabhängigkeit von X und Y gilt also:
E{g(X) ⋅ h(Y)} = E{g(X)} ⋅ E{h(Y)} (3.49)
Die Umkehrung dieser Aussage gilt nicht allgemein:
Wenn E{g(X)}⋅E{h(Y)} = E{g(X)⋅h(Y)} ist, so müssen nicht unbedingt X und Y voneinander unabhängig sein (siehe Beispiel 3.12).
Beispiel 3.11:
X Y = aX X+Y X⋅Y
x1
x2
⋅
⋅
⋅
xn
ax1
ax2
⋅
⋅
⋅
axn
(1+a)x1
(1+a)x2
⋅
⋅
⋅
(1+a)xn
ax12
ax22
⋅
⋅
⋅
axn2
E(X) E(Y)=aE(X) E(X+Y) = (1+a)E(X) E(X⋅Y) = aE(X2)
E(X) E(Y)=aE(X) E(X)+E(Y) = (1+a)E(X) E(X)⋅E(Y) = E(X)⋅aE(X) = a{E(X)}2 ≠ aE(X2)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 39
Beispiel 3.12:
(Urne mit gleichviel Kugeln -1 und +1)
X Y = X2 X ⋅ Y = X3
i p
-1 0,5
+1 0,5
i p
+1 0,5
+1 0,5
i p
-1 0,5
+1 0,5
E(X) = 0 E(Y) = +1 E(XY) = 0 = E(X)⋅E(Y)
obgleich X und Y nicht stochastisch unabhängig sind
3.8.3 Varianz für Funktionen von Zufallsveränderlichen
3.8.3.1 Linearisierung von nichtlinearen Funktionen
Beispiel 3.13:
Messung von zwei Bandlagen
gemessen: zwei Bandlagen
gesucht : Gesamtstrecke
F = X1 + X2
(lineare Funktion der Zufallsveränderlichen X1 und X2)
Beispiel 3.14: (Dritter Winkel im Dreieck)
gemessen: zwei Winkel im Dreieck
gesucht : der dritte Winkel
Abbildung 3.11: dritter Winkel im Dreieck
F = 200 g - X1 - X2
(lineare Funktion der Zufallsveränderlichen X1, X2 und der Konstanten 200 g)
Beispiel 3.15: (indirekte Entfernungsmessung)
gemessen: zwei Winkel (X1, X2) und die Strecke (X3)
gesucht: die Strecke F
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 40
Abbildung 3.12: indirekte Entfernungsmessung
)XXsin(XsinXF
21
23 +
=
(nichtlineare Funktion der Zufallsveränderlichen X1, X2 und X3)
Nichtlineare Funktionen F lassen sich unter Vernachlässigung von Gliedern höherer Ordnung linearisieren, wenn F im betrachteten Bereich stetig differenzierbar ist.
Diese Bedingung wird im folgenden immer vorausgesetzt, soweit nicht ausdrücklich etwas anderes vermerkt ist.
( ) KK ,,,,X,XfF 2121 σσ=
F sei in dem betrachteten Bereich stetig differenzierbar.
Gl.h.O. +)x-(X)xf(+)x-(X)
xf(+),x,f(x=F 0
0
0
0
00
222
111
21 KK∂∂
∂∂ (3.50)
0)xf(
i∂∂ = partielle Ableitung von f nach xi an der Stelle K ,x,x 00
21 = Konstante = fi
K ,x,x 00
21 sind Näherungswerte, die so gewählt sind, dass man die Reihenentwicklung nach den linearen Gliedern abbrechen kann.
K
K
+ X f + Xf + f=F
+ )x-(X f + )x-(Xf + f=F
22110
2221110
00
Die Differentialquotienten (f
x)
i
∂
∂ können auch durch die Differenzenquotienten (
f
x)
i
∆
∆ ersetzt und
direkt berechnet werden.
Allgemeine Form der linearen Funktion F von n Zufallsveränderlichen Xi:
nn22110 X f + + X f + Xf + f=F K (3.51)
3.8.3.2 Varianz einer linearen Funktion von korrelierten Zufallsveränderlichen Xi
Zunächst Beschränkung auf zwei Zufallsveränderliche X1 und X2:
F = f + f X + f X0 1 1 2 2
Die Werte f0, f1 und f2 sind durch das gewählte mathematische Modell bekannt.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 41
( ) ( )
( ){ } ( ){ }( ) 22110
22
222
21
211
2211
fffFE
XE,XE
XE,XE
ξ+ξ+=Φ=
σ=ξ−σ=ξ−
ξ=ξ=
( ){ }22F FE Φ−=σ ,
(siehe Definition Erwartungswert in Abschnitt 3.7.2)
( )[ ]{ }( ) ( )[ ]{ }( ){ } ( ){ } ( )( ){ }
( ) }{ ( ) }{ ( )( )}{( ) ( ) ( )
( )( ) ( )( )}{ ( )21221121
212122
22
21
21
2F
212122
22
21
21
2F
2211212
2222
211
21
2F
2211212
2222
211
21
2F
2222111
2F
22211022110
2F
X;XCovXXEE
Eff2ff
Eff2EfEf
XXEff2XEfXEf
XXEff2XfEXfE
XfXfE
XfXffEXfXffE
=ξ−ξ−=
+σ+σ=σ
++=σ
ξ−ξ−⋅+ξ−⋅+ξ−⋅=σ
ξ−ξ−+ξ−+ξ−=σ
ξ−+ξ−=σ
++−++=σ
EE
EE
EEEE
Allgemeine Definition der Kovarianz zweier Zufallsveränderlicher Xi und Xk (siehe Abschnitt 3.8.4)
Fehlerfortpflanzungsgesetz für korrelierte Beobachtungen:
( ) 22
222121
21
21
2F fX;XCovff2f σ++σ=σ (3.52)
Erweiterung für mehr als zwei Zufallsveränderliche:
22110 X f + Xf + f=F + f3 X3 + …
( ) ( )( )
K
K
K
+σ+
++σ+
+++σ=σ
23
23
323222
22
3131212121
21
2F
f
X,XCovff2f
X,XCovff2X,XCovff2f
(3.53)
Um die Varianz σF2 berechnen zu können, müssen neben den Varianzen σi
2 auch alle Kovarianzen Cov(Xi, Xk) bekannt sein (Kovarianzmatrix).
Darstellung der Varianz σF2 als quadratische Form in Matrizenschreibweise:
F - f = f X + f X0 1 1 2 2 + … = fT X (3.54)
mit: fT = ( f1, f2, … , fn ) (Vektor der bekannten Koeffizienten der Zufallsveränderlichen Xi) und
XT = ( X1, X2, … , Xn ) (Vektor der Zufallsveränderlichen)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 42
Kovarianzmatrix der Zufallsveränderlichen Xi:
C
Cov X X Cov X X
Cov X X Cov X X
Cov X X Cov X Xxx =
σ
σ
σ
12
1 2 1 3
2 1 22
2 3
3 1 3 2 32
( , ) ( , )
( , ) ( , )
( , ) ( , )
L
L
L
M M M
(3.55)
Falksches Schema:
( ) ( ) ( )2F321
3
2
1
232313
322
212
31212
1
fff
fff
)X,X(Cov)X,X(Cov
)X,X(Cov)X,X(Cov)X,X(Cov)X,X(Cov
σ
σσ
σ
LLL
σF2 = fT Cxx f (3.56)
3.8.3.3 Varianz einer linearen Funktion von unabhängigen Zufallsveränderlichen Xi
Für den Spezialfall unabhängiger Beobachtungen gilt (siehe Abschnitt 3.8.2):
( ) ( )( ){ } ( ) ( )
( ) ( ) 0EEXEXEXXEX,XCov
ki
kkiikkiiki
=⋅=ξ−⋅ξ−=ξ−ξ−=
EE (3.57)
Das entspricht bei der v. Mises’schen Definition dem Ausdruck:
nlim →∞
1
n[Ei Ek] = 0 (3.58)
Kovarianzmatrix für unabhängige Zufallsveränderliche:
Cxx
n
=
σ
σ
σ
σ
12
22
32
2
0
0
O
(3.59)
Zufallsveränderliche, für die die Kovarianz Null ist, heißen unkorreliert. Stochastisch unabhängige Größen sind immer unkorreliert. Die Umkehrung gilt aber nicht (siehe Beispiel 3.12).
Spezielles Fehlerfortpflanzungsgesetz für lineare Funktionen unabhängiger Beobachtungen:
F - f = f X + f X0 1 1 2 2 + … = fT X
mit fT = ( f1, f2, … , fn )
XT = ( X1, X2, … , Xn )
und Cxx als Diagonalmatrix
σF2 = fT Cxx f
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 43
σF2 = f1
2 σ12 + f2
2 σ22 + … + fn
2 σn2 = ( )f
n
λ λλ
σ 2
1=∑ (3.60)
Hinweis:
Da hier von der Eigenschaft Cov (Xi, Xk) = 0 Gebrauch gemacht wird, gilt die Gleichung nicht nur für unabhängige, sondern im allgemeinen Sinn für nicht korrelierte Zufallsveränderliche.
Grundsätzliche Beispiele, die häufig verwechselt werden:
1. n voneinander unabhängige Zufallsgrößen werden addiert (n-maliges Aneinanderfügen)
(siehe Beispiel 3.13)
22F
n21
2n
22
21
2F
n21
n
111
xxxF
σ⋅=σ
σ=σ==σ=σ
σ⋅++σ⋅+σ⋅=σ
+++=
K
K
K
nF σ=σ (3.61)
2. Aber: Eine Zufallsgröße wird mit n multipliziert (siehe Beispiel 3.15)
222F
1
1
n
xnF
σ⋅=σ
σ=σ
⋅=
σ⋅=σ nF (3.62)
3. Arithmetisches Mittel aus n Zufallsgrößen (n-malige Wiederholung)
nn1n) (
n1
mit )n1( )
n1()
n1(
)x xx(n1F
22
2222
22
F
i2
n22
222
122
F
n21
σ=σ⋅=σ++σ+σ=σ
⇒σ=σσ++σ+σ=σ
+++=
K
K
K
nFσ
=σ (3.63)
Bemerkungungen:
• Ist die Funktion F nicht linear in Xi, so muss sie linearisiert werden. An die Stelle der Xi treten die dXi bzw. ∆Xi.
• Vor Anwendung der Formel für σF2 sind alle Anteile, die zu einem Differential dxi gehören,
zusammenzufassen.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 44
Aber:
Haben mehrere Messungen xi, xk gleiche Standardabweichungen σi = σk, so darf erst in der Gleichung σF
2 = … die Standardabweichung σi = σk gesetzt werden. Beispiel 3.16:
Berechnung einer Dreiecksfläche
Abbildung 3.13: Dreiecksfläche
F a b= ⋅ ⋅1
2sin γ
dF b da a db a b d= ⋅ ⋅ + ⋅ ⋅ + ⋅ ⋅ ⋅1
2
1
2
1
2sin sin cosγ γ γ γ
Dimensionskontrolle: dγ im Bogenmaß:
dFF
ada
F
bdb
Fd= + +
tan γγ
σ σ σγ
σ σσ
ργ γγ
F a b
cc
cc
F
a
F
b
F2
22
22
2
2=
+
+
=
tan mit
Für den Spezialfall σa2 = σb
2 = σs2 darf erst jetzt zusammengefasst werden.
σ σγ
σ
ρ
γF s
cc
cc
F
a
F
b
F2
2 22
2 2
=
+
+
tan
σ σγ
σ
ρ
γF s
cc
cc
F
a
F
b
F=
+
+
2 22
2 2
tan
gegeben: a ± σa
b ± σb
γ ± σγ
gesucht: F ± σF
C
a
b=
σ
σ
σγ
2
2
2
0
0
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 45
3.8.4 Kovarianz und Korrelationskoeffizient zweier Zufallsveränderlicher
3.8.4.1 Definitionen und mathematische Beziehungen
( ) ( )( ){ }kkiiki XXEX,XCov ξ−ξ−= (3.64)
( ) ki
ki
ik
ki
kikiki +
)(X E -
)(X E -)X(X E=X,XCov ξξ
ξξ
ξ
ξξ
ξ4342143421
Cov (Xi, Xk) = E (Xi⋅Xk) - ξ i ⋅ ξ k (3.65)
Für i = k erhält man die Definitionsgleichung der Varianz:
Cov (Xi, Xi) = E { (Xi - ξ i)2 } = σi2 (3.66)
Cov (aXi, bXk) = E { (aXi - a ξ i) (bXk - b ξ k) } = ab Cov (Xi, Xk) (3.67)
Die Kovarianz ist also als Maß der Korrelation ungeeignet.
Korrelationskoeffizient:
ρσ σi k
i k
i k
Cov X X,
( , )= (3.68)
Cov (Xi, Xk) = ρik ⋅ σi ⋅ σk (3.69)
ρσ σ
ρaX bXi k
i ki ki k
a b Cov X X
a b, ,
( , )=
⋅ ⋅
⋅ ⋅ ⋅= (3.70)
Der Korrelationskoeffizient ist unabhängig von der Wahl der Zufallsveränderlichen.
Für Xk = bXi wird:
( )
1b
b
bX,XCov
b
ii
2i
k,i
2iki
2i
22k
+=σ⋅σ⋅
σ⋅=ρ
σ=
σ=σ
Für Xk = -bXi wird entsprechend:
ρi,k = -1
Der Korrelationskoeffizient ist ein Maß für die lineare Abhängigkeit zweier Zufallsveränderlicher.
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 46
Für die Funktion F X Xi
ik
k= ±1 1
σ σ gilt:
022
0**
)X ,(X Cov1211
k,i2F
kik,i
kiki
2k2
k
2i2
i
2F
≥ρ±=σ
≥
σσρσσ
±σσ
+σσ
=σ4434421
Die Ungleichung ist nur erfüllt für -1 ≤ ρik ≤ +1.
3.8.4.2 Berechnung von Kovarianzen und Kovarianzmatrizen
Zunächst wieder Beschränkung auf zwei Zufallsveränderliche X1 und X2. Zur weiteren Bezeichnung und zu den Einzelschritten der Ableitung siehe Abschnitt 3.8.3.2.
22110
22110
XgXggG
XfXffF
++=
++=
Cov (F,G) = E{(F-E(F)) (G-E(G))} (gemäß Definition der Kovarianz (3.64) )
Die Konstanten f0 und g0 haben für die weiteren Berechnungen keine Bedeutung.
( ) ( ) ( )[ ] ( ) ( )[ ]{ }
( ) ( ) ( )( ) ( )( ) ( ){ }( ) ( ) ( ) ( )( ){ } ( )2222222111221
21111
22222221112221121
21111
222111222111
XEgfXXEgfgfXEgfG,FCov
XgfXXgfXXgfXgfEG,FCov
XgXgXfXfEG,FCov
ξ−⋅+ξ−ξ−⋅++ξ−⋅=
ξ−+ξ−ξ−+ξ−ξ−+ξ−=
ξ−+ξ−⋅ξ−+ξ−=
( ) ( ) ( ) 2222211221
2111 gfX,XCovgfgfgfG,FCov σ⋅+⋅++σ⋅= (3.71)
Erweiterung auf n Zufallsveränderliche Xi :
( ) ( ) ( )
( ) ( )
( ) ( )K
K
K
K
+
+σ⋅+⋅+⋅+
+⋅+σ⋅+⋅+
+⋅+⋅+σ⋅=
233332233113
323222222112
313121212111
gfX,XCovgfX,XCovgf
X,XCovgfgfX,XCovgf
X,XCovgfX,XCovgfgfG,FCov
(3.72)
Die Kovarianz Cov(F,G) kann als bilineare Form mit der Kovarianzmatrix Cxx der Zufallsveränderlichen Xi als Formmatrix aufgefasst werden.
Cov (F,G) = fT Cxx g = gT Cxx f (3.73)
Für den Spezialfall unabhängiger Zufallsveränderlicher Xi gilt Abschnitt 3.8.3.3:
Cxx ist dann die Diagonalmatrix:
Cxx
n
=
σ
σ
σ
12
22
2
0
0
O
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 47
und damit die Kovarianz zweier Funktionen unabhängiger Zufallsveränderlicher:
Cov (F,G) = f1g1 σ12 + f2g2 σ2
2 + … + fngn σn2 = f gi i i
i
n σ 2
1=∑ (3.74)
Bemerkung:
Gilt für alle fi und gi
fi = gi , dann geht die Kovarianz in die Varianz σF2 über.
Kovarianzmatrix CFF mehrerer Funktionen der beliebigen Zufallsvariablen Xi:
XfXfXfXfXfF
XfXfXfXfXfF
XfXfXfXfXfF
Tunn,u33,u22,u11,uu
TIInn,II33,II22,II11,IIII
TInn,I33,I22,I11,II
=⋅++⋅+⋅+⋅=
=⋅++⋅+⋅+⋅=
=⋅++⋅+⋅+⋅=
K
MMMMMM
K
K
Die römische Zahl im Index kennzeichnet die Nummer der Funktion (hier also F I ≡ F und F II ≡ G der Rechenformeln).
Die Elemente der Kovarianzmatrix CFF lassen sich einzeln nach den angegebenen Rechenformeln berechnen. Mit:
fT i = (f i,1 , f i,2 , … , f i,n)
wird
σFi2 = fT
i CXX f i (3.75)
und
Cov (Fi, Fk) = fT i CXX f k = fT
k CXX f I (3.76)
Werden die Vektoren f i zur Matrix
F
f f f
f f f
f
f
u n
n
n
T
T,
, , ,
, , ,
=
=
I I I
u u u
I
u
1 2
1 2
L
M M M
L
M
zusammengefasst, so gilt in geschlossener Matrizenschreibweise für die Kovarianzmatrix CFF der Funktionen F I … F u mit:
f = Fx fT = (F I , F II , … , F u)
C F C F
f C f f C f f C f
f C f f C f f C f
f C f f C f f C f
FFu u
XXT
TI xx
TI xx
TI xx
TII xx
TII xx
TII xx
Tu xx
Tu xx
Tu xx
( , )
= ⋅ ⋅ =
(u,n) (n,n) (n,u)
I II u
I II u
I II u
L
LM M M
L
(3.77)
Kapitel 3: Grundbegriffe aus der Wahrscheinlichkeitsrechnung und Statistik
Seite 48
Verallgemeinerung für die Kovarianzmatrix CGG , wenn die Funktionen GI … Gr Funktionen der FI … Fu und diese Funktionen der X1 … Xn m sind:
TxxFF FCFC
xFf
fGg
⋅=
⋅=
⋅=
CGG = G CFF (3.78)
GT = G F CXX FT GT (3.79)
Zum Rechengang:
1. Die Kovarianzmatrix CXX ist aufgrund theoretischer Überlegungen oder aus Vorberechnungen bekannt. CFF wird berechnet und damit CGG.
2. Die X sind aufgrund des mathematischen Modells unabhängige Zufallsveränderliche. Die CXX-Matrix ist dann eine Diagonalmatrix. Wenn nur die Matrix CGG benötigt wird, kommt man in dem Fall ohne Berechnung der CFF-Matrix aus; dafür muss aber das Matrizenprodukt GF berechnet werden (Rückführung auf unabhängige Beobachtungen).
3.9 Effiziente Schätzung = wirksame Schätzung Die Schätzung x für den Erwartungswert soll so bestimmt werden, dass für eine beliebige Funktion
F = f0 + f1 X1 + f2 X2 + … = f0 + fT X
gilt
σF2 = fT CXX f → Minimum
Die Forderung ist gleichbedeutend mit:
σX2 = Minimum
und
[(x - li)2] = Minimum.
Die Abweichungen vi der Beobachtungen li von der Schätzung x werden als Verbesserungen vi bezeichnet:
li + vi= x (3.80)
vi= x - li
Damit gilt auch die Forderung:
[vv] = Minimum
(Methode der kleinsten Quadrate)
3.9.1 Maximum - Likelihood - Methode = Methode der größten Mutmaßlichkeit Diese Methode zur Schätzung von Parametern setzt eine Annahme über die Verteilung der Messwerte voraus (siehe Abschnitt über die Normalverteilung).
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 49
4 Ausgleichung nach vermittelnden Beobachtungen
4.1 Lineare beste Schätzung der Unbekannten
4.1.1 Vorbemerkung Die Genauigkeit berechneter (unbekannter) Größen wird durch die Hauptdiagonalglieder der betreffenden Kovarianzmatrix beurteilt.
x
x
xm
=
1
M → Cx
m m
=
σ σ
σ σ
σ σ
12
12
21 22
12
L L
M
M M O M
L L
Als Maß für alle Unbekannten führt man die Spur der Kovarianzmatrix ein:
Spur (CX) = Summe über die Diagonalelemente
4.1.2 Lineare Schätzung, unverzerrt Sei l Beobachtungsvektor für Unbekannte x in dem Zusammenhang l + v = A x (l ist Zufallsvektor, dann sind auch x und v Zufallsvektoren!) mit der Kovarianzmatrix Cl.
1. Die Unbekannten x sollen über eine lineare Rechnung aus l gewonnen werden, d.h.
x = G ⋅ l (4.1)
G ist gesucht!
2. x soll unverzerrt sein, d.h.
x = G ⋅ l = G ⋅ (Ax - v) (4.2)
Erwartungswerte:
E(x) = G (A ⋅ E(x) - E(v))
Forderung:
E(v) = 0 : unverzerrt,
d.h.
E(x) = G ⋅ A ⋅ E(x)
G ⋅ A = E (= Einheitsmatrix) (4.3)
4.1.3 Beste Schätzung
x = G ⋅ l (4.4)
dann ist die Kovarianzmatrix CX:
CX = G Cl GT (4.5)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 50
G soll so bestimmt werden, dass:
Sp (CX) → min.
Spur von CX:
jlTj
xjlTjl
Tj
Tj
Tjl
l
gcg
ementDiagonalel tes-j
Cgcgcgg
G
||||| g ||||||
||| c ||
||||||
G
C
=
↑
−−−−
−−−−
↓
↓↓↓
O
O
offensichtlich ist
Sp (CX) = g CjT
l jj
g∑ (4.6)
Nebenbedingungen für gjT aus (4.3):
E1
1
Gg
|A||
Tj
−−−−
↓
O
→ gjT ⋅ A = ej
T = {0,0,…,0,1,0,…,0} (4.7)
Die j-te Komponente von x wird am genauesten dann, wenn:
gjT Cl gj → min.
unter der Nebenbedingung
gjT ⋅ A = ej
T
Lagrange Funktion:
φ(gj , λj) = gjT Cl gj - 2 (gj
T A - ejT ) ⋅ λj (4.8)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 51
mit
λ
λ
λi
j
mj
=
1
M (m Anzahl der Unbekannten)
φgj = 2 gjT Cl - 2 λj
T AT = 0 (4.9)
φλj = gjT A - ej
T = 0 (4.10)
( )
( )IIegA
I0AgC
jjT
jjl
=
=λ−
Die Gleichungen (I) und (II) gelten für j = 1, 2, … , m
Sie können in Matrizenschreibweise zusammengefasst werden:
Λ = ↓ ↓ ↓ ↓
λ λ λ1 2 L
M M M M
m| | | |
| || || || || |
||
||
g G
c c g
jT
l l j
Ersetze:
Ee
Gg
j
j
Tj
→
Λ→λ
→
damit (I) und (II):
( )
( )IIEGA
I0AGC
TT
Tl
=
=Λ−
aus (I):
GT = [Cl]-1 A Λ
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 52
in (II):
[ ]
[ ]( ) 11l
T
1l
T
ACA
EACA
−−
−
=Λ
=Λ
eingesetzt:
[ ] [ ]( )[ ]( ) [ ]
l
1l
T11l
T
11l
T1l
T
P
CAACAG
ACAACG
↑
=
=
−−−
−−−
(4.11)
Bemerkungen:
• bzgl. Statistik keine Voraussetzung über Verteilung getroffen!
• nur Forderung E(v) = 0
• nur lineare Rechnung!
4.2 Vermittelnde Ausgleichung Zwischen den ausgeglichenen Beobachtungen l 1 … l n und den h Unbekannten x1, …, xh mit n > h gelten die Beziehungen:
l = l + v = Ax (4.12)
Die ausgeglichenen Beobachtungen l ergeben sich durch Addition der Verbesserungen v zu den Beobachtungen. Die Beobachtungen sind ferner durch die Kofaktorenmatrix Qll = (1/m0
2) Cll beschrieben.
Nach der Methode der kleinsten Quadrate wird ein Lösungsvektor x der Gestalt gesucht, für welchen vT [Qll]-1 v minimal wird.
Mit P = [Qll]-1, der Gewichtsmatrix, ergibt sich die folgende Minimumaufgabe:
φ = vT P v ==> min (4.13)
Mit
v = Ax – l (4.14)
erhält man:
( ) ( )
l
l
ll
PAPAxA
0PAPAxA
0x
AxPAx
TT
TT
TTT
=
=−
=∂Φ∂
−−=Φ
Minimum, weil ATPA positiv definit (2. Ableitung)
x = (ATPA)-1 ATPl (4.15)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 53
Da
P = m02 [Cll]-1
gilt auch:
x = (AT[Cll]-1A)-1 AT[Cll]-1l
Die Minimierung der Quadratsumme der Verbesserungen und die Minimierung der Varianzen der Unbekannten sind äquivalent!
Für die übrigen Parameter gilt:
v= Ax - l = (A (ATPA)-1 ATP - E) l (4.16)
l= Ax = A (ATPA)-1 ATPl (4.17)
aus
φ= vT P v ==> min
folgt auch
0PAvxvPv2
0x
TT ==∂∂
=∂Φ∂
ATPv = 0 (4.18)
Wichtige Matrix bei vermittelnden Beobachtungen ist:
A0 = A(ATPA)-1 ATP (4.19)
Eigenschaften:
1. spezielle Einheitsmatrix, da: A0 ⋅ A0 = A0
2. A0 ⋅ A = E ⋅ A = A (nachrechnen!)
3. A0 v = 0
4. Eigenwerte von A0 sind 0 oder (und) 1:
Für einen Eigenwert λ mit dem zugehörigen Eigenvektor x muss gelten:
( )
( )**xxA
xAxAA
*xxA
20
000
0
λ=
λ=
λ=
Gleichsetzen von * und **
λ x = λ2 x
Dies ist nur erfüllt für λ = 1 oder λ = 0.
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 54
Berechnung der [vvP] = vTPv als Vorbereitung für die Fehlerrechnung:
a) direkte Verwendung der v aus den Fehlergleichungen
b) Ermittlung aus verschiedenen Kontrollformeln
b1)
[ ] [ ]vPvvP
PvPvv TT
l
l
−=
−=
Beweis: v Pv v P Ax lv
v PAx v PlT T T T= −=
==
−( )!
124 34 1230
b2)
( )
[ ] [ ] [ ] [ ] [ ]PhxPbxPaxPvvP
PAxPPvv
h21
TTTT
lllll
lll
−−−−=
−=
K
Beweis: vTPv = - lTPv = - lTP(Ax - l) = lTPl - lTPAx
b3)
( )( ) ( )[ ] [ ] [ ] [ ] [ ]
[ ][ ] [ ][ ][ ][ ] }QhlPlPh2
QhlPalP2QblPalP2
QhlPQblPQalP{llPvvP
PlAPAAPAlPllPvv
h,1hl
lh12
hh2211
T1TTTT
−
−
++
+++
+++−=
−=
K
K
K
Beweis:vTPv = lTPl - xT(ATPl) = lTPl - lTPA(ATPA)-1(ATPl)
xT = lTPA(ATPA)-1
b4) [vvP] = [llP ⋅ h] (Mitreduktion im Normalgleichungssystem)
Beweis: siehe „Lösung von Gleichungssystemen nach dem modernisierten Gaußschen Algorithmus“
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 55
4.2.1 Zusammenstellung der linearen Beziehungen bei vermittelnden Beobachtungen
l x v l = l+v
1
l =
El
2
x =
[(ATPA)-1ATP]l
Ex
3
v =
[A(ATPA)-1ATP-E]l =
= (A0-E)l
Ev
[E-A(ATPA)-1ATP]v =
= (E-A0)v
4
l = l+v =
[A(ATPA)-1ATP]l =
= A0l
Ax
El
A(ATPA)-1ATPl =
= A0l
Tabelle 4-1: lineare Beziehungen bei vermittelnden Beobachtungen
Bei unabhängigen Beobachtungen gleicher Genauigkeit: P → E!
Weitere wichtige lineare Beziehungen und Definitionen:
Nach (4.3) folgt für die spezielle Einheitsmatrix (extraordinary unit matrix) bei vermittelnden Beobachtungen:
A0 = A(ATPA)-1 ATP
welche singulär und idempotent ist:
A0A = EA = A !
Es ist
(E-A0) v = v
d.h.:
A0 v = 0
Null ergibt sich für:
A0 l = l
Also
(E-A0) l= 0
A0 v = 0
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 56
Die v sind Eigenvektoren von (E-A0):
(E-A0)l = 0
Die l sind Eigenvektoren von A0:
ATPv = 0
4.3 Ermittlung der Kofaktoren (=Gewichtsreziproken) von Größen, welche aus der Ausgleichung hervorgehen
4.3.1 Vorbemerkungen: Das Kapitel stellt die Anwendung des allgemeinen Fehlerfortpflanzungsgesetz dar: gesucht sind die Kofaktorenmatrizen.
• Qx,x der Unbekannten x
• Qll
der ausgeglichenen Beobachtungen l = l+v
• Qv,v der ausgeglichenen Verbesserungen
Dann ergeben sich die entsprechenden Kovarianzmatrizen Cx,x, Cll, Cv,v durch Multiplikation mit m0
(woher m0 ??, noch nicht hergeleitet!)
Weg:
Die x, l , v werden als (lineare) Funktionen der ursprünglichen Beobachtung ausgedrückt, dann wird das Fehlerfortpflanzungsgesetz angewendet. Diese linearen Funktionen sind jedoch alle bereits in Tabelle 4-1 angeschrieben. Damit ergibt sich unmittelbar Tabelle 4-2.
l x v l = l+v
l
P-1 = Ql,l
A(ATPA)-1 = Ql,x
A(ATPA)-1AT-E = Ql,v
A(ATPA)-1AT = Ql l,
x
(ATPA)-1AT =
Qx,l = Qx,xAT
(ATPA)-1 = Qx,x
0
korrelations-frei!
(ATPA)-1AT = Qx l,
v
A(ATPA)-1AT-E = Qv,l
0
korrelations-frei!
P-1-A(ATPA)-1AT = Qv,v =
Ql,l - Ql l,=
(E-A0)P-1
0
korrelations-frei!
l = l+v
A(ATPA)-1AT = Ql l,
= Q
l l,
A(ATPA)-1 = Ql x,
0
korrelations-frei!
A(ATPA)-1AT=
Ql l,
= Ql,l - Qv,v
= A0P-1
Tabelle 4-2: Kofaktoren bei vermittelnden Beobachtungen
Bei vermittelnden Beobachtungen:
A0 = A(ATPA)-1 ATP
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 57
Bei Beobachtungen gleicher Genauigkeit:
P bzw. P-1 → E !
So ergeben sich z.B. die Kofaktoren der ausgeglichenen Beobachtungen
l = l+v = [A(ATPA)-1ATP]l = A0l (4.20)
und nun entsprechend Fehlerfortpflanzung:
Ql l,
= A0P-1A0T = [A(ATPA)-1ATP] P-1 [PA(ATP-1A)-1AT] = A(ATPA)-1AT
Man kann Ql l,
aber auch bilden, indem man die ausgeglichenen Beobachtungen als Funktionen der Unbekannten x auffasst:
l = l+v = Ax
Ql l,
= AQx,xAT = A(ATPA)-1AT (4.21)
4.3.2 Aufgabenstellung Um das Ausgleichungsergebnis beurteilen zu können und um weiter das Ausgleichungsergebnis für Folgeberechnungen heranziehen zu können, benötigt man die mittleren Fehler von Unbekannten und ausgeglichenen Beobachtungen bzw. deren Kofaktoren. Beide sind durch die folgenden Gleichungen verknüpft:
mxi2 = Qxi,xi m0
2 (4.22)
mli
2 = Qli li,
m02 (4.23)
Die Aufgabe ist somit:
• Bestimmung der Qxi,xi ≡ Qx,x für die Unbekannten und der Qli li,
≡ Ql l,
für die ausgeglichenen Beobachtungen
• Bestimmung von m0
4.4 Beweis der Formel m vvP n h0 = −[ ] /( ) für die vermittelnde Ausgleichung in der üblichen Darstellung Beobachtungsgleichungen:
l + v = Ax (4.24)
Normalgleichungen:
(A TPA) x = A TPl (4.25)
Lösung für die Unbekannten:
x = (A TPA)-1 A TPl (4.26)
und
v = (A (A TPA)-1 A TP - E) ⋅ l = (A0 -E) ⋅ l (4.27)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 58
mit
A0 = A(A TPA)-1 A TP (4.28)
Für später ermitteln wir noch die Spur von A und erhalten wegen:
Spur (XAY) = Spur (YXA)
unter Anwendung des Assoziativgesetzes der Matrizenmultiplikation sofort:
Spur A(A TPA)-1 A TP = Spur (A TPA) (A TPA)-1 = Spur E = h (4.29)
bei regulärer Matrix (A TPA).
Dabei sei A eine (n,h)-Matrix, d.h. der Vektor x enthält h Unbekannte x1, … , xh und die Vektoren l und v enthalten n Beobachtungen l1, … , ln bzw. n Verbesserungen v1, … , vn.
l = (l1, l2, … , ln) ist ein Zufallsvektor mit den Elementen der Zufallsvariablen
• l1 und den Realisierungen l11, l1
2, … , lm1
• l2 und den Realisierungen l21, l2
2, … , lm2
• ……
• ln und den Realisierungen ln1, ln
2, … , lnm
Jedoch wird bei der praktischen Berechnung der vermittelnden Ausgleichung nur eine Realisierung der li verwendet. (Diese eine Realisierung ist möglicherweise Mittelwert aus Wiederholungsbeobachtungen).
Ebenfalls als bekannt angenommen wird die symmetrische (vollbesetzte) Gewichtsmatrix P = Pll der (korrelierten) Beobachtungen l, die sich wie folgt schreiben lässt:
Pll = Qll-1 = σ0
2 Cll-1 (4.30)
Stellen wir uns das „Ausgleichungsexperiment“ n-mal wiederholt und das Mittel gebildet vor, d.h. gehen wir zu den Erwartungswerten über, so gilt für die Beobachtungsgleichungen:
{ )x(EA)l(E )x(EA0
)v(E)l(E ⋅=→⋅==
+ (4.31)
d.h. zu den Erwartungswerten der Beobachtungen gehören Erwartungswerte der Unbekannten, die mit dem überbestimmten Gleichungssystem verträglich sind.
Mit
E(l) = A E(x)
gilt auch
ATPE(l) = (ATPA) E(x)
und damit
E(x) = (ATPA)-1 ATPE(l)
A E xEl
A A PA A PElA El
T T⋅ = ⋅⋅
−( )( )
( ) ( )( )
124 34 1 2444 3444 1
0
(4.32)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 59
Definieren wir nun analog zu oben wahre Fehler
Eqi : = lq
i - E(lq) ↔ lqi = Eq
i + E(lq)
für die i-te Realisierung der zufälligen Beobachtung lq.
So können wir für die aus einmaliger Realisierung ermittelten Verbesserungen vi wegen (4.32) schreiben
( ) ( ) ( )( ) ( ) ( ) ( ) i00
i0
i0
i EA0
lEEAlEEAlEAv EE ⋅−+
=
⋅−=+−=−=44 34421
(4.33)
Für die Summe vTPv in der i-ten Realisierung gilt somit:
(vi)TPllvi = (Ei)T (A0T - E) Pll (A0 - E) (Ei)
und nach elementar und leicht durchzuführender Ausmultiplikation der rechten Seite:
(vi)TPllvi = ((Ei)T Pll (Ei)) - ((Ei)T Pll A0 (Ei)) = (*) – (**) (4.34)
Wir können beide quadratischen Formen (*) und (**) sofort in die Spuren dyadischer Vektorprodukte mit Matrizen umschreiben und bekommen für die i-te Realisierung des Experimentes:
(vi)TPllvi = Spur (Ei (Ei)T Pll) - Spur (Ei (Ei)T Pll A0)
Nun haben wir alles vorbereitet, um in einem Schritt von der einmaligen Realisierung zur n-maligen Realisierung und Mittelwertbildung, d.h. zu den Erwartungswerten überzugehen.
Dabei werden insbesondere aus den Zufallsmatrizen (Ei (Ei)T) ihre Erwartungswerte
E(vTPv) = Spur (E(E ET) Pll) - Spur (E(E ET) Pll A0) = Spur(Cll) – Spur(CllA0)
Und da
Cll = Qll σ02 = σ0
2 Pll-1
folgt:
( ) ( ) ( )
( ) ( ) ( )hnASpurESpur
APPSpurPPSpurPvvE
200
20
20
0ll1
ll20ll
1ll
20
T
−⋅σ=⋅σ−⋅σ=
−σ−σ= −−
und damit für den Varianzfaktor:
σ02
T
=E(v Pv)
n - h (4.35)
Dies ist aber genau das, was zu beweisen ist! Denn (4.35) besagt, dass sich der Varianzfaktor σ02
gerade als Erwartungswert der Funktion der Zufallsvariablen des bekannten Ausdruckes [vvP]/(n-h) ergibt. Dieser Aussage ist äquivalent, dass die Anwendung von (4.35) in der einmaligen Realisierung eines Ausgleichungsexperimentes eine unverzerrte Schätzung des Varianzfaktors (d.h. eine unverzerrte Schätzung des mittleren Fehlers der Gewichtseinheit!) ergibt:
σ02
T
=E(v Pv)
n -h
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 60
m 02 =
vPv
n -h (4.36)
4.5 Herleitung von Gebrauchsformeln Gegeben seien die gegenseitig unabhängigen Beobachtungen verschiedener Genauigkeit
• Beobachtungen l1, l2, … , ln
• mit den mittleren Fehlern m1, m2, … , mn
• bzw. den Gewichtseinheiten pm
m102
12
= , pm
m202
22
= , … , pm
mn02
n2
=
wobei m0 = mittlerer Fehler der Gewichtseinheit ist.
Oder, gegeben seien die gegenseitig abhängigen Beobachtungen l1, … , ln mit ihren Varianzen und Kovarianzen, d.h. mit ihrer Kovarianzmatrix Cll und daraus ihrer Kofaktorenmatrix Qll = 1/m0
2 Cll , dann erhält man als Gewichtsmatrix
bei gegenseitig unabhängigen Beobachtungen
P
PP
Pn
=
1
2
0 00
0
L
M O
und bei gegenseitig abhängigen Beobachtungen
P Q
P P PP P
P Pll
n
n nn
= =
−1
11 12 1
21 22
1
L
M OL
Nach obiger Spezialisierung setzt man die Verbesserungsgleichungen (Fehlergleichungen, Beobachtungsgleichungen) nach dem Prinzip an:
Beobachtung + Verbesserung = f(Unbekannte, Konstante)
in Matrizen
l + v = f(x) (4.37)
wobei
ll
ln
=
1M , v
v
vn
=
1M , f x
f x
f xn
( )( )
( )=
1M , x
x
xh
=
1M , n > h !
Die Gleichungen (4.37) seien nichtlinear, d.h. eine Darstellung der Art l + v = Ax (lineares Gleichungssystem) sei noch nicht möglich!
Allgemeiner Lösungsansatz:
Zu minimieren ist die quadratische Form
Φ(x) = vTPv mit v = f(x) - l
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 61
Dann muss gelten:
∂Φ
∂
∂
∂
( ) ( )x
x
v Pv
x
T
= = 0
d.h., die partiellen Ableitungen der quadratischen Form nach den Variablen x1, … , xh müssen alle zu Null werden:
∂
∂
( )v Pv
x
T
1
0= , … ∂
∂
( )v Pv
x
T
h
= 0
==> h partielle Ableitungen =̂ h nichtlineare Gleichungen!
Anwendung der Produkt- und Kettenregel ergibt:
)xv(Pv2
x)Pvv( T
T
∂∂
=∂
∂ (4.38)
Wegen
v = f(x) – l
gilt:
∂
∂
∂
∂
v
x
fx
x=
( )
Also wird aus (4.38)
2 2 0v Pv
xv P
fx
xT T( ) (
( ))
∂
∂
∂
∂= =
Dies ist gerade der Zeilenvektor der partiellen Ableitungen
(( )
,( ) ( )
) ( , , ,) ∂
∂
∂
∂
∂
∂
v Pv
x
v Pv
x
v Pv
x
T T T
h1 2
0 0 0L K=
Damit aus dem Zeilen- ein Spaltenvektor wird, wird transponiert:
(( )
)∂
∂
f x
xPv T = 0
Wegen v = f(x) - l
(( )
) (( ) )∂
∂
f x
xP f x l T − = 0 (4.39)
Dies sind die allgemeinen und nichtlinearen Bestimmungsgleichungen zur Ermittlung der
xT = (x1, x2, … , xh).
Die Gleichungen (4.39) heißen auch Normalgleichungen.
Ausführliche Darstellung der Gleichungen (4.39):
Jakobimatrix: ∂
∂
(( ))f x
x
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 62
Es war
f x
f xf x
f x
f x x xf x x x
f x x x
f x
x
f
x
f
x
f
xf
x
f
x
f
x
f
x
f
x
f
x
n
h
h
n h
h
h
n n n
h
( )
( )( )
( )
( , , , )( , , , )
( , , , )
( )=
=
⇒ =
1
2
1 1 2
2 1 2
1 2
1
1
1
2
1
2
1
2
2
2
1 2
M
KK
MK
L
L
M
L
∂
∂
∂
∂
∂
∂
∂
∂∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
∂
h1 244444 344444
n
Wie können die nichtlinearen Gleichungen (4.39) gelöst werden?
Man braucht immer Näherungswerte x0 derart, dass x = x0 + ∆x, und bestimmt dann (die) das ∆x in einem Iterationsprozess aus linearen Einzelschritten.
Problem der numerischen Mathematik → häufig angewendete Prozedur: Newton-Verfahren
Ausgangsform:
g(x,l) = 0
Man wähle x0 und entwickle obige Gleichungen an der Stelle x0 in die Taylor-Reihe 1. Ordnung
x g x lg x l
xx0 0
0 0==> + =( , )(( , ))∂
∂∆
bzw.
g xg x
xx
xg x
xg x
x x x
( )( )
(( )
) ( )
00
0 10
1 0
0+ =
= −
= +
−
∂
∂∂
∂
∆
∆
∆
Setze x0 := x1 und starte oben erneut!
Anwendung auf (4.39):
g xf x
xIn diesem
P f x l
In diesem
( ) $ (( )
) (( ) )= − =∂
∂ T
Ausdrucknichtlineare x
enthalten
Ausdrucknichtlineare x
enthalten
1 24 341 24 34 0
Bei der Anwendung des Newtonverfahrens benötigt man ∂
∂
g x
xx
( )0 , aber unter Anwendung der
Produktregel. Die nichtlineare vermittelnde Ausgleichung ist schwierig!
(Literatur: SCHENK, MEYER, LINKWITZ / ZfV)
4.6 In der Ausgleichung übliches Vorgehen
Man betrachtet die x in ∂
∂
(( ))f x
x, also die in der Jakobimatrix stehenden x als Konstante.
Damit ist dann eine einfache Linearisierung von (4.39) möglich (bzw. Anwendung des Newton-Verfahrens).
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 63
x1 : x0 + ∆x
(( )
) (( ) ) (( )
) (( )
)∂
∂
∂
∂
∂
∂
f x
xP f x l
f x
xP
f x
xx0
00 0 0 T T− + =∆
bzw. nach Umstellung
(( )
) (( )
) (( )
) (( ) )∂
∂
∂
∂
∂
∂
f x
xP
f x
xx
f x
xP f x l0 0 0
0 0 T T∆ + − = (4.40)
Nun setzt man
(( )
)∂
∂
f x
xA0 = (
( ))
∂
∂
f x
xAT0 T = (4.41)
und
f(x0) - l = -~l (4.42)
und bekommt die Normalgleichungen (= 1. Schritt des Newton-Verfahrens!)
( )
10
01
TT
xx
xxx
0PAxPAA
=
∆+=
=−∆ l
und starte erneut bis die x gegen eine feste Schranke konvergieren und die nichtlinearen Normalgleichungen (4.39) erfüllt sind.
Der oben geübten Vernachlässigung, dass man nämlich bei der Bildung von ∂
∂
g x
x
( ) die Jakobimatrix
∂
∂
f x
x
( ) als konstant in den Unbekannten auffasst, ist äquivalent die übliche Linearisierung in der
Ausgleichungsrechnung.
In dieser werden nämlich bereits die Verbesserungsgleichungen linearisiert, d.h. die Bedingung vTPv ==> min. wird bereits für lineare Ausgangsgleichungen angesetzt:
Nach (4.37) war l + v = f(x); nun Ansatz
x := x0 + ∆x
Dann wird aus (4.37)
l + v = f(x0) + x)x
)x(f( 0 ∆⋅
∂∂
43421
Nach (4.42) ist l - f(x0) = ~l und man bekommt die linearen Fehlergleichungen
v = A ⋅∆x - ~l
und man findet das Minimum der quadratischen Form
Φ(x) = vTPv
A nach (4.41)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 64
durch die partielle Ableitung
∂Φ
∂∆
∂
∂∆
∂
∂x
v Pv
xv P
v
xv PA
TT T= = = =
( )2 2 0 .
Nach Transponieren:
l~xAv
0PvAT
−∆=
=
bekommt man
(ATPA) ⋅∆x - ATP~l = 0 ( =̂ (4.42)!)
Sind schließlich die Fehlergleichungen von vornherein linear, dann ist eine lineare Darstellung der Form
f(x) = Ax
möglich, d.h
∂
∂
f x
x
( ) = A (für jedes x!)
Aus (4.39)folgt dann
ATP(Ax - l) = 0 ==> (ATPA) x - ATPl = 0 (4.43)
Führt man (zur numerischen Vereinfachung) auch im Fall der linearen Ausgangsgleichungen- Näherungswerte für die x ein:
x = x0 + ∆x
so erhält man aus (4.43) mit (4.41) gerade wieder (4.42). In diesem Sinne werden wir (4.42) und (4.43) in der Form als äquivalent betrachten.
Berechnung der Verbesserungen:
• Einsetzen der Unbekannten in die linearen bzw. linearisierten Fehlergleichungen
v = A ⋅ x – l bzw. v = A ⋅ ∆x - ~l
• Prüfung auf Übereinstimmung mit den v, errechnet aus den nichtlinearen Fehlergleichungen
v = f(x) - l
• Kontrolle nach
A Pv = 0
bzw. A P(f(x) - l) = 0
T
T
durchgreifende Kontrolle
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 65
wobei
∂
∂
f x
xJakobimatrix an
Pf x lT( )
(( ) )
− =
der Stelle x!!
124 34
0
4.7 Arithmetisches Mittel mit Einführung eines Näherungswertes
Beispiel 4.1: Messung mit 5m - Latten und Zollstock
li
[m]
∆l
[mm]
+ v
[mm]
- ∆l2
[mm2]
v2
[mm2]
20,316
09
16
13
18
18
17
18
10
21
+ 6
- 1
+ 6
+ 3
+ 8
+ 8
+ 7
+ 8
0
+11
6,6
2,6
5,6
0,4
0,4
2,4
2,4
1,4
2,4
5,4
36
1
36
9
64
64
49
64
0
121
0,16
43,56
0,16
6,76
5,76
5,76
1,96
5,76
31,36
29,16
+56 14,8 14,8 444 130,40
Näherungswert x0 = 20,310m
li + vi = x0 + ∆x = x ; ∆li = li - x0 ; x = li + vi
vi = + ∆x - (li - x0)
vi = ∆x - ∆li
v = Ax - l
l $= ∆l , A =
111111
, x $= ∆x
[vv] = Min
lTl∆x = lT∆l
n∆x - [∆l] = 0 (Normalgleichung)
xl
n= =
+= +
[ ],
∆ 56
1056 mm
vTPv = (xTAT - lT) P (Ax - l)
= xTATPAx + lTPl - lTPAx - xTATPl
= lTPl - xTATPl
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 66
] [ ]
[ ]
] [ ] [ ]
Prvv l
l
n
vv l x l
oben für [= −
= − ⋅
∆∆
∆ ∆ ∆
22
2
vv]
[vv] = 444 - 313,6 = 130,4
[vv] = 444 - 5,6 ⋅ 56 = 130,4
m = ± = ±1304
938
,, mm (mittlerer Fehler der einmal gemessenen Strecke)
Ql l
xx T= =1 1
10
mm
x = = ±10
12, mm (mittlerer Fehler des arithmetischen Mittels aus zehnmaliger Messung)
x = (20,3156 ± 0,0012) m
4.7.1 Mittlerer Fehler des arithmetischen Mittels
nmm
n1m
n1m
n1m
mmm
n][
n1
n1
n1x
22n
222
221
22x
n21
n21
=
++
+
=
===
=+++=
L
K
Ll
lll
Mittlerer Fehler des arithmetischen Mittels von n unabhängigen Beobachtungen gleicher Genauigkeit:
mm
nx = (4.44)
Der mittlere Fehler nimmt bei der Mittelbildung nur mit der Wurzel aus der Anzahl n ab.
Für n = 100 ist
mm
mx = =100
1
10
4.7.2 Mittlerer Fehler einer Verbesserung Anwendung der angegebenen Möglichkeiten für v1:
( ) ( ){ }2i
2i
n21
11
E und Emit
n1
n1
n1x
xvF
ξ−=σξ=
+++=
+−==
ll
lll
l
L
Allgemein:
( )x,COV2mmmm 12x
21
21v
2F ll −+==
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 67
1.Möglichkeit:
21
n21
n211
n1)x,(Cov
n1
n1
n1x
00L
σ=
+++=
⋅++⋅+=
l
lll
lll
L
L
Da σ2 unbekannt ist, muss die Schätzung m2 benutzt werden. Schätzung der Kovarianz:
( )1,1fxF
mn1)x,L(Cov
T1
21
+−=+−=
=
l
Mm
m
nm
n
m
n
=
22
2 2
( )
m
22
2 2
2 2
1
1
1 1 11
0 11
m
nm
n
m
n
nm
nm
−
+
− + − +
−
( ) ( )
2v
2T2F mm)
n11(Mffm =−== (4.45)
2. Möglichkeit:
n21n2111 n1
n1
nn1
n1
n1
n1vF lllllll +++
−=++++−== LL
44444 344444 21
L
Werte1n
mn1 m
n1m
n)n1(m 2
n
22
2
22
12
22
F
−
++
+
−=
mmm 21 === K
222
22
2
22
22
22
F mn11m
nnnm
n1nnn21m
n1n
n)n1(m
−=
−=
−++−=
−+
−=
2v
22F mm)
n11(m =−= (4.46)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 68
4.7.3 Mittlerer Fehler aus gleichgewichtigen Beobachtungsdifferenzen, konstanter Fehleranteil Es liegen paarweise Beobachtungen vor, die alle die gleiche Varianz σ2 und paarweise gleiche Erwartungswerte haben.
l11 l12 d1 = l12 - l11 Ml l
111 12
2=
+ ξ1 σ
: : : : : :
: : : : : :
ln1 ln2 dn = ln2 - ln1 Ml l
nn n=
+1 2
2 ξn σ
1. Möglichkeit:
Erwartungswert: E(d) = δ = 0
md
n
d
nd
i22 2
=−
=[( )] [ ]δ
(mittleres Fehlerquadrat einer Differenz di)
m mm d
nd
d2 2 22 2
22 2
= → = = m[ ]
Mittlerer Fehler irgendeiner Beobachtung li1 oder li2:
md
n=
[ ]2
2 (4.47)
Mittlerer Fehler des arithmetischen Mittels eines Beobachtungspaares:
Ml l
ii i=
+1 2
2
mm d
nMi
= =2 4
2[ ] (4.48)
2. Möglichkeit:
Erwartungswert: E(d) = δ ≠ 0
Eine Schätzung für den Erwartungswert δ ist das arithmetische Mittel:
dd
nm =
[ ]
In der Regel ist dm ≠ 0.
Ursache: zufällige Messungenauigkeiten oder Modellfehler
Annahme: Die di enthalten alle einen konstanten Fehleranteil.
imi
mii
ddv
dvd
−=
=+
] [ ][ ]
vv dd
n= −2
2
(∆li → di ; ∆x → dm)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 69
′ =−
=−
−m
vv
n
dd
nn
d
[ ] [ ][ ]
1 1
22
(entspricht ± md)
′ =−
=−
−m
vv
n
dd
nn
[ ]
( )
[ ][ ]
( )2 1 2 1
22
(entspricht ± m)
′ =′
=−
−m
m dd
nn
Mi 2 4 1
22
[ ][ ]
( ) (entspricht ± mMi)
Neu hinzu kommt der mittlere Fehler m’dm des arithmetischen Mittels dm des konstanten Fehleranteils:
′ =′
mm
nd
dm
Kriterium für die Möglichkeit des Vorhandenseins eines konstanten Anteils:
[ ]( ) [ ] [ ]
( )[ ] [ ] [ ]
[ ] [ ]22
222
22
2
2
2dm
2m
dmm
dd
ddnd1n
ndd
1nn1
nd
'md
'md
≥
−≥−
−
−≥
≥
≥
Erst für [d]2 > [d2] lohnen sich Überlegungen, ob ein konstanter systematischer Fehleranteil in den Beobachtungspaaren vorhanden sein könnte.
Die Forderung m’ ≤ m führt zur gleichen Bedingung. Die Bedingung gilt auch für wahre Fehler E, versagte aber wegen [v] = 0 bei Verbesserungen.
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 70
Beispiel 4.2:
Berechnung mittlerer Fehler aus gleichgewichtigen Beobachtungsdifferenzen ohne systematischen Anteil
Messung von Polygonwinkeln
Nr.
i
Satz 1
li1
Satz 2
li2
d
li2 - li1
g g cc
1
2
3
4
5
6
7
8
9
10
198,2436
201,1638
187,7878
199,3586
221,6391
206,4356
191,2445
175,3008
230,5384
187,4638
198,2461
201,1642
187,7866
199,3578
221,6407
206,4338
191,2445
175,2978
230,5372
187,4664
+ 25
+ 4
- 12
- 8
+ 16
- 18
± 0
- 30
- 12
+ 26
∑ 1999,1760 1999,1751 [d] = - 9
[d]2 = 81 < [d2] Schätzung für einen eventuellen konstanten systematischen Anteil:
[ ]
,d
ncc= −09
Mittlerer Fehler eines einmal gemessenen Polygonwinkels:
mdd
ncc= ± = ±
⋅= ±
[ ]
2
3149
2 1013
Mittlerer Fehler für das Mittel aus 2 gemessenen Polygonwinkeln:
mm dd
nM
cc
i= ± = ± = ±
⋅= ±
2 4
3149
4 109
[ ]
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 71
Beispiel 4.3:
Berechnung mittlerer Fehler aus gleichgewichtigen Beobachtungsdifferenzen mit konstantem systematischen Anteil:
Längenmessung mit Stahlbändern
1. Messung bei heißem, sonnigem Wetter (t ≈ 30°)
2. Messung bei kühlem, regnerischem Wetter (t ≈ 15°)
Nr. 1. Messung
li1
2. Messung
li2
dj
li2 - li1
vi
dm - di
m m mm mm
1
2
3
4
5
6
7
8
9
141,367
168,439
163,672
144,458
168,123
154,345
142,463
164,768
168,946
141,399
168,449
163,692
144,493
168,160
154,368
142,491
164,776
168,967
+ 32
+ 10
+ 20
+ 35
+ 37
+ 23
+ 28
+ 8
+ 21
- 8
+ 14
+ 4
- 11
- 13
+ 1
- 4
+ 16
+ 3
∑ 1416,581 1416,795 [d] = + 214 [v] = + 2
[d]2 = 45796 ; [dd] = 5936 also [d]2 > [dd]
Schätzung für den systematischen Anteil:
dd
nmmm = =
+= +
[ ] 214
924
[vv] = 848 Probe: [vv] = [dd] - [ ]d
n
2
= 5936 - 5088 = 848
Mittlerer Fehler einer Differenz:
′ = ±−
= ±mvv
nmmd
[ ]
110
mittlerer Fehler des konstanten systematischen Anteils dm:
′ = ±′
= ±−
= ±mm
n
vv
nnmmd
dm
[ ]
( )13
Mittlerer zufälliger Fehler einer einmal gemessenen Srecke:
′ =′
= ±−
= ±mm vv
nmmd
2 2 17
[ ]
( )
Mittlerer zufälliger Fehler eines Mittels aus beiden Messungen:
′ =′
= ±−
= ±mm vv
nmmM
2
1
2 15
[ ]
( )
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 72
4.8 Beispiel zum allgemeinen arithmetischen Mittel mit Einführung eines Näherungswertes Die Höhe eines Punktes P wurde durch Nivellement von 6 verschiedenen Höhenfestpunkten aus bestimmt. Es sind die Höhe des Punktes P und ihr mittlerer Fehler sowie der mittlere km-Fehler des Nivellements zu berechnen.
Abbildung 4.1: Nivellement
HP = Hj + ∆hjP
Die Höhen der Festpunkte Hj sind fehlerfrei.
Annahmen:
• Nur zufällige unabhängige Fehler, ± m für einen Stand (keine Abhängigkeit von ∆h)
• Zielweiten ≈ gleich lang
Mittlerer Fehler des Höhenunterschiedes für einen Nivellementsweg s:
ms2= n m2
mit
ns
Z=
2 (Z = mittlere Zielweite)
ms
Zms
2 2
2=
Mit dem mittleren Fehler des Höhenunterschiedes für einen konstanten Nivellementsweg s0
ms
Zm0
2 0 2
2=
wird
m ms
ss2
02
0
=
2. Fall ist hier
Fs
si
i=0
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 73
Gewichtsansatz für ∆hjP:
pm
m
s
ss
s
= =02
2
0
Wird s0 gleich der Längeneinheit von s (z.B. km) gewählt, so ist m0 der mittlere Fehler des Höhenunterschiedes bei einem Nivellementsweg, der gleich der Längeneinheit ist, z.B. mittlerer km-Fehler, wenn der Gewichtsansatz
pskm
s =1
[ ]
benutzt wird.
Zug Hj ∆hjP Höhe von P s ∆l p
s=
1 p∆l v pv pvv
m m km mm mm mm mm2
1
2
3
4
5
6
49,048
51,171
47,398
50,421
50,876
50,002
+1,266
-0,864
+2,904
-0,104
-0,560
+0,307
50,314
307
302
317
316
309
2,5
4,0
5,0
0,9
1,0
1,8
+
14
7
2
17
16
9
0,4
0,2
0,2
1,1
1,0
0,6
+
5,6
1,4
0,4
18,7
16,0
5,4
-0,4
+6,6
+11,6
- 3,4
- 2,4
+ 4,6
-0,16
+1,32
+2,32
-3,74
-2,40
+2,76
0,064
8,712
26,912
12,716
5,760
12,696
[ ] 3,5 +47,5 +0,10 56,860
Näherungswert x0 = 50,300 m
xp l
pmm= =
+= +
[ ]
[ ]
,
,,
∆ 475
3 513 57
HP = x0 + ∆x = 50,300 + 0,014 = 50,314 m
Probe:
[pv] = „0“ = +0,10
[pvv] = 66,860 (direkt berechnet)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 74
Proben:
[pvv] = [p∆l∆l] - [ ]
[ ],
,
,,
∆lp
p
2 2
711500475
3 566 857= − =
[pvv] = [p∆l∆l] - [p∆l] ∆x = 711,500 - 47,5 ⋅ 13,57 = 66,925
Fehlerrechnung:
mpvv
nmm0
1
66 86
6 13 7= ±
−= ±
−= ±
[ ] ,, (für s = 1 km)
mpvv
p nmmx = ±
⋅ −= ±
⋅ −= ±
[ ]
[ ] ( )
,
, ( ),
1
66 86
3 5 6 120
Schlussergebnis:
HP = (50,314 ± 0,002) m
Der mittlere km-Fehler des Nivellements beträgt ± 3,7 mm.
4.9 Einige Beispiele für das Aufstellen der Fehlergleichungen
4.9.1 Beispiel: Winkelmessung
Abbildung 4.2: Winkelmessung
• Jede Beobachtung ergibt eine Fehlergleichung.
• Die Unbekannten müssen linear unabhängig sein. Diese Forderung bedeutet, dass nur die notwendige Anzahl von Unbekannten angesetzt werden darf.
• Die Wahl der Unbekannten ist an sich beliebig, aber nicht jede Wahl ist zweckmäßig.
Fall 1:
l1 + v1 =x1 ; p1
l2 + v2 = x2 ; p2
l3 + v3 = x3 ; p3
l4 + v4 = x1 + x2 ; p4
l5 + v5 = x2 + x3 ; p5
Fall 2:
l1 + v1 = y1 ; p1
l2 + v2 = -y1 + y2 ; p2
l3 + v3 = - y2+y3 ; p3
l4 + v4 = +y2 ; p4
l5 + v5 = -y1 +y3 ; p5
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 75
Normalgleichungen Fall 1:
A1
1 0 00 1 00 0 11 1 00 1 1
=
A AT1 1
2 1 03 1
2=
Normalgleichungen Fall 2:
A2
1 0 01 1 00 1 10 1 01 0 1
=−
−
−
A AT2 2
3 1 13 1
2=
− −−
da y1 = x1 ist, muss ( ) ( ), ,A A A AT T1 1 1 1
12 2 1 1
1− −= sein.
Probe durch Nachrechnen!
4.9.2 Beispiel: Richtungen und Strecken
Abbildung 4.3: Richtungen und Strecken
Beobachtungen: Unbekannte:
Richtungen r1, r2, r3, r4, r5, r6 z.B: s 1 = x1
Srecken s1, s2, s3 s 2 = x2
r 1 = x3
r 2 = x4
r 3 = x5
r 5 = x6
Vorteile: Unbekannte sind direkte Beobachtungen, gute Näherungswerte bei Linearisierung
Nachteil: komplizierte Funktionen der Unbekannten treten auf
Andere Wahl:
• Koordinaten von P1, P2, P3
• Willkürliche Festlegung: x1, y1, w1 = konst.
• Unbekannte dann: x2, y2, w2, x3, y3, w3 = 6 Parameter
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 76
4.10 m0 = Berechnung für eine Beobachtung der Ausgleichung vTPv-Kontrolle:
( ) ( )
l-llv
llllllv
ll
TT
TTTT
PAxPPv
PPAxPAxPAxAxAxPAxPv
PAPAxA;Axv
TT
TTTTTT
TT
=
+−−=−−=
=−=
mit
( ) ( ) ( ) llll-lll TTT
−=→=
−−−PAPAAPAPPAPAAPAPPAPAAx T1TT1TT1T
folgt
vTPv = lTP(E-A0)l
und mit
A0 = A(ATPA)-1 ATP
Folgt
( ) ( )
( )
i
i2i2
0
i2i0
20
ii
i2i2
i2i
ii0iii2ii
2i
iii0iii0i
rpv
m
pmpm
rppv
mE
))AE(Diagr(mit rppv
EAEAv
=
=
==
−==
−=−=
E
E
El
m02 = Varianz der Gewichtseinheit, abgeleitet für eine Beobachtung i aus vi
( )
il
l
∇−=
∇−=
−=
ii
iii
iii0i
rv
)Fehler groben für auch gilt (rv
EAv
E
E
Annahme
∇ = ∇
l li i
000
000
(eine Beobachtung grob falsch)
Kapitel 4: Ausgleichung nach vermittelnden Beobachtungen
Seite 77
m02 als Funktion von ∇li :
ml r p
rr li i i
ii i i0
22 2
2=∇
= ∇ p
Bei bekanntem m0 :
∇ = → ∇ =lm
r pl
m
r pi
i ii
i i
2 02
0
Übergang zu m02 der Gesamtausgleichung:
mv Pv
r
T
02 = (r Gesamtredundanz)
v Pv v pTi i
i
n= ∑
=
2
1 (bei P Diagonalmatrix)
Damit:
∑=⋅=
n
1i
2i0i
20 m r mr
r
m r m
n
1i
2i0i
20
∑= = (4.49)
m02 ist gewichtetes arithmetisches Mittel der m0i
2 , mit den Gewichten ri , da
rii
nr
=∑ =1
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 78
5 Rechentechnische Probleme bei der Ausgleichung nach vermittelnden Beobachtungen
5.1 Beispiel: Nivellementsnetz
Abbildung 5.1: Nivellementsnetz
Aufgabe:
Die Höhen der Punkte B, C und D über A, die zugehörigen mittleren Fehler sowie der ausgeglichene Höhenunterschied HC-HD mit mittlerem Fehler sind zu bestimmen.
Beobachtungsergebnisse:
km50,5sm139,5hkm25,4sm414,6hkm95,3sm563,11hkm15,7sm161,6hkm70,4sm570,12hkm25,6sm015,1h
66
55
44
33
22
11
============
Aufstellen der ursprünglichen Fehlergleichungen
a) Unbekannte seien die ausgeglichenen Höhenunterschiede
Aüber D von Höhehx
Aüber C von Höhehx
Aüber B von Höhehx
33
22
11
==
==
==
b) Ausdrücken der Beobachtungen durch die Unbekannten
pAxv8,1pxxvh4,2pxxvh5,2pxxvh4,1pxvh1,2pxvh6,1pxvh
63166
53255
42144
3333
2222
1111
=+=+−=+=−+=+=++=+=+=+=+=+=+=+
l
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 79
Die Gewichte errechnen sich nach
pkm
s kmi
i
=10[ ]
[ ]
m0 = mittlerer Fehler für 10 km Nivellementsweg
Einführung von Näherungswerten:
a) Als Näherungswerte für x1, x2 und x3 werden x01 = h1, x0
2 = h2 und x03 = h3 benutzt.
xxx
xxxhxxxxhxxxxhx
0
303333
202222
101111
+=
+=+=+=+=+=+=
b) Aufstellen der Fehlergleichungen mit Näherungswerten
i
603
01316
503
02325
402
01214
30333
20222
10111
)hxx(xxv)hxx(xxv)hxx(xxv
)hx(xv)hx(xv)hx(xv
l−
−+−++−=−−++−+=−+−++−=
−++=−++=−++=
44 344 21
( )l
l
l
434210
0
Ax~Axv
AxAxv
−−=
−+=
l−= Axv (5.1)
Umgeformte Fehlergleichungen in Matrizen:
+1
-1
-1
+1
+1
+1
+1
-1
+1
0
0
0
-8
-5
+7
-1
-1
-1
+8
+5
-7
1,6
2,1
1,4
2,5
2,4
1,8
A1 2444444 3444444
−l mm[ ]1 24 34
s1 24 34
Diagonalgliedervon P
−1 244 344
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 80
5.2 Aufstellen der Normalgleichungen
(ATPA)x - ATPl = 0 (5.2)
A PAT =− −
− −− −
59 25 1825 70 2418 24 56
, , ,, , ,, , ,
A PlT =−+−
74320246
,,,
lTPl = 308,2
5.3 Berechnung der Unbekannten; Gaußscher Algorithmus Normalgleichungen:
Nx - ATPl = 0 (5.3)
(ein Gleichungssystem, u - Unbekannte)
Gleichungssysteme zur Bestimmung der Gewichtskoeffizienten (Invertierung der Normalgleichungsmatrix):
NQ - E = 0 (u Gleichungssysteme, u2 Unbekannte)
Überführung durch Multiplikation mit einer Reduktionsmatrix in:
0RRNQ
0PRARNx T
=−
=− l
Wenn RN eine obere Dreiecksmatrix ist, so ergeben sich die Unbekannten x und Q durch rückwärtiges Einsetzen.
Inversion: (Gaußscher Algorithmus)
Nx = ATPl
Multiplikation mit Reduktionsmatrix R
R Nx = R ATPl
Damit Überführen in eine obere Dreiecksmatrix.
Dann rückwärtiges Einsetzen zur Bestimmung von xh … x1
Oder: Kramersche Regel
( ), , ,
, ,,
A PA QTxx
− = =
10 283 0155 0158
0 252 01580 297
x =−+−
103 03 4
,,,
[mm]
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 81
5.4 Proben, [pvv] aus den Fehlergleichungen, mittlere Fehler, Schlußergebnis
v = Ax – l (5.1)
v ai x1 bi x2 ci x3 -li [mm] vi [mm] pi pvv
1
2
3
4
5
6
-1,01
+1,01
+1,01
+3,04
+3,04
+3,04
-3,41
+3,41
-3,41
0
0
0
-8
-5
+7
-1,0
+3,0
-3,4
-3,9
+1,4
+4,6
1,6
2,1
1,4
2,5
2,4
1,8
1,63
19,41
16,28
39,00
5,05
38,09
[pvv] = 119,46
aus Algorithmus = 119,46
ATPv – Proben:
[ ][ ][ ] 03,028,848,377,4pcv
02,048,388,938,6pbv02,028,888,962,1pav
+=+−−=−=+−+=−=−+−=
Rechentechnisch günstiger ist es, diese Tabelle mit der Tabelle der umgeformten Fehlergleichungen zusammenzufassen.
Berechnung der endgültigen Unbekannten:
i xi0 [m] xi [mm] x i [m]
1
2
3
1,015
12,570
6,161
-1,0
3,0
-3,4
1,0140
12,5730
6,1576
Mittlerer Gewichtseinheitsfehler m0:
m0 bezieht sich auf ein Nivellement von 10 km Länge.
(Gewichtsansatz ps km
s km
km
s kmi
i i
= =0 10[ ]
[ ]
[ ]
[ ])
mpvv
n umm0
119 46
6 36 3= ±
−= ±
−= ±
[ ] ,,
Mittlerer Kilometerfehler:
mm
p= ± 0 (5.4)
mit
ps kmi
=10
[ ]
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 82
und si = 1 km ergibt sich der mittlere Fehler für ein Nivellement von 1 km Länge
mm
mm= ± = ±0
1020,
Mittlerer Fehler der Unbekannten:
mm4,32970,03,6Qmmmm2,32525,03,6Qmmmm4,32833,03,6Qmm
Qmm
3303x
2202x
1101x
ii0xi
±=⋅±=⋅=±=⋅±=⋅=±=⋅±=⋅=
⋅=
Schlussergebnis:
HB = ( 1,0140 ± 0,0034) m über HA
HC = (12,5730 ± 0,0032) m über HA
HD = ( 6,1576 ± 0,0034) m über HA
5.5 Mittlerer Fehler einer Funktion der ausgeglichenen Werte
321
32DC
x1x1x0F
?4154,61576,65730,12xxHH
⋅−⋅+⋅=
±=−=−=−
3323
23322222
13311221112
1FF
QfQff2QfQff2Qff2QfQ
+++++=
Hier:
m)003,04154,6(HH
mm0,32333,03,6Qmm
2333,02970,0)1581,0(22525,0QQ1Q2Q1Q
DC
FF0F
FF
332322FF
±=−
±=⋅±=⋅±=
+=++⋅−=⋅+⋅−⋅=
Berechnung der mittleren Fehler der ausgeglichenen Beobachtung:
AAQQ
Ax~v
xxll =
==+ ll (5.5)
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 83
Q
xx
−−
−
−−
−
1 0 0 1 0 10 1 0 1 1 00 0 1 0 1 0
1 0 00 1 00 0 11 1 00 1 11 0 0
?)A(Diag
PQA
0
ll0
=
=
5.6 Normalgleichungen aus Anteilen der Fehlergleichungen
2222
1111
PxAvPxAv
l
l
−=−=
=
=
=
=
2
1
2
1
2
1
2
1
PP
Pll
lAA
Avv
v
Bildung der Normalgleichungen:
(ATPA)x = ATPl
In Untermatrizen:
( ) ( )( )
PP
AA
ll
A A A P A A P A
A P l A P l
T T T T
T T
1
2
1
2
1
2
1 2 1 1 1 2 2 2
1 1 1 2 2 2
+
+
Damit Normalgleichungen:
(A1TP1A1 + A2
TP2A2) x = A1TP1l1 + A2
TP2l2
Allgemein aus:
iiii
1111
PxAv
PxAv
l
l
−=
−=
M
M
Normalgleichung:
A AkTk k
k
i
kTk k
k
iP A x P l
= =∑ = ∑1 1
(5.6)
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 84
5.7 Zusammenfassung von Beobachtungen
5.7.1 Mehrfache Messung der gleichen Größe
Abbildung 5.2: Mehrfache Messung der gleichen Größe
1i1i3i2i1i1i
ii3i2i1ii
p;xcxbxav
p;xcxbxav
+++ −++=
−++=
l
l
Das allgemeine arithmetische Mittel der Beobachtungen wird als abgeleitete Beobachtung in die Fehlergleichungen eingeführt.
1ii
1ii
1i1iii3i2i1i
ppp
)pp()pp(
xcxbxaV
+
+
++
+=
++
−++=ll
(5.7)
Anteile in den Normalgleichungskoeffizienten:
aus den Fehlergleichungen vi und vi+1 aus der Fehlergleichung V
)pp(a)pp(a
)pp(ba)pp(ba
)pp(a)pp(a
1i1iiii1i1iiii
1iiii1iiii
1ii2i1ii
2i
++++
++
++
+⋅=+⋅
+⋅=+⋅
+⋅=+⋅
llll
Aber!
)pp(
)pp(pp
1ii
21i1iii2
1i1i2ii
+
++++ +
+≠+
llll
Freiheitsgrade: n - u (n - 1) - u
Das System der V ist dem System der v äquivalent für die Berechnung der Unbekannten.
Für die Summe [pvv] ist es jedoch nicht äquivalent. Es ergibt sich eine andere Schätzung für σ02.
Wenn die Modellfehler gegenüber den zufälligen Fehlern klein sind, ist die Schätzung für σ02 mit der
größeren Anzahl von Freiheitsgraden repräsentativer.
5.7.2 Zusammenfassung von Messungen verschiedener Größen zur Elimination einer nicht überbestimmten Unbekannten
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 85
Abbildung 5.3: Überbestimmte Unbekannte
2232222
1121111
p;xcxbvp;xbxav
l
l
−+−=−+−=
Zusammenfassung durch Addition der beiden Fehlergleichungen:
21
2121321121
p1
p1
1p;)(xcxav+
=+−+−= ++ ll
Das Gewicht der Fehlergleichung v1+2 ergibt sich durch Anwendung des Fehlerfortpflanzungsgesetzes.
F = l1 + l2 1
pq
ii= ; mi
2 = m02qi
F
20
2F
21
2021
20
2i
20
22
21
2F
p1mm
p1
p1m)qq(mmmmmm
⋅=
+⋅=+⋅=⋅=+=
Gewichtsreziproke:
21F21F
qqqp1
p1
p1
p1
+=
=+=
Gewicht von F = l1 + l2:
21
F
21
F qq1q
p11
p1
p1
1p+
=
=
+= (5.8)
(Beweis durch Nachrechnen und Koeffizientenvergleiche der Normalgleichungsanteile.)
5.8 Verfahren zur partiellen Elimination von Unbekannten
5.8.1 Vorbemerkungen Bei manchen Aufgaben der Ausgleichungsrechnung ist es zweckmäßig, aus den Fehlergleichungen (oder aus einer Untergruppe der Fehlergleichungen) eine Unbekannte vorweg zu eliminieren. In der Vorlesung werden dazu zwei Rechenverfahren angegeben, nämlich:
a) das Eliminationsverfahren nach Schreiber,
b) das Verfahren der reduzierten Fehlergleichungen.
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 86
5.8.2 Das Eliminationsverfahren nach Schreiber Wir gehen aus von einer Gruppe bzw. Untergruppe von Fehlergleichungen bezüglich ungleichgewichtiger Beobachtungen bei beliebigen Koeffizienten der Fehlergleichungsmatrix.
vg = Agxg - lg (5.9)
Dabei ist
Aa
x
x
x
xx
x
l
ll
l
hba
hbahba
A
v
vv
v
1
n
2
1
g
n
2
1
g
nnn
222
111
g
n
2
1
g
−−
=
=
=
=
=MM
L
MMM
L
L
M
a ist der Koeffizientenvektor der zu eliminierenden Unbekannten x1 , A ist die Koeffizientenmatrix der übrigen Unbekannten x.
Es liege die Gewichtsmatrix Pg vor mit:
P
pp
pg
n
=
1
2O
Durch die Aufspaltung der Matrix Ag und des Vektors xg ergeben sich die Fehlergleichungen zu:
vg = ax1 + Ax - lg (5.10)
Einführen der Schreiberschen Verbesserungen vs :
vg - ax1 =: vs = Ax - lg (5.11)
Die Schreibersche Gleichung erhält man durch linksseitige Multiplikation von (5.11) mit aTPg :
aTPg vg - aTPg ax1 =: vs* = aTPg Ax - aTPg lg (5.12)
Unter Beachtung der ersten Normalgleichung aTPg vg = 0 ergibt sich:
- aTPg ax1 = vs* = aTPg Ax - aTPg lg (5.13)
Der Schreiberschen Gleichung wird das Gewicht
p* = -(aTPga)-1
zugeordnet.
Nach Einführen der Schreiberschen Verbesserungen (5.11) und der Schreiberschen Gleichung (5.13) geht das ursprüngliche Fehlergleichungssystem (5.10) in das System der Schreiberschen Rechengleichungen über:
v
v
A
a P A
l
a P l
P
P
s
sT
g
g
Tg g
s
g
− −
= − − −
− − − −
= − − − − − −
* *
|||
x P 0
0 (5.14)
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 87
Aus diesen Rechengleichungen bildet man nun formal die Normalgleichungen, aus denen die Unbekannten x bestimmt werden können (einmal reduzierte Normalgleichungen). Die vorwegeliminierte Unbekannte x1 kann aus der Schreiberschen Gleichung (5.13) bestimmt werden:
x1 = -vs* (aTPga)-1
mit
vs* = aTPgAx - aTPglg
Beweis dieses Rechenverfahrens:
Ausgehend von den Fehlergleichungen (5.10) werden die Normalgleichungen aufgestellt und daraus die Unbekannte x1 eliminiert. Das verbleibende System für die Unbekannten x muß dann mit dem aus den Rechengleichungen (5.14) gebildeten Normalgleichungssystem für x übereinstimmen.
Zu den Fehlergleichungen (5.10) gehört folgendes Normalgleichungssystem:
a P a a P A
A P a A P A
x
x
a P l
A P l
Tg
Tg
Tg
Tg
Tg g
Tg g
|||
− − − − − −
− − −
= − − −
1
bzw.
( )
( ) ggT
gT1
gT
ggT
gT
gT1
gT
gT
ggT
gT
1gT
gT1
gT
ggT
gT
1gT
PaaPA)aPa(PAxAPaaPA)aPa(APA
PAAxPAx)aPA(
aPA)aPa(PaAxPax)aPa(
ll
l
l
⋅−=⋅−+
=+
⋅−⋅=+
−−
−
Zu den Rechengleichungen (5.14) gehört folgendes Normalgleichungssystem:
Die Normalgleichungsmatrix N ergibt sich als folgendes Matrizenprodukt
( )( ) ( )
0
p
N
A
P A
a P A
A A P a A P A P ap
P A p A P a a P A
g
Tg
T Tg
Tg
Tg
Tg
Tg
Tg
|||
| |
*
*
*
− − − − − −
− − −
↑
+
0
Für den Vektor der rechten Seiten ergibt sich analog:
ATPglg + p*ATPga aTPglg
Unter Beachtung von p* = (aTPga)-1 wird die Übereinstimmung beider Normalgleichungssysteme klar.
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 88
Berechnung von vgTPgvg:
Es gibt dazu 2 Möglichkeiten:
• aus den ursprünglichen Fehlergleichungen (5.10). Dabei müssen alle Unbekannten zuvor berechnet werden;
• aus den Schreiberschen Rechengleichungen (5.14)(Anzahl n+1) nach der Formel:
[ ] [ ] **s
*sgssggg
*s
1g
T*ssg
Tsgg
Tg
pvvPvvPvv
oder
v)aPa(vvPvvPv
+=
−+= −
(5.15)
Beweis von (5.15) durch Einsetzen von (5.11) und (5.13):
0
.d.e.qvPax2vPvaPax)axv(P)axv(vPv ggT
1ggTgg
T211gg
T1
Tggg
Tg
=
−=−−−=43421
5.8.3 Das Verfahren der reduzierten Fehlergleichungen Wir gehen aus von den Fehlergleichungen (5.10) unter Beachtung der in den Vorbemerkungen getroffenen Voraussetzungen:
• Pg = P
• a = einspaltige Matrix
Die übrigen benötigten Bezeichnungen werden übernommen.
Damit ergeben sich folgende Fehlergleichungen:
vg = ax1 + Ax - lg (5.16)
Unter Verwendung der ersten Normalgleichung:
aTPvg = 0
ergibt sich in Analogie zur Schreiberschen Gleichung (5.13) durch Linksmultiplikation von (5.16) mit aTP folgende Summengleichung:
aTPax1 + aTPAx - aTPlg = 0 | : aTPa
x1 + 1
a PaT aTPAx - 1
a PaT aTPlg = 0 (5.17)
Um aus (5.16) und (5.17) die Unbekannte x1 vorwegeliminieren zu können, wird (5.17) von links mit a durchmultipliziert:
ax1 + 1
a PaT aaTPAx - 1
a PaT aaTPlg = 0 (5.17)
Durch Subtraktion dieser Gleichungen von den Fehlergleichungen (5.16) ergeben sich die reduzierten Fehlergleichungen:
vg = (A - 1
a PaT aaTPA) x - (lg - 1
a PaT aaTPlg) (5.18)
Kapitel 5: Rechentechnische Probleme bei der Ausgleichung bei vermittelnden Beobachtungen
Seite 89
Bildet man aus den reduzierten Fehlergleichungen (5.18) die Normalgleichungen zur Bestimmung von x, so ergibt sich unmittelbar dasselbe einmal reduzierte Normalgleichungssystem.
Die vorwegeliminierte Unbekannte x1 ergibt sich aus der Summengleichung (5.17):
x1 = - 1
a PaT (aTPAx - aTPlg)
Fehlerrechnung:
Die reduzierten Fehlergleichungen (5.18) und die ursprünglichen Fehlergleichungen (5.16) führen auf ein- und dieselbe Quadratsumme der Verbesserungen. Durch die Subtraktion der Summengleichung (5.17) (die ja den Wert 0 hat) von jeder Fehlergleichung ändern sich nämlich die Verbesserungen der ursprünglichen Fehlergleichungen nicht.
Kapitel 6: Sonderformen der Ausgleichung
Seite 90
6 Sonderformen der Ausgleichung
6.1 Ausgleichung nach bedingten Beobachtungen Nach HELMERT „Ausgleichungsrechnung“: „Man spricht von bedingten Beobachtungen, wenn zwischen „wahren Werten“ der Beobachtungsgrößen Bedingungsgleichungen bestehen, die auch von ihren ausgeglichenen Werten streng zu erfüllen sind“.
Solche Bedingungen kommen zustande aufgrund eines mathematischen Modells, in dem ein geometrischer, geophysikalischer oder geodynamischer Zusammenhang beschrieben wird und in dem mehr Größen gemessen wurden, als zur eindeutigen Festlegung des mathematischen Modells notwendig sind.
Typische Beispiele für solche -nichtlinearen oder linearen- Bedingungsgleichungen sind
Beispiel 6.1: Winkelsumme im ebenen oder sphärischen Dreieck
(lα + vα) + (lβ + vβ) + (lγ + vγ) = 180° + sphärischer Exzess
Abbildung 6.1Winkelsumme im Dreieck
Beispiel 6.2: Beobachtung überschüssiger Winkel auf einer Station
(l1 + v1) + (l2 + v2) - (l3 + v3) = 0
Abbildung 6.2: Winkelmessung
Jede über die zur eindeutigen Festlegung des mathematischen Modells notwendige Anzahl von Beobachtungen hinausgehende Beobachtung (jede überschüssige Beobachtung) liefert eine Bedingungsgleichung.
Analog zur vermittelnden Ausgleichung erfolge die Ausgleichung derart, dass:
• die ausgeglichenen Beobachtungen die Bedingungen exakt erfüllen,
• die Summe der quadratischen, gewogenen Verbesserungen minimal werde: [vvp] -> min.
Kapitel 6: Sonderformen der Ausgleichung
Seite 91
6.2 Herleitung der Gebrauchsformeln für die bedingte Ausgleichung
6.2.1 Allgemeiner, nichtlinearer Ansatz zur Aufstellung von Bedingungs-, Korrelaten- und Normalgleichungen
In einem r-fach überbestimmten System seien die
• n Größen l1 , l2 , … , ln mit den
• Gewichten p1 , p2 , … , pn
unmittelbar beobachtet worden. Im Falle gegenseitig abhängiger Beobachtungen sei die Kovarianzmatrix Kl,l bzw. die Kofaktorenmatrix Ql,l bekannt.
Durch Entfernen der r überschüssigen Beobachtungen wird das System in ein eindeutig bestimmtes Hauptsystem mit m Beobachtungen überführt. Dann besteht zwischen n, m und r der Zusammenhang:
Anzahl aller Beob. - Anzahl notw. Beob. = Anzahl der Bedingungsgleichungen
n - m = r
Zwischen den ausgeglichenen Beobachtungen bestehen die Bedingungsgleichungen:
f(l ) = f(l+v) = s (6.1)
Ausführlich:
rnn2211r
2nn22112
1nn22111
s)v,,v,v(f
s)v,,v,v(f
s)v,,v,v(f
=+++
=+++
=+++
lll
lll
lll
K
M
K
K
Bemerkungen:
• Zu ein- und demselben Ausgleichungsproblem gibt es immer mehrere Hauptsysteme. Entsprechend gibt es zu einem Ausgleichungsproblem immer mehrere äquivalente Systeme von Bedingungsgleichungen, die zur gleichen Lösung des Ausgleichungsproblems führen. Die Auswahl eines „geeigneten“ Hauptsystems und damit eines Systems von Bedingungsgleichungen unter den verschiedenen möglichen kann unter Gesichtspunkten der numerischen Rechnung erfolgen.
• Bei richtiger Auswahl der Bedingungsgleichungen sind diese gegenseitig unabhängig ↔ Determinante der
Jakobimatrix ∂
∂
f l
l
( )
• ist ungleich 0, oder der Rang der Jakobimatrix ist gleich der Anzahl ihrer Zeilen.
• Umgekehrt bedeutet dies: Wenn die Bedingungsgleichungen nicht richtig aufgestellt werden, so können sie gegenseitig abhängig sein und der Rang der Jakobimatrix wird kleiner als die Anzahl ihrer Zeilen. Dann wird das zugehörige Normalgleichungsystem singulär und damit seine Lösung mehrdeutig.
• Nach der Aufstellung richtiger Bedingungsgleichungen und nach ihrer Linearisierung ist das weitere Vorgehen mehr oder weniger Routinearbeit.
Kapitel 6: Sonderformen der Ausgleichung
Seite 92
Die Bedingungsgleichungen sollen mit der Nebenbedingung:
vTPv = (l -l)T P (l -l) => min.
erfüllt werden.
Ansatz nach Lagrange mit den Lagrangeschen Multiplikatoren:
Funktion, welche zu minimieren ist:
Φ = vTPv - 2kT (f(l+v) - s) (6.2)
bzw.
0s))(f(
0k)(f2)(P2
s))(f(k2)(P)()k,( TT
==∂Φ∂
=
∂
∂−−=
∂Φ∂
−−−=Φ=Φ
-lk
ll
lll
-llllll
Damit bekommt man die nichtlinearen Gleichungen
r! Anzahls)(f
n! Anzahlk))(f(P 1
=
=∂
∂− −
l
lll
l (6.3)
D.h. man bekommt ein nichtlineares Gleichungssystem mit n Unbekannten l und weiteren r Unbekannten k!
Mit der in der Ausgleichung üblichen Abkürzung für die Jakobimatrix:
∂
∂
f l
lB
a a a
b b b
r r r
n
n
n
( ): := =
1 2
1 2
1 2
L
L
M
L
(6.4)
also
Bf l
l
a b r
a b r
a b r
T
n n n
= =
∂
∂
( )
1 1 1
2 2 2
L
L
M
L
(6.5)
Kapitel 6: Sonderformen der Ausgleichung
Seite 93
Die Gleichungen zur Ermittlung der ausgeglichenen Beobachtungen und der Korrelaten sind dann
nrn
n2
n
n1
n
nn
2r2
22
2
21
2
22
1r1
12
1
11
1
11
kpr
kpb
kpa
kpr
kpb
kpa
kpr
kpb
kpa
ll
ll
ll
=⋅−−⋅−⋅−
=⋅−−⋅−⋅−
=⋅−−⋅−⋅−
K
K
K
rn21r
2n212
1n211
s),,,(f
s),,,(f
s),,,(f
=
=
=
lll
lll
lll
K
M
K
K
(6.6)
6.2.2 Linearisierung und üblicher linearer Ansatz
l i = li + vi <==> l = l + v (6.7)
∂
∂
∂
∂
f l
l
fl
lB
( ) ( ):≈ = (4.41)
Damit kann man insbesondere setzen
r l flfl
lv( ) ( ) (
( ))= + ⋅
∂
∂ (Linearisierung nach Taylor)
Damit wird aus den obigen Gleichungen
w)(fsk)BPB(
svB)f(
kBPvkBPv
1T
T
11
=−=
=+
⋅=⇒=⋅−+
−
−−
l
l
ll
(6.8)
Man bekommt damit die Gebrauchsgleichungen.
Nichtlineare Bedingungsgleichungen:
f(l ) = f(l + v) = s (6.1)
Linearisierung mit Hilfe der Jakobimatrix
∂
∂
fl
lB
( )= (4.41)
(Hier liegt die Abweichung zur „exakten nichtlinearen Lösung!!)
Definition der Widersprüche:
s - f(l) := w (6.9)
Kapitel 6: Sonderformen der Ausgleichung
Seite 94
Normalgleichungen:
(BTP-1B)⋅k = w (6.10)
Korrelatengleichungen:
v = P-1B⋅k (6.11)
Berechnungsprobe:
Einsetzen der aus v = P-1B⋅k ermittelten Verbesserungen in die linearisierten Verbesserungsgleichungen
BTv = w (6.12)
Einsetzen der ausgeglichenen Beobachtungen in die ursprünglichen nichtlinearen Bedingungsgleichungen
f(l + v) = f(l ) = s (6.1)
Kontrolle nach den Regeln der nichtlinearen Bedingungsausgleichung: Einsetzen in die linearen Korrelatengleichungen, jedoch mit an der Stelle l ermittelten Jakobimatrix
l Pf l
lk l
l P B k l
− ⋅ =
− ⋅ =
−
−
1
1
(( )
)∂
∂ (6.13)
Diese letzte Probe bleibt auch bei beliebig großen v = (l -l) gültig, d.h. v = P-1B ⋅k zusammen mit f(l) = s ist die umfassende Kontrolle!
6.2.3 Ermittlung der Verbesserungen und der [vvp] • durch Bildung von vTPv mit den aus v = P-1B⋅k ermittelten Verbesserungen
• durch Bilden von vTPv aus Korrelaten und Widerspruch mit
v P B k
v k B PPv k B P PP B k
T T T
T T T= ⋅
=
= ⋅
−
−
− −1
1
1 1
v
v Pv k B P B kw
k w w kT T T T T= ⋅=
= =−( )11 244 344 (6.14)
Kapitel 6: Sonderformen der Ausgleichung
Seite 95
6.2.4 Zusammenstellung der linearen Beziehungen bei der Ausgleichung nach bedingten Beobachtungen
Die nachfolgend in Tabelle 6-1 zusammengestellten linearen Beziehungen gelten gegebenenfalls nach Linearisierung der nichtlinearen Bedingungsgleichungen.
1 l
2
w
3
k
4
v
5
l
1
l =
E⋅l
2
w =
s - BTl
(s - f(l))
E⋅w
(BTP-1B)k
BTv
3
k =
(BTP-1B)-1 (s-BTl)
= -(BTP-1B)-1 BTl
+ (BTP-1B)-1 s
(BTP-1B)-1 ⋅w
E⋅k
(BTP-1B)-1⋅BTv
4
v =
-P-1B(BTP-1B)-1 BTl
+ P-1B(BTP-1B)-1⋅s
= -B0l + s
P-1B(BTP-1B)-1
⋅w
P-1B⋅k
E⋅v
B0⋅v
5
l =
(E-P-1B(BTP-1B)-1B)l
+ s
= (E - B0)l + s
E⋅l
(E - B0)⋅l
+ s
Tabelle 6-1: Lineare Beziehungen bei bedingtenBeobachtungen
Für die „spezielle Einheitsmatrix“ B0 := P-1B(BTP-1B)-1BT gilt:
a) BTB0 = BT (Name „spezielle Einheitsmatrix“!)
b) (B0)n= B0 Idempotenz. Beweis durch Nachrechnen bzw. vollständige Induktion
c) B0⋅v = v ⇒
B0⋅v = λ⋅v für λ = 1
d.h. die v sind Eigenvektoren von B0 für λ = 1
d) l = (E-B0)⋅l+s ⇒
(E-B0)⋅l = λ⋅l+s
d.h. die l sind -bis auf konstanten Vektor s - Eigenvektoren von (E-B0) für λ = 1
e) B0 besitzt nur die Eigenwerte 0 und 1:
Kapitel 6: Sonderformen der Ausgleichung
Seite 96
Für einen Eigenwert mit dem zugehörigen Eigenvektor muss nämlich gelten:
(**)xxBxBxBB
(*)xxB
20000
0
λ=⇒λ=
λ=
Gleichsetzen von (*) und (**) liefert:
λ⋅x = λ2⋅x
Diese Gleichung ist nur dann erfüllt, wenn λ = 1 oder λ = 0.
Die Tabelle ergibt sich durch elementare lineare Umformungen aus den oben hergeleiteten Grundformeln und kann leicht nachgerechnet werden.
Sie erlaubt dann insbesondere durch Anwendung des Fehlerfortpflanzungsgesetzes alle bei bedingten Beobachtungen auftretenden Kofaktoren zu ermitteln. Dazu siehe Tabelle 6-2.
Kapitel 6: Sonderformen der Ausgleichung
Seite 97
6.2.5 Kofaktoren von Größen, welche aus der Ausgleichung hervorgehen In völliger Analogie zu dem Kapitel der vermittelnden Ausgleichung stellt dieses Kapitel eine Anwendung des Fehlerfortpflanzungsgesetzes dar.
Unter Verwendung der linearen Beziehungen aus Tabelle 6-1 erhält man dann sofort die nachfolgende Tabelle 6-2.
Zusammenstellung aller Kofaktoren:
1 l
2
w
3
k
4
v
5
l
1 l
Ql,l = P-1
Ql,w = -P-1B
Ql,k = -P-1B⋅ (BTP-1B)-1
Ql,v
= -P-1B(BTP-1B)-
1⋅BTP-1
P-1-P-1B
⋅(BTP-1B)-1⋅BTP-1
2
w
Qw,l = -BTP-1
(BTP-1B)
E
BTP-1
0
3
k
-(BTP-1B)-1
⋅BTP-1
E
(BTP-1B)-1
(BTP-1B)BTP-1
0
4
v
-P-1B(BTP-1B)-1
⋅BTP-1
P-1B
P-1B(BTP-1B)-1
P-1B(BTP-1B)-1
⋅BTP-1 = B0P-1
0
5
l
P-1-P-1B
⋅(BTP-1B)-1BP-1
= (E - B0)P-1
0
0
0
P-1 - Qv,v
Tabelle 6-2: Kofaktoren bei bedingten Beobachtungen
Kapitel 6: Sonderformen der Ausgleichung
Seite 98
6.3 Beispiel
Abbildung 6.3: Höhenbestimmung
Beobachtete Höhenunterschiede:
h1 = 1.015 m ; s1 = 6.25 km
h2 = 12.570 m ; s2 = 4.7 km
h3 = 6.161 m ; s3 = 7.15 km
h4 = 11.563 m ; s4 = 3.95 km
h5 = 6.414 m ; s5 = 4.25 km
h6 = 5.139 m ; s6 = 5.50 km
Hauptsystem: h1, h2, h3
n = 6 Anzahl der Beobachtungen
u = 3 Anzahl der Unbekannten
r = n-u = 3 Anzahl der Bedingungsgleichungen
Bedingungsgleichungen:
allgemein:
f(l ) = f(l+v) = s (6.1)
wvB0vhvhvh0vhvhvh0vhvhvh
T665544
114422
225533
==−−−−+=−−−−+=−−+++
wB
hhhhhhhhh
vvvvvv
111000
001011010110
T
465
241
352
6
5
4
3
2
1
−+−+−−
=
−−−−
−
Kapitel 6: Sonderformen der Ausgleichung
Seite 99
Gewichtsansatz:
P-1 ∼ S
P-1 = [6.25; 4.7; 7.15; 3.95; 4.25; 5.50]
Rechenformeln:
B P B kv
wT − ⋅ =1124 34 (6.10)
(Normalgleichungen)
kwPvv
v
BkPv
w)BPB(k
TT
1
11T
=
+=
=
=
−
−−
ll
Zahlenrechnung:
B P BT − =
− −
− −
− −
1
161 47 425
47 149 395
425 395 137
. . .
. . .
. . .
Det(BTP-1B) = 2306
Nebenrechnung:
4
4
161 149 13 7 395 395
1885
30353
7 47 137 395 425
812
3816
25 47 395 149 425
819
3481
23056
, ( , , , , )
,
,
, ( , , , , )
,
,
, (, , , , )
,
,
,
⋅ − ⋅ =
+ − ⋅ − ⋅−
= −
− ⋅ + ⋅−
= −
=∑
6 744444 844444
6 744444 844444
6 744444 844444
( )
, ,
,BTP B− − =1 1 12306
188 812 819
202 836
218
w =−+−
5
8
10
[mm]
(Widerspruchsvektor)
k =−
−
0481
0462
0833
,
,
,
[mm]
Kapitel 6: Sonderformen der Ausgleichung
Seite 100
vT = [ -1,0 +3,0 -3,4 -3,9 +1,5 +4,6] [mm]
Ausgeglichene Höhenunterschiede:
m143,5hm415,6hm599,11hm157,6hm573,12hm014,1h
66
55
14
63
2
1
======
.k.o12,011,9
)(KontrollekwPvv?
TT
=
=
Fehlerrechnung:
km/mm2m
43
0,12rPvvm
0
T2
0
±=
===
0
T11T1vv
1T11T1vv
BB)BPB(BPPQ
PB)BPB(BPQ
==
=
−−−
−−−−
Diagonale von Qv,vP --> Redundanzanteile:
)0,3Soll(9,2)PQ(SpurBP
0,430,45
0,430,58
0,460,55
50,50025,4025,4
95,395,300015,707,47,4025,60
1110 0 0 00 1011 0 10 110
)BPB(
B
vv1
11T
T
=
=
−−
−
−−
−−−−
−
−
−−
[ ]14,334,225,200,354,281,2)Q(Diag
P)PQE(QPQ
ll
1vvvv
1ll
=
−=−= −−
Kapitel 6: Sonderformen der Ausgleichung
Seite 101
mm5,3m
mm1,3m
mm0,3m
mm5,3m
mm2,3m
mm4,381,20,2Qmm
6h
5h
4h
3h
2h
ll01h
±=
±=
±=
±=
±=
±=⋅±==
6.4 Vermittelnde Ausgleichung mit Bedingungen zwischen den Unbekannten Beispiel 6.3:
Abbildung 6.4: Dreieck
Beispiel 6.4: Koordinatentransformation
Abbildung 6.5: Koordinatentransformation
Bedingungen:
)Parameter4( 0db
0ea−
=−
=+
a2 + b2 = 1 (3-Parameter)
Gemessen: α, β, γ
α + vα = x
β + vβ = y
γ + vγ = z
x + y + z = 200
Kapitel 6: Sonderformen der Ausgleichung
Seite 102
6-Parameter-Transformation:
xi + vxi = aξi + bηi + c
yi + vyi = dξi + eηi + f
4-Parameter-Transformation:
xi + vxi = aξi + bηi + c
yi + vyi = bξi - aηi + d
3-Parameter-Transformation:
xi + vxi = ξi cosϕ + ηi sinϕ + c
yi + vyi = ξi sinϕ - ηi cosϕ + d
Ansatz:
v f x l
g x c= −=
( ) ~
( ) ~ nicht linear (6.15)
Linearisierung:
cxC
xAv
T =∆
−∆= l (6.16)
Lösung:
Φ ≡ vTPv + 2kT (CT∆x - c) => min (6.17)
bzw.
Φ ≡ (∆xTAT - lT) P (A∆x - l) + 2kT (CT∆x - c) => min
0cxC0k
PA2Ck2PAAx20x
T
TTTTT
=−∆→=∂Φ∂
=+∆→=∆∂Φ∂
l
(**)cxC
PAkCxPAA
T
TTT
=∆
=+∆ (*)l
Normalgleichungsmatrix:
A PA CC
T
T 0
(6.18)
Fälle:
• ATPA singulär: Gauß-Algorithmus mit Pivotisierung
oder Zeilen-Spalten-Tausch und Gesamtsystem lösen (invertieren)
• ATPA regulär: (ATPA)-1 existiert
Kapitel 6: Sonderformen der Ausgleichung
Seite 103
Elimination von ∆x: (*) mit CT(ATPA)-1 von links multiplizieren und (**) subtrahieren
( ) ( )cPA)PAA(CC)PAA(Ck
cPA)PAA(CCk)PAA(C
T1TT11TT
T1TT1TT
−=
−=
−−−
−−
l
l
k eingesetzt:
∆x = (ATPA)-1 (ATPl-C k) (6.19)
Berechnung der Kofaktorenmatrizen von k und x:
Qkk und Qxx sind Teilmatrizen aus
A PA CC
T
T 0
1
−
11T11T1T11Tkk
T1T11T
11T
)CNC(CPANPPANC)CNC(Q
constPANC)CNC(k
N)PAA(
−−−−−−−
−−−
−−
=
+=
=
l
11Tkk )CNC(Q −−= (6.20)
1T11T11xx NC)CNC(CNNQ −−−−− −= (6.21)
kcxPAPPvv
CkxxPAPPvv
PAxCkxPAxxPAPPvv
CkPA
PAxxPAAxxPAPPvv
)xA(PAxxPAPPvv
PxPA)xA(PPvPv
PvxPAv)xA(PvPvv
TTTT
TTTT
TTTTTTTT
T
TTTTTTT
TTTTT
TTTTT
TTTT
−∆−=
∆−∆−=
∆−∆−∆+∆−=
−
∆−∆∆+∆−=
−∆∆+∆−=
−∆=−∆==
−∆=−∆=
lll
lll
lllll
l
llll
llll
lllllll
ll
43421
xPAPPvv TTT ∆−= lll (6.22)
(gilt bei vermittelnden Beobachtungen)
Beispiel 6.5:
Beobachtungen:
α = 45,02 gon
β = 55,03 gon
γ = 100,01 gon
Kapitel 6: Sonderformen der Ausgleichung
Seite 104
Abbildung 6.6: Winkelsumme im Dreieck
vα = x - α
vβ = y - β
vγ = z - γ
x + y + z = 200 gon
Linearisierung: x0 = 45 g , y0 = 55 g , z0 = 100 g
vα = ∆x - 2 c
vβ = ∆y - 3 c
vγ = ∆z - 1 c
∆x + ∆y + ∆z = 0
A =
11
1 , CT = [ 1 1 1 ] , P = E
ATPA = E , (ATPA)-1 = N-1 = E
3k = 6
k = 2
∆∆∆∆
x l Ckxyz
= − =
−
=
−
=
231
222
011
x = 45 g
y = 55,01 g
z = 99,99 g
vTPv = 14 - 2 = 12
Kontrolle:
v
v
v
PvTα
β
γ
= −= −
= −
=2
2
2
12
v
6.5 Bedingungsgleichungen mit Unbekannten Ansatz:
flx u( ,) = (6.23)
(implizit)
l g x= ( ) (6.24)
(explizit)
Kapitel 6: Sonderformen der Ausgleichung
Seite 105
Abbildung 6.7: Ausgleichende Gerade
∑ ⇒+
+=
+=
.minvv
vvv
baxy
2yi
2xi
2y
2x
2s
Annahme:
• x fehlerfrei
y v xa by+ = + (vermittelnd)
• y beobachtet
• x,y beobachtet
y v ax v by x+ = + +( ) (bedingte Ausgleichung mit Unbekannten)
Linearisieren der Bedingungsgleichungen mit l, x0 :
∂
∂
∂
∂
f
lv
f
xx u fl x
B v A x wT
+ = −
+ =
∆
∆
( , )0 (6.25)
Bei schlechten Näherungswerten kann es notwendig sein, an der Stelle der verbesserten Beobachtungen
l l v1 1= +
zu linearisieren.
v1 = Verbesserung aus der 1. Iteration
Kapitel 6: Sonderformen der Ausgleichung
Seite 106
∂
∂
∂
∂
f
ll
f
x11 1 1
1
1
∆ ∆+ = −
=
=
x u fl x
l l
x x
( , )
mit
v v l v v= + → = −1 1∆ ∆ l
{ {
∂
∂
∂
∂
∂
∂
f
l
f
x
f
lB AT
v x u fl x v
w
+ = − +∆ ( , )1 1 11 24444 34444
Minimierung von v pvT :
(III) 0A2k- 0x
(II) 0wxAvB 0k
(I) BkPv 0Bk2P2v 0v
.min)wxAvB(k2pvv
T
T
1TTT
TTT
=→=∆∂Φ∂
=−∆+→=∂Φ∂
=→=−→=∂Φ∂
⇒−∆+−=Φ
−
(I) in (II) eingesetzt:
B P Bk A x w
A k
T
T
− + =
=
1
0
∆ (6.26)
=
∆
=
∆
−−
−
0w
0AABPB
xk
0w
xk
0AABPB
1
T
1T
T
1T
Elimination von k:
A B P B A x A B P B w
B P B w A x
v P Bk
T T T T
T
( ) ( )
( ) ( )
− − − −
− −
−
= →
= −
=
1 1 1 1
1 1
1
∆ ∆
∆
x
k
Vorsicht bei Linearisierung:
l l v x x1 1 0 1= + = + , x1 ∆
∆x v1 1, aus der 1. Iteration
∂
∂
∂
∂
f
ll
f
xx w
11
11∆ ∆+ =
Kapitel 6: Sonderformen der Ausgleichung
Seite 107
mit v v l PvT2 1 1 2 2= + ⇒∆ , v min.
∂∂
∂∂
∂∂
f
ll vv
fx
x wf
lv
11 1
1 11
2
( )∆ ∆+ + = +1 24 34
damit korrekte Ausgangsgleichung.
Ableitung der Kofaktoren der ausgeglichenen Beobachtungen und der Unbekannten:
Rechengang: Fehlerfortpflanzung
Q x x∆ ∆ ?
111TTxx
llT
wwT
0
111TT11Tww
11TT111TTxx
11TT111TT
)A)BPB(A(Q
BQBQlBw
)x,l(fuw
)A)BPB(A(A)BPB(Q
)BPB(A)A)BPB(A(Q
w)BPB(A)A)BPB(A(xmit
−−−∆∆
−−−−−
−−−−−∆∆
−−−−−
=
=→∆=
−=
⋅=
=∆
Schätzung des mittleren Fehlers der Gewichtseinheit:
mv Pv
r
T
0 = (6.27)
r = Anzahl der Bedingungsgleichungen - Anzahl der Unbekannten
PvvT mit BkPv 1−= :
BkPBkBkPPPBkPvv 1TT11TTT −−− ==
Mit
xAwBkPB 1T ∆−=−
gilt:
xkAwkPvv TT ∆−=
Und mit
0kAT =
wird
wkPvv TT = (6.28)
Kapitel 6: Sonderformen der Ausgleichung
Seite 108
Übergang zur vermittelnden Ausgleichung:
Bemerkung: Die Normalgleichungen für ∆x entsprechen den Normalgleichungen der vermittelnden Ausgleichung für P B P BT= − −( )1 1
Ansatz:
{B v A x wT
sv
+ =∆ (6.29)
Zusammenfassung:
B v vTs= (6.30)
Minimum:
v Pv v P v
s fl x u
s B l
TsT
ss s
T
=
= −
=
( , )
∆ ∆
Q B Q B B P B P B P BssT
llT
ssT= = → =− − −1 1 1( ) (6.31)
Damit Minimum:
s11TT
ssssTs
T v)BPB(vvPvPvv −−==
Mit
11Tss
Ts )BPB(P ; vBv −−==
gilt:
Bv)BPB(BvPvv 11TTTT −−= (6.32)
Nachträgliche Berechnung der Verbesserungen v aus vs:
Ansatz:
B v vTs= (6.30)
vs = Sollwerte entsprechen w bed. Ausgleichung
Kapitel 6: Sonderformen der Ausgleichung
Seite 109
6.6 Allgemeinfall Bedingte Ausgleichung mit Unbekannten, Bedingungen zwischen Unbekannten
Ansatz:
fl x u
g x c
( , )
( )
==
(6.33)
nach Linearisierung:
B v A x w
C x c
T
T
+ =
=
∆
∆ (6.34)
Normalgleichungssystem:
=
∆
−
c0w
kk
x
00CCA00BPBA
2
1T
T
1T
6.7 Anwendungsbeispiele
6.7.1 Ausgleichende Gerade x, y fehlerbehaftet
min v vx yi i
2 2+∑
Ansatz:
y v ax v by x+ − + − =( ) 0 (6.35)
Linearisieren mit a b x yi i0 0, , ,
v a v x a b a x b y
v a v x a b a x b yy x i i i
y x i i i
i i
i i
− − − = + −
− − − = + −+ + + + +
0 0 0
0 1 0 1 0 11 1
∆ ∆
∆ ∆
B
a
a
a
A
x
x
x
x
a x b y
a x b y
a x b y
a x b y
T o
o
n n n
=
−−
−
=
− −− −− −
− −
=
+ −+ −+ −
+ −
1
1
1
1
1
1
1
0
1
2
3
0 1 0 1
0 2 0 2
0 3 0 3
0 0
O
M M
w
B P B a E
B P Ba
E
To
T
o
−
− −
= − ⋅
=−
⋅
1 2
1 12
1
1
1
( )
( )( )
Kapitel 6: Sonderformen der Ausgleichung
Seite 110
Normalgleichungen:
A A x A wT T∆ = (6.36)
Bemerkung: Das gleiche Normalgleichungssystem erhält man auch aus Ansatz:
v x a a b y xa b
v
y
y
= + − − −∆ ∆ ( )
min
0 0
vyT
A
x
x
x
y x a b
y x a b
y x a bn n n
=
=
− −− −
− −
1
2
1 1 0 0
2 2 0 0
0 0
1
1
1
M M M l
A A x A lT T∆ = (6.36)
Anderer Ansatz:
ax v by v c
a b
x y( ) ( )+ + + + =
+ =
0
12 2 (6.37)
(Allgemeinfall)
6.7.2 Ausgleichung von linearen Funktionen geg.: Koordinaten x,y von auszugleichenden Punkten
ges.: Koeffizienten der ausgleichenden Geraden
Abbildung 6.8: Ausgleichende Gerade
Ansätze: z.B.
1
2
)
) ( )
y
y
+ = +
+ = + +
v ax b
v ax v by
y x (6.38)
3 0
12 2
) ( ) ( ) ax v b y v c
a b
x y+ + + + =
+ = (6.39)
aus 3) Lösungsweg ohne Näherungswerte für Parameter: Hessesche Normalform
p x y= +1 1cos sinε ε (6.40)
ϕε ϕ ε ϕ
ε ϕ
== + ° = −
= −
Winkel zwischen Gerade und x - Achse
90 :cos sin
sin cos
Kapitel 6: Sonderformen der Ausgleichung
Seite 111
Abbildung 6.9: Winkel zwischen Gerade und x-Achse
in (6.40) eingesetzt:
p x yi i= − +sin cosϕ ϕ (6.41)
Übergang zu Beobachtungen:
p l v l vx x y yi i i i= − + + +( )sin ( )cosϕ ϕ (6.42)
Umformung von (6.42):
p l l v vx y x yi i i i
= − + − +sin cos sin cosϕ ϕ ϕ ϕ
vsi
1 244444 344444
Damit:
v p l ls x yi i i= + −sin cosϕ ϕ (6.43)
Lösung: v vsT
s → min.
] [ ]sin [ ]cos
[ ]sin cos [ ]sin [ ]cos
v np p l p l
l l l l
s x y
x y x y
i i i
i i i i
2 2
2 2 2 2
2 2
2
= + −
− + +
ϕ ϕ
ϕ ϕ ϕ ϕ (6.44)
Minimierung:
∂
∂ϕ ϕ
[ ][ ]sin [ ]cos
v
pnp l l
s
x yi
2
0 2 2 2 0= ⇒ + − =
pl l
n
y x=
−[ ]cos [ ]sinϕ ϕ (6.45)
0sincos][2sincos][2
)sin](cos[2sin][p2cos][p20]v[
2y
2x
22yxyx
2si
=ϕϕ−ϕϕ+
ϕ−ϕ−ϕ+ϕ⇒=∂ϕ
∂
ll
llll
Kapitel 6: Sonderformen der Ausgleichung
Seite 112
02
2
2
01
2 2
2 2 2
0 21
2 2
2 2
2 2
2 22 2
= − + −
+ −
= + −
− + −
−− −
nl l l l l l
l l
nl l l l
l l l l
l ll l
nl l
nl l
y x x y x y
x y
x y x y
x y x y
x yx y
x y x y
([ ]cos [ ]sin )([ ]cos [ ]sin ) [ ]cos
([ ] [ ]sin )
([ ][ ]cos ([ ] [ ] sin ))
[ ]cos ([ ] [ ])sin cos
tan ([ ] [ ][ ])
ϕ ϕ ϕ ϕ ϕ
ϕ
ϕ ϕ
ϕ ϕ ϕ
ϕ
/ :
= ([ ]-[ ]-[ ] [ ]
)
tan[ ] [ ][ ]
[ ] [ ] ([ ] [ ])2
1
12 2 2 2ϕ =
−
− − −
l ln
l l
l ln
l l
x y x y
x y x y
(6.46)
Vereinfachung von (6.46):
Aus (6.45) ist ablesbar: Die ausgleichende Gerade geht durch Schwerpunkt, weil bei Schwerpunktskoordinaten gilt:
] [ ]l lx y= = =0 0 0 , , p
Übergang zu den Schwerpunktskoordinaten:
l l
l
n
l ll
n
x xx
y yy
i i
i i
= −
= −
[ ]
[ ] (6.47)
Aus (6.47) folgt:
p
l l
l l
x y
x y
=
=−
−
0
2 2 2tan[ ]
[ ] [ ]ϕ
Bemerkung:
Schwerpunktsreduktion entspricht reduzierten Fehlergleichungen
Fehlerrechnung:
v l ls x yi i i
= −sin cosϕ ϕ (6.43)
] [ ]sin [ ]cos sin cos [ ]v v l l l ls s x y x y= + −2 2 2 2 2ϕ ϕ ϕ ϕ
Kapitel 6: Sonderformen der Ausgleichung
Seite 113
Nach Umformung:
2yx
2y
2x
2y
2x
ss ][4])[]([21
2][][]vv[ llll
ll−−±
+=
bei + Maximum
bei - Minimum
Bemerkung:
Geraden stehen senkrecht aufeinander!
Bestimmung von Qϕϕ und mϕ:
Aus (6.43) mit Linearisierung:
])sincos([1
]a[1Q
)1Av(
)sincos()sincos(v
tSchwerpunk vomPunktes des Abstand
20y0x
2i
0x0y0y0xs
ii
iiiii
4444 34444 21ϕ+ϕ
==
−ϕ∆=
ϕ−ϕ−ϕ∆ϕ+ϕ=
ϕϕll
llll
Abbildung 6.10:
Q Q AQ Avv ll xxT= −
Diagonalelement Qvvii:
Ql l
l l
mit s l l
Qs
s
vv
x y
x y
x y
vvi
i
ii
i i
i i
i i
ii
= −+
+
= +
= −
1
1
0 02
0 02
0 0
2
2
( cos sin )
[( cos sin ) ]
cos sin :
[ ]
ϕ ϕ
ϕ ϕ
ϕ ϕi Abstand vom Schwerpunkt
Hieraus ist ablesbar, dass weit entfernte Punkte eine geringe Redundanz haben.
Kapitel 6: Sonderformen der Ausgleichung
Seite 114
6.8 Helmerttransformation Bestimmung der Konstanten einer linearen Transformation
Abbildung 6.11: Helmertransformation
geg.: Landeskoordinaten x,y
örtliches Koordinatensystem
identische Punkte in beiden
Koordinatensystemen
ges.: Transformationsparameter
6.8.1 Lösungsansätze
x x m m
y y m m
i i i
i i i
= + − =
= + + =
∆
∆
( cos sin ) cos
( cos sin ) sin
ξ ε η ε ε
η ε ξ ε ε
a
b (6.48)
1) x yi i, fehlerfrei
x x m v m v x a v b v
y y m v m v y a v b v
i i i i i
i i i i i
i i i i
i i i i
= + + − + = + + − +
= + + + + = + + + +
∆ ∆
∆ ∆
( )cos ( )sin ( ) ( )
( )cos ( )sin ( ) ( )
ξ ε η ε ξ η
η ε ξ ε η ξ
ξ η ξ η
η ξ η ξ
Typ: bedingte Ausgleichung mit Unbekannten
2) ξ ηi i, fehlerfrei
x v x a b
y v y a b
i x i i
i y i i
i
i
+ = + −
+ = + +
∆
∆
ξ η
η ξ
Typ: vermittelnde Ausgleichung
3) x yi i i i, , ,ξ η fehlerbehaftet
x v v a v b x
y v v a v b y
i x i i
i y i i
i i i
i i i
+ − + + + − =
+ − + − + − =
( ) ( )
( ) ( )
ξ η
η ξ
ξ η
η ξ
∆
∆
0
0
Typ: bedingte Ausgleichung mit Unbekannten
Kapitel 6: Sonderformen der Ausgleichung
Seite 115
6.8.2 2.Ansatz: vermittelnde Ausgleichung
v Ax l= − (6.49)
Lineare Fehlergleichungen:
v
v
v
v
v
v
v
x
x
y
x
y
x
y
n
n
i
i
n
n
=
− +
+
− +
+
− +
+
2
2
1
1
2
2
1 0
0 1
1 0
0 1
1 0
0 1
M M M M M M
A = x =
a
b
y
l =
x
y
x
y
x
y
1
1
2
2
n
n
1
1
2
2
n
n
ξ η
η ξ
ξ η
η ξ
ξ η
η ξ
∆
∆
Normalgleichungen: P = E
A PAx A Pl
A PA
N
N
n
N
n
A Pl
h
x
h
y
T T
T
T
x y
y x
=
=
+
+ −
=
+
−
[ ] [ ] [ ]
( )
( ) [ ] [ ] [ ]
( )
[ ]
( )
[ ]
[ ]
( )
[ ]
ξ η ξ η
ξ η η ξ
ξ η
ξ η
2 2
12
112 2
22
1
2
0
0
Unterteilung von x in
x
x
1
2
mit x
a
b
x
y1 2=
=
, x
∆
∆
Damit NGL-System:
N x N x h
N x N x hT
11 1 12 2 1
12 1 22 2 2
+ =
+ = (6.50)
Kapitel 6: Sonderformen der Ausgleichung
Seite 116
Elimination von x2 :
( )
[ ] [ ]
[ ] [ ]
N N N N x h N N h
NnE ; N N
n
T
T
11 12 221
12 1 1 12 221
2
221
12 221
12
2 2
2 2
1 1 0
− = −
= =+
+
− −
− − Nξ η
ξ η
Reduziertes NGL-System:
{[ ] ([ ] [ ] )}[ ] ([ ][ ] [ ][ ])
[ ] ([ ][ ] [ ][ ])ξ η ξ η
ξ η ξ η
ξ η ξ η
2 2 2 211
1+ − +
=
+ − +
− − −
n
Ea
bn
x y
ny x
x y
y x
Hieraus a,b:
x N h N x
xn
x a b
yn
y a b
T2 22
12 12 1
1
1
= −
= − +
= − −
− ( )
([ ] [ ] [ ] )
([ ] [ ] [ ] )
∆
∆
ξ η
η ξ
(6.51)
Übergang zu Schwerpunkt-System:
Ausnutzung von
A Pvvx
vyT =
=
=0
0
0
[ ]
[ ]
Damit Ansatz:
x v s a s b
y v s a s b
s x i i
s y i i
i i
i i
+ = −
+ = +
ξ η
η ξ
x x
x
n n
y yy
n n
s i i
s i i
i
i
= − = −
= − = −
[ ] [ ]
[ ] [ ]
s
s
i
i
ξ ξξ
η ηη
] [ ] [ ]x ys s s s= = =0 0 0 0 , [ ] = , , ξ η
Damit:
a
b
x y
y x
x x a b
y y a b
s s
s s s s
s s s s
s s s
s s s
=
+⋅
+
−
= − −
= − −
12 2[ ]
[ ]
[ ]ξ η
ξ η
ξ η
ξ η
η ξ
∆
∆
Redundanz: 2n - 4
Kapitel 6: Sonderformen der Ausgleichung
Seite 117
Kontrollen:
]vx y
x s y s
x s y s
= 0 , [v ] = 0
v ]+[v ] = 0
v ] +[v ] = 0
ξ η
η ξ
m ; v02 =
−= −
= + − + − −
v Pv
nPv l Pl x A Pl
v Pv x y a x y b y x
TT T T T
Ts s s s s s s s
2 42 2[ ] [ ] ([ ] [ ]) ([ ] [ ])ξ η ξ η
Genauigkeit:
m m m
m ms
m
as s
b
ai
b
202
2 22
202
22
1
1
=+
=
= =
[ ]
[ ]:
ξ η
s Schwerpunktsabstandi
(6.52)
Abbildung 6.12: Schwerpunktabstand
d x da db
d y da db
Q Q m Q
Q x h Q m Q
Q
Q Q AQ A
Qs
s
s s
s s
x x s s aa x x
y y s s aa x x
x y
vv ll xxT
vvi
iii
( )
( )
( )
( )
[ ]
∆
∆
∆ ∆ ∆ ∆ ∆
∆ ∆ ∆ ∆ ∆
∆ ∆
= − +
= − −
= + =
= + =
=
= −
= −
ξ η
η ξ
ξ η2 202
2 202
2
2
0
1
; m
; m
x2
x2
Kapitel 6: Sonderformen der Ausgleichung
Seite 118
6.8.3 1. Ansatz: bedingte Ausgleichung mit Unbekannten
a v b v x x
a v b v y y
i i i
i i i
i i
i i
( ) ( )
( ) ( )
ξ η
η ξ
ξ η
η ξ
+ − + + − =
+ + + + − =
∆
∆
0
0 (6.53)
Linearisierung, Ordnung:
B v Ax w
A B B Ax A B B w
T
T T T T
+ =
=− −( ) ( )1 1 (6.54)
B
a b
b aa b
b a
a b
b a
v v v
T
n n
=
−
−
−
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
0 0
1 1 2 2
L
L
M M M M
L
M M M M M v v vξ η ξ η ξ η
B B
a b
a b
a b
a b
Maßstab
ET =
+
−
+
= +
02
02
02
02
02
02
02
02
2O 1 24 34
( )
: m
(6.55)
Der 2. Ansatz führt zur gleichen Lösung für die Parameter wie der 1. Ansatz.
{B vBk
w Ax
k B B w Ax
v BB B w Ax
vm
B w Ax
T
T
T
= −
= −
= −
= −
−
−
( ) ( )
( ) ( )
( )
1
1
2
1
(6.56)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 119
7 Fehlerellipse und Fehlerellipsoid
7.1 Einführung und Problemstellung Bei Ausgleichungsproblemen, bei denen die Koordinaten von Neupunkten bestimmt werden, erhebt sich die Frage nach der Genauigkeit derselben. Präziser ausgedrückt heißt das: Welche mittleren Fehler haben die Koordinaten der Neupunkte? Diese können ermittelt werden, wenn die entsprechenden Kofaktoren bekannt sind.
yyy
xxx
qmm
qmmhn
vvPm
0
0
0][
=
=
−=
(7.1)
mx bzw. my sind die mittleren Fehler der Neupunktskoordinaten in Richtung der Koordinatenachsen.
Abbildung 7.1: Vermutung der Richtung von mmax und mmin aufgrund der Netzkonfiguration
Diese Veranschaulichung wirft die folgende Fragestellung auf: Für welche Richtung wird der mittlere Fehler eines Punktes maximal bzw. minimal?
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 120
Damit gleichbedeutend ist die Betrachtung von mx und my bzw. von tu mm und in einem um den Winkel ϕ gedrehten (u,t)-System.
Abbildung 7.2: Rotation um ϕ
Präzise werden folgende 2 Probleme formuliert und anschließend gelöst.
Problem 1: Wie würden sich mu t und m ergeben, wenn man die Ausgleichung im um ϕ gedrehten (u,t)-System durchgeführt hätte?
Problem 2: Gibt es ein spezielles (u,t)-System mit Drehwinkel ϕ θ= derart, daß in diesem System mu t bzw. m extremal werden?
7.2 Lösung zum Problem 1: Mit Hilfe des Fehlerfortpflanzungsgesetzes ermittle man für einen beliebigen
Drehwinkel die Gewichtsreziproken.
),,(
),,(
),,(
3
2
1
yyxyxxut
yyxyxxtt
yyxyxxuu
qqqfq
qqqfq
qqqfq
=
=
=
(7.2)
zum Problem 2: Man ermittle ein ϕ θ: = derart, dass quu bzw. qtt maximal bzw. minimal werden.
Zur Aufstellung der Kofaktoren bezüglich eines um ϕ gedrehten Koordinatensystems setzen wir eine Koordinatentransformation an:
ϕϕϕϕ
sincossincos
xyuyxt
−=+=
(7.3)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 121
nach Differentiation:
ϕϕϕϕ
sincossincos
xyuyxt∆−∆=∆∆+∆=∆
(7.4)
und dem sysmbolischen Ansatz nach Tienstra:
ϕϕ
ϕϕ
sincos
sincos
xyu
yxt
qqq
qqq
−=
+= (7.5)
für die Kofaktoren:
ϕϕϕϕ
ϕϕϕϕ22
22
sinsincos2cos
sinsincos2cos
xxxyyyuu
yyxyxxtt
qqqq
qqqq
+−=
++= (7.6)
Durch Addition beider Gleichungen folgt:
yyxxuutt qqqq +=+ (7.7)
Nach Multiplikation mit m0 ergibt sich unabhängig vom Winkel ϕ bzw. für beliebiges ϕ :
22222 : pyxut mmmmm =+=+ (7.8)
Die Größe 2222yxutp mmmmm +=+= , die von ϕ unabhängig ist, definiert man als mittleren
Punktfehler.
Für den noch ausstehenden gemischten Kofaktor qtu ergibt sich:
ϕϕϕϕ cossin)()sin(cos 22xxyyxytu qqqq −+−= (7.9)
nach trigonometrischer Umformung:
ϕϕ 2cos2sin)(21
xyxxyytu qqqq +−= (7.10)
Mit den Gleichungen (7.6) und (7.10) kann Problem 1 als gelöst angesehen werden. Die Bestimmung des Winkels θϕ = wird nach den üblichen Methoden der Differentialrechnung gelöst(vgl. Höhere Mathematik, Minimum-Maximum-Aufgaben).
Die Differentiation von (7.6) nach der (einzigen) Variablen ϕ ergibt:
ϕϕ
ϕϕϕϕϕϕϕ
2cos22sin)(
sincos2)sin(cos2sincos2 22
xyyyxx
yyxyxxtt
qqq
qqqddq
+−−=
+−+−= (7.11)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 122
Nullsetzen dieser Ableitung liefert für θϕ = :
yyxx
xy
qqq−
=2
2tan θ (7.12)
Bemerkungen:
a) Die Gleichung (7.12) liefert 2 um 90° verschiedene Winkel θ . Dies wird klar, wenn man θ2tan durch den identischen Ausdruck
θθ2tan1
tan2−
(7.13)
ersetzt. Die dadurch entstehende quadratische Gleichung für tan θ liefert zwei Lösungen 21 tan und tan θθ , für die gilt:
1tantan 21 −=θθ (7.14)
b) Nach Multiplikation von (7.10) mit dem Faktor 2 ist die rechte Seite mit der rechten Seite von (7.11) identisch. Damit folgt mit (7.14):
0)( ==θϕtuq (7.15)
Die daraus zu ziehende Konsequenz lautet: Hätte man nur einen Neupunkt auszugleichen und würde man diesen Neupunkt in das um θ gedrehte (u,t)-System ausgleichen, dann wäre die Matrix des zugehörigen Normalgleichungssystem eine Diagonalmatrix.
Für die weitere Betrachtung wird dieses spezielle, nämlich um den Winkel θ gedrehte System als ( ηξ , )-System bezeichnet.
Den Richtungswinkel im ( ηξ , )-System zwischen θϕ und bezeichnen wir mit ψ .
Abbildung 7.3: Richtungswinkel ψ
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 123
Für die praktische Bestimmung von 2θ bzw. θ ist die Festlegung des richtigen Quadranten eine wichtige Frage (vgl. Regeln der Vermessungskunde).
xyq2 yyxx qq − 2θ θ
> 0
> 0
< 0
< 0
> 0
< 0
< 0
> 0
0 gon < 2θ < 100 gon
100 gon < 2θ < 200 gon
200 gon < 2θ < 300 gon
300 gon < 2θ < 400 gon
0 gon < θ < 50 gon
50 gon < θ 100 gon
100 gon < θ 150 gon
150 gon < θ 200 gon
7.3 Weitere Fragestellungen bzw. Verallgemeinerungen Eine weiter Frage wäre z.B.: Was für eine spezielle Kurve ergibt sich, wenn man bei kontinuierlicher Winkeländerung ϕ die dazugehörigen Größen qtt bzw. quu in Form einer Graphik aufträgt.
Wenn wir die bisher stillschweigend vorausgesetzte Tatsache, dass nämlich die Neupunkte aus einer ebenen Netzausgleichung hervorgegangen sind, dahingehend verallgemeinern, dass wir räumlich bestimmte Neupunkte zulassen (z.B. bei dreidimensionalen Netzen und beobachteten Zenitdistanzen oder bei Satellitennetzen), erhält man für jeden Neupunkt 6 verschiedene Kofaktoren:
xyyzxzzzyyxx qqqqqq ,,,,,
und 3 verschiedene mittlere Fehler zm und , yx mm . Man könnte wiederum die Frage stellen, wie
groß die Kofaktoren vvuutt qqq ,, bzw. die mittleren Fehler vut mmm ,, in einem gedrehten (t,u,v)-System sind.
Dazu folgende Bemerkungen:
In der Ebene ist eine Drehung des (u,t)-Systems gegenüber einem (x,y)-System durch einen Winkel ϕ beschreibbar. Dagegen kann die Drehung bzw. Lagerung zweier räumlicher Systeme nur durch mindestens drei Winkel (Eulersche Winkel) beschrieben werden, z.B. in der Photogrammetrie durch die Winkel κωϕ ,, . Eine andere Möglichkeit wäre, daß man die Winkel zwischen jeweils ursprünglicher und gedrehter Achse bzw. zwischen jeder gedrehten und allen ursprünglichen Koordinatenachsen angibt. Die sind dann jeweils 9 Winkel, welche allerdings gegenseitig nicht unabhängig sind, da bereits 3 Eulersche Winkel ausreichen.
Wenn man analog zu oben das Fehlerfortpflanzungsgesetz anwendet und dann entsprechend (7.11) zur Bestimmung der Extremwerte differenziert, muss man mindestens nach 3 Variablen partiell differenzieren und erhält 3 der Gleichung (7.12) entsprechende Gleichungen, die 3 ausgezeichnete Eulersche Winkel für ein ausgezeichnetes räumliches Koordinatensystem ergeben. Dies führt zu praktisch unüberwindlichen „formalalgebraischen Schwierigkeiten. Man erhält keine brauchbaren Formeln. Dies motiviert einen prinzipiell anderen Ansatz für unser Problem, welches dann beliebig verallgemeinert werden kann.
Ein solcher Ansatz führt auf ein Eigenwertproblem und erfordert die Theorie der linearen Algebra bzw. der Matrizenrechnung.
7.4 Herleitung mit Hilfe von Eigenwerten und Eigenvektoren Die folgende Herleitung, die sich des Matrizenkalküls bedient, wird zwar hier speziell für den zweidimensionalen Fall (ebene Netze) explizit vorgeführt, lässt sich aber sofort auf mehr Dimensionen (dreidimensional bei räumlichen Netzen) anwenden.
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 124
7.4.1 Allgemeiner Ansatz Für jeden einzelnen Neupunkt führen wir ohne Beachtung einer Indizierung die Kofaktorenmatrix Q und einen Vektor f ein.
Es seien:
=
=
ϕϕ
sincos
und fQyyyx
xyxx
qqqq
(7.16)
Mit (7.16) kann (7.6) als quadratische Form geschrieben werden:
Qff T=ttq (7.17)
In dieser Schreibweise werden nun die Extremwerte dieser quadratischen Form in Abhängigkeit des Vektors f und nicht mehr „direkt“ in Abhängigkeit der skalaren Winkelgröße ϕ , d.h. in Abhängigkeit eines Vektors, dessen Elemente ( ϕϕ cos,sin ) nicht gegenseitig unabhängig sind, sondern durch die Nebenbedingung 1sincos 22 =+ ϕϕ verknüpft sind. Diese Nebenbedingung lautet in Vektorschreibweise:
1T =ff (7.18)
Die Gleichung (7.17) und (7.18) stellen also ein Extremwertproblem mit quadratischer Nebenbedingung dar. Solche Probleme führen im allgemeinen immer auf ein Eigenwertproblem.
Ein solches Extremwertproblem löst man nach Lagrange (Multiplikatorenmethode) durch Bildung der Lagrangefunktion F und Einführung des Lagrange’schen Multiplikators k wie folgt:
( )1F TT −−= ffQff k (7.19)
Die Differentiation nach dem Vektor f liefert:
fQff
k22ddF
−= (7.20)
Aus:
0ddF
=f
folgt fQf k= (7.21)
bzw. die übliche Eigenwertgleichung:
(Q - kE)f = 0 (7.22)
Dies ist ein homogenes Gleichungssystem, das genau dann nichttriviale Lösungen f besitzt, wenn Det(Q - kE) = 0 ist. Die Werte k, für die diese Bedingung gilt, nennt man Eigenwerte von Q. Die dazugehörigen Lösungsvektoren f von (7.22) heißen Eigenvektoren.
Da hier symmetrische Kofaktorenmatrizen vorliegen, die wir im folgenden als positiv definit voraussetzen, sind alle Eigenwerte reell und positiv. Außerdem gilt für den Rang der Koeffizientenmatrix Rg(Q - kE) = n - e, wobei n die Dimension von Q ist und e die Vielfachheit des Eigenwertes k.
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 125
Weiteres sei bemerkt, dass die zu verschiedenen Eigenwerten gehörigen Eigenvektoren orthogonal sind. Die Bedingung:
Det(Q - kE) = 0 (7.23)
für k liefert zur Bestimmung von k ein Polynom, dessen Grad durch die Anzahl der Zeilen bzw. Spalten der quadratischen Matrix bestimmt ist.
Für den speziellen Fall, dass Q eine (2 x 2)-Matrix ist, haben wir im allgemeinen 2 Eigenwerte k1 und k2 bzw. 2 Eigenvektoren f1 und f2, wobei wir jetzt vereinbaren wollen, dass für k1 und f1 die quadratische Form (7.17) ihr Maximum und für k2 und f2 ihr Minimum annimmt.
Wir bezeichnen:
2
T2
1T
1
:
:
min
max
Qff
Qff
==
==
ηη
ξξ
tt
tt (7.24)
Aus (7.22) folgt somit:
222T
111T bzw. ffQffQ kk == (7.25)
Nach Multiplikation mit f1T bzw. f2
T von links ergibt sich unter Beachtung von (7.18):
min
max
222
111
ttT
ttT
qqk
qqk
===
===
ηη
ξξ
Qff
Qff (7.26)
Bemerkung: Die Größe 11
1111 ff
QffQff T
TT = nennt man Raleigh-Quotient.
7.4.2 Praktische Bestimmung der Eigenwerte Für den hier speziell betrachteten zweidimensionalen Fall muss gelten:
0Det =
−
−kqq
qkq
yyyx
xyxx (7.27)
Man erhält damit das sogenannte charakteristische Polynom für k:
0)( 22 =−++− xyyyxxyyxx qqqkqqk (7.28)
Dieses besitzt im allgemeinen die beiden verschiedenen Lösungen:
22
2
221
4)(21
2
4)(21
2
xyyyxxyyxx
xyyyxxyyxx
qqqqq
qk
qqqqq
qk
+−−+
==
+−++
==
ηη
ξξ
(7.29)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 126
7.4.3 Praktische Bestimmung der Eigenvektoren Es sei θϕ = der zum Maximum von qtt, d.h. der zu k1 bzw. f1 gehörige Winkel. Dann gilt für die beiden zueinander orthogonalen Eigenvektoren f1 und f2:
[ ] [ ][ ] [ ]2221
T2
1211T
1
)90sin()90cos(
sincos
ff
ff
=°+°+=
==
θθ
θθ
f
f (7.30)
Zur Bestimmung der Eigenvektoren bzw. zur Bestimmung von θθ sin und cos setzen wir den maximalen Eigenwert k1 in (7.22) ein und lösen das homogene Gleichungssystem 0111 =− fQf k explizit:
0sincos)( 1 =+− θθ xyxx qkq (7.31)
0sin)(cos 1 =−+ θθ kqq yyxy (7.32)
Da dieses homogene Gleichungssystem nach Voraussetzung eine verschwindende Koeffizientendeterminante besitzt (k1 wurde ja gerade so bestimmt), sind beide Gleichungen voneinander linear abhängig und es genügt, im folgenden nur eine Gleichung zu betrachten.
Aus (7.31) folgt:
xy
xx
qqk −
= 1tanθ (7.33)
Mit den trigonometrischen Beziehungen
α
αα
αα22 tan1
1cos tan1
tansin+
=+
=
erhält man nach kurzer Umformung:
22
1
1
)(sin
xyxx
xx
qqk
qk
+−
−=θ (7.34)
22
1 )(cos
xyxx
xy
qqk
q
+−=θ (7.35)
In gleicher Weise erhält man die zur Bestimmung von f2 gehörigen Größen )90(cos und )90sin( °+°+ θθ , man muss nur in (7.34) und (7.35) wegen der Orthogonalität der
Eigenvektoren den kleineren Eigenwert k2 einsetzen.
Bemerkungen:
a) Die gleichen Ergebnisse erhält man auch, wenn man die Gleichung (7.32) verwendet, allerdings wegen:
yy
xy
qkq−
=1
tanθ (7.36)
in Abhängigkeit von qyy.
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 127
b) Durch Übergang von θ auf den doppelten Winkel 2θ kann aus (7.36) nach einigen Umformungen die früher hergeleitete Formel (7.12) abgeleitet werden.
7.5 Geometrische Deutung der bisherigen Ergebnisse (ebener Fall) Der hierzu notwendige zentrale Begriff ist die Hauptachsentransformation einer quadratischen Form auf das System der Eigenvektoren.
7.5.1 Hauptachsentransformation Bisher wurden folgende Koordinatensysteme verwendet:
Abbildung 7.4:Koordinatensysteme
Für qtt haben wir nach (7.6) eine quadratische Form folgender Bauart:
)cos,sin,,,(f ϕϕxyyyxxtt qqqq = (7.37)
Gewünscht ist nun die Quadratische Form derart, dass in dem um θ gedrehten ),( ηξ -System der Kofaktor ξηq verschwindet. Die gewünschte Bauart der quadratischen Form lautet dann:
)cos,sin,,(g ψψηηξξ qqqtt = (7.38)
Diese so vorgeschriebene Transformation entspricht der sogenannten Hauptachsentransformation in das System der Eigenvektoren f1 und f2, welche dann gerade in die ξ - bzw. η - Achse fallen. Dies soll hier mit Hilfe einer Koordinatentransformation explizit abgeleitet werden.
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 128
Aus obiger Figur entnehmen wir:
ψθψθψθϕψθψθψθϕ
sincoscossin)sin(sinsinsincoscos)cos(cos
+=+=−=+=
(7.39)
Mit den zunächst eingeführten Vektoren und Matrizen schreiben wir (7.39) als Matrizengleichung. Es seien
−=
°+°+
=
=
ϕϕ
θθ
θθ
θθ
sincos
= cossin
)90sin()90cos(
sincos
21 fff
[ ]
−==
=
θθθθ
ψψ
cossinsincos
und sincos
21 ffXt (7.40)
wobei die Matrix X als Modalmatrix bezeichnet wird. Mit den Bezeichnungen (7.40) kann (7.39) wie folgt geschrieben werden:
TTT XtftXf =⋅= .bzw (7.41)
Einsetzen von (7.41) in die ursprüngliche quadratische Form (7.17) liefert:
QXtXt TT=ttq (7.42)
Nun ist aber nach der Eigenwerttheorie die Matrix QXXT eine Diagonalmatrix, in der die Eigenwerte von Q stehen.
=
==
ηη
ξξ
kk
00
00
2
1TQXXK (7.43)
Damit nimmt qtt die gewünschte Form an, nämlich:
Ktt T=ttq (7.44)
Ausführlich geschrieben lautet (7.44):
ψψ
ψψ
ηηξξ
ηηξξ
22
22
sincos
sincos
qqq
qqq
tt
tt
+=
+= (7.45)
Wegen des Zusammenhanges zwischen Kofaktor und mittlerem Fehler ( ηηηξξξ qmmqmmqmm ttt 000 ; ; === ) kann man von den Gewichsreziproken auf die
mittleren Fehler übergehen und erhält:
ψψ
ψψ
ηξ
ηξ
2222
22222
sincos
sincos
mmm
mmm
t
t
+=
+= (7.46)
Bemerkungen:
Die hier für den 2-dimensionalen Fall explizit hergeleiteten Formeln gelten, soweit sie als Matrizengleichungen angegeben wurden, allgemein für jede beliebige Dimension.
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 129
Die Modalmatrix ist orthogonal, d.h. X-1 = XT besitzt als Spaltenvektoren die orthonormierten Eigenvektoren.
7.5.2 Geometrische Deutung Die durch die Gleichungen (7.45) und (7.46) angegebenen Formeln für qtt bzw. mt lassen sich geometrisch deuten.
Die Größen ttt mbzwq . lassen als Längen von Radiusvektoren einer Ellipse mit den beiden
Halbachsen ηηξξ qq , entsprechend (7.45) bzw. ηξ mm , entsprechend (7.46) deuten.
Diese Ellipse heißt dann Fehlerellipse. Das entsprechende Ellipsoid im 3-dimensionalen Fall heißt Fehlerellipsoid.
a) Konstruktion von ttq über affine Eigenschaften der Ellipse:
Abbildung 7.5: Konstruktion von ttq
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 130
b) Konstruktion von mt über affine Eigenschaften der Ellipse (in Analogie zu a):
Abbildung 7.6: Konstruktion von mt
Beweis, dass für die Ellipsen mit ηηξξ qbqa == , bzw. ηξ mbma = ,= die Länge des
Radiusvektors 1OP gleich ttt mq .bzw ist.
Fall b)
P1 hat die Koordinaten
ψψ
ηξ
ψψη
ψξ
ηξ
ηξ
ηξ
ξ
2222
221
sincos
sinsin
cos
11
1
1
mm
OP
mmm
m
m
PP
P
P
+=
+=
==
=
Fall a)
P1 hat die Koordinaten
ψψ
ηξ
ψη
ψξ
ηηξξ
ξξ
ηηξξ
ξξ
22
221
sincos
sin
cos
11
1
1
OP
q
q
PP
P
P
+=
+=
=
=
in Übereinstimmung mit den Formeln (7.45) und (7.46).
Praktisches Vorgehen bei der zeichnerischen Bestimmung von ttt mq .bzw bei zuvor berechneten
Werten für ηηξξθ q und ,q .
Man zeichne eine Ellipse mit den Halbachsen ηηξξ qbqa == und und dem Richtungswinkel θ
der großen Halbachse a (im Neupunkt).
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 131
Die Gewichtsreziproke ttq für eine beliebige Richtung ψθϕ += wird dann gefunden als die Länge des Radiusvektors der Ellipse, welcher zur gegebenen Richtung ϕ affin ist. (Konstruktion entsprechend obiger Figur)
Für den Richtungswinkel Γ der affinen Richtung gilt:
ψψψ
ξη tan
cossintan
ab
ab
===Γ (7.47)
7.5.3 Die Fußpunktkurve und ihr Zusammenhang mit der Fehlerellipse
Wenn man bisher ttt mq bzw. als Länge eines Ellipsenradiusvektors deutete, dessen Richtung Γ
affin zur Richtung ψ ist, so ist eine weitere geometrische Deutung von ttt mq und möglich.
Konstruktionsprinzip für ttt mq bzw. :
Man bestimme diejenige Ellipsentangente, welche auf der Richtung ϕ bzw. θϕψ −= senkrecht steht. Diese Tangente schneidet den Richtungsstrahl t im Fußpunkt F.
Die Menge aller so konstruierten Fußpunkte von jeweils auf t senkrecht stehenden Ellipsentangenten heißt Fußpunktkurve.
Behauptung:
a) Der auf dem Richtungsstrahl t abgetragene Abstand OF ist gleich ttt mq bzw. .
b) Der Radiusvektor in der Ellipse zum Berührungspunkt der Tangente ist erneut affin zur Richtung Γ , d.h. wenn man zur Richtung ψ die 2 mal affine Richtung := E konstruiert, so liefert der dazugehörige Ellipsenvektor gerade den Berührpunkt P2 der auf der Richtung ψ senkrecht stehenden Tangente.
Konstruktion eines Punktes F der Fußpunktkurve:
Abbildung 7.7:Konstruktion eines Punktes F der Fußpunktkurve
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 132
Allgemeine Skizze einer Fußpunktkurve:
Abbildung 7.8: Allgemeine Skizze einer Fußpunktkurve
Für die 2 mal affine Richtung E gilt:
ψψ tantantan 2
2
ab
ab
ab
=⋅=Ε (7.48)
Beweis der beiden Behauptungen a) und b):
Um den Beweis führen zu können, werden zunächst einige mathematische Hilfsmittel bereitgestellt.
Zunächst folgende z.T. schon früher benutzte Bezeichnungen:
1kqa == ξξ große Halbachse der Fehlerellipse
2kqb == ηη kleine Halbachse der Fehlerellipse
=
ψψ
sincos
t t ist Einheitsvektor, d.h. 1T =tt
=
ηξ
y
=
=
= −
2
11
2
12/1
2
1
10
01
0
0
00
k
kk
kk
kKKK (7.49)
Radiusvektor eines Ellipsenpunktes P mit den Koordinaten ξ η, .
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 133
Damit gilt:
Ktt T=ttq bzw. Ktt T=ttq (7.50)
Einige Formeln zur Fehlerellipse:
Parameterdarstellung
⋅
=
ψψ
ηξ
sincos
00
2
1
kk
(7.51)
bzw.
tKy ⋅= 2/1 (7.52)
Achsengleichung:
11 =− yKyT (7.53)
Der Vektor der Ellipsennormalen im Punkt ),( ηξP sei u, dann gilt durch Gradientenbildung von (7.53):
yKu 1−= (7.54)
Projektion p des Ortsvektors eines Ellipsenpunktes P in Richtung der Normalen:
Abbildung 7.9Projektion P des Ortsvektors eines Ellipsenpunktes P in Richtung der Normalen
Ist ue der Einheitsvektor der Ellipsennormalen im Punkt y, so gilt für den senkrechten Abstand p der Tangente bzw. Tangentialebene vom Ursprung:
peeT =⋅⋅= αcosuyuy (7.55)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 134
Will man in Gleichung (7.54) yKu 1−= an Stelle des Vektors u, dessen Länge noch unbestimmt ist, den Einheitsvektors ue stehen haben, so kann man setzen:
)0( 1≠= λ
λ euu (7.56)
wobei λ zunächst noch unbekannt ist. Gleichung (7.56) in (7.54) eingesetzt ergibt:
yKu 1−= λe (7.57)
Skalare Multiplikation mit yT von links ergibt:
yKyuy 1TT −= λe (7.58)
Unter Beachtung von (7.55) und (7.53) erhält man:
λ=p
yKu 1−= pe (7.59)
Seien t, t1, t2 die zu der Richtung t und den Punkten y1, y2 gehörenden Einheitsvektoren, die im ( ηξ , )-System die Richtungswinkel ΕΓΨ ,, haben.
Mit diesen obigen Hilfsmitteln beweisen wir nun die Behauptungen a) und b):
1.Schritt: Man konstruiere den zur Richtung t gehörenden (affinen) Ellipsenpunkt P1 mit dem dazugehörigen Radiusvektor y1. Dann gilt nach (7.52):
2/1TT1
2/11 bzw. KtytKy ==
ttTT q== Kttyy 11 (7.60)
2.Schritt: Man konstruiere den zu P1 affinen Ellipsenpunkt P2 mit Radiusvektor y2. Wiederum gilt nach (7.52)
12/1
2 tKy = (7.61)
wobei t1 der zu P1 gehörige Einheitsvektor ist. Für t1 gilt:
Ktt
tK
yy
yyy
tT
2/1
11
1
1
11 ===
T (7.62)
Dies in (7.61) eingesetzt liefert:
Ktt
KtyT
=2 (7.63)
Für die Normalen in P2 gilt nach (7.54) 21
2 yKu −= . Einsetzen von (7.63) liefert:
Ktt
t
Ktt
KtKuTT
==−1
2 (7.64)
Kapitel 7: Fehlerellipse und Fehlerellipsoid
Seite 135
tu || 2
Da die Ellipsentangente in P2 senkrecht auf der Normalen u2 in P2 steht und tu || 2 ist, folgt: die Tangente in P2 steht auch auf der Richtung t selbst senkrecht oder P2 ist gerade derjenige Berührpunkt der Tangente, die senkrecht auf der Richtung t steht. Damit finden wir: Für die Projektion OF von yt auf t gilt dann:
ttqpOF ===== KttKtt
Kttyt T
T
T
2T
also:
ttqp = (7.65)
was zu beweisen war.
Bemerkung:
Für den speziellen Fall gleicher Eigenwerte k1 = k2, wenn also qxx = qyy und qxy = 0 ist, entarten die Fehlerellipsen und die Fußpunktkurve in einen identischen Kreis mit dem Radius xxy mq bzw. , d.h.
in diesem Fall sind die mittleren Fehler in jeder beliebigen Richtung gleich groß.
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 136
8 Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
8.1 Voraussetzungen und Bezeichnungen Behandelt wird der beidseitig angeschlossene Polygonzug. Gegeben seien dabei:
• Die Koordinaten des Anfangs- und Endpunktes:
P x y x yn n n1 1 1( , ) ( , ) P
• Die Koordinaten der beiden Anschlußpunkte am Anfang und am Ende:
P x y x yn n n0 0 0 1 1 1( , ) ( , ) P + + +
Gemessen wurden:
• Alle Brechungswinkel
βi i n ( ,..., )= 1
• Alle Strecken
s i ni ( ,..., )= 1
Abbildung 8.1: Beidseitig angeschlossener Polygonzug
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 137
8.2 Ausgleichung nach vermittelnden Beobachtungen Bei der Ausgleichung eines Polygonzuges treten gegenüber der Ausgleichung von Strecken-, Richtungs- und Winkelbeobachtungen keine neuen Typen von Fehlergleichungen auf. Aus diesem Grunde werden nur noch die nichtlinearen Fehlergleichungen angegeben. Unbekannte sind dabei die Koordinaten der (n-2) unbekannten Polygonpunkte P P Pn2 3 1, ,..., − , d.h. also 2(n-2) Unbekannte.
Die Fehlergleichungen lauten dann:
a) für die beobachteten Brechungswinkel:
β
β
β
β
β
β
12 1
2 1
0 1
0 1
1
1
1
1
1
1
1
1
+ =−−
−−−
+ =−−
−−−
+ =−−
−−−
+
+
−
−
+
+
−
−
vy yx x
y yx x
vy yx x
y yx x
vy yx x
y yx x
i
i
n
ii i
i i
n n
n n
nn n
n n
n n
n n
arctan arctan
arctan arctan
arctan arctan
M
M
(8.1)
Die ausgeglichenen Brechungswinkel werden als Differenzen von 2 Richtungswinkeln dargestellt. In der ersten Gleichung treten nur die Unbekannten x2 2 und y auf. In der i-ten Gleichung sind alle Koordinaten und in der n-ten Gleichung sind beide Koordinaten xn n− −1 1 und y unbekannt.
b) Für die beobachteten Strecken:
s v x x y yi s i i i ii+ = − + −+ +( ) ( )1
21
2 (i = 1,2,...,n,n - 1) (8.2)
mit jeweils den entsprechenden Unbekannten.
Hinweise zur Fehlerrechnung:
Für den mittleren Fehler der Gewichtseinheit (mittleren Fehler einer Beobachtung vom Gewicht 1) gilt:
[ ] [ ]
[ ] [ ]
mv v p v v p
n n n
mv v p v v p
i i i i i i
i i i i i i
i
n
s s si
n
i
n
s s si
n
01 1
1
01 1
1
1 2 2
3
=+
+ − − −
=+
= =
−
= =
−
β β β
β β β
( ) (8.3)
Bei der Festsetzung der Gewichte pi isβ und p muss darauf geachtet werden, dass es sich bei den
beobachteten Winkeln und Strecken um sogenannte heterogene Größen handelt. Zur Ermittlung der Gewichte p
i isβ und p müssen vor der Ausgleichung die mittleren Fehler mi isβ und m geschätzt
werden. Wir machen die vereinfachende Annahme, dass die mittleren Fehler der Winkel und der Strecken für sich genommen jeweils gleich sind, dass also gilt:
m m m m
m m m m
s s s sn
n
1 2 1
1 2
2 2 2 2
2 2 2 2
= = = =
= = = =−
... :
... :β β β β
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 138
Nach der Definition der Gewichte gilt dann:
p
p
m
m
s s
β β
=2
2 (8.4)
wobei ein Gewicht zu 1 gesetzt werden kann.
8.3 Die Ausgleichung nach bedingten Beobachtungen
8.3.1 Die Wahl eines Hauptsystems und Bestimmung der überschüssigen Beobachtungen Gesamtanzahl der Beobachtungen: n + n - 1 = 2n - 1.
Anzahl der zur eindeutigen Festlegung der Konfiguration notwendigen Beobachtungen (ausgehend von P1):
β β β1 1 2 2 2 2, , , , , ,s s sn n ... − − )
d.h. 2(n - 2) = 2n - 4 Beobachtungen.
Überschüssig sind dann r = 2n - 1 - (2n - 4) = 3 Beobachtungen, nämlich:
β βn n ns− −1 1, , .
Insgesamt sind also 3 Bedingungsgleichungen aufzustellen.
Bei diesem Beispiel empfiehlt es sich, die Bedingungsgleichungen nicht sukzessiv, d.h. durch Hinzufügung jeweils einer überschüssigen Beobachtung zum HS, aufzustellen. Dies wäre umständlich, da man die unbekannten Koordinaten der unbekannten Polygonpunkte mitführen müsste. Man geht deshalb wie in der Vermessungskunde vor und stellt die folgenden 3 Bedingungsgleichungen auf:
a) Winkelabschlussbedingung
b) Koordinatenabschlussbedingung in x-Richtung
c) Koordinatenabschlussbedingung in y-Richtung
zu a)
ϕ β β ϕβ β0 1 1 11200 200, ,( ) ... ( )+ + − + + + − = +v vgon
ngon
n nn
⇒ + + + = − + ⋅ − + + + =+v v v n
Soll Ist
wn n n
gonnβ β β ϕ ϕ β β β
1 2 1 0 1 1 2 1200...
" "
( ... )
" "
:, ,1 244444 344444 1 2444 3444 (8.5)
zu b) und c)
Für die ausgeglichenen Strecken und Winkel muss gelten:
x s v s v s v xs s n s n n nn1 1 1 2 2 2 3 1 11 2 1+ + + + + + + =− −−( )cos ( )cos ... ( )cos, , ,ϕ ϕ ϕ (8.6)
bzw.
y s v s v s v ys s n s n n nn1 1 1 2 2 2 3 1 11 2 1+ + + + + + + =− −−( )sin ( )sin ... ( )sin, , ,ϕ ϕ ϕ (8.7)
Man muss beachten, dass die ausgeglichenen Richtungswinkel ϕk k, +1 von den ausgeglichenen Brechungswinkeln abhängen.
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 139
So gilt z.B.:
ϕ ϕ β
ϕ ϕ β β
ϕ ϕ β β
β
β β
β β
1 2 0 1 1
2 3 0 1 1 2
1 0 1 1 1
1
1 2
1 1
200
2 200
1 200
, ,
, ,
, ,
( )
... ( ) ( )
= + + −
= + + + + − ⋅
= + + + + + − − ⋅− − −
v
v v
v v n
gon
gon
n n ngon
n
M (8.8)
Da dadurch die beiden Koordinatenabschlussbedingungen, ausgedrückt durch die ursprünglichen Beobachtungen, ziemlich unübersichtlich werden, geht man den folgenden Weg:
Man fasst die unausgeglichenen Richtungswinkel: ϕk k k, +1 ( = 1,2,...,n - 1)
als Beobachtungen auf und substituiert die ausgeglichenen Brechungswinkel erst am Schluss wieder.
Zunächst sollen aber die Widersprüche w und w2 3 der Gleichungen (8.6) und (8.7) ausführlich angeschrieben werden.
w x x s s s
Soll Ist
w y y s s s
n n n n
n n n n
2 1 1 1 2 2 2 3 1 1
3 1 1 1 2 2 2 3 1 1
= − − + + +
= −
= − − + + +
− −
− −
( cos cos .. cos )
" " " "
( sin sin .. sin )
, , ,
, , ,
φ φ φ
φ φ φ
mit den unausgeglichenen Richtungswinkeln:
ϕ ϕ β
ϕ ϕ β β
ϕ ϕ β β β
1 2 0 1 1
2 3 0 1 1 2
1 0 1 1 2 1
200
2 200
1 200
, ,
, ,
, ,
( )
... ( ) ( )
= + −
= + + − ⋅
= + + + + − − ⋅− −
gon
gon
n n ngonn
M (8.9)
Entsprechend der vorübergehend gemachten Annahme, nämlich dass die unausgeglichenen Richtungswinkel beobachtet worden seien, gilt folgender Ansatz:
x s v v s v v x
y s v v s v v y
s n s n n n
s n s n n n
n n
n n
1 1 1 2 1 1
1 1 1 2 1 1
1 1 2 1 1
1 1 2 1 1
+ + + + + + + =
+ + + + + + + =
− −
− −
− −
− −
( )cos( ) ... ( )cos( )
( )sin( ) ... ( )sin( )
, ,
, ,
, ,n
, ,n
ϕ ϕ
ϕ ϕ
ϕ ϕ
ϕ ϕ
Nach der Linearisierung
cos( ) cos sin
sin( ) sin cos
, , ,
, , ,
, ,
, ,
ϕ ϕ ϕ
ϕ ϕ ϕ
ϕ ϕ
ϕ ϕ
i k i k i k
i k i k i k
v v
v v
i k i k
i k i k
+ = − ⋅
+ = + ⋅
erhält man nach Umordnen und Zusammenfassen bei Vernachlässigung von Gliedern höherer Ordnung:
cos cos ... cos
sin sin ... sin
, , ,
, , ,, , ,n
ϕ ϕ ϕ
ϕ ϕ ϕϕ ϕ ϕ
1 2 2 3 1
1 1 2
2 1
2 2 3
3 2
1 1
1
2
1 2 1
1 2 2 3 1
⋅ + ⋅ + + ⋅
−−
⋅ −−
⋅ − −−
⋅ =
−
− −
−
−
−
v v v
s
y y
v s
y y
v s
y y
v w
s s n n s
n n n
n n
n
n1 244 344 1 244 344 1 2444 3444 (8.10)
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 140
sin sin ... sin cos
cos ... cos
, , , ,
, ,
,
, ,n
ϕ ϕ ϕ ϕ
ϕ ϕ
ϕ
ϕ ϕ
1 2 2 3 1 1 1 2
2 1
2 2 3
3 2
1 1
1
3
1 2 1 1 2
2 3 1
⋅ + ⋅ + + ⋅ +−
⋅
+−
⋅ + +−
⋅ =
−
− −
−
−
−
v v v sx x
v
sx x
v sx x
v w
s s n n s
n n n
n n
n
n
1 244 344
1 244 344 1 2444 3444 (8.11)
Mit den Vektoren und Matrizen:
[ ][ ][ ]
v v v v v
v v v v v
w w w
B
und
By y y y y y y y
x x x x x x x
sT
s s s s
T
T
T i i n n
i i n n
T i i n n
i i n
i n
i n
=
=
=
=
=− − − − − − − −
− − −
−
−
+ −
+ −
+ −
+
1 2 1
1 2 1
2 3
11 2 2 3 1 1
1 2 2 3 1 1
22 1 3 2 1 1
2 1 3 2 1
L L
L L
L L
L L
L L
L L
ϕ ϕ ϕ ϕ ϕ
ϕ ϕ ϕ ϕϕ ϕ ϕ ϕ
cos cos cos cos
sin sin sin sin
( ) ( ) ( ) ( )
( ) ( ) ( ) (
, , , ,
, , , ,
−
−xn 1)
gehen die Gleichungen (8.10) und (8.11) über in:
B v B v wTs
T1 2+ =ϕ (8.12)
Jetzt erfolgt der Übergang von Richtungswinkeln zu Brechungswinkeln (Rücksubstitution).
Durch Vergleich von (8.8) und (8.9) findet man mit:
ϕ ϕ ϕ
ϕ β
k k k k
i
k
v
v v k n
k k
k k i
, , ,
,, ,...,
+ +
=
= +
= = −
+
+∑
1 1
1
1
11 2 1 ( )
(8.13)
Mit
[ ]v v v vT
nβ β β β=−1 2 1
L
und der (n - 1, n - 1)-Matrix L:
L =
1 0 0 0 0
1 1 0 0 0
1 1 1 0 0
1 1 1 1 0
1 1 1 1 1
L
L
L
M M M M M M
L
L
*) Beachte: In der Matrix BT2 dürfen für xn und yn nicht die gegebenen Koordinaten des Punktes Pn
eingesetzt werden. Dies folgt aus (8.10) und (8.11).
*)
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 141
sowie mit dem obigen Vektor vϕ gilt für (8.13) in Matrizen:
v L vϕ β= ⋅ (8.14)
(8.14) in (8.12) eingesetzt liefert:
B v B Lv wTs
T1 2+ =β (8.15)
Wir setzen:
B B LT T2 2: =
und erhalten:
By y y y y y
x x x x x xT n n n n
n n n n2
1 2 1
1 2 1
=− − − − − −
− − −
−
−
( ) ( ) ( )
( ) ( ) ( )
Durch Hinzunahme der Winkelsummenbedingung (8.5) erhält man die Bedingungsgleichungen in der endgültigen Form:
v v v v v v v1 2 n-1 ns s s
n n
n n
n n n n
n n n n
n
y y y y y y
x x x x x x
w
w
w
1 1 1
0 0 0 1 1 1 1
0
01 2 2 3 1
1 2 2 3 1
1 2 1
1 2 1
1
2
3
−
−
−
−
−
− − − − − −− − −
=
β β β β
ϕ ϕ ϕϕ ϕ ϕ
cos cos cos
sin sin sin
( ) ( ) ( )
( ) ( ) ( ), , ,
, , ,
Kapitel 8: Zur strengen Ausgleichung von Polygonzügen und Polygonnetzen
Seite 142
Man erhält folgendes Normalgleichungssystem:
Nk = w (8.16)
mit
[ ] [ ] [ ]
[ ][ ]
[ ][ ]
[ ][ ]
N
p y y p x x p
p
y y p
p
y y x x p
p
x x p
k k
k k k
k
k
k
k
k
k
k
n
n kk
n
n kk
n
k k sk
n
n kk
n
k k k k sk
n
n k n kk
n
k k sk
n
n kk
n
T
=
− − −
+ − + − − −
+ −
=
−
=
−
=
− −
=
−
+−
=
−
−
=
−
+ +−
=
−
−
=
−
+−
=
−
−
=
−
β β β
β β
β
ϕ ϕ ϕ
ϕ
1
1
1
1
11
1
1
21
1
1
1
1
1
1
1 11
1
1
1
1
1
21
1
1
1
2 1
1
1
1
( ) ( )
cos
( )
cos sin
( )( )
sin
( )
, , ,
,
[ ] [ ]k k w w wT2 3 1 2 3 und w =
Für die Verbesserungen gilt dann nach der allgemeinen Formel:
v p Bk= −1 (8.17)
vp
k k
vp
k k
vp
k k
vp
k y y k x x k
vp
k y y k x x k
vp
k
ss
ss
i i i i
ss
n n n n
n n
n i n i
ii
nn
ii
nn
11
11
11
11
1
1
1
1
1
1
1 2 2 1 2 3
1 2 1 3
1 2 1 3
1 1 2 1 3
1 2 3
1
= ⋅ + ⋅
= ⋅ + ⋅
= ⋅ + ⋅
= − − ⋅ + − ⋅
= − − ⋅ + − ⋅
= −
+ +
− −−−
−−
(cos sin )
(cos sin )
(cos sin )
( ( ) ( ) )
( ( ) ( ) )
( (
, ,
, ,
, ,
ϕ ϕ
ϕ ϕ
ϕ ϕ
ββ
ββ
ββ
M
M
M
M
M
y y k x x k
vp
k
n n n n
nn
− ⋅ + − ⋅
= ⋅
− −1 2 1 3
11
) ( ) )
ββ
Anhang A: Schematische Zusammenstellung der Ausgleichung nach vermittelnden Beobachtungen
Seite 143
Anhang A: Schematische Zusammenstellung der Ausgleichung nach vermittelnden Beobachtungen Ausgleichungsprinzip: Es werden u Unbekannte x aus n Beobachtungen l bestimmt. Jede Beobachtung wird in einer Fehlergleichung als Funktion der Unbekannten ausgedrückt.
Vorgehensweise:
1) geg.: n Beobachtungen l mit Kovarianzmatrix Cll.
Festlegen von m0 a priori (mittlerer Gewichtseinheitsfehler vor der Ausgleichung)
→ Kofaktorenmatrix der Beobachtungen: Q Cll m ll= ⋅102
→ Gewichtsmatrix: P Q m Cll ll= = ⋅− −102 1
ges.: u Unbekannte (u < n)
→ Redundanz: r = n - u.
2) Aufstellen von n Fehlergleichungen: Jede Beobachtung li (i = 1,...,n) als Funktion einer oder mehrerer Unbekannten xj (j = 1,...,u).
linear nicht linear
l + v = A⋅x ⇒ v = A⋅x - l l + v = f(x) ⇒ v = f(x) - l
mit Näherungswerten x0: x = x0 + ∆x mit Näherungswerten x0: x = x0 + ∆x
v = A⋅x0 + A⋅∆x - l l−∆⋅
∂∂
+= xx
)x(f)x(fv 0
0 (Linearisieren!)
⇒ v = A⋅∆x - ∆l ⇒ v = A⋅∆x - ∆l
mit ∆l = l - A⋅x0 mit Af x
x=∂∂( )0 und ∆l = l - f(x0)
→ Bereitstellen von Matrix A und Vektor ∆l
3) Aufstellen und Lösen der Normalgleichungen: (ATPA)⋅∆x = ATP∆l
Berechnen von Normalgleichungsmatrix N = ATPA = Qxx−1
Berechnen von Vektor ATP∆l
⇒ ∆x = (ATPA)-1⋅ATP∆l ( ⇒ x = x0 + ∆x )
4) Verbesserungen der Beobachtungen v = A⋅∆x - ∆l
→ Kontrolle ATPv = 0
→ Schätzung des mittleren Gewichtseinheitsfehlers nach der Ausgleichung m0 a posteriori:
mv Pv
r
T
02 = (r = n - u)
→ Verbesserte Beobachtungen vll += (Berechnung nur, wenn ausdrücklich verlangt.)
Anhang A: Schematische Zusammenstellung der Ausgleichung nach vermittelnden Beobachtungen
Seite 144
5) Kofaktorenmatrizen und Kovarianzmatrizen:
- der Beobachtungen: Q P C m Qll ll ll= = ⋅−102 (siehe 1))
- der Unbekannten: Q A PA C m QxxT
xx xx= = ⋅−( ) 102 (siehe 3))
- der ausgeglichenen Beobachtungen: Q AQ All xxT=
- der Verbesserungen: Q Q Qvv ll ll= −
6) Weitere Berechnungen, z.B. Modelltest, Redundanzanteile, Suche von groben Fehlern mittels ‘data snooping’ etc. → Ausgleichungsrechnung II.
Anhang B: Schematische Zusammenstellung der Ausgleichung nach bedingten Beobachtungen
Seite 145
9 Anhang B: Schematische Zusammenstellung der Ausgleichung nach bedingten Beobachtungen
Ausgleichungsprinzip: Es werden die n ausgeglichenen Beobachtungen l bestimmt. Zwischen den Beobachtung lassen sich r unabhängige Bedingungsgleichungen aufstellen.
Vorgehensweise: 1) geg.: n Beobachtungen l mit Kovarianzmatrix Cll.
Festlegen von m0 a priori (mittlerer Gewichtseinheitsfehler vor der Ausgleichung)
→ Kofaktorenmatrix der Beobachtungen: Q Cll m ll= ⋅102
→ Gewichtsmatrix: P Q m Cll ll= = ⋅− −102 1
ges.: n ausgeglichene Beobachtungen vll += .
Redundanz: r = Anzahl aller Beobachtungen − Anzahl der zur Berechnung
notwendigen Beobachtungen.
= Anzahl der voneinander unabhängigen Bedingungsgleichungen.
2) Aufstellen von r Bedingungsgleichungen (Bedingungen zwischen Beobachtungen).
linear nicht linear
BT⋅(l + v) = s f(l + v) = s
Linearisieren: ,dl
l)l(f)l(f)dll(f ⋅
∂∂
+=+
mit v = dl und l
)l(fBT
∂∂
=
⇒ BTv = s - BTl = w ⇒ BTv = s - f(l) = w
Widersprüche w = s - BTl Widersprüche w = s - f(l)
→ Bereitstellen von Matrix BT und Vektor w.
3) Aufstellen und Lösen der Normalgleichungen: (BTP−1B)⋅k = w
Berechnen der Normalgleichungsmatrix N = BTP−1B = Q Qww kk= −1
⇒ Korrelaten: k = (BTP−1B)−1⋅w
4) Verbesserungen der Beobachtungen: Korrelatengleichungen v = P−1⋅B⋅k
→ Kontrolle BTv = w.
→ Schätzung des mittleren Gewichtseinheitsfehlers nach der Ausgleichung m0 a posteriori:
mv Pv
r
T
02 = Kontrolle: vTPv = kTw.
→ Verbesserte Beobachtungen l l v= + . Kontrolle: f l s( ) =
5) Modelltest (m0 a posteriori gegen m0 a priori prüfen → Ausgleichungsrechnung II.)
6) Kofaktorenmatrizen und Kovarianzmatrizen:
Anhang B: Schematische Zusammenstellung der Ausgleichung nach bedingten Beobachtungen
Seite 146
- der Beobachtungen: Q P C m Qll ll ll= = ⋅−102 (siehe 1))
- der Widersprüche: Q B P BwwT= −1 (siehe 3))
- der Korrelaten: Q Q B P Bkk wwT= =− − −1 1 1( ) (siehe 3))
- der Verbesserungen: Q P BQ B Pvv kkT= − −1 1
⇒ Redundanzanteile: Diagonalelemente der Matrix QvvP. Kontrolle: Spur (QvvP) = r.
- der ausgeglichenen Beobachtungen: Q P Qll vv= −−1