simple simulation - · pdf fileprof. dr. may-britt kallenrode fachbereich physik simple...

299
Prof. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨ uck, 4. Februar 2008

Upload: phungxuyen

Post on 06-Feb-2018

234 views

Category:

Documents


2 download

TRANSCRIPT

Page 1: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Prof. Dr. May-Britt Kallenrode Fachbereich Physik

Simple SimulationSystemtheorie und SimuLink

Osnabruck, 4. Februar 2008

Page 2: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Vorbemerkung

The most incomprehensible thing about the world is that it is comprehensibleA. Einstein

§ 1 Das Skript ist eine kurze Einfuhrung in einige Grundbegriffe der Systemtheorie, diedabei benotigten formalen Konzepte sowie die Anwendung dieser Begriffe und Konzepte inSimuLink.

§ 2 Naturliche Systeme wie die Atmosphare oder die Ozeane bzw. das Klimasystem alseine Kopplung der Systeme Ozean und Atmosphare werden formal durch Systeme partiellerDifferentialgleichungen beschrieben. Diese lassen sich – außer unter stark vereinfachendenAnnahmen – in der Regel nicht analytisch losen. Die Modellierung derartiger Systeme basiertdaher auf numerischen Verfahren.

§ 3 Eine Alternative zu numerischen Verfahren bietet zumindest in einigen Fallen (insbe-sondere bei linearen DGLs) die Laplace Transformation der Differentialgleichung(en). Die-se Transformation uberfuhrt das System von Differentialgleichungen in ein System alge-braischer Gleichungen. Letzteres ist mit einfachen Methoden zu losen. Damit lassen sichdie Ubertragungsfunktionen der Teilsysteme bzw. die Ubertragungsfunktion des Gesamt-systems bestimmen. Diese Ubertragungsfunktionen liefern die Systemantwort fur beliebigenInput. Dieses Verfahren ist jedoch nur fur statische Systeme geeignet, da nur in diesen ei-ne Ubertragungsfunktion sinnvoll definiert werden kann – ein dynamisches System dagegenwurde eine zeitlich veranderliche Ubertragungsfunktion aufweisen.

§ 4 SimuLink ist eine Erweiterung von MatLab zur Simulation dynamischer Systeme. Si-muLink stellt das System in der Form eines Blockdiagramms dar: die unterschiedlichen Teil-systeme konnen mit Hilfe ihrer Ubertragungsfunktionen definiert werden – oder sie mussendynamisch behandelt werden, d.h. ihre zeitliche Entwicklung wird berucksichtigt.

§ 5 Simulationen mit SimuLink haben gegenuber einer konventionellen numerischen Losungdes Differentialgleichungssystems Vor- und Nachteile: der großte Nachteil ist der theoretischeUberbau mit (Teil-)Systemen und Ubertragungsfunktionen. Die Verwendung von Simulinkerfordert also eine gewisse geistige Anfangsinvestition. Der Vorteil des Verfahrens ist die Ein-fachheit: auch fur eine numerische Losung des Differentialgleichungssystems mussten wir dasBlockdiagramm erstellen und dann in jedem Block die DGL des entsprechenden Untersys-tems mit Hilfe von Euler, Runge–Kutta oder einem anderen Verfahren losen. Mit Simulinkmussen wir in die Blocke nur die Ubertragungsfunktion eintragen und sparen uns die nume-rische Codierung. Außerdem muss die Verknupfung der Blocke nicht in einen Programmcodeeingearbeitet werden sondern erfolgt direkt – das Risiko von Codierungsfehlern wird verrin-gert. Hat man einmal die Anfangsinvestition getatigt, so erlaubt das Verfahren eine schnelleSimulation. Daher wird es in der Industrie auch im ‘rapid prototyping’ angewendet.

i

Page 3: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

ii

§ 6 Skript und Vorlesung sollen in die hier erwahnten Konzepte einfuhren und diese an Handvon einfachen, aus der Physik wohlbekannten Beispielen illustrieren – da ich dabei Wert aufIm- und Exporte lege, werden einige Beispiele auch in erweiterter Anwendung diskutiert.Komplexere Probleme konnen im Rahmen von Projekten bearbeitet werden.

4. Februar 2008 c© M.-B. Kallenrode

Page 4: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Inhaltsubersicht

1 Einfuhrung 11.1 Ein einfaches Beispiel: Federpendel . . . . . . . . . . . . . . . . . . . . . . . . 11.2 Eine erweiterte Form des einfachen Beispiels . . . . . . . . . . . . . . . . . . . 141.3 (Dynamische) Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.4 Aufbau von Vorlesung und Skript . . . . . . . . . . . . . . . . . . . . . . . . . 28

I Lineare Systeme 31

2 Laplace Transformation 322.1 Fourier Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 332.2 Fourier Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.3 Laplace Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

3 Systemtheorie im Vorbeigehen 693.1 Grundbegriffe: Was ist ein System? . . . . . . . . . . . . . . . . . . . . . . . . 703.2 Losung der Systemgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . 753.3 Ubertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

II SimuLink und lineare Systeme 91

4 Simulink – Die Grundlagen 924.1 Erste Schritte: Start von SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 934.2 Der SimuLink Libraray Browser . . . . . . . . . . . . . . . . . . . . . . . . . 964.3 Ein erstes einfaches Modell: Einfaches Federpendel . . . . . . . . . . . . . . . 1064.4 Etwas komplizierter: zwei gekoppelte Federpendel . . . . . . . . . . . . . . . . 1174.5 (Maskierte) Untersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.6 Kommunikation mit dem WorkSpace . . . . . . . . . . . . . . . . . . . . . . . 1274.7 Simulationskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

5 Ubertragungsfunktion vertieft: Filter 1445.1 Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1455.2 Analoge Filter im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 1475.3 Digitale Filter im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 1555.4 Filter im Spektralbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1625.5 Filter im Raum- statt Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . 164

iii

Page 5: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

iv INHALTSUBERSICHT

III Nicht-Lineare und/oder komplexere Systeme 182

6 Nicht-lineare Systeme 1836.1 Einfache zeitvariante Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 1846.2 Gekoppelte Federpendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1956.3 Diffusions–Reaktions-Gleichungen und ihre Anwendungen . . . . . . . . . . . 201

7 Der Zufall kommt ins Spiel: Ensemble Mittel 2087.1 Ein (viel zu einfaches) Beispiel und ein etwas passenderes Beispiel . . . . . . 2087.2 Ein einfaches chaotisches System: logistische Gleichung . . . . . . . . . . . . . 2137.3 Jager–Beute Modell mit stochastischen Anfangsbedingungen . . . . . . . . . . 213

8 Etwas Spieltheorie 2148.1 Gefangene, Kuhe und Stichlinge . . . . . . . . . . . . . . . . . . . . . . . . . . 2158.2 Klimafolgenabminderung spieltheoretisch . . . . . . . . . . . . . . . . . . . . 2238.3 Strategien auswahlen mit SimuLink . . . . . . . . . . . . . . . . . . . . . . . 236

A Einige wichtige Begriffe und Konzepte 238A.1 Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238A.2 Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239A.3 Diffusions–Reaktions-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239A.4 Emergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240A.5 Morphogenese, biologische . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242A.6 Nash-Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242A.7 Oszillatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242A.8 Selbstorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.9 Solitonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.10 Synchronisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250A.11 Schmetterlingseffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254

B Nutzliche Erganzungen 255B.1 Formelzeichen und Abkurzungen . . . . . . . . . . . . . . . . . . . . . . . . . 255B.2 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257B.3 Chaos oder algebraische Schleife? . . . . . . . . . . . . . . . . . . . . . . . . . 265B.4 Etwas (historischer) Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . 269

4. Februar 2008 c© M.-B. Kallenrode

Page 6: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Inhaltsverzeichnis

1 Einfuhrung 11.1 Ein einfaches Beispiel: Federpendel . . . . . . . . . . . . . . . . . . . . . . . . 1

1.1.1 Die analytische Losung . . . . . . . . . . . . . . . . . . . . . . . . . . 2Freie Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2Erzwungene Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . 3

1.1.2 Die numerische Losung . . . . . . . . . . . . . . . . . . . . . . . . . . 4Freie Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5Erzwungene Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . 8

1.1.3 Und die Losung in SimuLink? . . . . . . . . . . . . . . . . . . . . . . 9Die Idee . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9Freie Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10Erzwungene Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . 12

1.1.4 Geist ist geil: Im- und Exporte . . . . . . . . . . . . . . . . . . . . . . 131.2 Eine erweiterte Form des einfachen Beispiels . . . . . . . . . . . . . . . . . . . 14

1.2.1 Die analytische Losung . . . . . . . . . . . . . . . . . . . . . . . . . . 151.2.2 Die numerische Losung . . . . . . . . . . . . . . . . . . . . . . . . . . 161.2.3 Und die Losung in SimuLink? . . . . . . . . . . . . . . . . . . . . . . 17

1.3 (Dynamische) Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 171.3.1 Was ist ein System? . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3.2 Struktur oder Aggregat? . . . . . . . . . . . . . . . . . . . . . . . . . . 181.3.3 Selbstorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191.3.4 Zeit-kontinuierliche und diskrete Systeme . . . . . . . . . . . . . . . . 251.3.5 Lineare und nichtlineare Systeme . . . . . . . . . . . . . . . . . . . . . 261.3.6 Ubertragungsfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . 261.3.7 Zusammenfassung Systemeigenschaften . . . . . . . . . . . . . . . . . 27

1.4 Aufbau von Vorlesung und Skript . . . . . . . . . . . . . . . . . . . . . . . . . 28

I Lineare Systeme 31

2 Laplace Transformation 322.1 Fourier Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33

2.1.1 Fourier Reihen anschaulich eingefuhrt . . . . . . . . . . . . . . . . . . 34Bestimmung der Fourier Koeffizienten . . . . . . . . . . . . . . . . . . 35Winkelfunktionen als Basen eines nicht-geometrischen Vektorraums . . 38Fourier Reihe und nichtperiodische Funktion . . . . . . . . . . . . . . 39

2.2 Fourier Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 412.2.1 Kontinuierliche Fourier Transformation . . . . . . . . . . . . . . . . . 41

Fourier Transformation Beispiele . . . . . . . . . . . . . . . . . . . . . 42

v

Page 7: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

vi INHALTSVERZEICHNIS

Eigenschaften der kontinuierlichen Fourier Transformation . . . . . . . 45Fourier Transformation und DGLs: einfache Beispiele . . . . . . . . . 48

2.2.2 Diskrete Fourier Transformation . . . . . . . . . . . . . . . . . . . . . 50Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50Eigenschaften der diskreten Fourier Transformation . . . . . . . . . . 52

2.2.3 Fast Fourier Transformation FFT . . . . . . . . . . . . . . . . . . . . . 532.2.4 FFT in MatLab . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54

‘Uberprufung’ mit selbsterzeugten Datensatzen . . . . . . . . . . . . . 55Fensterln mit Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56Verrauschter Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58Fourier und Faltung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59

2.2.5 Zusammenfassung: Fourier in der Signalanalyse . . . . . . . . . . . . . 602.3 Laplace Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62

2.3.1 Laplace Transformation und Losung der DGls . . . . . . . . . . . . . . 64Gewohnliche DGL 1. Ordnung: Auf- und Entladen eines Kondensators 64Partielle Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . 66

3 Systemtheorie im Vorbeigehen 693.1 Grundbegriffe: Was ist ein System? . . . . . . . . . . . . . . . . . . . . . . . . 70

3.1.1 Ein- und Ausgangsgroßen, Zustandsvariable . . . . . . . . . . . . . . . 713.1.2 LTI-System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 723.1.3 Nicht-Eindeutigkeit der Zustandsvariablen . . . . . . . . . . . . . . . . 74

3.2 Losung der Systemgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . 753.2.1 Wiederholung: Losung im Zeitbereich . . . . . . . . . . . . . . . . . . 75

Homogener Anteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75Inhomogener Anteil . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76Gesamtlosung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77Beispiel: Harmonischer Oszillator . . . . . . . . . . . . . . . . . . . . . 78Beispiel: Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79

3.2.2 Losung mit Hilfe einer Laplace Transformation . . . . . . . . . . . . . 813.3 Ubertragungsfunktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83

3.3.1 Wichtig fur SimuLink: Struktur der Ubertragungsfunktion . . . . . . 853.3.2 Ruckkopplungen und Ubertragungsfunktion . . . . . . . . . . . . . . . 853.3.3 Eigenfunktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 873.3.4 Frequenzgang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89

II SimuLink und lineare Systeme 91

4 Simulink – Die Grundlagen 924.1 Erste Schritte: Start von SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 934.2 Der SimuLink Libraray Browser . . . . . . . . . . . . . . . . . . . . . . . . . 96

4.2.1 Blockgruppe Continuous . . . . . . . . . . . . . . . . . . . . . . . . . . 97Drivative . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97Integrator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 98State Space . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99Transfer Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

4.2.2 Blockgruppe Math Operations . . . . . . . . . . . . . . . . . . . . . . 100Divide . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101Gain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102Math Function . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102Sum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102Trigonometric Function . . . . . . . . . . . . . . . . . . . . . . . . . . 103

4.2.3 Blockgruppe Sinks . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1034.2.4 Blockgruppe Sources . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

4. Februar 2008 c© M.-B. Kallenrode

Page 8: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

INHALTSVERZEICHNIS vii

4.2.5 Ausfuhren der Simulation . . . . . . . . . . . . . . . . . . . . . . . . . 1044.3 Ein erstes einfaches Modell: Einfaches Federpendel . . . . . . . . . . . . . . . 106

4.3.1 Die Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.3.2 Test der Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1094.3.3 Der Export der Daten . . . . . . . . . . . . . . . . . . . . . . . . . . . 1104.3.4 Simulation mit Hilfe der Ubertragungsfunktion: erzwungene Schwingung1114.3.5 Losung der Systemgleichungen mit State Space . . . . . . . . . . . . 1124.3.6 Zusammenfassung: Gewohnliche Differentialgleichung in SimuLink . . 1134.3.7 Technische Anwendung: schwingender Container am Kran . . . . . . . 114

4.4 Etwas komplizierter: zwei gekoppelte Federpendel . . . . . . . . . . . . . . . . 1174.4.1 Die Simulation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.4.2 Gibt es Alternativen? . . . . . . . . . . . . . . . . . . . . . . . . . . . 1184.4.3 Ist die Bewegung periodisch oder nicht? . . . . . . . . . . . . . . . . . 119

4.5 (Maskierte) Untersysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.5.1 Das Untersystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1214.5.2 Ubergabe der Modellparameter . . . . . . . . . . . . . . . . . . . . . . 1224.5.3 Maskierte Blocke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123

Parameter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123Initialisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124Dokumentation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125Icon . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126Das zusammengebaute System . . . . . . . . . . . . . . . . . . . . . . 126Und wohin damit? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

4.6 Kommunikation mit dem WorkSpace . . . . . . . . . . . . . . . . . . . . . . . 1274.6.1 GUI oder nicht? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 127

Starten einer Simulation mit SIM . . . . . . . . . . . . . . . . . . . . . 128Veranderung der Simulationsparameter mit simset . . . . . . . . . . . 129

4.7 Simulationskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1314.7.1 Solver . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131

Feste oder variable Schrittweite? . . . . . . . . . . . . . . . . . . . . . 133Beispiele variable Schrittweite . . . . . . . . . . . . . . . . . . . . . . . 133

4.7.2 Nullstellendetektion . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134Springender Ball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135Elastischer Ball . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135Diskontinuierliches System: Idealisierte (Zener-)Diode . . . . . . . . . 136Diskontinuierliches System: Schmitt-Trigger . . . . . . . . . . . . . . . 137

4.7.3 Datenim- und -export . . . . . . . . . . . . . . . . . . . . . . . . . . . 1384.7.4 Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1384.7.5 Direkte Ruckkopplung: algebraische Schleifen . . . . . . . . . . . . . . 138

Ein Beispiel mit Memory Block: zwei Wagen Huckepack . . . . . . . . 141

5 Ubertragungsfunktion vertieft: Filter 1445.1 Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1455.2 Analoge Filter im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 147

5.2.1 Filter 1. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1485.2.2 Filter 2. Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.2.3 Filter hoherer Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . 152

Butterworth Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152Tschebyscheff Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153

5.2.4 Analoge Filter in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 1545.3 Digitale Filter im Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

5.3.1 FIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1555.3.2 IIR-Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1565.3.3 Gleitendes Mittel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156

c© M.-B. Kallenrode 4. Februar 2008

Page 9: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

viii INHALTSVERZEICHNIS

5.3.4 Der Filter-Kern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1595.3.5 Die Impulsantwort . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1605.3.6 Block Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1605.3.7 Digitale Filter in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 161

5.4 Filter im Spektralbereich . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1625.4.1 z-Transformation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1635.4.2 Und in SimuLink? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164

5.5 Filter im Raum- statt Zeitbereich . . . . . . . . . . . . . . . . . . . . . . . . . 1645.5.1 FIR Filter im Raumbereich . . . . . . . . . . . . . . . . . . . . . . . . 164

Fehlende Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165Periodisch fehlende Streifen . . . . . . . . . . . . . . . . . . . . . . . . 167Random Noise . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168Kontrastanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . 169

5.5.2 Kantenanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1735.5.3 Filter im Frequenzbereich: Fourier Transformation in mehreren Dimen-

sionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1765.5.4 Ein alltagliches Beispiel: JPEG . . . . . . . . . . . . . . . . . . . . . . 177

Exkursion JPEG: Fourier Transformation zur Datenkompression . . . 178

III Nicht-Lineare und/oder komplexere Systeme 182

6 Nicht-lineare Systeme 1836.1 Einfache zeitvariante Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . 184

6.1.1 Startende Rakete . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 184Die Bewegungsgleichung . . . . . . . . . . . . . . . . . . . . . . . . . . 184Das Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185

6.1.2 Das Feder-Fadenpendel . . . . . . . . . . . . . . . . . . . . . . . . . . 188Ruckblick: Fadenpendel nicht disspativ . . . . . . . . . . . . . . . . . . 188Feder statt Faden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190Fadenpendel an Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . 193

6.2 Gekoppelte Federpendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1956.2.1 Lineare Geometrie linearer Pendel . . . . . . . . . . . . . . . . . . . . 195

Alles identisch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196Unterschiedliche lineare Federn . . . . . . . . . . . . . . . . . . . . . . 199

6.2.2 Nicht-lineare Version: Toda’s Soliton . . . . . . . . . . . . . . . . . . . 1996.2.3 Fermi–Pasta–Ulam Problem: MANIAC’s Test . . . . . . . . . . . . . . 200

6.3 Diffusions–Reaktions-Gleichungen und ihre Anwendungen . . . . . . . . . . . 2016.3.1 Das Gleichungssystem . . . . . . . . . . . . . . . . . . . . . . . . . . . 201

Turing-Muster . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 202Kannibalen und Missionare oder Jager–Beute Modelle . . . . . . . . . 203Hirnareale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204Selbstorganisation auf Oberflachen . . . . . . . . . . . . . . . . . . . . 205Hodgkins–Huxley-Modell eines Neurons . . . . . . . . . . . . . . . . . 205

6.3.2 mathematische Beschreibungen und Losungsverfahren . . . . . . . . . 2066.3.3 Das Gleichungssystem in SimuLink . . . . . . . . . . . . . . . . . . . 206

Vorubung: Diffusionsgleichung in SimuLink . . . . . . . . . . . . . . . 2066.3.4 Eindimensionale Geometrie: Missionare und Kannibalen . . . . . . . . 2076.3.5 Turing gehts ans Fell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2076.3.6 Neuronen, helft mir! . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2076.3.7 Uberprufung der Losungen . . . . . . . . . . . . . . . . . . . . . . . . 207

4. Februar 2008 c© M.-B. Kallenrode

Page 10: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

INHALTSVERZEICHNIS ix

7 Der Zufall kommt ins Spiel: Ensemble Mittel 2087.1 Ein (viel zu einfaches) Beispiel und ein etwas passenderes Beispiel . . . . . . 208

7.1.1 Fibonacci Zahlen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2097.1.2 Vorhersageprobleme bei Kaninchenpopulationen . . . . . . . . . . . . 2107.1.3 Kritik am Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2117.1.4 Waldbrand . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211

7.2 Ein einfaches chaotisches System: logistische Gleichung . . . . . . . . . . . . . 2137.3 Jager–Beute Modell mit stochastischen Anfangsbedingungen . . . . . . . . . . 213

8 Etwas Spieltheorie 2148.1 Gefangene, Kuhe und Stichlinge . . . . . . . . . . . . . . . . . . . . . . . . . . 215

8.1.1 Hofstaedter’s Einmillionendollarspiel . . . . . . . . . . . . . . . . . . . 2168.1.2 Nullsummenspiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2178.1.3 Das Gefangenendilemma – Einzelspiel . . . . . . . . . . . . . . . . . . 217

Gefangenendilemma mit mehreren Spielern: die Gemeindewiese . . . . 2208.1.4 Iteriertes Gefangenendilemma . . . . . . . . . . . . . . . . . . . . . . . 221

8.2 Klimafolgenabminderung spieltheoretisch . . . . . . . . . . . . . . . . . . . . 2238.2.1 Das Klimasystem spieltheoretisch . . . . . . . . . . . . . . . . . . . . . 2238.2.2 Globales Modell Umwelt und Gesellschaft – Einpersonenspiel . . . . . 224

Green’sche Funktion des Klimamodells . . . . . . . . . . . . . . . . . . 225Vorgegebene Szenarien – Response-Funktionen . . . . . . . . . . . . . 226Klimakostenmodell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 227Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229Erweitertes Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 230

8.2.3 Globales Modell Umwelt und Gesellschaft – Mehrpersonenspiel . . . . 231Gleichberechtigte nicht-kooperative Akteure . . . . . . . . . . . . . . . 232Ein einzelner Vermeider . . . . . . . . . . . . . . . . . . . . . . . . . . 233Handelnde Akteure . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234Zusammenfassung Multi-Actor . . . . . . . . . . . . . . . . . . . . . . 236

8.3 Strategien auswahlen mit SimuLink . . . . . . . . . . . . . . . . . . . . . . . 236

A Einige wichtige Begriffe und Konzepte 238A.1 Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238

A.1.1 Ein trivialer Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . 238A.1.2 Poincare Schnitt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239

A.2 Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239A.2.1 Deterministisches Chaos . . . . . . . . . . . . . . . . . . . . . . . . . . 239

A.3 Diffusions–Reaktions-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239A.3.1 Diffusion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239A.3.2 Reaktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240

A.4 Emergenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 240A.5 Morphogenese, biologische . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242A.6 Nash-Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242A.7 Oszillatoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 242

A.7.1 Van (der) Pol Oszillator . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.8 Selbstorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.9 Solitonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243

A.9.1 Tsunamis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243A.9.2 Parry und die voreilige Kanone . . . . . . . . . . . . . . . . . . . . . . 243A.9.3 Russel und Korteweg–de Vries . . . . . . . . . . . . . . . . . . . . . . 244A.9.4 Aufsteilen im Flachwasser . . . . . . . . . . . . . . . . . . . . . . . . . 245A.9.5 Die mathematische Formulierung . . . . . . . . . . . . . . . . . . . . . 247

Nicht-topologische Solitonen . . . . . . . . . . . . . . . . . . . . . . . . 247Einhullende Solitonen . . . . . . . . . . . . . . . . . . . . . . . . . . . 248Topologische Solitonen . . . . . . . . . . . . . . . . . . . . . . . . . . . 249

c© M.-B. Kallenrode 4. Februar 2008

Page 11: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

0 INHALTSVERZEICHNIS

Lattice Solitonen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249Boomeronen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249

A.10 Synchronisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250A.10.1 Zum Einstieg: erzwungene Schwingung . . . . . . . . . . . . . . . . . . 251A.10.2 Zwei gekoppelte Oszillatoren . . . . . . . . . . . . . . . . . . . . . . . 252A.10.3 Eine Population gekoppelter Oszillatoren . . . . . . . . . . . . . . . . 253

A.11 Schmetterlingseffekt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254A.11.1 Schmetterlingseffekt und Vorhersagbarkeit . . . . . . . . . . . . . . . . 254

B Nutzliche Erganzungen 255B.1 Formelzeichen und Abkurzungen . . . . . . . . . . . . . . . . . . . . . . . . . 255

B.1.1 Formelzeichen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255B.1.2 Abkurzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256

B.2 Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257B.2.1 Einfache Verfahren mit fester Schrittweite . . . . . . . . . . . . . . . . 257

Euler Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258Crank–Nicolson Verfahren . . . . . . . . . . . . . . . . . . . . . . . . . 258Leap-Frog . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258Runge–Kutta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259

B.2.2 Stabilitat und Fehler . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259Diskretisierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259Konsistenz und Genauigkeit . . . . . . . . . . . . . . . . . . . . . . . . 260Stabilitat . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261Anwendung dieser Begriffe auf die diskutierten Schemata . . . . . . . 261

B.2.3 Verfahren mit variabler Schrittweite – Idee . . . . . . . . . . . . . . . 261B.2.4 Zentrale Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262

Eindimensionaler Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . 262Zweidimensionaler Fall . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

B.2.5 Nullstellenbestimmung: Newton–Raphson . . . . . . . . . . . . . . . . 264B.3 Chaos oder algebraische Schleife? . . . . . . . . . . . . . . . . . . . . . . . . . 265

B.3.1 Feigenbaum Attraktor und Apfelmannchen . . . . . . . . . . . . . . . 265B.3.2 Selbstahnlichkeit . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266

B.4 Etwas (historischer) Hintergrund . . . . . . . . . . . . . . . . . . . . . . . . . 269B.4.1 Block- und Flussdiagramme . . . . . . . . . . . . . . . . . . . . . . . . 269B.4.2 Flussdiagramme in der Informatik . . . . . . . . . . . . . . . . . . . . 269

4. Februar 2008 c© M.-B. Kallenrode

Page 12: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 1Einfuhrung

Do cities learn? Not the individuals who populate cities, not the institutions theyfoster but the cities themselves. I think the answer is yes. And the silk weavers ofFlorence can help explain why.

S. Johnson [50], 2001

§ 7 Das Federpendel ist ein einfaches, durch eine DGL beschriebenes physikalisches System.An Hand dieses Beispiels werden die analytische Losung, eine numerische Losung sowie dieBeschreibung des Systems in SimuLink vorgestellt. Dabei erhalten wir einen ersten Einblickin letzteres Simulationsverfahren; außerdem konnen wir mit den anderen Losungen verglei-chen. In diesem einfachen SimuLink-Beispiel werden wir bereits die Darstellung im Block-diagramm und die Ubertragungsfunktion kennen lernen – ohne allerdings systematisch aufdiese einzugehen. In einem kleinen Abschnitt uber Systeme und ihre Eigenschaften werdenwir ferner erste Vorstellungen uber deren Beschreibung in konventionellen mathematischenKonzepten und Blockdiagrammen gewinnen. Des weiteren wird die Struktur von Skript undVorlesung beschrieben; außerdem finden Sie Hinweise zu Literatur.

Lernziele hat dieses Kapitel, da es im wesentlich eine Wiederholung ist, nicht. Am Ende desKapitels sollten Sie jedoch, entweder auf der Basis von Vorwissen oder auf Grundlage derfolgenden Inhalte,

• gangige Losungsverfahren fur gewohnliche Differentialgleichungen grob skizzieren konnen.• Verfahren zur Losung einfacher Differentialgleichungssysteme darstellen konnen.• einfache Probleme mit Hilfe von Blockdiagrammen darstellen konnen.• einfache Systeme mit Hilfe der gebrauchlichen systemtheoretischen Begriffe charakterisie-

ren konnen.

1.1 Ein einfaches Beispiel: Federpendel

§ 8 Beginnen wir mit einem einfachen Beispiel fur ein physikalisches System. In den Ein-fuhrungsvorlesungen sowohl zur Physik als auch zu den Rechenmethoden haben wir dasFederpendel hinreichend ausfuhrlich behandelt: ausgehend vom zweiten Newton’schen Axiomerhalten wir fur die Bewegungsgleichgung im eindimensionalen Fall

mx = −kx rucktreibende Kraft−βx Reibung+FA antreibende Kraft

1

Page 13: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2 KAPITEL 1. EINFUHRUNG

mit m als der Masse, x als dem Ort, k als der Federkonstante, β als dem Reibungskoeffizientenund FA als antreibender Kraft. Vereinfacht lasst sich die Gleichung schreiben als

x + 2γx + ω20x = fA (1.1)

mit γ = β/2m, fA = FA/m sowie ω20 = k/m als der Frequenz der freien Schwingung.

§ 9 Gleichung (1.1) enthalt als Spezialfall die freie Schwingung. In diesem Fall verschwindendie Dampfung und die antreibende Kraft und (1.1) reduziert sich auf

x + ω20x = 0 . (1.2)

§ 10 Dieses System besteht aus zwei Komponenten, der Masse m und der Feder mit derFederkonstanten k. Diese beiden Komponenten sind mit einander gekoppelt in dem Sinne,dass (a) die Feder auf Grund ihrer Auslenkung x eine rucktreibende Kraft F = −kx auf dieMasse ausubt und diese damit beschleunigt, und (b) die Tragheit der bewegten Masse zueiner Kompression/Auslenkung der Feder fuhren kann. Das System ist statisch in dem Sinne,dass die Systemparameter k und m und die daraus resultierende Frequenz ω0 =

√k/m

Konstanten sind und sich nicht im Laufe der Bewegung verandern: das System entwickeltsich nicht weiter sondern verhalt sich bei gleicher Anregung immer wieder auf die gleicheWeise. Dies gilt naturlich nicht nur fur den Spezialfall der freien Schwingung sondern ebensofur eine gedampfte Schwingung oder eine angeregte.

1.1.1 Die analytische Losung

§ 11 Eine analytische Losung ist stets einer numerischen Losung vorzuziehen. Zum einen istdie analytische Losung exakt und leidet nicht unter den numerischen Verfahren inne wohnen-den Diskretisierungs- und Abbruchfehlern. Zum anderen ist eine analytische Losung allgemeinwahrend eine numerische Losung stets nur fur einen bestimmten Satz von Parametern sowiefeste Anfangs- und/oder Randbedingungen bestimmt ist – außer man kann durch die Ver-wendung von dimensionslosen Variablen zumindest bestimmte Parameterkombinationen ineinem Durchgang behandeln. Oder in anderen Worten: bei jeder Variation eines Parametersmuss die numerische Losung neu bestimmt werden. Bei der analytischen Losung dagegenmuss nur der Parameter neu in die nur einmal zu bestimmende Losungsfunktion eingesetztwerden. Daher sind die zum Verstandnis eines Systems so hilfreichen Parameterstudien mitanalytischen Losungen wesentlich leichter durchzufuhren als mit numerischen.

§ 12 Das Federpendel zeigt sich der analytischen Losung leicht zuganglich. Auch das nachst-komplexe System, zwei gekoppelte Federpendel, lassen sich formal ahnlich behandeln. Mitkomplexeren Systemen, wie z.B. dem Klimasystem, wird es jedoch schwierig: mathematischwird dieses durch einen großen Satz gekoppelter partieller Differentialgleichungen beschrie-ben.1 Hier sind analytische Losungen nicht, oder bei einfacheren Systemen nur durch ein-schrankende Annahmen, moglich. Daher die Warnung: so schon und praktisch die analytischeLosung in einem einfachen System ist, so viele interessante Systeme gibt es, in denen eineanalytische Losung nicht moglich ist.

Freie Schwingung

§ 13 Aber wenden wir uns jetzt den analytischen Losungen des Federpendels zu. Betrachtenwir als erstes die Losung fur den simplen Fall der freien Schwingung. Mit dem bei DGLsmit konstanten Koeffizienten stets anwendbaren Exponentialansatz x ∼ eλt ergibt sich nachEinsetzen in die DGL (1.2) fur die Eigenwerte λ1,2 = ±iω0. Damit ist die komplexe Losung

z(t) = A eω0t + B eω0t .

1Genauer handelt es sich um mehrere Satze gekoppelter Systeme von DGLs, da das Klimasystem schonnaturlich in mehrere Untersysteme (Ozean, Atmosphare, Kryosphare, Boden ...) mit eigenen Zeitkonstantenund jeweils unterschiedlichen raumlichen Skalen zerfallt. Zusatzlich werden fur die Beschreibung einzelnerAspekte jedes Untersystems, wie z.B. Dynamik oder Chemie, jeweils unterschiedliche, nur schwach mit ein-ander gekoppelte Systeme von DGLs benotigt.

4. Februar 2008 c© M.-B. Kallenrode

Page 14: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 3

Abbildung 1.1: Losungen fur die DGL der gedampften Schwingung, x+2γx+ω20 = 0. Links:

Schwingfall (γ2 < ω20), Mitte: Kriechfall (γ2 > ω2

0), Rechts: aperiodischer Grenzfall (γ2 = ω20)

Darin sind A und B komplexwertigen Integrationskonstanten. Physikalisch sinnvoll ist nurder Realteil der Losung:

x(t) = <(z(t)) = a cos(ω0t) + b sin(ω0t)

mit den reellen Integrationskonstanten a und b – zu bestimmen aus den Anfangsbedingungen.

Erzwungene Schwingung

§ 14 Die analytische Losung der inhomogenen DGL (1.1) ergibt sich als Superposition derallgemeinen Losung der homogenen DGL

x + 2γx + ω20x = 0 (1.3)

sowie einer speziellen Losung der inhomogenen DGL.

§ 15 Die allgemeine Losung der homogenen DGL lasst sich wie bei der freien Schwingungmit einem Exponentialansatz x ∼ eλt bestimmen. Einsetzen in die DGL liefert als Bestim-mungsgleichung fur die Eigenwerte λ:

λ1,2 = −γ ±√

γ2 − ω20 .

Formal wie physikalisch ergeben sich in Abhangigkeit vom Radikanten γ2−ω20 drei verschie-

dene Losungen (siehe auch Abb. 1.1):

1. Schwingfall: hier ist γ2 < ω20 , so dass der Radikant negativ wird. Die Eigenwerte sind

komplex

λ1,2 = −γ ± iω mit ω =√

ω20 − γ2

und die allgemeine (komplexe) Losung der DGL ist:

z(t) = Ae(−γ+iω)t + Be(−γ−iω)t = e−γt[Aeωt + Be−ωt] .

Physikalisch sinnvoll ist nur der Realteil dieses Ausdrucks:

xh(t) = <(z(t)) = e−γt[a cos(ωt) + b sin(ωt)] .

Die eckige Klammer entspricht der Losung der freien Schwingung, der Vorfaktor be-schreibt das Abklingen der Amplitude auf Grund der Dampfung.

2. Kriechfall: hier ist γ2 > ω20 , so dass der Radikant positiv ist. Die Eigenwerte sind reell

λ1,2 = −γ + ω mit ω =√

γ2 − ω20

und die Losung wird

xh(t) = e−γt[a eωt + b e−ωt] .

Hier ist die Dampfung so stark, dass sich der Korper asymptotisch der Ruhelage annahertohne durch diese hindurch zu schwingen: die Losung hat keine Nullstelle.

c© M.-B. Kallenrode 4. Februar 2008

Page 15: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4 KAPITEL 1. EINFUHRUNG

3. aperiodischer Grenzfall: hier ist γ2 = ω20 , so dass sich nur ein Eigenwert λ = −γ ergibt.

Die zweite Losung lasst sich mit Hilfe des Ansatz x(t) ∼ t eλt finden. Als Gesamtlosungergibt sich

xh(t) = e−γt[a + bt] .

In diesem Fall nahert sich der Korper ebenfalls der Ruhelage an, kann jedoch noch einmaldurch diese hindurchschwingen. Ein zweites Durchschwingen erfolgt nicht – wurde dieseserfolgen, so ließe sich die Periodendauer bzw. Frequenz der Schwingung bestimmen unddie Losung wurde durch den Schwingfall beschrieben.

Alle drei Varianten haben den Vorfaktor e−γt gemeinsam, d.h. fur t → ∞ verschwindet dieLosung. Oder in anderen Worten: im stationaren Fall ist die Losung des homogenen Anteilsder DGL (1.1) irrelevant, die Bewegung ist durch die spezielle Losung der inhomogenen DGLbestimmt, siehe auch den linken Teil von Abb. 1.2.

§ 16 Die spezielle Losung der inhomogenen DGL erhalten wir, in dem wir einen Ansatzmachen, der der Inhomogenitat fA ahnlich ist. Nehmen wir z.B. als Inhomogenitat eineperiodische Funktion fA = faeiΩt. Der Ansatz fur die spezielle Losung der inhomogenenDGL wird dieser Inhomogenitat ahnlich gewahlt, z(t) = AceiΩt mit Ac als gegebenenfallskomplexer Amplitude. Ableiten und einsetzen in die DGL liefert

(−Ω2 + 2iγΩ + ω20)Ac = fa

und damit fur den Zusammenhang zwischen der Amplitude fa der antreibenden Kraftdichteund der Amplitude A der erzwungenen Schwingung

A =√

Ac Ac∗ =fa√

(ω20 − Ω2)2 + (2γΩ)2

,

wie im mittleren Teil von Abb. 1.2 dargestellt. Die Phase ergibt sich, wie im rechten Teil vonAbb. 1.2 gezeigt, zu

φ = −arctan=(Ac)<(Ac)

= −arctan2γΩ

ω20 − Ω2

.

Als partikulare Losung der inhomogenen DGL ergibt sich damit

xp = A cos(Ωt + ϕ) .

Nach dem durch die Losung der homogenen DGL beschriebenen Einschwingen, d.h. fur t→∞, hat die erzwungene Schwingung die Frequenz der antreibenden Kraft, jedoch verschobenum den Phasenwinkel ϕ. Dieser hangt ebenso wie die Amplitude A von der Dampfung γab: fur verschwindende Dampfung ergibt sich bei ω0 = Ω die maximale Phasenverschiebung,ebenso geht die Amplitude gegen ∞ (Resonanzkatastrophe).

Verstandnisfrage 1 Die freie Schwingung des Federpendels beschreiben wir physikalisch alskontinuierliche Umwandlung von kinetischer in potentielle Energie und umgekehrt. Ist eineResonanzkatastrophe energetisch eigentlich moglich? Oder gibt es in einem realen Systemselbst bei verschwindender Dampfung eine Art Begrenzung der Amplitude? Denken Sie anden Zeitverlauf!

1.1.2 Die numerische Losung

§ 17 Gleichung (1.1) ist eine DGL zweiter Ordnung. Zu ihrer numerischen Losung stehenuns zwei prinzipiell unterschiedliche Ansatze zur Verfugung:

• Zerlegung der DGL zweiter Ordnung in zwei DGLs erster Ordnung und alternierendeLosung dieser beiden Gleichungen, z.B. durch Euler, Leapfrog oder Runge–Kutta (vgl.Abschn. B.2.1).

4. Februar 2008 c© M.-B. Kallenrode

Page 16: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 5

Abbildung 1.2: Erzwungene Schwingung Links: Einschwingverhalten, Mitte: Amplitude inAbhangigkeit vom Verhaltnis Ω/ω0 der Frequenzen der antreiben Kraft und der freien Schwin-gung, Rechts: Phasenverschiebung in Abhangigkeit von Ω/ω0

• geeignete Diskretisierung der zweiten Ableitung und Losung der DGL in einem Schritt, inder Regel in einem impliziten Verfahren.

Letzteres Verfahren wird meist nur in speziellen Vorlesungen uber numerische Verfahrenoder Modellierung eingefuhrt (z.B. [53]) – wir werden es hier daher nicht weiter verfolgen;außerdem werden wir in SimuLink den ersten Ansatz wieder antreffen, so dass sich seineWiederholung hier lohnt.

Freie Schwingung

§ 18 Das erste Verfahren, die Zerlegung der DGL zweiter Ordnung in zwei DGLs erster Ord-nung lasst sich fur die freie Schwingung durchfuhren durch Einfuhrung einer Hilfsvariablenv = x:

x = v und v = −ω20x .

§ 19 Diese formale Zerlegung lasst sich anschaulich in ein Losungsverfahren ubersetzen (sieheauch [51, 54]). Diskretisierung der beiden DGLs liefert

∆x

∆t= v und (1.4)

∆v

∆t= −ω2

0x . (1.5)

Nach der Wahl einer geeigneten Schrittweite ∆t ist das folgende Schema zu durchlaufen:

1. Bestimme gemaß (1.5) die Beschleunigung vi aus der Auslenkung xi; beim ersten Schrittwird der Anfangswert x0 verwendet. Bestimme daraus die Geschwindigkeitsanderung ∆vwahrend des Zeitintervalls ∆t gemaß ∆v = vi ∆t = −ω2

0xi ∆t. Bestimme daraus die neueGeschwindigkeit vi+1 am Ende des Zeitintervalls:

vi+1 = vi + ∆v = vi + ω20xi ∆t .

Damit ist die zweite der beiden DGLs fur diesen Zeitschritt abgearbeitet.2. Bestimme nun gemaß (1.4) die Anderung des Ortes wahrend des Zeitintervalls: ∆x =

vi+1∆t. Bestimme daraus den neuen Ort

xi+1 = xi + ∆x = xi + vi+1 ∆t .

Damit ist die erste der beiden DGLs fur diesen Zeitschritt abgearbeitet.3. die Zeit wird nun um ∆t erhoht und die Schleife erneut durchlaufen (aber vorher auf

Abbruchbedingung checken!).

Verstandnisfrage 2 In dieser Darstellung wurde ein explizites Verfahren (Euler Vorwarts)verwendet. Ist die Zerlegung in zwei Gleichungen zwangslaufig an ein explizites Verfahrengebunden oder konnte diese auch in einem impliziten Verfahren durchgefuhrt werden?

c© M.-B. Kallenrode 4. Februar 2008

Page 17: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6 KAPITEL 1. EINFUHRUNG

§ 20 Die Grundidee dieses Losungsschemas lasst sich in einem Blockdiagramm anschaulichzusammen fassen. Ein derartiges Blockdiagramm entspricht dem vor der Codierung zu erstel-lenden Flussdiagramm. Zwar ist fur letzteres die Verwendung der einzelnen Zeichen durchNormen geregelt (in diesem Fall DIN 66001),2 wir verwenden nur eine einfache schematischeForm; die Liste der wichtigsten Symbole finden Sie in Abschn. B.4.1.

§ 21 Die im linken Teil von Abb. 1.3 dargestellte Variante entspricht der obigen verbalenDarstellung des Schemas. Nach dem Start (Oval) erfolgt die Eingabe (Parallelogramm) derParameter. Anschließend wird die erste Operation (Rechteck) durchgefuhrt: die neue Ge-schwindigkeit wird gemaß (1.5) berechnet. In der folgenden Operation wird der neue Ortgemaß (1.4) berechnet. Anschließend erfolgt eine Verzweigung (Raute), die z.B. explizit ubereine Abbruchbedingung gesteuert wird (z.B. vorgegebene Endzeit) oder implizit durch diebei der Berechnung zu durchlaufende Schleife. Ist die Abbruchbedingung nicht erreicht, wirdauf die erste Operation zuruck gesprungen, sonst erfolgt die Ausgabe (Parallelogramm) unddas Programm wird beendet (Oval).

§ 22 Im rechten Teil der Abbildung ist der erste Block in der Schleife in zwei Teile aufge-brochen, d.h. die erste Operation wird in zwei Teile aufgespalten: es wird in einer erstenOperation die Beschleunigung bestimmt als a = −kx/m. Anschließend wird daraus die Ge-schwindigkeit bestimmt als vi+1 = vi + a∆t, d.h. die Gleichung v = a wird integriert.

§ 23 Die rechte Variante unterscheidet sich inhaltlich nicht von der kurzeren Variante imlinken Teil von Abb. 1.3. Wahrend letztere einen kompakteren Programmcode erzeugt, isterstere konzeptuell befriedigender: in der ersten Operation erfolgt eine einfache Multiplikationwahrend die beiden folgenden Operationen jeweils Integration einer homogenen DGL ersterOrdnung mit konstantem Koeffizienten sind. Fur die Losung des Problems in SimuLink wirdsich die zweite Variante als vorteilhaft erweisen.

§ 24 Vor der Codierung in einer Programmiersprache mussen wir uns jetzt noch fur ein nu-merisches Verfahren entscheiden. Da numerische Verfahren nicht Thema dieser Veranstaltungsind, wahlen wir das einfachste (und auch in der verbalen Beschreibung schon nahe gelegte)Verfahren, das Euler Vorwarts Verfahren.

§ 25 Eine Codierung dieses Verfahrens in MatLab konnte folgende Form annehmen:

01 % Harmonischer Oszillator

02 clear;clf

03 %%%%%%%%%% Vereinbarungsteil %%%%%%%%%%%%%%%%%

04 k=1;m=1; %Systemparameter (Eingabe)

05 omega2=k/m; %Systemparameter (fur Rechnung)

06 n=1000;deltt=2*pi/(sqrt(omega2)*n); %Zahl Rechenschritte wahrend einer Periode

07 t=[0:deltt:5*pi/sqrt(omega2)]; %Festlegung Rechendauer (statt Abbruchbedingung)

08 x=zeros(1,length(t));v=x; %Festlegung Ausgabevektoren

09 x(1)=0.; v(1)=1.; %Anfangsbedingungen

10 %%%%%%%%%% Beginn Schleife %%%%%%%%%%%%%%%%%%%

11 for i=2:length(t)

12 v(i)=v(i-1)-deltt*omega2*x(i-1); %Losung zweite DGL

13 x(i)=x(i-1)+deltt*v(i-1); %Losung erste DGL

14 end

15 %%%%%%%%%%%% Ende Schleife %%%%%%%%%%%%%%%%%

16 %%%%%%%%%%%% Darstellungsteil %%%%%%%%%%%%%%%

17 plot(t,x,’r’);hold on;plot(t,v,’g’);hold off;

18 xlabel(’Zeit’,’Fontsize’,14);

19 ylabel(’Ort x (rot), v (grun)’,’Fontsize’,14);

20 title(’Harm.Oszillator (Euler)’,’Fontsize’,18);

2Die DIN Norm (zumindest die Variante von 1996, heute ist es wahrscheinlich eine EU Norm) finden Siez.B. unter http://www.fh-jena.de/∼kleine/history/software/DIN66001-1966.pdf.

4. Februar 2008 c© M.-B. Kallenrode

Page 18: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 7

Abbildung 1.3: Flussdiagramm zurfreien Schwingung

§ 26 In Zeile 4 bis 6 werden die Eingabeparameter (Federkonstante k und Masse m, Zeile4) in den Systemparameter ω2

0 = k/m bzw. die charakteristische Zeit des Systems τ = 2π/ωumgewandelt (Zeile 5) und daraus die fur eine feste Zahl n von Rechenschritten pro Periodeerforderliche Zeitauflosung deltt bestimmt (Zeile 6). In Zeile 7 wird der zugehorige Vektorder Zeitachse erzeugt derart, dass 2.5 Schwingungen in das Simulationsintervall passen. Durchdie Festlegung der Zeitachse ist gleichzeitig auch die Simulation begrenzt, so dass keineAbbruchbedingung erforderlich ist.3 In Zeile 8 werden die Ausgabevektoren fur Ort x undGeschwindigkeit v als Nullvektoren vordefiniert; sonst rechnet MatLab sich in der Schleife

3Alternativ hatte man die Skalierung von Zeit und Zeitschritt auch derart wahlen konnen, das in Einheitender Zeitkonstante des Systems gearbeitet wird – der wesentliche Unterschied ist die Skalierung der Zeitachse:in dieser Form ist die Zeit in absoluten Einheiten gegeben, so dass fur unterschiedliche Kombinationen von kund m jeweils unterschiedliche Zeitfenster betrachtet werden. Im anderen Fall ist das Zeitfenster in Einheitender Zeitkonstante fix, d.h. die Darstellung entspricht der mit dimensionslosen Variablen.

Abbildung 1.4: Numerische Losungen zur freien Schwingung mit dem in § 25 gegebenen Codefur Schrittzahlen n von 10 (links), 100 (Mitte) und 10000 (rechts). Fur die beiden kleinerenSchrittzahlen liefert das numerische Verfahren unkorrekte Losungen – in diesem Beispiel istder Fehler glucklicherweise offensichtlich

c© M.-B. Kallenrode 4. Februar 2008

Page 19: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8 KAPITEL 1. EINFUHRUNG

tot. Zeile 9 enthalt die Eingabe der Anfangsbedingungen. Diese werden an die erste Stelleder Ausgabevektoren eingetragen.

§ 27 Die eigentliche Losung der DGL erfolgt in der Schleife von Zeile 10 bis 15: in Zeile 12wird (1.5) gelost, in Zeile 13 (1.5). In Zeile 12 wird dabei die Beschleunigung bei der Losungder Gleichung mit bestimmt, entsprechend dem linken Flussdiagramm in Abb. 1.3. Fur denrechten Teil von Abb. 1.3 musste Zeile 12 in zwei Zeilen aufgebrochen werden:

12a acc = -omega2*x(i-1)

12b v(i)=v(i-1)+deltt*acc

Die folgenden Zeilen 16 bis 20 dienen der Darstellung der Ergebnisse (Ausgabe).

§ 28 Abbildung 1.4 zeigt die Losungen fur Ort x(t) (rot) und Geschwindigkeit v(t) (grun) fureine freie Schwingung mit verschiedenen Schrittzahlen n wahrend einer Periode. Fur n = 10ist das Ergebnis offensichtlicher Blodsinn; n = 100 liefert zwar schon eine Schwingung, jedochist das Ergebnis auf Grund der anwachsenden Amplitude fur die gegebene Bewegungsglei-chung physikalisch nicht sinnvoll: da dem System weder Energie von außen zugefuhrt nochEnergie durch Reibung in Warme umgewandelt wird, sollte die Summe der mechanischenEnergien 1

2kx2 und 12mv2 konstant sein. Selbst bei n = 1000 (nicht gezeigt) ist noch ein

leichtes Anwachsen der Amplitude erkennbar. Erst fur n = 10000 gibt sie numerische Losungdie analytische (und wichtiger noch den physikalischen Sachverhalt) korrekt wieder: die Zeit-konstante T wird bei diesem sehr einfachen numerischen Verfahren (Euler Vorwarts) also inungefahr 4000 Schritte der Lange ∆t unterteilt.

§ 29 Diese kurze Diskussion soll an einen wichtigen Sachverhalt erinnern: bei einer nume-rischen Losung ist nicht nur die korrekte Codierung der Losung wichtig sondern auch diekorrekte Wahl der Schrittweite(n) des Losungsschemas.

Verstandnisfrage 3 Wir haben hier als Losungsverfahren das Euler Verfahren verwendet.Das ist einerseits das anschaulichste Verfahren, andererseits aber auch nicht besonders genau.Rekapitulieren Sie aus alten Skripten oder einem Buch uber numerische Verfahren nocheinmal die Grundideen hinter gangigen Losungsverfahren fur Differentialgleichungen (Euler,Runge–Kutta, Crank-Nicolcon, Leapfrog). Machen Sie sich dabei den Unterschied zwischenexpliziten und impliziten Verfahren klar, ebenso was die Ordnung eines Verfahrens bedeutetund wie sich die Schrittweite auf die Genauigkeit auswirkt.

Erzwungene Schwingung

§ 30 Zur Losung der DGL (1.1) der erzwungenen Schwingung bedienen wir uns des gleichenTricks wie bei der freien Schwingung: die DGL zweiter Ordnung wird auf zwei DGLs ersterOrdnung zuruck gefuhrt. Wieder mit x = v ergeben sich die beiden DGLs

v = −2γv − ω20x + fA und (1.6)

x = v . (1.7)

In der ersten Gleichung wird wieder die Beschleunigung aus der Summe der wirkenden Kraftebestimmt und daraus durch Integration die Geschwindigkeit; in der zweiten Gleichung wirddurch nochmalige Integration der Ort bestimmt.

§ 31 Die Struktur des Gleichungssystems entspricht der des Systems der freien Schwingung,d.h. wir konnen die numerische Losung entsprechend dem Flussdiagramm im rechten Teil vonAbb. 1.3 vornehmen. Die Struktur bleibt erhalten, lediglich die Operation im ersten Rechteckwird erweitert, da die Beschleunigung nicht mehr alleine durch −kx/m gegeben ist sonderndurch −kx/m− β/m + fA.

§ 32 Entsprechend konnen wir den MatLab-Code aus § 25 nahezu unverandert uberneh-men. Dabei gehen wir von der Variante mit der aufgespaltenen Zeile 12 aus (siehe § 27). Hiermuss Zeile 12a erweitert werden zu

4. Februar 2008 c© M.-B. Kallenrode

Page 20: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 9

Abbildung 1.5: Erzwungene Schwingung (numerische Losungen): der Einschwingvorgang mitdem Ubergang zur erzwungenen Schwingung (links); ohne externe Anregung ergibt sich ei-ne gedampfte Schwingung, entsprechend der Losung der homogenen DGL (Mitte); mit ver-schwindender Reibung und Anregung, entsprechend der freien Schwingung (rechts)

12a acc =-omega2*x(i-1) - beta*v(i-1) + fext(i-1)

Zur Ausfuhrung dieses Codes muss die Dampfungskonstante beta vereinbart werden (sinn-vollerweise zusammen mit den anderen Systemparametern in Zeile 4). Außerdem muss dieaußere Kraft fext definiert werden. Dies sollte nach der Definition der Zeitachse in Zeile 7erfolgen, z.B. als Zeile 7a mit

07a fext=fampl*cos(Omega*t)

wobei die Amplitude, bzw. genauer die Amplitude pro Masse fampl, der anregenden Kraftund die Anregungsfrequenz Omega ebenfalls in Zeile 4 vereinbart werden konnen.

§ 33 Abbildung 1.5 zeigt Losungen dieses numerischen Schemas. Im linken Teil (mit demParametersatz k=1;m=1;beta=0.5;fampl=1;Omega=2) ergibt sich das Einschwingen mit demUbergang zur erzwungenen Schwingung, d.h. die Losung der inhomogenen DGL (1.1). Immittleren Teil ist die Amplitude (pro Masse) fampl der externen Kraft auf Null gesetzt, sodass sich (1.1) auf die homogene DGL (1.3) reduziert. Die hier gezeigte Losung reprasentierteinen Schwingfall. Zur Uberprufung der Schrittweite des numerischen Schemas (zum Problemvgl. Abb. 1.1) ist im rechten Teilbild auch die Dampfung beta ausgeschaltet, so dass sich dieLosung der freien Schwingung ergibt – an dieser lasst sich die Schrittweite am einfachstenuberprufen, da die Amplituden konstant bleiben mussen.

Verstandnisfrage 4 Ist die Argumentation bezuglich der Schrittweite korrekt? Muss ei-ne fur die freie Schwingung numerisch sinnvolle Schrittweite in ∆t zwingend auch fur dieDampfung sinnvoll sein (oder fur die antreibende Kraft)?

1.1.3 Und die Losung in SimuLink?

§ 34 Don’t Panic! Dieser Abschnitt wirft Sie einfach in SimuLink hinein. Verheddern Siesich nicht in Details, lassen Sie sich einfach auf die Idee ein! Die formalen Grundlagen lernenSie in Kap. 2 kennen, das Handwerkszeug in Kap. 4.

Die Idee

§ 35 SimuLink ist ein dem modernen PC-Nutzer insofern entgegen kommendes Verfahren,als dass es auf dem Platzieren von Icons durch ‘Drag and Drop’ basiert. Diesen Icons mussenAufgaben/Funktionen zugewiesen werden, so dass Funktionenblocke entstehen. Diese Blockemussen Sie geeignet miteinander verbunden werden, um z.B. (Wechsel-)Wirkungen zwischenden Blocken oder den Lauf eines Signals durch die Funktionsblocke zu reprasentieren.4 Op-tisch sieht die SimuLink-Eingabe damit wie ein Block- oder Flussdiagramm aus. Fur das

4In dieser letzten Beschreibung erkennen Sie bereits eine weitere Moglichkeit der Anwendung von Simu-Link, die Signalanalyse bzw. Signalbearbeitung z.B. mit Hilfe von Filtern.

c© M.-B. Kallenrode 4. Februar 2008

Page 21: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

10 KAPITEL 1. EINFUHRUNG

bisher betrachtete Beispiel konnen wir daher auf das Flussdiagramm in Abb. 1.3 (oder ge-nauer die rechte Version davon) zuruck greifen.

§ 36 Wahrend das Block- oder Flussdiagramm in der konventionellen Programmierung nurein Hilfsmittel zur Strukturierung des Codes ist, ist das in SimuLink erstellte Blockdia-gramm ausfuhrbar: die normalerweise der Erstellung des Flussdiagramms folgende Auswahleines numerischen Verfahrens und dessen Codierung entfallt. SimuLink nimmt uns also nichtdas Verstandnis des Systems und eine Zerlegung eines komplexeren Systems in Teilsysteme(oder einer DGL zweiter Ordnung in zwei DGLs erster Ordnung) ab, es erspart uns aber diezeitaufwendige und fehleranfallige Codierung. Dadurch ist es fur den Nutzer einfacher, sichauf die Struktur und das Verstandnis seines Systems zu konzentrieren anstelle alle Energieauf die Vermeidung von Tippfehlern oder Syntaxprobleme aufzuwenden.

Freie Schwingung

§ 37 Wenden wir diese etwas abstrakte Idee auf die freie Schwingung an. Dazu erstellen wirin SimuLink ein entsprechendes Blockdiagramm, siehe auch Abb. 1.6. Das Flussdiagrammim rechten Teil von Abb. 1.3 besteht aus vier funktionalen Teilen, jeweils angedeutet durchdie rechteckigen, eine Operation bezeichnenden Blocke:

1. die Bestimmung der Beschleunigung mit Hilfe des Systemparameters ω20 = −k/m.

2. die Bestimmung der Geschwindigkeit durch Integration der Beschleunigung (unter Be-rucksichtigung des Anfangswertes bzw. des Wertes aus dem voran gegangenen Schritt).

3. die Bestimmung des Ortes durch Integration der Geschwindigkeit (unter Berucksichtigungdes Anfangswertes bzw. des Wertes aus dem voran gegangenen Schritt).

4. die Darstellung der Ergebnisse.

§ 38 Diese Blocke reprasentieren drei Funktionen: die Multiplikation mit einer Konstantenim ersten Block, die Integration in den beiden folgenden Blocken und die Darstellung imletzten Block. Die entsprechenden Funktionen lassen sich auch in SimuLink realisieren:

1. die Multiplikation mit einer Konstanten wird durch ein als Gain bezeichnetes Dreiecksymbolisiert.

2. die Integration wird durch ein Rechteck mit dem Eintrag 1s reprasentiert.

3. die Darstellung der Ergebnisse wird durch ein Scope (in Anlehnung an ein Oszilloskop,alternativ konnen Sie auch einen xy-Schreiber zur Darstellung erhalten) symbolisiert.

Pfeile zwischen den Blocken geben den Signalverlauf bzw. den Fluss der Variablen durchdiese Blocke. Den verschiedenen Blocken konnen Parameter ubergeben werden: so muss demBlock Gain verstandlicherweise der Faktor ubergeben werden, mit dem zu multiplizieren istwahrend den Integrationsblocken die jeweiligen Anfangsbedingungen zu ubergeben sind.

§ 39 Die hier beschriebenen Blocke sind in Abb. 1.6 zur Simulation der freien Schwingungzusammen gesetzt. Steigen wir unten beim Dreieck ein und folgen dem durch die Pfeilegegebenen Signalverlauf:

1. rechts des Dreiecks ist das Signal das Ausgangssignal, d.h. der Weg x. Dieses wird imBlock Gain mit dem Systemparameter ω2

0 = −k/m multipliziert; wir erhalten also dieBeschleunigung. In diesem Fall ist k = 1 und m = 1 und damit ω2

0 = −1 (mal wiederalles dimensionslos).

2. die sich so ergebende Beschleunigung wird integriert (erster Integrator-Block, links imDiagramm in Abb. 1.6), um die Geschwindigkeit zu erhalten.

3. diese wird nochmals integriert (zweiter Integrator-Block, in der Mitte im Diagramm), umden Ort zu erhalten.

4. Februar 2008 c© M.-B. Kallenrode

Page 22: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 11

Abbildung 1.6: Freie Schwin-gung in SimuLink: der dreie-ckige Block Gain bestimmt dieBeschleunigung aus der Aus-lenkung x, die folgende Integra-tion (rechteckiger Block) liefertdie Geschwindigkeit, nochma-lige Integration (zweiter recht-eckiger Block) liefert den Ortund die Schleife wird erneutdurchlaufen

Abbildung 1.7: Freie Schwin-gung in SimuLink: das Signalwird zusatzlich bereits nach derersten Integration abgegriffenund gemeinsam mit dem Aus-gangssignal uber einen Mul-tiplexer auf das Scope gege-ben; Vorsicht Farbwechsel: Ortin Magenta, Geschwindigkeit ingelb

4. dieser geht einerseits auf die Ausgabe (Scope), andererseits wird er zum nochmaligenDurchlauf der Schleife benotigt. Die einzelnen Integratorblocke berucksichtigen den jewei-ligen Zustand des Systems, d.h. in ihnen mussen auch die Anfangsbedingungen angegebenwerden.5

Nach erfolgter Simulation lasst sich das Ergebnis durch einen Doppelklick auf das SymbolScope graphisch darstellen, wie im rechten Teil von Abb. 1.6 angedeutet.

§ 40 Im Gegensatz zu den vielen Zeichen in der numerischen Losung wie in § 25 lasst sichin SimuLink die Losung durch die Positionierung von 4 Blocken, deren Verbindung durch4 Linien sowie die Angabe des Faktors fur den Gain (und die Anfangsbedingungen) rea-lisieren: weniger als 20 Mausklicks/Zeichen vs. einige hundert Zeichen in der numerischenLosung. Daher die gute Eignung von SimuLink oder entsprechenden symbolisch orientiertenSimulationsverfahren fur rapid prototyping bzw. genauer rapid application development.

§ 41 Wahrend der Block Gain in Abb. 1.6 als Multiplikator den Faktor −k/m explizitenthalt, ist die symbolische Darstellung der Integration durch einen Block mit dem Multipli-kator 1

s nicht ganz so offensichtlich. Diese Notation entstammt der Laplace Transformation:mit Hilfe dieser in Kapitel 2 genauer beschriebenen Integraltransformation kann eine Funk-tion x(t) aus dem Zeitbereich in eine Funktion X(s) in Abhangigkeit von einer (komplexen)Frequenz s transformiert werden. Der Charme dieser Transformation liegt darin, dass Diffe-rentiation und Integration durch die algebraischen Operationen Multiplikation und Divisionersetzt werden konnen. Damit wird eine Differentialgleichung in eine algebraische Gleichunguberfuhrt. Wahrend bei einer einfachen gewohnlichen DGL der Aufwand mit der Laplace-Transformation recht hoch erscheint, wird ihr Vorteil bei einem System partieller DGLs of-fensichtlich: dieses wird einfach in ein System algebraischer Gleichungen umgewandelt; seineLosung lasst sich damit auf die Losung eines Gleichungssystems zuruck fuhren.

5Die Anfangsbedingungen werden, wie in jedem konventionellen numerischen Verfahren, naturlich nur imersten Schritt benotigt – in allen folgenden Zeitschritten wird als Anfangswert jeweils der Wert aus dem vorangegangenen Zeitschritt verwendet.

c© M.-B. Kallenrode 4. Februar 2008

Page 23: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

12 KAPITEL 1. EINFUHRUNG

Abbildung 1.8: Erzwun-gene Schwingung in Si-muLink, zur Erlaute-rung siehe Text

§ 42 Ist unsere Interpretation der Blocke 1s als Integration korrekt, so sollte das Signal zwi-

schen den beiden Integrationsblocken der Geschwindigkeit entsprechen. Da wir bei den ana-lytischen und numerischen Losungen stets Weg und Geschwindigkeit in Abhangigkeit vonder Zeit betrachtet haben, sollten wir auch in SimuLink das Signal zwischen den beidenIntegratoren zusatzlich betrachten. Dazu konnen wir es entweder auf ein eigenes Scope geben(dann haben wir jeweils ein getrenntes Weg–Zeit- und ein Geschwindigkeits–Zeit-Diagramm)oder wir geben das Signal zusammen mit dem Ausgangssignal uber einen Multiplexer Muxauf das Scope, um beide in einem Graphen darzustellen.

Erzwungene Schwingung

§ 43 Die in Abb. 1.6 dargestellte Simulation einer freien Schwingung lasst sich leicht aufeine erzwungene Schwingung erweitern. Der wesentliche Unterschied liegt an der gleichenStelle wie bei den numerischen Losungen: vor der ersten Integration zu Bestimmung derneuen Geschwindigkeit mussen wir jeweils die sich aus allen wirkenden Kraften ergebendenBeschleunigungen aufsummieren. Zu den bereits bei der gedampften Schwingung aus denSystemzustanden bestimmten Beschleunigungen mussen wir die durch die externe Kraft be-wirkte Beschleunigung addieren. Dazu benotigen wir einen Summationsblock sum, angezeigtdurch den Kreis mit den Summenzeichen in Abb. 1.8.

§ 44 Die durch die rucktreibende Kraft bewirkte Beschleunigung kennen wir bereits aus derfreien Schwingung: sie hangt von x ab, d.h. sie wird durch Multiplikation mit einem Gainaus dem Wert nach der zweiten Integration bestimmt (oberer Gain-Block in Abb. 1.8). DieVerzogerung durch Reibung hangt von der Geschwindigkeit ab, d.h. wir mussen das Ergebnisder ersten Integration multipliziert mit einem Faktor β/m = 2γ auf den Summationsblockfuhren. Im Blockdiagramm in Abb. 1.8 ist das durch den unteren Gain-Block angegeben. Alsletzte Kraft benotigen wir die externe Kraft, in Abb. 1.8 durch die Sinus-Quelle realisiert. Obwir zwischen Quelle und Summenblock einen Gain-Block einfuhren, der mit 1/m multipliziert,oder diesen Faktor direkt in der Quelle berucksichtigen, ist Geschmackssache – entscheidendist nur, dass im Summenblock nur Beschleunigungen addiert werden und nicht eine Mischungaus Beschleunigungen und Kraften.

§ 45 Das Ausgangssignal des Summationsblocks ist die Beschleunigung. Diese geben wir wie-der auf einen Integrationsblock (Anfangsbedingungen nicht vergessen!), um die Geschwindig-keit zu bestimmen. Nochmalige Integration liefert dann den Ort.

§ 46 Beim ersten Test des Modells lassen wir, entsprechend dem Vorgehen in Abb. 1.2,die externe Quelle weg (bzw. setzen deren Amplitude auf Null). Durch geeignete Wahl vonω2

0 = k/m und γ = β/2m sollte das Modell dann die drei Losungen der homogenen DGL(1.3) reproduzieren. Anschließend konnen wir eine von Null verschiedenen externe Kraftdichteangeben und erhalten eine erzwungene Schwingung wie in Abb. 1.8 gezeigt.

4. Februar 2008 c© M.-B. Kallenrode

Page 24: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.1. EIN EINFACHES BEISPIEL: FEDERPENDEL 13

1.1.4 Geist ist geil: Im- und Exporte

§ 47 ‘Geiz ist geil’ hat der deutsche Einzelhandel zu vermitteln versucht, ‘Geist ist geil’ istdie Gegenkampagne eines schweizer Buchhandlers zum Jahr der Geisteswissenschaften. Geistkann, insbesondere im Bereich der Modellierung und Simulation, ohne weiteres zu einem sehrokonomischen Verhalten (viel Ergebnis bei wenig Aufwand) fuhren, Geiz dagegen kann dasArbeiten in diesem Bereich der Wissenschaft sehr anstrengend machen.

§ 48 SimuLink hilft dabei in zweifacher Weise. Die okonomische Codierung des Losungsver-fahrens haben wir bereits in § 40 angesprochen. Die von SimuLink eingeforderte Strukturie-rung des zu untersuchenden Systems setzt eine abstrakte Betrachtung des Systems voraus:nicht die Details interessieren sondern Prinzipien. Abstraktion ist jedoch ein wesentlichesMerkmal der Physik – die Simulation mit SimuLink nahert sich damit starker den Grund-prinzipien der Physik als es eine analytische oder die konventionelle numerische Losung tut.Auf Grund der Anfangsinvestition ‘Abstraktion’ bietet SimuLink auch den von der Physikbekannten Gewinn dieses Einsatzes, die Ubertragbarkeit.

§ 49 Betrachten wir unser Federpendel daher noch einmal etwas abstrakter: es handelt sichdabei um ein System, in dem drei Einflussgroßen wirken: eine ortsabhangige Kraft, einegeschwindigkeitsabhangige Kraft und eine außere, nicht vom momentanen Zustand des Sys-tems abhangige Kraft. Oder allgemeiner: eine rucktreibende Kraft, eine dampfende Kraft undein externer Antrieb. Alle Systeme, die von allen oder einigen diese drei Einflussen bestimmtsind, lassen sich damit im gleichen Modell beschreiben – lediglich die in den Gain-Blocken ein-zutragenden Parameter haben unterschiedliche Bedeutung. Diese Ubertragbarkeit gilt zwarauch fur die DGL und ihre analytische und numerische Losung, sie wird dort jedoch wenigerdeutlich, da wir in der Regel zuviele physikalische Großen explizit angeben und diese nichtauf wenige abstrakte, allerdings fur das Systemverhalten relevante Parameter reduzieren: wirdenken leichter in den mit physikalischen Objekten verbundenen Begriffen Masse m undFederkonstante k als in dem abstrakteren Systemparameter Schwingungsfrequenz ω2

0 = k/m.

§ 50 Den Vorteil in der Verwendung der abstrakteren Parameter konnen wir uns mit Hilfeeines anderen einfachen physikalischen Systems veranschaulichen: beim elektrischen Schwing-kreis als Reihenschaltung aus einer Quelle fA, einem Widerstand R, einem Kondensator mitKapazitat C und einer Spule mit Induktivitat L betrachten wir ebenfalls eine angetriebeneSchwingung, beschrieben durch die DGL fur die Ladung q auf dem Kondensator

q +R

Lq +

1LC

q = fA .

Beschrankung auf den ersten und dritten Term auf der linken Seite liefert eine freie Schwin-gung mit dem Systemparameter ω2

0 = (LC)−1/2. Der mittlere Term auf der linken Seite gibtdie Dampfung durch den Ohm’schen Widerstand. Die Gleichung konnen wir analog zu (1.1)auch schreiben als

q + 2γq + ω20q = fA mit γ =

R

2Lund ω2

0 =1

LC.

Hier verwenden wir wieder als Systemparameter die Frequenz ω0 und die Dampfung γ. Da-mit konnen wir den gleichen Algorithmus wir zur Losung von (1.1) verwenden, lediglichbei der Vereinbarung der Systemvariablen mussen die entsprechenden physikalischen Großenberucksichtigt werden.

§ 51 Die Anwendung dieses Blockdiagramms ist jedoch nicht nur auf die Beschreibungschwingfahiger Systeme beschrankt. Dazu interpretieren wir die Systemgleichung nicht ubereine rucktreibende und eine dampfende Kraft sondern uber eine orts- und eine geschwindig-keitsabhangige Kraft. Der harmonische Oszillator wird durch eine Bewegungsgleichung derForm x+ω2

0x = 0 beschrieben. Das x ergibt sich in der Differentialgleichung aus der vom Wegabhangigen rucktreibenden Kraft −kx. Die beliebte Ubungsaufgabe6 mit einem reibungsfrei

6Ein biegsames Seil der Lange l = 1 m und der Masse m = 1 kg gleitet reibungslos uber die Kante einesTisches; zur Zeit t = 0 hangt ein Ende x0 uber die Tischkante, das Seil ist aber noch in Ruhe.. Gesucht istder Ort und die Geschwindigkeit eines Punktes auf dem Seil als Funktion der Zeit.

c© M.-B. Kallenrode 4. Februar 2008

Page 25: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

14 KAPITEL 1. EINFUHRUNG

Abbildung 1.9: Ein Seil gleitetreibungsfrei uber eine Tisch-kante in SimuLink, Ort inMagenta, Geschwindigkeit ingelb; zur Erlauterung sieheText

uber eine Tischkante gleitenden Seil der Lange l fuhrt ebenfalls auf eine vom Ort abhangigeKraft, eben die Lange x des uberhangenden Seilstuckchens. Dann ist die die Kraft mgx/l. Dadiese Kraft nicht rucktreibend ist, erhalten wir fur die Bewegungsgleichgung x−xg/l = 0. EinExponentialansatz liefert die (reellen) Eigenwerte λ1,2 = ±

√g/l und damit die allgemeine

Losung x(t) = c1 eλ1t + c2 eλ2t bzw. fur die Anfangsbedingungen v(0) = 0 und x(0) = x0:

x(t) =x0

2

(exp

√g

lt

− exp

√g

lt

)= x0 sinh

(√g

lt

).

Verstandnisfrage 5 Mussen die Anfangsbedingungen wirklich angepasst werden oder sindalle Kombinationen x0 und v0 in beiden physikalischen Problemen gleich sinnvoll (oder sinn-los)?

Zwischenrechnung 1 Jetzt konnen Sie das Seil eigentlich auch unter Berucksichtigung derReibung rechnen. Wie sieht die analytische Losung dabei aus?

§ 52 Fur die Losung in SimuLink konnen wir das Blockdiagramm aus Abb. 1.6 wiederverwenden. Lediglich der Gain muss angepasst werden (im wesentlichen Vorzeichenwechsel);außerdem mussen gegebenenfalls die Anfangsbedingungen in den Integratorblocken angepasstwerden. Das sich ergebende Blockdiagrammebenso wie das Ergebnis sind in Abb. 1.9 gezeigt.

§ 53 Lasst sich die Simulation des Schwingkreises in § 50 in sinnvoller Form auf die elektro-magnetische Welle in Materie ausdehnen? Dann hatten wir gleich einen Ubergang zu einemvektoriellen Problem und damit zu einem System von DGLs – auch wenn ein Separationsan-satz ja eigentlich nicht auf gekoppelte DGLs fuhren sollte.

1.2 Eine erweiterte Form des einfachen Beispiels

§ 54 Ein einzelnes Federpendel ist ein sehr einfaches System: physikalisch, da es die minimalmogliche Zahl mit einander wechselwirkende Komponenten hat (zwei, die Feder und dieMasse), und formal, da es durch eine einzelne gewohnliche DGL beschrieben werden kann.Zwei Federpendel kombiniert versprechen dagegen eine interessantere Situation: die beidenFederpendel im linken Teil von Abb. 1.10 sind durch eine Feder gekoppelt, so dass sie miteinander wechselwirken.

§ 55 Der linke Teil von Abb. 1.10 kann mit den Begriffen der Systemtheorie auf verschiedeneWeise beschrieben werden. Wir konnen ein einzelnes Federpendel als ein zwar minimalisti-sches aber vollstandiges System beschreiben. Dann ware das gekoppelte Pendel aus Abb. 1.10eine Kombination zweier Systeme. Fur unser prinzipielles Verstandnis eines Systems hattedieser Ansatz allerdings Konsequenzen: das System Federpendel war u.a. durch die Erhaltungder (mechanischen) Energie definiert. Beim gekoppelten Pendel wird mechanische Energievon einem der Federpendel auf das andere transferiert. Außerdem steckt ein Teil der me-chanischen Energie zumindest zeitweise in der koppelnden Feder. Gleichzeitig muss aber die

4. Februar 2008 c© M.-B. Kallenrode

Page 26: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.2. EINE ERWEITERTE FORM DES EINFACHEN BEISPIELS 15

Abbildung 1.10: GekoppelteFederpendel. Links: Defini-tion der Geometrie; Rechts:Beispiel fur die zeitlicheAbhangigkeit der beidenVariablen x1 und x2

(mechanische) Energie des Gesamtsystems aus den beiden Federpendeln plus der koppelndenFeder erhalten bleiben. Unter dem Gesichtspunkt, ein abgeschlossenes System zu schaffen,bei dem keine Flusse von Energie oder Materie uber die Umgrenzung berucksichtigt werdenmussen, ist es sinnvoller, das gekoppelte Pendel komplett also System zu beschreiben.

§ 56 Der Energieaustausch zwischen den beiden Federpendeln zeigt sich naturlich auch in denGleichungen in Form eines Kopplungsterms. Formal lasst sich jedes Federpendel durch eineeigene Bewegungsgleichung beschreiben, die Kopplung mit dem anderen Federpendel erfolgtjeweils durch die durch die mittlere Feder vermittelte Kraft. Der entsprechende Kopplungs-term tritt in beiden DGLs in gleicher Form, allerdings mit entgegengesetztem Vorzeichen,auf. Gehen wir davon aus, dass alle Federkonstanten identisch sind, lassen sich die Bewe-gungsgleichungen mit ω2

0 = k/m schreiben als

0 = x1 + ω20x1 + ω2

0(x1 − x2) = x1 + ω20(2x1 − x2)

0 = x2 + ω20x2 − ω2

0(x2 − x1) = x2 + ω20(2x2 − x1) (1.8)

oder in Matrixschreibweise

~x = A~x =(−2ω2

0 ω20

ω20 −2ω2

0

)~x . (1.9)

1.2.1 Die analytische Losung

§ 57 Das die gekoppelten Federpendel beschreibende System gekoppelter Differentialglei-chungen hat konstante Koeffizienten und lasst sich daher ebenso wie die DGL fur ein einfachesFederpendel mit einem Exponentialansatz ~x = ~ueλt losen.

§ 58 Ableiten des Ansatzes und Einsetzen in die DGL (1.9) liefert

λ2~u = A~u .

Diese Gleichung hat die Form einer Eigenwertgleichung fur den Eigenwert λ2 und den Eigen-vektor ~u.

§ 59 Die charakteristische Gleichung fur den Eigenwert ist∣∣∣∣−2ω20 − λ2 ω2

0

ω20 −2ω2

0 − λ2

∣∣∣∣ != 0 ⇒ (2ω20 − λ2)(2ω2

0 − λ2)− ω40

!= 0 .

Diese Gleichung ist erfullt fur λ2 = −ω20 und λ2 = −3ω2

0 und damit

λ1,2 = ±iω0 und λ3,4 = ±i√

3 ω0 .

Alle Eigenwerte sind komplex, wir erhalten also eine Schwingung.

§ 60 Mit diesen Eigenwerten ergibt sich die allgemeine komplexe Losung zu

~z(t) = ~A1eiω0t + ~A2e−iω0t + ~A3ei√

3ω0t + ~A4e−i√

3ω0t

mit den aus den Anfangsbedingungen zu bestimmenden komplexen Integrationskonstanten~Ai.

c© M.-B. Kallenrode 4. Februar 2008

Page 27: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

16 KAPITEL 1. EINFUHRUNG

Abbildung 1.11: Numerische Losungfur die gekoppelten Pendel mit demim Text gegebenen MatLab-Code.Anfanglich sind beide Massen in Ru-he, Masse 1 (rot) ist ausgelenkt, Mas-se 2 (grun) befindet sich im Ursprung

§ 61 Die Losung λ1,2 entspricht der des harmonischen Oszillators. In diesem Fall schwingenbeide Massen in Phase, verhalten sich also wie eine einzige Masse: die die Massen koppelndeFeder wird weder gestreckt noch gestaucht, so dass der Kopplungsterm verschwindet. Damitkonnten wir die koppelnde Feder auch weglassen.

§ 62 Die Losung λ2 entspricht dem Fall, dass beide Massen genau entgegen gesetzt schwin-gen, d.h. die Kopplung ist maximal. Diese Situation ist im linken Teil von Abb. 1.10 ange-deutet.

§ 63 Fur andere Anfangsbedingungen (z.B. eine Masse in der Ruhelage, die andere ma-ximal ausgelenkt, beide ohne Anfangsgeschwindigkeit) ergeben sich Uberlagerungen beiderFrequenzen. Ein Beispiel ist im rechten Teil von Abb. 1.10 gegeben.

1.2.2 Die numerische Losung

§ 64 Fur die numerische Losung versuchen wir, soweit moglich Anleihe bei der bisher be-trachteten Losung fur die freie Schwingung zu nehmen. Betrachten wir zuerst nur die Bewe-gung einer Masse. Auf diese wirkt zum einen die rucktreibende Kraft, zum anderen die vonder Verbindungsfeder zur anderen Masse ausgeubte Kraft – letztere hangt von der relativenPosition der beiden Massen ab. Also mussen wir, wie bei der erzwungenen Schwingung, inZeile 12a bei der Bestimmung der Beschleunigung diese zweite Kraft berucksichtigen – mitdem Unterschied, dass sich diese nicht aus dem System der ersten Masse alleine bestimmenlasst, sondern auch die Position der zweiten Masse benotigt. Aus diesem Grunde mussen wirdie Bewegungsgleichungen beider Massen gleichzeitig losen – es handelt sich eben um einSystem gekoppelter Differentialgleichungen.

§ 65 Zur gleichzeitigen Behandlung beider Massen bedienen wir uns auch im numerischenVerfahren der vektoriellen Darstellung. Dazu mussen wir Ort und Geschwindigkeit jeweilsals zweier Vektoren vereinbaren, ebenso die Anfangsbedingungen. Damit werden die Zeilen8 und 9 des Codes in § 25 zu

08 x=zeros(2,length(t));v=x; %Festlegung Ausgabevektoren

09 x(1,1)=1.;x(2,1)=0;v(1,1)=0.;v(2,1)=0; %Anfangsbedingungen

§ 66 Da die durch die koppelnde Feder ausgeubte Kraft fur beide Massen unterschiedlichesVorzeichen hat, muss auch die Beschleunigung als Vektor definiert werden und wir konnendie eigentliche Rechenschleife codieren als

12a acc=[-omega2*(2*x(1,i-1)-x(2,i-1));-omega2*(2*x(2,i-1)-x(1,i-1))];

12b v(:,i)=v(:,i-1)+acc.*deltt;

13 x(:,i)=x(:,i-1)+deltt*v(:,i-1);

Außerdem muss die Darstellung angepasst werden, d.h. in den Plotbefehlen in Zeile 17 mussdie entsprechende Komponente der Vektoren von Weg und Zeit fur die darzustellende Masseausgewahlt werden. Abbildung 1.11 zeigt die Losung des numerischen Verfahrens fur die obengegebenen Anfangsbedingungen.

4. Februar 2008 c© M.-B. Kallenrode

Page 28: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 17

Abbildung 1.12: Gekoppelte Pendel inSimuLink. Das Modell unterscheidetsich von dem der freien Schwingungin Abb. 1.6 durch die Verwendung vonVektoren als Signale und einer Matrixals Gain. Daher ist der Gain Faktornicht mehr explizit im Block einge-tragen und es gibt zwei Ausgangssi-gnale (die jeweiligen Orte der beidenMassen)

§ 67 Nachdem wir den Code generiert haben aber bevor wir uns einer moglichen Realisierungin SimuLink zuwenden, sollten wir uns uberlegen, welche Anderungen sich im Block- bzw.Flussdiagramm aus dem rechten Teil von Abb. 1.3 ergeben. Außer der anderen Definition derBeschleunigung (wie wir sie ja ahnlich schon beim Ubergang von der freien zur erzwungenenSchwingung vorgenommen haben) ergibt sich keine Anderung – unter der Voraussetzung,dass wir alle Großen, wie im Codebeispiel diskutiert, vektoriell betrachten.

1.2.3 Und die Losung in SimuLink?

§ 68 Da SimuLink als Zustandsgroßen des Systems auch Vektoren und entsprechend zu de-ren Manipulation Matrizen akzeptiert, konnen wir das Modell der freien Schwingung direktauf die beiden gekoppelten Pendel erweitern. Lediglich die von den einzelnen Blocken ver-wendeten Parameter mussen geeignet angepasst werden. So muss der Integratorblock statteiner skalaren Große eine vektorwertige Große behandeln. Da dann auch der Anfangswertder jeweiligen Integration ein Vektor ist, konnen wir dem Integratorblock diese Informationeinfach durch die Ubergabe eines Vektors statt eines Skalars liefern. Entsprechend muss derGain als eine Matrix angegeben werden und nicht als ein Skalar.

§ 69 Das sich ergebende Modell ist in Abb. 1.12 gezeigt: die einzigen offensichtlichen Unter-schiede sind die symbolische Angabe des Gains als Matrixmultiplikation und das Auftretenvon zwei Ausgangssignalen, entsprechend den Orten der beiden Massen. Da die Anfangsbe-dingungen denen der numerischen Losung entsprechen, stimmen die Ergebnisse mit denen inAbb. 1.11 uberein.

§ 70 Das hier verwendete Verfahren in SimuLink ist etwas hemdsarmelig, da es sich an demkonventionellen numerischen Verfahren orientiert und keinen Gebrauch von den in SimuLinkinne wohnenden systemtheroetischen Ansatzen macht. Eine Alternative Losungsform mitHilfe der Systemgleichungen und des Blocks Phase Space werden wir in Abschn. 4.4 kennenlernen.

1.3 (Dynamische) Systeme

§ 71 Die Beispiele sollten verdeutlicht haben, dass sich SimuLink zur Losung von (Systemenvon) Differentialgleichungen einsetzen lasst. Auch haben wir im letzten Paragraphen bereitseinen Hinweis auf eine alternative Nutzungsform von SimuLink mit starkerer Orientierungan systemtheoretischen Begriffen erwahnt. In diesem Abschnitt wollen wir daher den Begriffdes Systems etwas genauer untersuchen.

§ 72 Federpendel und selbst gekoppelte Federpendel sind sehr einfache physikalische Objektefur die SimuLink zwar eine schnelle (und vielleicht auch etwas starker an den physikalischenMechanismen orientierte) Losung erlaubt. Sie sind jedoch nicht die Beispiele, fur die sich derAufwand der Einarbeitung in die formalen Grundlagen der Darstellung in SimuLink lohnt.Seine Starken zeigt SimuLink in der Simulation von (dynamischen) Systemen.

c© M.-B. Kallenrode 4. Februar 2008

Page 29: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

18 KAPITEL 1. EINFUHRUNG

Abbildung 1.13: Elektrische Schwingkreise:Serienschwingkreis oder Siebkette (links) undParallelschwingkreis oder Sperrkreis (rechts)

1.3.1 Was ist ein System?

§ 73 Den Begriff System verwenden wir im taglichen Sprachgebrauch in vielen Zusam-menhangen: vom Okosystem uber das Wirtschaftssystem und das Sozialsystem [67] zumewig krankelnden Gesundheitssystem. Die Existenz eines Studiengangs ‘Umweltsystemwis-senschaften’ legt die Vermutung nahe, dass sich auch die Umwelt als ein (oder vielleicht auchmehrere) System(e) beschreiben lasst. Bitten wir Wikipedia (http://de.wikipedia.org/wiki/System, 19.06.2007) um eine formale Definition:

System (v. griech. συστηµα, systema, ‘das Gebilde, Zusammengestellte, Verbundene’;Pl. Systeme) bezeichnet ein Gebilde, dessen wesentliche Elemente (Teile) so aufeinan-der bezogen sind und in einer Weise wechselwirken, dass sie (aus einer ubergeordnetenSicht heraus) als aufgaben-, sinn- oder zweckgebundene Einheit (d.h. als Ganzes) an-gesehen werden (konnen) und sich in dieser Hinsicht gegenuber der sie umgebendenUmwelt auch abgrenzen.Systeme organisieren und erhalten sich durch Strukturen. Struktur bezeichnet dasMuster (Form) der Systemelemente und ihrer Beziehungsgeflechte, durch die ein Sys-tem funktioniert (entsteht und sich erhalt). Dahingegen wird eine strukturlose Zu-sammenstellung mehrerer Elemente auch als Aggregat bezeichnet.

§ 74 Das ist eine ziemlich gehaltvolle und sehr allgemeine Definition. Mit ihrer Hilfe konnenwir allerdings einige wesentliche Merkmale von Systemen, teilweise auch mit Hilfe von Beispie-len, herausarbeiten. Außerdem konnen wir einige wichtige Schlagworte zur Charakterisierungvon Systemen einfuhren – auch auf der oben gegebenen Wikipedia-Seite (und in Kopie einesTeils der Seite in § 99).

1.3.2 Struktur oder Aggregat?

§ 75 Setzen wir die Stichworte des letzten Absatzes der Definition mit den bisher betrach-teten Beispielen in Beziehung. Der Schwingkreis ist ein System aus den (System-)ElementenKondensator mit Kapazitat C, Spule mit Induktiviat L und ohm’schem Widerstand R (sowiegegebenenfalls noch einer Spannungsquelle zur Anregung). Legen wir die Bauteile nebenein-ander, so bilden sie bestenfalls ein Aggregat, sicherlich jedoch kein System.

§ 76 Ein System wird aus diesen Systemelementen erst durch die Erstellung einer Struk-tur, d.h. durch den Aufbau eines Beziehungsgeflechts. Hier sehen wir unmittelbar, dass sichaus den genannten Systemelementen verschiedene Systeme, vermutlich mit unterschiedlichenFunktionen, zusammensetzen lassen; als Beispiele sind in Abb. 1.13 der Serienschwingkreis(Siebkette) und der Parallelschwingkreis (Sperrkreis) gegeben. Fur die Bezeichnungen Serienund Parallel sind jeweils die Lage von Spule und Kondensator zueinander relevant, da diesebeiden Bauelemente jeweils eine Phasenverschiebung in den Schaltkreis einfuhren.

§ 77 Ein funktionale Unterschied zwischen Serien- und Parallelschwingkreis ist naheliegend:im Parallelkreis liegen an Spulte und Kondensator die gleiche Spannung an, es konnen aberunterschiedliche Strome fließen; im Serienkreis dagegen ist der Strom durch beide Bauelemen-te der gleiche, es fallen aber unterschiedliche Spannungen uber ihnen ab. Beide Schwingkreisehaben eine Resonanz bei ω0 = 1/

√LC: der Serienschwingkreis (Siebkette) lasst diese Fre-

quenz passieren, der Parallelschwingkreis dagegen dampft sie. Aus dem ursprunglich loseauf dem Schreibtisch liegenden Aggregat dieser elektronischen Bauelemente haben wir also

4. Februar 2008 c© M.-B. Kallenrode

Page 30: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 19

Abbildung 1.14: Spezi-alisierung verschiedenerRegionen der Groß-hirnrinde (ok, inklusiveKleinhirn unten rechts,http://www.epilepsy.uhhs.com/ borders/brain.1.jpg)

durch unterschiedliche Verknupfungen zwei Systeme mit fast komplementaren Eigenschaftenerzeugt.

§ 78 Auch wenn in diesem Beispiel durch unterschiedliche Beziehungsgeflechte zwischen denverschiedenen Systemelementen unterschiedliche Systeme erzeugt wurden, haben diese al-le ein gemeinsames Merkmal: sie sind statisch. Das System ist in Systemelementen undStrukturen/Beziehungsgeflechten vorgegeben und verandert sich nicht. Zwar erzeugen un-terschiedliche Eingangssignale auch unterschiedliche Ausgangssignale, legt man jedoch einbestimmtes Eingangssignal zu verschiedenen Zeiten an das System an, so erhalt man je-weils wieder das gleiche Ausgangssignal. Systemantworten sind also reproduzierbar, da dasSystemverhalten zeit-invariant ist.

§ 79 Statische Systeme haben sicherlich z.B. in der Filtertechnik ihre Berechtigung, es sindjedoch langweilige Systeme. Die Systeme, die uns wie Umweltsystem oder Gesundheitssystem,im alltaglichen Sprachgebrauch begegnen, sind dagegen dynamische Systeme, d.h. Systeme,die sich ihrer Umgebung anpassen konnen bzw. sich im Wechselspiel mit ihrer Umgebungformen.

1.3.3 Selbstorganisation

§ 80 Eines der faszinierendsten dynamischen Systeme ist das zentrale Nervensystem. Aus derbefruchteten Eizelle entwickelt sich durch fortgesetzte Zellteilung ein Hauflein identischer, al-lerdings noch omnipotenter Zellen. Ab einer bestimmten Große des Zellhaufens fangen diesean, sich zu differenzieren - ein Prozess der durch an- bzw. abschalten bestimmter Enzymko-dierender Sequenzen der DNA erfolgt. Wahrend dieser Differenzierung bilden sich Zellclusteraus z.B. Leberzellen und Nierenzellen, die sich zu den entsprechenden Organen entwickeln.Entsprechend bilden sich auch Nervenzellen; die großte Ansammlung dieser Nervenzellen bil-det das zentrale Nervensystem. Die Zellen dieses Systems differenzieren nur geringfugig; zwargibt es verschiedene hochgradig spezialisierte Nervenzellen wie die Purkinje-Zellen7 im Klein-hirn, deren Hauptaufgabe die Koordinaten verschiedenen Neuronen-Cluster ist; die Neuronen

7Den Purkinje-Zellen sieht man diese Aufgabe aus ihrer Struktur regelrecht an. Ein Neuron besteht auseinem Zellkorper sowie einem oder mehreren Dendriten (das ist praktisch die Eingabeseite) und einem Axon(Ausgabeseite). Signale an dem oder den Dendriten fuhren dazu, dass das Neuron feuert, d.h. ein elektrischesSignal entlang des Axons zu entweder den Dendriten weiterer Neuronen oder aber zu einer Muskel- odersonstigen ausfuhrenden Zelle fuhrt. Ein bipolares Neuron hat nur einen Dendriten, d.h. es feuert oder feuertnicht, je nach Eingangssignal am Dendriten. Ein multipolares Neuron hat mehrere Dendriten, so dass die

c© M.-B. Kallenrode 4. Februar 2008

Page 31: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

20 KAPITEL 1. EINFUHRUNG

Abbildung 1.15: Purkinje-Zelle aus einer Floureszenzaufnahme (links; die feineren Verzwei-gungen verschwimmen in der Aufnahme auf Grund der begrenzten Auflosung; http://synapse.princeton.edu/images/purkinje-green.jpg) und schematisch in einem Modellzur Simulation neuronaler Netze auf biophysikalischer Basis (rechts; http://www.physiol.ucl.ac.uk/research/silver a/neuroConstruct/images/Purkinje.png)

in der Großhirnrinde sind jedoch alle gleichen Typs obwohl sie raumlich ganz klar verschie-denen Aufgabenbereichen wie Sehrinde oder Sprachzentrum zugeordnet sind, vgl. Abb. 1.14.Diese Zuordnung ist durch die raumliche Anordnung sowie die Verknupfung zwischen denNeuronen bestimmt. Wie schon bei den elektrischen Schwingkreisen haben wir hier also einSystem, das aus wenigen verschiedenen einfachen Systemelementen besteht und bei dem dieFunktionsweise durch das Beziehungsgeflecht zwischen diesen bestimmt ist.

§ 81 Bleibt nur das Problem: wie baut sich das Beziehungsgefelcht auf? Eine genetischeKodierung von Funktion, Lage und Verbindungen der Neuronen im Zentralnervensystemscheidet auf Grund der großen Zahl von sowohl Neuronen als auch Verbindungen aus: warendie 1014 Verbindungen zwischen den 1010 Neuronen der Großhirnrinde lediglich zufalligenProzessen unterworfen, so wurde man mindestens 1015 Bit an Information zu ihrer Codierungbenotigen – das menschliche Genom dagegen stellt lacherliche 109 Bit zur Verfugung. Wenndem sich entwickelnden System die Information uber seine Struktur nicht zur Verfugunggestellt werden kann, muss sich diese also aus dem System heraus entwickeln: das System istselbst-organisierend.

§ 82 Selbstorganisation ist ein schillernder Begriff (siehe z.B. den zugehorigen Wikipedia-Artikel http://de.wikipedia.org/wiki/Selbstorganisation). Wichtigster Aspekt der Selbst-organisation ist, das die das System gestaltenden Einflusse von den Elementen des sich organi-sierenden Systems selbst ausgehen. Die fruhen Versuche der Chaos-Theorie und Erklarungendes Musterbildung, vgl. Abb. 1.16 und Abschn. B.3, wie der Barnsley Farn [6] oder die Sier-pinski Dreiecken [116, 117] ahnlichen Muster auf einigen Muschelschalen [76], nahern sichzwar der Beschreibung erstaunlich komplexer (und haufig naturlicher bzw. natur-ahnlicher)Gebilde an, beinhalten jedoch keine Selbstorganisation. Letztendlich basieren alle diese Be-schreibungen auf einem einfachen iterativen Algorithmus, sind damit also im wesentlichen Va-

Frage “feuern oder nicht feuern” durch die Kombination verschiedener Eingabesignale entschieden wird. DiePurkinje-Zellen sind eine Extremform des multipolaren Neurons – ihre Eingabeseite bildet einen regelrechten(nahezu 2D) Dendritenbaum mit Großenordnungsmaßig 150 000 Dendriten (siehe auch Abb. 1.15), d.h.das Ausgangssignal wird durch die Kombination sehr vieler Eingangssignale bestimmt. Daher eignen sichderartige Purkinje-Zellen sehr gut fur die Koordinaten verschiedenen Neuronengruppen; sie sind daher auchmaßgeblich an der motorischen Koordinaten beteiligt, ebenso aber auch an der Koordination der Verarbeitungverschiedener sensorischer Inputs.

4. Februar 2008 c© M.-B. Kallenrode

Page 32: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 21

Abbildung 1.16: Verschiedene Fraktale. Oben: Koch’sche Schneeflocke, ursprunglich als Bei-spiel fur eine stetige aber nicht differenzierbare Funktion eingefuhrt. Sie entsteht durch Drei-teilung jeder Seite eines gleichseitigen Dreiecks und Ersetzung des mittleren Drittels durchein gleichseitiges Dreieck (abzuglich der Basisseite). Zweite Zeile: Koch verwendete statt desDreiecks einen Dreispitz und konstruierte damit die Bienenwaabe als Urform des Fraktals.Folgende Doppelzeile: Das Sierpinski Dreieck entsteht durch Verkleinerung eines Elementar-dreiecks um den Faktor 2 und folgender Zusammensetzung von 3 Elementardreiecken zueinem neuen Dreieck. In der oberen Zeile ist das Elemetardreick aus Smileys zusammenge-setzt - da diese zum Ende der Zeile ohnehin nicht mehr als solche zu erkennen sind, geht esin der folgenden Zeile nur noch mit Geraden weiter. Die letzten beiden Abbildungen der Zei-le sind mit normaler Drucker- oder Bildschirmauflosung kaum noch zu unterscheiden, erstebeim Reinzoomen erkennt man die Eigenschaft des Fraktals: egal, auf welcher Skala wir esbetrachten, die Strukturen sind wieder die gleichen. Vorletzte Zeile: Sierpinsky Dreiecke aufeiner Muschelschale [76] und Feigenbaum Attraktor Unterste Zeile: Barnsley Farn [45]

c© M.-B. Kallenrode 4. Februar 2008

Page 33: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

22 KAPITEL 1. EINFUHRUNG

Abbildung 1.17:Belousov–Zhabotinsky-Reaktion (http://www.swisseduc.ch/chemie/orderchaos/reaktionen/musterbz.html)

rianten der Koch’schen Schneeflocke [59] – auch wenn Mandelbrot’s Apfelmannchen [70] oderder Feigenbaum Attraktor [21, 22] deutlich komplexer (und teilweise wesentlich asthetischer)sind. Eine Zusammenfassung zu diesen verschiedenen Gebilden finden Sie unter dem BegriffFraktal, gute Bucher sind [88, 92]. Fraktalen eigen ist nur eine Selbstahnlichkeit, nicht je-doch eine Selbstorganisation; auch wenn umgekehrt einige selbstorganisierte Prozesse wie dieBelousov–Zhabotinsky-Reaktion sich mit Hilfe von Selbstahnlickeit beschreiben lassen.

§ 83 Die ersten, heute als Klassiker geltenden Ideen zur Selbstorganisation entwickelten sichim Grenzgebiet zwischen Chaos und Selbstorganisaton in den 1950ern. Auf der experimentel-len Seite ist die Belousov–Zhabotinsky-Reaktion BZR zu nennen. Irgendwann in den 1950ernstolperte Beloussow uber einen chemischen Oszillator: Er konnte bei der Oxidation von Zitro-nensaure mit schwefelsaurer Bromatlosung und Cer-Ionen als Katalysator einen periodischauftretenden Wechsel der Farbe der Losung zwischen gelb und farblos beobachten. Obwohlahnliche chemische Oszillationen bereits seit Beginn des 19. Jahrhunderts gelegentlich be-schrieben wurden, fand Belousov keine befriedigende Erklarung; im Gegenteil, er betrachtetedie chemische Oszillation als eher unwahrscheinlich. Erst 1959 veroffentlichte er einen kurzenArtikel daruber [7]; eine Erklarung fur diese Reaktion lieferte Zhabotinsky [145] 1964. Nu-merische Simulationen dieser Reaktionen basieren in der Regel auf zellularen Automaten, imInternet lassen sich weitere Beispiele finden, z.B. unter http://jkrieger.de/bzr/inhalt.html (ein Jugend-Forscht Beitrag mit vielen Literaturhinweise), http://online.redwoods.cc.ca.us/instruct/darnold/deproj/Sp98/Gabe/ (gute Zusammenstellung der Differenti-algleichungen), http://www.cci.ethz.ch/mainmov.html?expnum=106&ismovie=0&picnum=-1&control=0&language=1&exchap=2+-1&exlist=-1 fur ein Video, http://www.hermetic.ch/pca/bz.htm (mit Schwerpunkt auf dem zellularen Automat); etwas anspruchsvoller auchWoltering [142] unter http://eldorado.uni-dortmund.de:8080/FB2/ls7/forschung/2002/Woltering/maWolteringunt.pdf.

§ 84 Die moderne Erklarung fur die Belousov–Zhabotinsky-Reaktion holen wir uns vonhttp://www.swisseduc.ch/chemie/orderchaos/reaktionen/musterbz.html:

Wahrend normalerweise die Bromid-Ionen uberall in der Losung gleichmassig mitBromat-Ionen und Malonsaure reagieren, kann ein Staubteilchen oder ein Kratzeran der Glaswand die Reaktion ortlich beschleunigen. Dadurch werden Bromid-Ionenan dieser Stelle verbraucht, wahrend in der ubrigen Losung noch genugend davonvorhanden ist. Dies hat zweierlei Konsequenzen: Einmal schlagt die Farbe von Fer-roin an der Stelle, welche kein Bromid enthalt, von Rot nach Blau um. Zum anderendiffundieren Bromid-Ionen aus der Umgebung zu der Stelle an der das Bromid auf-gebraucht ist. Dadurch verarmt die Umgebung an Bromid, so dass auch hier Ferroindurch Bromat oxidiert werden kann und sich blau farbt. Somit breitet sich eine blaueWelle in der Losung aus. In ihrer Ausbreitungsrichtung ist sie schmal, da die blaueFarbe an ihrer Ruckseite schnell verschwindet, wenn sich aus Brommalonsaure undblauem Ferriin wieder Bromid und rotes Ferroin zuruckbilden.

Oder allgemeiner: eine kleine lokale Inhomogenitat erzeugt einen Mangel einer der Sub-stanzen. Dieser fuhrt zu einem lokalen Gradienten, der seinerseits einen Diffusionsstrom treibtin Richtung dieser Fehlerstelle. Die damit verbundene Verringenrung der Substanz in derUmgebung der Storstelle fuhrt zu einer Verschiebung des Reaktionsgleichgewichts, angezeigt

4. Februar 2008 c© M.-B. Kallenrode

Page 34: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 23

Abbildung 1.18: SelbstorganisierteSysteme: ein Gehirn und eine Stadtkonnen sehr ahnliche Strukturenzeigen [50]

durch eine ‘Umfarbung’. Diese Storung breitet sich von der ursprunglichen Inhomogenitatwellenformig aus. Entscheidend ist das Auftreten der beiden Prozesse Diffusion (raumlicheUmlagerung einer Substanz) und Reaktion (entsprechend der Umfarbung). Derartige Syste-me werden als Reaktions–Diffusions-Systeme bezeichnet.

§ 85 Ebenfalls in den fruhen 1950ern entwickelten sich die theoretischen Grundlagen zurErklarung derartiger chemischer Oszillatoren sowie zu einem auf ahnlichen chemischen Re-aktionen basierenden Konzept zur Beschreibung der Selbstorganisation. Es begann mit Tu-ring [131], dem ‘Vater’ des Code-Crackers fur Enigma, und einem Tigerfell. Oder besser:es begann nicht mit dem Tigerfell sondern mit Turing’s Interesse an Musterbildung in bio-logischen Strukturen wie Fibonacci Phyllotaxis, d.h. dem Auftreten von Fibonacci Zahlenin den Strukturen von Pflanzen, oder den Mustern von Tierhauten. Turing’s Ansatz ba-siert auf einem Diffusions–Reaktions-Model mit einer aktivierenden und einer deaktivie-renden Substanz. Daher stehen ein dampfender und ein antreibende Prozess in Konkur-renz. Turing-Muster bilden nicht nur die formale Erklarung fur die BZR und die Tierhaute;das System partieller Differentialgleichungen kann auch auf andere Probleme ubertragenwerden, z.B. Jager–Beute-Modelle – eine bereits auf Turing selbst zuruck gehende schoneanschauliche Version mit Missionaren und Kannibalen liefert Swinton (siehe z.B. http://www.swintons.net/jonathan/Turing/talks/Manchester%202004.ppt).

c© M.-B. Kallenrode 4. Februar 2008

Page 35: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

24 KAPITEL 1. EINFUHRUNG

Abbildung 1.19: Humunculus: Abbildung der einzelnen Korperregionen auf den sensomoto-rischen Cortex (oben, [55]) sowie die anschauliche Darstellung der relativen Bedeutung dereinzelnen Korperregionen entsprechend der zu ihrer Projektion im sensorischen (links) undmotorischen (rechts) Teil des sensomotorischen Cortex benotigten Flache (unten, c©NaturalHistory Museum)

§ 86 Turing-Muster beschreiben die Selbstorganisation eines Systems mit dem Ergebnis, dasssich fur eine Spezies (das entsprache einem Satz von Chemikalien mit zugehorigen Diffusions-konstanten und Reaktionsraten) stets ein prinzipiell gleiches Muster entsteht: ein Zebra hatStreifen, die Giraffe hat Flecken und selbst Spezies mit Fleckenmustern haben je nach Spezieszumindest fur den Fachmann unterscheidbare Muster. Gleichzeitig sind die Muster innerhalbeiner Spezies jedoch unterschiedlich genug, um an ihnen wie an einem Fingerabdruck einzelneIndividuen zu unterscheiden. Diese Unterschiede sind durch die zufallige Anfangsverteilungder Reaktionspartner und kleine Inhomogenitaten bedingt.

§ 87 Auch fur die Großhirnrinde benotigen wir eine solche Form der Organisation: entspre-chend den Flecken im Leopardenfell mussen sich hier Cluster von Neuronen bilden, die z.B.den visuellen Cortex oder den auditorischen Cortex bilden. Die Organisation im Cortex gehtjedoch einen Schritt uber die Muster im Leopardenfell hinaus: es mussen nicht nur Clustergebildet werden sondern diese mussen im sensomotorischen Cortes jeweils mit den korrektenSensoren bzw. Aktuatoren verbunden werden bzw. in anderen Bereichen mussen die Verbin-dungen zwischen den entsprechenden Teilen des Cortes erzeugt werden.

§ 88 Eine sehr anschauliche, allerdings mathematisch nicht unbedingt einfach zu fassende

4. Februar 2008 c© M.-B. Kallenrode

Page 36: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 25

Beschreibung fur die Ausbildung der Verbindungen ist das Wadi-Modell.8 In einer Wustegibt es keine Flusse, allerdings kann es zeitweise sehr heftige Regenfalle geben. Da der Bodendas Wasser nicht abnehmen kann, muss es an der Oberflache abfließen. Dabei folgt es bereitsvorhandenen kleinen Rinnen und Rillen. Diese werden durch die Stromung tiefer ausgewa-schen, so dass beim nachsten Regen dem Wasser schon deutliche Pfade vorgegeben sind. Mitjedem neuen Regen werden diese weiter vertieft, bis sie Wadis werden. Nimmt man Informa-tionen anstelle von Wasser so lasst sich auf diese Weise die Verbindung zwischen Neuronenbzw. Gehirnarealen verstarken.9 Einen kurzen, allerdings wesentlich fundierteren Uberblickuber die Entwicklung des Gehirns gibt [138].

§ 89 Selbstorganisation bzw. Emergenz ist ein zur Zeit schnellwachsendes Forschungsfeldmit sehr unterschiedlichen Anwendungen. Popularwissenschaftliche aber dennoch fundierteEinfuhrungen geben Johnson [50], aus dessen Buch auch das Eingangszitat und Abb. 1.18stammen,10 und Strogatz [124], der auf diesem Feld wissenschaftlich arbeitet. Eine mathe-matische und auch theoretisch sehr gut fundierte) Einfuhrung (in Emergenz mit sehr vielenunterschiedlichen Beispielen gibt Scott [108].

1.3.4 Zeit-kontinuierliche und diskrete Systeme

§ 90 Nach diesem Ausflug in den Aspekt der Selbstorganisation wollen wir uns wieder einemeinfachen klassischen System zuwenden. Betrachten wir den Schwingkreis als Filter. Die imSystem betrachteten Signale sind der Strom durch oder der Spannungsabfall uber einemBauteil. Diese Großen sind zeitkontinuierlich, sie verandern sich auch zeitkontinuierlich.

§ 91 Ein einfacher Bestandteil des Wirtschaftssystems dagegen kann als Beispiel fur eindiskretes System dienen: die Zinsen auf ein Kapital werden diesem nicht kontinuierlich gut-geschrieben (und damit sofort weiter verzinst) sondern nur zu bestimmten Zeiten, z.B. amEnde jeden Jahres. Damit werden auch erst ab diesem Zeitpunkt Zinseszinsen fallig.

8Das Modell ist an dieser Stelle nicht ganz korrekt – eigentlich beschreibt es eher Lernvorgange, ist alsoein Lern- und kein Entwicklungsmodell.

9Wie stark Nutzung und Neuronenbedarf mit einander verbunden sind, zeigt sich im sensomotorischenCortex, d.h. jenem Streifen des Gehirns, in dem Informationen von den Sensoren ankommen und Informatio-nen an den motorischen Apparat weiter gegeben werden, vgl. Abb. 1.14. Auch hier sind die Neuronen durchihre Verbindungen fur bestimmte Aufgaben spezialisiert, d.h. es gibt Neuronen, die an die Fingerspitzen an-koppeln ebenso wie solche, die das Gesaß bedienen. Diese Verknupfungen sind jedoch geometrisch nicht 1:1;das Verhaltnis der Oberflachen von z.B. Lippen zu gesamtem Korper ist in der Reprasentation im sensomoto-rischen Cortex wesentlich großer als auf der realen Korperoberflache. Das passt zu unserer Erfahrung: Lippenund Fingerspitzen sind wesentlich feinfuhliger als die vier Buchstaben, d.h. sie enthalten mehr Sensoren undliefern daher mehr Information. Um die Details der Information bei der Auswertung zu erhalten, muss diesemit gleichem Detailreichtum weiter gegeben werden, also wird eine entsprechend große Zahl von Neuronen imsensomotorischen Cortex benotigt. Anschaulich werden diese geometrischen ‘Verzerrungen’ im Humunculus(vgl. Abb. 1.19) dargestellt: dieser bestimmt aus dem relativen Anteil der Flache im sensomotorischen Cortexdie Große, die der entsprechende Korperteil real haben musste.

10Zur Erlauterung: die Frage nach der Fahigkeit einer Stadt, zu Lernen, ist aquivalent zu der Frage, dieden KI-Leuten und Roboterbauern soviel Probleme bereitet: das bewusste Lernen (Alphabet, kleines Ein-malEins) lasst sich leicht vermitteln – dafur lassen sich Algorithmen konstruieren. Das unbewußte Lernenjedoch, also auch das, was der Korper macht, wenn er Bewegungsablaufe lernt, ist nicht in Algorithmen zukleiden sondern erfolgt selbstorganisiert: durch Training lasst sich zwar organisieren, welche Bewegungsreizedem Korper angeboten werden, was er daraus macht, lasst sich aber kaum beeinflussen. Hier lernen Neu-ronen und Muskelzellen (bzw. jeweils kleine Gruppen von ihnen), ohne dass es von oben einen steuerndenMasterplan gibt bzw. die beteiligten Zellen bewusst lernen – vgl. auch das bereits zitierte Wadi-Modell. DieKommunikation ist jeweils einfach und auf wenige benachbarte Zellen beschrankt, ihre wesentlichen Kriteriensind: (1) more is different, (2) ignorance is useful, (3) encourage random encounters, (4) look for patterns inthe signs, (5) pay attention to your neighbours. Auf ahnliche Weise konnen auch Stadte aus einfachen lokalenWechselwirkungen komplexe Wirtschaftssysteme ‘bottom up’ aufbauen: eine Zunft entwickelt sich einfachaus der lokalen begrenzten Interaktion der Beteiligten und kann u.U. eine Stadt dominieren ohne je daraufhin gearbeitet zu haben. Pinker’s [96] Eingangszitat zu Kap. 4 weist darauf hin, dass selbst Sprache und derSpracherwerb selbstorganisiert sind – daher ist es auch schwer, einem Computer/Roboter freie Antwortenbeizubringen statt einer Auswahl aus vorgefertigten Satzen/Satzfragmenten. Auch Universitaten zeigen imZuge der Umstellungen der Studiengange, der Exzellenzinitiative, der Evaluationen und der Leistungsbezo-genen Mittelzuweisungen plotzlich emergentes (nicht einfach dynamisches) Verhalten – nur noch merkt eskaum jemand und hat auch noch keine Vorstellung von den Konsequenzen [83, 87].

c© M.-B. Kallenrode 4. Februar 2008

Page 37: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

26 KAPITEL 1. EINFUHRUNG

§ 92 Zeitkontinuierliche Systeme lassen sich durch Funktionen darstellen; in diskreten Syste-men lassen sich haufig an Stelle von Funktionen Folgen oder Reihen verwenden. Oder das, waseigentlich eine Folge ist, wird durch eine Funktion ersetzt, gegen die diese Folge konvergiert– dem diskreten System wird ein zeit-kontinuierliches mathematisches Korsett angelegt.

Verstandnisfrage 6 Der radioaktive Zerfall einer Substanz ist ein ganz simples System.Handelt es sich dabei um ein diskretes oder um ein zeitkontinuierlices System? Denken Siedabei an die Ihnen bekannte formale Beschreibung; betrachten Sie gleichzeitig auch die phy-sikalische Situation, insbesondere fur den Fall einer sehr kleinen Probe mit einer geringenZahl von instabilen Kernen.

§ 93 Im Rahmen dieses Skriptes werden wir uns auf zeitkontinuierliche Systeme beschranken:die meisten von uns zu untersuchenden Signale sind zeitkontinuierlich – auch Filter werdensets als zeitkontinuierliche Systeme angenommen. Auch die Systeme, die z.B. Bewegungenbeschreiben, sind zeitkontinuierlich, da die von uns normalerweise betrachteten Bewegun-gen zeitkontinuierlich erfolgen. SimuLink ist dagegen nicht auf zeitkontinuierliche Systemebeschrankt. Als ein einfache Einfuhrung in die Behandlung diskreter Systeme wird in Ab-schn. 5.3 ein digitaler Filter behandelt; als diskretes System werden wir in Kap. ?? u.a. aufFibonacci’s Kaninchenpopulation zuruck kommen.

Verstandnisfrage 7 Ein Kind sitzt auf einer Schaukel und wird jeweils bei Erreichen deshinteren hochsten Punkts der Schwingung angeschubst. Wurden Sie bei der Beschreibungeher auf ein zeitkontinuierliches oder ein diskretes System zuruck greifen? Oder ist beidesmoglich, jeweils mit unterschiedlichen Vor- und Nachteilen?

Verstandnisfrage 8 Der Begriff der Signalanalyse taucht im Rahmen dieses Skripts haufigerauf. Das analoge Signal einer Schallquelle ist sicherlich zeitkontinuierlich. Wie sieht es dagegenmit digitalen Audio-Signalen aus. Sind diese zeitkontinuierlich oder diskret?

1.3.5 Lineare und nichtlineare Systeme

§ 94 Dieser Unterabschnitt ist eigentlich uberflussig: nachdem wir uber Selbstorganisationund Emergenz gesprochen haben, ist die Frage nach der Form der Gleichungen schon fasttrivial. Ja, es gibt lineare Systeme – und wir werden auch einigen im Laufe der Vorlesungbegegnen. Aber die interessanten System sind fast alle nicht-linear.

§ 95 Was sind die wesentlichen Unterscheidungsmerkmale der beiden Typen von Systemen?Der einfachste Aspekt ist ein formaler: sind die das System beschreibenden Differentialglei-chungen linear oder nicht. Fur die analytische Losung sind sicherlich lineare (Systeme von)Differentialgleichungen angenehmer, im Zeitalter der numerischen Losungsverfahren ist dieseEinschrankung weniger relevant. Daher ist die fruher haufig durchgefuhrte Linearisierung vonGleichungen als Voraussetzung zu ihrer Losung nicht mehr erforderlich – was naturlich nichtaussschließt, im Interesse einer effizienteren Modellierung Gleichungen dort zu linearisieren,wo die Effekte und damit die Terme hoherer Ordnung kaum Einfluss auf die Losung haben.

Verstandnisfrage 9 Versuchen Sie, die Beispiele in diesem Kapitel in lineare und nichtli-neare Systeme einzuteilen. Finden Sie ferner fur beide Typen von Systemen weitere Beispiele.

1.3.6 Ubertragungsfunktionen

§ 96 Betrachten wir eine Unterklasse von Systemen. Dieses Systeme sind statisch, d.h. sieentwickeln sich nicht. Ihre Funktion besteht darin, ein Eingangssignal aufzunehmen unddieses in ein Ausgangssignal umzuformen. Ein einzelnes Neuron konnte ein Beispiel fur einderartiges System sein; ein Filter in der Signalanalyse ist vielleicht ein noch einfacheres undmathematisch leichter fassbares Beispiel.

4. Februar 2008 c© M.-B. Kallenrode

Page 38: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.3. (DYNAMISCHE) SYSTEME 27

§ 97 Fur diese Klasse von Systemen sind wir an der Ubertragungsfunktion G, d.h. an demVerhaltnis von Ausgangs- zu Eingangssignal interessiert. Die Ubertragungsfunktion ist esauch, die wir in den Blocken von SimuLink anzugeben haben. Daher konnen wir mit Simu-Link einfache (Unter-)Systeme zu einem großeren System zusammen setzen.

§ 98 Ubertragungsfunktionen sind die klassische Spielwiese der Signalanalyse. Daher werdenwir etwas genauer mit ihnen und den damit verbundenen formalen Aspekten wie der FourierAnalyse oder besser noch der Laplace Transformation befassen – und schlagen zwei Fliegenmit einer Klappe: Signalanalyse ist fur einen Physiker ohnehin wichtig und Laplace Transfor-mationen benotigen wir nicht nur zum Verstandnis von SimuLink sondern konnen sie auchals Hilfsmittel bei der Losung von Systemen von Differentialgleichungen einsetzen.

Verstandnisfrage 10 Ist Linearitat eines Systems Voraussetzung dafur, dass man eineUbertragungsfunktion angeben kann?

Verstandnisfrage 11 Aufbauend auf der vorstehenden Frage: konnen wir in SimuLink nurauf der Basis von Ubertragungsfunktionen Selbstorganisation in einem System erzeugen?

1.3.7 Zusammenfassung Systemeigenschaften

§ 99 Das letzte Wort in diesem Abschnitt uberlassen wir wieder Wikipedia (http://de.wikipedia.org/wiki/System, 19.06.2007), das ein System als ein nach Prinzipien geordnetesGanzes beschreibt:

1. Jedes System besteht aus Elementen (Komponenten, Subsystemen), die zuein-ander in Beziehung stehen. Meist bedeuten diese Relationen ein wechselseitigesBeeinflussen - aus der Beziehung wird ein Zusammenhang.

2. Ein System in diesem Sinn lasst sich durch die Definition zweckmaßiger System-grenzen von seiner Umwelt (den ubrigen Systemen) weitgehend abgrenzen, um esmodellhaft isoliert beobachten und das Geschehen reflektieren zu konnen. Diese(vorubergehende) Einschrankung ist zweckmaßig, weil das menschliche Bewusst-sein in seiner Auffassungsgabe systemischer Ablaufe begrenzt ist.

3. Bei Systemen unterscheidet man die Makro- und die Mikroebene: Auf der Ma-kroebene befindet sich das System als Ganzes. Auf der Mikroebene befinden sichdie Systemelemente.

4. Strukturierung, Eigenschaften und Wechselwirkungen der Elemente auf der Mi-kroebene bestimmen die Eigenschaften des Gesamtsystems auf der Makroebene.Diese von der Mikroebene bestimmten Eigenschaften des Gesamtsystems bildenzugleich strukturelle Rahmenbedingungen, die steuernd auf die Elemente der Mi-kroebene einwirken.

5. Die Beziehungen (Relationen) zwischen den Elementen der Mikroebene sind Wir-kungen von Austauschprozessen, wie zum Beispiel Stoff-, Energie- oder Informa-tionsflussen.

6. Auf der Makroebene lassen sich Beobachtungen machen, die aus dem Verhaltender Elemente auf der Mikroebene nicht erklarbar sind. So lassen sich beispiels-weise Konvektionszellen, die beim Erwarmen einer Flussigkeit entstehen konnen,nicht aus dem Verhalten einzelner Molekule der Flussigkeit ableiten. (“Das Ganzeist mehr als die Summe seiner Teile!”). Man spricht in diesem Zusammenhangauch von Emergenz.

7. Das System selbst ist wiederum Teil eines Ensembles von Systemen und bestimmtmit ihnen die Eigenschaften eines ubergeordneten Systems.

8. Viele Systemtheoretiker verstehen ein System nicht als realen Gegenstand, son-dern als Modell der Realitat. Ein Modell ist nicht richtig oder falsch, sondernmehr oder weniger zweckmaßig.

9. Die Abgrenzung von Systemen gegeneinander, das Herausgreifen bestimmter Ele-mente und bestimmter Wechselwirkungen und das Vernachlassigen anderer Ele-mente und Beziehungen und damit die Identifikation eines bestimmten Systems

c© M.-B. Kallenrode 4. Februar 2008

Page 39: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

28 KAPITEL 1. EINFUHRUNG

und seiner Umwelt ist stets vom Betrachter abhangig, also subjektiv, und demjeweiligen Untersuchungszusammenhang angepasst.

10. Jede Wissenschaft beschaftigt sich mit Systemen. Jede Wissenschaftsrichtungdefiniert Systeme aus ihrer Sicht. So kommt es, dass gleiche Begriffe mit un-terschiedlichen Bedeutungen belegt werden. Die Entwicklung einer einheitlichenSystemtheorie ist zurzeit noch nicht abgeschlossen.

11. Die Kybernetik oder auch Biokybernetik beschaftigt sich intensiv mit Systemen.

Verstandnisfrage 12 Illustrieren Sie jeden der Punkte der obigen Liste mit (weiteren) Bei-spielen! Finden Sie ein System (eventuell auch eines der Systeme aus diesem Kapitel), dasals Beispiel fur moglichst viele der obigen Punkte verwendet werden kann.

1.4 Aufbau von Vorlesung und Skript

§ 100 Vorlesung und Skript folgen in ihrem Aufbau den in den Beispielen angesprochenenAspekten. Aus diesen sollte klar geworden sein, dass die Anwendung von SimuLink einVerstandnis der Grundbegriffe Ubertragungsfunktion11 und Systemvariable erfordert.

§ 101 Eine Ubertragungsfunktion lasst sich als Output-Input-Relation auffassen: sie be-schreibt z.B. das Verhaltnis von Ausgangs- zu Eingansgssignal eines Filters. Selbst bei ei-nem einfachen Filter wie einem Hoch- oder Tiefpass sind der geschlossenen Darstellung derUbertragungsfunktion Grenzen gesetzt: in der Zeitdomane lasst sich die Ubertragungsfunktionnur fur ein harmonisches Eingangssignal geschlossen darstellen, da sich das Ausgangssignaldurch Multiplikation mit einem Dampfungsfaktor und durch eine Phasenverschiebung ausdem Eingangssignal bestimmen lasst. Die Signalform selbst dagegen bleibt erhalten. Bei ei-nem rechteckigen Eingangssignal dagegen verandert der Hoch- bzw. Tiefpass die Signalform,so dass eine Ubertragungsfunktion im Zeitbereich nicht mehr (einfach?) zu bestimmen ist.Im Frequenzbereich ist die Bestimmung dieser Ubertragungsfunktion jedoch weiterhin aufeinfache Weise moglich. In Kap. 2 werden wir uns daher mit dem Ubergang vom Zeit- inden Frequenzbereich befassen. Dazu konnen wir die Fourier oder die Laplace Transformationverwenden. Die Fourier Transformation ist Ihnen als Anwendung der Fourier Analyse zur Zer-legung zeitkontinuierlicher periodischer Signale in Grund- und Oberschwingungen bekannt.Die Laplace Transformation unterscheidet sich von der Fourier Transformation durch einenkonvergenz-erzeugenden Faktor. Dadurch hat sie einen breiteren Anwendungsbereich, wasinsbesondere auch die Berucksichtigung der Sprungfunktion erlaubt und damit das Studiumeines Systems nicht auf die Impulsantwort beschrankt sondern auch eine Untersuchung imHinblick auf eine Sprungantwort zulasst.

§ 102 Zwar haben wir auf diese Weise die formalen Grundlagen zur Beschreibung einerUbertragungsfunktion gelegt – eine genaue Definition des Begriffes haben wir jedoch nichtvorgenommen. Diese erfolgt in Kap. 3 im Rahmen einer kurzen Einfuhrung in die Systemtheo-rie.

§ 103 In Kap. 4 werden wir uns endlich detaillierter mit SimuLink auseinander setzen. Dabeiwerden wir die grundlegende Elemente von SimuLink kennen und anwenden lernen. WeitereSchwerpunkte des Kapitels sind die Definition der Eigenschaften der einzelnen Blocke, dievor der Durchfuhrung der Simulation zu bestimmenden Eigenschaften des Losungsverfahrenssowie die Stabilitat und Genauigkeit der Losung. Als erstes Ubungsbeispiel werden wir unsausfuhrlich mit (gekoppelten) Pendeln beschaftigen, am Rande werden aber auch Simulatio-nen wie schwingende Kranlasten oder Zenerdioden auftreten.

§ 104 Die anschließenden Kapitel liefern Beispiele fur verschiedene Aspekte von Systemenebenso wie von Simulink. Sie bauen nicht aufeinander auf, d.h. Sie konnen sie entweder in

11Das ist der formal korrekte Ausdruck fur jene Blocke, die uns nicht eine einfache arithmetische Operationwie der Gain-Block erlauben sondern Operationen wie das Differenzieren und integrieren ermoglichen.

4. Februar 2008 c© M.-B. Kallenrode

Page 40: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

1.4. AUFBAU VON VORLESUNG UND SKRIPT 29

beliebiger Reihenfolge bearbeiten oder sich die Sie interessierenden Rosinen aus dem Kuchenpicken – in der Vorlesung werden wir sicherlich nicht alle bearbeiten.

§ 105 In Kap. 5 werden wir die wesentlichen Aspekte der voran gegangenen Kapitel amBeispiel von Filtern wiederholen. Diese lassen sich durch einen analogen Aufbau einfach rea-lisieren, so dass wir von physikalischer Realisierung uber die Losung der DGL mit Hilfe einerLaplace Transformation schnell zur Ubertragungsfunktion gelangen. Mit Hilfe von Filternzunehmender Ordnung lassen sich entsprechend Ubertragungsfunktionen hoherer Ordnung‘schneidern’, so dass wir durch die Variation des entsprechenden Blocks in einer einfachenSimuLink-Simulation schnell zu einem intuitiveren Verstandnis dieser Ubertragungsfunkti-onen kommen konnen. Wir werden ebenfalls kurz auf digitale Filter eingehen: diese lassensich von den Randbedingungen des analogen Aufbaus losen und unterscheiden sich daher ineinem Aspekt fundamental von diesen: analoge Filter erlauben keine Zeitumkehr, fur digitaleFilter ist dies kein Problem. Den einfachsten digitalen Filter, das gleitende Mittel, werden wirausfuhrlich diskutieren, ebenso die Unterscheidung in kausale und nicht-kausale Systeme. ImHinblick auf SimuLink werden wir den Umgang mit diskreten Systemen sowie die Darstel-lung der Filter nicht nur uber die Ubertragungsfunktion sondern auch mit Blockdiagrammenkennen lernen.

§ 106 In Kapitel 6 werden wir einen kleinen Rundumschlag im Bereich der nichtlinearenSysteme vornehmen. Nach einer kurzen Charakterisierung nicht-linearer Systeme werden wiruns kurz mit physikalisch eher trivialen aber mathematisch dennoch nicht-linearen Systemenwie der startenden Rakete oder dem Fadenpendel mit veranderliche Pendellange befassen.Die anschließenden Abschnitte befassen sich mit eher typischen nicht-linearen Problemen wieChaos und Selbstorganisation. Als Beispiel fur ersteres werden wir nochmals gekoppelte Pen-del bemuhen: letztere werden wir am Beispiel des Diffusions–Reaktions-Modells mit seinenverschiedenen Anwendungen illustrieren.

§ 107 In Kapitel 7 kommt der Zufall ins Spiel: in einem chaotischen System, wie z.B. derAtmosphare und damit dem Wetter und dem Klima, ist eine Vorhersage der Systemzustandezu einer bestimmten Zeit nicht moglich. Wir werden an Hand wesentlich einfacherer Beispie-le wie Fibonacci’s Kaninchen und verschiedener, fur die Beschreibung chaotischer Systemetypischer Gleichungen die Grundlagen der Ensemble Prediction kennen lernen: da der Aus-gangszustand eines chaotischen Systems mit leichten Anderungen des Anfangszustands starkund unsystematisch variiert, ist selbst bei einem komplett deterministischen System eineVorhersage auf Grund der Ungenauigkeiten im Anfangswert nicht moglich. Um zumindest zueiner Wahrscheinlichkeitsvorhersage zu kommen, rechnet man das System mit einer Vertei-lung von Anfangszustanden (die moglichst die Verteilung der Ungenauigkeit wiederspiegelnsollte) und untersucht die Verteilung der Ausgangszustande: mit einer Wahrscheinlichkeitvon x% wird es morgen regnen.

§ 108 In Kapitel 8 spielt der Zufall, auch wenn der Titel vielleicht eher anderes vermutenlasst, keine Rolle: wir erden uns nicht mit dem Glucksspiel beschaftigen sondern mit der Spiel-theorie als einer Moglichkeit, Entscheidungsfindung zu beschreiben. Als klassische Beispielewerden das Gefangenendilemma und die Gemeindewiese dienen. Etwas formaler wird es inder Anwendung auf die Wirtschaftswissenschaften und letztlich im Versuch, die Spieltheoriezu verwenden, um zu einer globalen Reduktion der CO2-Emissionen zu kommen.

Literaturhinweise

§ 109 Eine kompakte und gleichzeitig sehr weit gehende Einfuhrung in SimuLink ist Mas-tering SimuLink von Dabney und Harman [17]. Das Buch erklart eigentlich alle wichtigenAspekte zu SimuLink und hat viele schone Beispiele – Grundbegriffe wie die Laplace Trans-formation oder was denn nun eine Systemvariable eigentlich sein soll werden jedoch nichteingefuhrt sondern bestenfalls am Rande erwahnt. In diese Begriffe einfuhrende Literaturwird in Kap. 2 und 3 gegeben.

c© M.-B. Kallenrode 4. Februar 2008

Page 41: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

30 KAPITEL 1. EINFUHRUNG

§ 110 Einfuhrungen in SimuLink finden Sie auch in einigen MatLab-Buchern wie z.B. [35]oder [42]. In letzterem ist die Einfuhrung sehr kurz und ohne formalen Hintergrund, be-rucksichtigt aber die wesentlichen Aspekte. In [35] wird SimuLink wesentlich ausfuhrlicherbehandelt – insbesondere unter technischen Aspekten. Der formale Anspruch ist eher ge-ring, d.h. Sie lernen, mit SimuLink zu arbeiten, haben aber keine Vorstellung, warum derIntegrator-Block mit 1

s bezeichnet ist. Auch [68] gibt eine kurze Einfuhrung in SimuLinkmit Schwerpunkt auf der Regelungstechnik.

§ 111 Sollten Sie SciLab anstelle von MatLab verwenden, so finden Sie dort mit SciCosein Aquivalent zu SimuLink. Alle systemtheoretischen Aspekte dieses Skriptes sind ohnehinunabhangig von der verwendeten Software, bei der Angabe von Beispielen werde ich michauf SimuLink beschranken, eine Einfuhrung in SciCos geben Campbell et al. [12].

§ 112 Egal, was Sie an Literatur wahlen: das in diesem einfuhrenden Kapitel hinreichendstrapazierte Federpendel wird Ihnen mit sehr großer Wahrscheinlichkeit wieder uber den Weglaufen.

Fragen

Frage 1 Durch welche Eigenschaften ist ein System charakterisiert? Welche speziellen Ei-genschaften hat ein dynamisches System?

Frage 2 Diffusions–Konvektions-Modelle werden in vielen Bereichen verwendet. BeschreibenSie die Grundlagen eines Diffusions–Konvektions-Modells und stellen Sie die Parameter diesesModells zusammen.

Aufgaben

Aufgabe 1 Machen Sie sich (z.B. durch Recherche im Internet) mit den Begriffen Emergenz,Selbstorganisation und Synchronizitat vertraut.

Aufgabe 2 Falls sie Ihnen nicht gegenwartig sind, setzen Sie sich noch einmal mit denLosungsstrategien fur die in diesem Kapitel betrachteten Differentialgleichungen auseinander.

4. Februar 2008 c© M.-B. Kallenrode

Page 42: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Teil I

Lineare Systeme

31

Page 43: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 2Laplace Transformation

We may regard the present state as the effect of its past and the cause of its future. Anintellect which at a certain moment would know all forces that set nature in motion,and all positions of all items of which nature is composed, if its intellect were also vastenough to submit these data to analysis, it would embrace a single formula for themovements of the greatest bodies of the universe and those of the tiniest atom; forsuch an intellect nothing would be uncertain and the future just like the past wouldbe repsent before its eyes.

P. Laplace

§ 113 Laplace hat der Wissenschaft nicht nur den oben in seinen Worten beschriebenenLaplace’schen Damon sondern – neben weiteren Dingen – auch die nach ihm benannte Inte-graltransformation gegeben. Eine Laplace Transformation ist eine Integraltransformation, dieeine von der Zeit abhangige Funktion x(t) in eine von einer komplexen Frequenz s abhangigeFunktion X(s) uberfuhrt. Dabei wird die Integration bzw. Differentiation in eine Divisiondurch bzw. Multiplikation mit dieser neuen Variablen s uberfuhrt – oder einfacher: eineDifferentialgleichung wird auf eine algebraische Gleichung reduziert.

§ 114 Auf Grund dieser Eigenschaft sind Laplace Transformationen Standard-Verfahren zurLosung von Differentialgleichungen. Diese Losung erfolgt in einem dreistufigen Verfahren:

1. Transformation der Differentialgleichung aus dem Zeitbereich in eine algebraische Glei-chung im Frequenzbereich,

2. Losung der algebraischen Gleichung,3. Rucktransformation der Losung aus dem Frequenz- in den Zeitbereich.

Der Vorteil der Umwandlung in algebraische Gleichungen wird bei der Losung einer gewohn-lichen Differentialgleichung nicht sofort offensichtlich - bei der Losung eines Systems partiellerDifferentialgleichungen dagegen bringt die Reduktion auf ein lineares Gleichungssystem einenoffensichtlichen Vorteil. Einen Haken hat das Verfahren allerdings: die Rucktransformation istnicht immer einfach. Verwenden wir die Laplace Transformation jedoch als Verfahren zur Be-stimmung einer Ubertragungsfunktion, so konnen wir auf die Rucktransformation verzichten(bzw. diese an SimuLink delegieren).

§ 115 Die Verwendbarkeit zur Losung einer DGL hat die Laplace Transformation mit derFourier Transformation gemeinsam. Da letztere die bekanntere der Integraltransformationenist und in der Signalanalyse weite Anwendung findet, wollen wir das Kapitel mit ihr begin-nen. Die dabei einzufuhrenden Grundbegriffe sind fur beide Transformationen gleichermaßengultig; dies gilt insbesondere fur den Faltungssatz, der eine Faltung zweier Funktionen imZeitbereich in ein Produkt dieser Funktionen im Frequenzbereich uberfuhrt, sowie fur dieUberfuhrung der Ableitung in ein Produkt mit der neuen Variablen.

32

Page 44: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.1. FOURIER REIHE 33

Lernziele: nach Durcharbeiten dieses Kapitels sollen Sie in der Lage sein,

• die grundlegenden Regeln und Ideen einer Laplace Transformation darzustellen und imRahmen einer Simulation anzuwenden.• einfache Differentialgleichungen bzw. Differentialgleichungssysteme unter Verwendung der

Tabellen fur Laplace und Fourier Transformation mit Hilfe derartiger Transformationen zulosen.• eine Fast Fourier Transformation mit Hilfe eines Programmpakets wie z.B. MatLab oder

SciLab durchzufuhren und die Ergebnisse zu interpretieren.• die Laplace Transformation vom Zeit- in den komplexen Frequenzbereich durchzufuhren,

um die Ubertragungsfunktion eines Systems aus der Differentialgleichung zu bestimmen.

Die manuelle Durchfuhrung von Transformationen sollten Sie an den Beispielen nachvollzogenhaben – ein Drill insbesondere der Rucktransformation ist nicht Ziel dieses Kapitels.

2.1 Fourier Reihe

§ 116 Ein Kapitel uber Laplace Transformationen mit einem langeren Abschnitt uber Fouri-er Transformationen zu beginnen, wirkt ein bisschen wie ‘Thema verfehlt’. Da sich die LaplaceTransformation nur um einen integrierenden Faktor von der (kontinuierlichen) Fourier Trans-formation unterscheidet, lassen sich die wesentlichen Aspekte der Laplace Transformation anHand der anschaulicheren und auf Grund ihrer vielfaltigen Anwendungen in der Signalanalysebekannteren Fourier Transformation aufzeigen.

§ 117 Die erste Begegnung mit Herrn Fourier erfolgt meist jedoch nicht im Zusammenhangmit einer Integraltransformation sondern im Zusammenhang mit der recht anschaulichenFourier Reihe. So wird meist bereits im Schulunterricht gezeigt, wie sich eine Grundschwin-gung und verschiedenen Oberschwingungen zu unterschiedlichen periodischen Signalen zu-sammensetzen lassen. Fourier selbst hat die Fourier Reihe allerdings nicht in diesem an-schaulichen Zusammenhang eingefuhrt sondern im Zusammenhang mit der Losung einerDifferentialgleichung – und dies war nicht einmal die Schwingungsgleichung, bei der dieUberlagerung von Grundschwingung und hoheren Harmonischen ‘offensichtlich’ ist, sonderndie Warmeleitungsgleichung. Wir werden ebenfalls von einer DGL ausgehen, allerdings vonder Wellengleichung. Fourier Reihen treten z.B. bei der Losung des raumlichen Teils dieserauf. Durch Uberlagerung von Grund- und verschiedenen Oberschwingungen in veranderlichenGewichtsanteilen lassen sich mit Hilfe der Fourier Reihe nahezu beliebige periodische Funktio-nen erzeugen. Das klassische Anwendungsbeispiel fur die 1D Wellengleichung ist die schwin-gende Saite – und von ihr ist die Zerlegung in Grund- und Oberschwingung sowie die Be-deutung der Anteile der einzelnen Schwingungsmoden fur die Klangfarbe des Instrumentsbekannt.

§ 118 Die wesentlich gebrauchlichere Anwendung ist die Umkehrung dieser Superposition:eine (nicht einmal zwingend periodische) Funktion wird in Grund- und Oberschwingungenzerlegt – es wird gleichsam der Fingerabdruck des Schallsignals erzeugt, mit dessen Hilfesich die Schallquelle identifizieren lasst. Das Frequenzspektrum wird dabei allerdings nichtdiskret sondern kontinuierlich gewahlt: bei dieser kontinuierlichen Fourier Analyse wird einZeitsignal in ein Frequenzspektrum umgewandelt. Der Vorgang wird daher als kontinuierlicheFourier Transformation bezeichnet.

§ 119 Die kontinuierliche Fourier Transformation ist ein mathematische Konstrukt. Zwarist die Fourier Transformation in der Signalanalyse von großer Bedeutung, jedoch liegt einSignal in der Regel nicht als eine zeitkontinuierliche Funktion sondern bedingt durch endlicheSampling-Intervalle als eine Folge diskreter Messwerte vor. Bei der Untersuchung derartigerZeitserien wird die diskrete Fourier Transformation verwendet.

c© M.-B. Kallenrode 4. Februar 2008

Page 45: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

34 KAPITEL 2. LAPLACE TRANSFORMATION

Verstandnisfrage 13 Die Fourier Analyse wird auf zeitliche wie auf raumliche Signale an-gewandt – im Gegensatz zu einer in R, d.h. in einem unendlichen Bereich definierten kon-tinuierlichen Funktion haben diese Signale eine endliche Lange/Dauer; auch ist der Defini-tionsbereich nicht kontinuierlich sondern diskret – Signale sind mathematisch also eher eineendliche Folge. Macht die Abbildung auf einen kontinuierlichen, unendlichen Frequenzbereichuberhaupt Sinn oder lassen sich aus den Eigenschaften des Datensatzes Einschrankungen furden Frequenzbereich definieren, auf den das Zeitsignal abgebildet werden kann?

Verstandnisfrage 14 Da wir ohnehin schon die schwingende Saite erwahnt haben nocheine Frage zu Audio-Signalen: sind diese kontinuierlich oder diskret oder beides oder immermal was anderes? An welcher Stelle konnte welche Form von Fourier Transformation sinnvollsein?

2.1.1 Fourier Reihen anschaulich eingefuhrt

§ 120 An Hand der schwingenden Saite lasst sich die Fourier Reihe anschaulich einfuhren.Die partielle Differentialgleichung fur die Auslenkung (Amplitude) A(x, t) lautet

∂2A

∂x2=

1c2

∂A2

∂t2

mit den Randbedingungen x(0, t) = 0 und x(L, t) = 0 (Saite der Lange L, an beiden Endenfest eingespannt). Separation der PDGL liefert mit der Separationskonstante −β2 je einegewohnliche DGL fur den zeitlichen und den raumlichen Anteil von A(x, t) = X(x)T (t):

X ′′ + β2X = 0 und T ′′ + β2c2T = 0 .

Beide Gleichungen beschreiben einen eine freie Schwingung (harmonischer Oszillator) mitden Losungen

X(x) = γ1 cos(βx) + γ2 sin(βx) undT (t) = γ3 cos(ωt) + γ4 sin(ωt) mit ω = βc . (2.1)

Darin sind die γi die aus den Anfangsbedingungen zu bestimmenden Integrationskonstanten.

§ 121 Die Werte der Separationskonstanten β im raumlichen Teil der Losung (2.1) sindnicht beliebig sondern konnen nur diskrete Werte annehmen: da die Saite an beiden Endeneingespannt ist, muss die Auslenkung dort verschwinden, d.h. die Losung muss sich auf dieSinus-Terme beschranken derart, dass stets eine ganze Zahl von Wellenbergen zwischen denEndpunkten auftritt. Damit ist die Saitenlange stets ein ganzzahliges Vielfaches der halbenWellenlange der moglichen Wellen: L = nλn/2. Oder formuliert uber die Separationskonstan-te: Lβ = nπ mit n = 1, 2, 3, . . .. Die raumliche Losung besteht aus den Eigenmoden

Xn = γ2n sin(nπx

l

).

Die Losung der PDGL fur eine der Eigenmoden ergibt sich durch Multiplikation der zeitlichenund raumlichen Anteile der Losung zu

An = (γ3,n cos ωnt + γ4,n sin(ωnt)) γ2,n sin(nπx

l

)= an cos(ωnt + ϕn) sin

nπx

l.

Die vollstandige Losung der PDGL ergibt sich durch Summation uber die Eigenmoden:

A(x, t) =∞∑

n=1

(γ3,n cos ωnt + γ4,n sin(ωnt)) γ2,n sin(nπx

l

)=

∞∑n=1

an cos(ωnt + ϕn) sinnπx

l. (2.2)

4. Februar 2008 c© M.-B. Kallenrode

Page 46: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.1. FOURIER REIHE 35

Abbildung 2.1: Fourier Reihe: Sage-zahn, Rechteck und ’pulsierende Gleich-spannung’, Kurven durch additive Kon-stante getrennt; jeweils nur die erstenfunf Terme der Reihe wurden verwen-det; die hochste verwendete Frequenzist jeweils als Welligkeit der Funktions-graphen zu erahnen

§ 122 Eine unendliche Summe uber (die Summe von) Sinus- und/oder Kosinus-Termen wiein (2.2) wird als Fourier Reihe bezeichnet, allgemein definiert als

f(t) =∞∑

n=0

(An cos(ωnt) + Bn sin(ωnt)) mit ωn =2πn

Tund B0 = 0 . (2.3)

Darin ist T die Periode der Funktion f(t). Beschrankung auf die Kosinus-Terme liefert eineungerade Funktion, f(t) = −f(−t), Beschrankung auf die Sinus-Terme dagegen eine gerade,f(−t) = f(t).

Verstandnisfrage 15 In der Fourier Reihe (2.3) ist der Koeffizient B0 gleich Null gesetztwahrend fur A0 keine Einschrankungen gemacht werden. Warum werden Sinus- und Kosinus-Terme so unterschiedlich behandelt? Oder ist die Einschrankung B0 = 0 nicht zwingenderforderlich?

Verstandnisfrage 16 Konnen Sie aus der mit Verstandnisfrage 15 verbundenen Diskussioneine anschauliche Bedeutung von A0 finden?

§ 123 Fourier Reihen konnen auch als Annaherungen an analytisch nicht (bzw. nur fur einePeriode) darstellbare Funktionen verwendet werden. So kann z.B. eine Sagezahnfunktion(oberes Teilbild in Abb. 2.1) analytisch dargestellt werden als f(x) = x fur −π < x < π. Furgroßere Intervalle dagegen ist

f(x) = 2(

sinx

1+

sin(2x)2

+sin(3x)

3+ . . .

)= 2

∞∑n=1

sin(nx)n

.

Die Rechteckfunktion f(x) = a fur 0 < x < π und y = −a fur π < x < 2π (vgl. mittleresTeilbild in Abb. 2.1) ist darstellbar als

f(x) =4a

π

(sinx +

sin(3x)3

+sin(5x)

5+ . . .

)=

a

∞∑n=1

sin((2n− 1)x)2n− 1

,

der pulsierende Sinus f(x) = sinx fur 0 ≤ x ≤ π als

f(x) =2π− 4

π

(cos(2x)

1 · 3+

cos(4x)3 · 5

+cos(6x)

5 · 7+ . . .

)=

2π− 4

π

∞∑n=1

cos(2nx)(2n− 1)(2n + 1)

.

Bestimmung der Fourier Koeffizienten

§ 124 Die Superposition der verschiedenen Schwingungsmoden lasst sich einfach bewerk-stelligen – aber wie bestimmt man die Koeffizienten fur eine gegebene periodische Funktionf(t)? Betrachten wir eine periodische Funktion f(t), d.h. eine Funktion, die sich stuckweisezyklisch wiederholt, vgl. Abb. 2.2. Die Lange dieses Intervalls sei 2τ , so dass gilt

f(t + 2τ) = f(τ) = f(t− 2τ) = f(t± 2nτ) mit n = 0, 1, 2, . . . .

c© M.-B. Kallenrode 4. Februar 2008

Page 47: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

36 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.2: Periodische Funkti-on der Periodenlange 2τ

Abbildung 2.3: Sinus(links) und Kosinus(rechts) als Basisfunk-tionen der FourierTransformation furk = 1 (schwarz), k = 2(rot), k = 3 (grun) undk = 4 (blau)

§ 125 Gemaß (2.3) lasst sich eine derartige Funktion als eine Uberlagerung von Sinus- undKosinuswellen schreiben

f(t) = a0 +∞∑

n=1

[an cos(nω0t) + bn sin(nω0t)] . (2.4)

mit ω0 = π/τ als der Grundfrequenz. In dieser Darstellung wird die Bedeutung des A0 in(2.3) deutlich (vgl. Verstandnisfrage 16): dieser Term gibt den Gleichstromanteil. In dieserBezeichnung spiegelt sich der Ursprung der Fourier Analyse in der Verarbeitung elektrischerSignale wieder: ein allgemeines elektrisches Signal lasst sich als eine Summe aus einem kon-stanten Signal (Gleichstrom oder -spannung) und dem uberlagerten Wechselsignal darstellen.Bei der Mittelung uber eine Periode oder Vielfache der Periode fallen die Wechselanteile wegund der Gleichanteil uberlebt. A0 gibt daher gleichzeitig den Mittelwert des Signals.

§ 126 Formal begegnen wir hier einem nicht-geometrischen Vektorraum: der Raum der pe-riodischen Funktionen wird aufgespannt von den Basisfunktionen Sinus und Kosinus, vgl.Abb. 2.3. Die Koeffizienten ai und bi der Fourier Reihe (2.4) entsprechen den Komponentender Funktionen f(t) entlang dieser Basen.

§ 127 Mit Hilfe des Additionstheorems cos(α±β) = cos α cos β∓ sinα sinβ konnen wir eineinfaches Beispiel konstruieren. Mit α = β = ωt ist

f(t) = cos2(ωt) =12

+12

cos(2ωt)

Abbildung 2.4: Die Funktion f(t) =cos2(t) (rot) lasst sich mit Hilfeeinfacher trigonometrischer Umfor-mungen in eine aus einer Konstan-ten a0 = 1/2 (blau) und dem Termcos(2t)/2 bestehende Fourier Reihezerlegen

4. Februar 2008 c© M.-B. Kallenrode

Page 48: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.1. FOURIER REIHE 37

unmittelbar die Darstellung der periodischen Funktion f(t) = cos2(ωt). Diese Darstellungbeschrankt sich auf die beiden Koeffizienten a0 = 1/2 und a2 = 1/2, alle anderen Koeffizien-ten verschwinden, vgl. Abb. 2.4. In diesem Fall bildet die Zerlegung in eine endliche FourierReihe nicht nur eine Annaherung an die Funktion sondern liefert die Funktion exakt.

Zwischenrechnung 2 Sie haben gerade die Addionstheorem nicht im Kopf und keine ge-eignete Formelsammlung zur Hand. Verifizieren Sie die Fourier Reihe fur f(t) = cos2(t) durchDarstellung mit Hilfe einer Potenzreihe oder durch Ruckgriff auf die Euler’sche Formel.

§ 128 Fur technische Zwecke wie digitalisierte Signalubertragung ist es naturlich viel okono-mischer, diese Funktion f(t) = sin2(t) nicht als eine Zeitreihe entsprechend einer Wertetabellezu ubertragen sondern nur die Fourier Koeffizienten anzugeben. Dieses f(t) ist so konstruiert,dass die Zahl der zu seiner Darstellung erforderlichen Fourier Koeffizienten sehr gering ist,die Funktion ist also bandbreitenlimitiert.

Faustregel 1 Glatte Funktionen, d.h. stetige und differenzierbare Funktionen, sind band-breitenlimitiert.

Oder anschaulich: um bandbreitenlimitiert zu sein, darf eine Funktion weder Stufen (Unste-tigkeiten) noch Knicke (und damit Unstetigkeiten in der ersten Ableitung) aufweisen. DieserBegriff wird im Zusammenhang mit Abb. 2.6 und 2.7 noch deutlicher werden.

§ 129 Die meisten periodischen Funktionen lassen sich nicht wie in § 127 analytisch in einepassende Fourier Reihe entwickeln. Die Fourier Koeffizienten in (2.4) sind

an =1τ

τ∫−τ

f(t) cos(nω0t) dt und bn =1τ

τ∫−τ

f(t) sin(nω0t) dt n ∈ N (2.5)

bei Verwendung der Notation aus Abb. 2.2 bzw.

an =2T

T/2∫−T/2

f(t) cos(nω0t) dt und bn =2T

T/2∫−T/2

f(t) sin(nω0t) dt n ∈ N

bei Verwendung von T als der Periode. Beide Ausdrucke gelten fur n ≥ 1, fur n = 0 ergibtsich zusatzlich

a0 =1T

T/2∫−T/2

f(t) dt .

§ 130 Alternativ lasst sich die Fourier Reihe auch in komplexer Schreibweise darstellen als

f(t) =∞∑

n=−∞Cn einω0t mit ω0 =

T(2.6)

mit den Fourier Koeffizienten

Cn =1T

T/2∫−T/2

f(t) e−inω0t dt . (2.7)

Die Koeffizienten C−n und Cn sind konjugiert komplex zueinander.

Verstandnisfrage 17 Warum lauft bei der komplexen Darstellung die Summation von n =−∞ statt von n = 0?

Verstandnisfrage 18 Wie geht man damit um, dass die physikalischen Großen reell sind,die gemaß (2.7) definierten Fourier Koeffizienten dagegen komplex?

c© M.-B. Kallenrode 4. Februar 2008

Page 49: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

38 KAPITEL 2. LAPLACE TRANSFORMATION

§ 131 Die Koeffizienten an und bn stellen im Frequenzbereich ein Linienspektrum dar: durchdie Wichtung der Winkelfunktionen mit f(t) pickt man sich bei der Integration die spektra-len Komponenten aus f(t) heraus, die den geraden bzw. ungeraden Anteilen der Frequenzωn = nω0 entsprechen. Fur die Anwendungen interessiert das Amplitudenspektrum An dereinzelnen Frequenzen

An =√

a2n + b2

n wegen An sinϕn = an und An cos ϕn = bn ,

bzw. das dazu gehorige Phasenspektrum

ϕn = arctanan

bn.

Die Darstellung von Amplitude und Phase der einzelnen Komponenten ist in der komplexenDarstellung (2.7) naturlich offensichtlicher.

Winkelfunktionen als Basen eines nicht-geometrischen Vektorraums

§ 132 Zwischen der Fourier Reihe und den Fourier Koeffizienten einerseits und der Projek-tion eines Vektors auf eine bestimmte Zahl von Basisvektoren besteht, wie bereits in § 126angedeutet, ein enger Zusammenhang. Betrachten wir dazu eine gerade Funktion, d.h. die an

verschwinden und die Fourier Reihe wird

f(t) =a0

2+

∞∑n=1

bn sin (nω0t) . (2.8)

In Anlehnung an die Basisvektoren konnen wir Basisfunktionen definieren als

un(t) =1√T

sin (nω0t) .

§ 133 Wie fur die Basisvektoren lasst sich fur Basisfunktionen ein inneres Produkt oderSkalarprodukt zweier Funktionen f und g definieren als

f · g =

L∫−L

f(t)g(t) dx .

Entsprechend den Regeln fur Basisvektoren gilt fur die Basisfunktionen

(un · um) = δnm = 0 fur n 6= m

1 fur n = m,

d.h. die Basisfunktionen sind normiert und wechselseitig orthogonal. Sie konnen daher als dieVerallgemeinerungen von orthogonalen Einheitsvektoren in einen Funktionenraum betrachtetwerden. Damit lasst sich unsere ungerade Funktion f(t) als eine Summe von Basisfunktionenun(t) schreiben:

f(t) =∞∑

n=1

cnun(t) . (2.9)

Der Koeffizient cn entspricht der Projektion von f auf die Basisfunktion: cn = (un · f), sodass (2.9) auch geschrieben werden kann als

f(t) =∞∑

n=1

(un · f)un(t) .

Zwischenrechnung 3 Zeigen Sie, dass (2.5) orthogonale Basen sind:

2π∫0

sin(nx) sin(mx) dx=

2π∫0

cos(nx) cos(mx) dx=

2π∫0

sin(nx) cos(mx) dx=0 .

4. Februar 2008 c© M.-B. Kallenrode

Page 50: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.1. FOURIER REIHE 39

Abbildung 2.5: Fourier Reihe zur Darstellung der Funktion f(x) = x2 im Intervall −π < x ≤π; links die Beitrage der einzelnen Terme, d.h. die Glieder der der Reihe zu Grunde liegendenFolge, rechts die ersten Glieder der Folge

§ 134 Die Rekonstruktion der Funktion f(t) erfordert also, dass man uber ihre Projektionen(un · f)un(t) auf alle Basisfunktionen un(t) summiert. Ebenso wie bei den Vektoren eineProjektion in Unterraume vorgenommen werden kann, kann man die Fourier Serie ebenfallsuber einen beschrankten Satz von Basisfunktionen summieren

f(t)gefiltert =n2∑

n=1

(un · f)un(t) .

Diese Art von Projektion wird als gefiltert bezeichnet, da es sich dabei um eine Filterunghandelt. Diese Eigenschaft mach die Fourier Transformationen so nutzlich, so sind sie dieGrundlage fur viele digitale Filtertechniken; auch das, allerdings nicht verlustfreie, Bildkom-pressionsformat JPEG basiert auf einer Fourier Transformation (siehe § 664ff).

Fourier Reihe und nichtperiodische Funktion

§ 135 Auch eine nicht periodische Funktion kann durch eine Fourier Reihe angenahert wer-den. Betrachten wir als Beispiel f(x) = x2. Da es sich hierbei um eine gerade Funktionhandelt, f(x) = f(−x), verschwinden die Sinus-Terme und die Funktion lasst sich als FourierReihe in der Form

x2 =∞∑

n=0

An cos(nx)

schreiben. Zur Bestimmung der Fourier Koeffizienten mussen die Integrale (2.5) ausgefuhrtwerden. Beschranken wir uns auf den Bereich −π < x ≤ π, so ergibt sich unter Verwendungder Produktintegration

An =1π

π∫−π

x2 cos(nx) dx =4n2

(−1)n n > 0 (2.10)

sowie

A0 =1π

π∫−π

x2 dx =23

π2 .

§ 136 Zusammen gefasst ergibt sich fur −π < x ≤ π als Annaherung an die Funktion x2:

x2 =π2

3+ 4

∞∑n=1

(−1)n cos(nx)n2

.

c© M.-B. Kallenrode 4. Februar 2008

Page 51: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

40 KAPITEL 2. LAPLACE TRANSFORMATION

Der Aufbau der Funktion ist in Abb. 2.5 fur die ersten funf Glieder der Reihe (rechts) gezeigt,die Beitrage der einzelnen Summanden (entsprechend den Gliedern der zu Grunde liegendenFolge) sind im linken Teil gezeigt. Fur x = π ergibt sich

π2 =π2

3+ 4

∞∑n=1

1n2

→ π2 = 6∞∑

n=1

1n2

.

Diese Verknupfung einer einfachen Reihe naturlicher Zahlen mit der transzendenten Zahl πist ein uberraschender Nebeneffekt dieser Analyse.

Zwischenrechnung 4 Wie verandert sich das Ergebnis bei Anderung des betrachteten Be-reichs, z.B. bei −10π < x ≤ 10π? Was passiert, wenn der betrachtete Bereich asymmetrischist, z.B −π < x ≤ 2π oder im Extremfall 0 < x ≤ 2π?

§ 137 Formal lasst sich diese Annaherung informationstheoretisch begrunden. Entscheidendist dabei, dass sich der Informationsgehalt des Signals nicht verandert. Da Information1 uberdie Neuigkeit definiert ist, konnen wir jedes nichtperiodische aber zeitbegrenze Signal inein unendliches periodisches Signal uberfuhren, in dem wir es einfach periodisch fortsetzen.Fur das Beispiel aus Abb. 2.5 wurden wir dann eine unendliche Kette von Parabeln erhal-ten, die aber abgesehen von der Verschiebung um nT als Vielfaches der Signaldauer T alleidentisch sind: ist eine beliebige der Parabeln ‘gelesen’, so ist der Informationsgehalt desunendlich großen Signals bekannt. Damit ist das endliche Signal auf ein periodisches Signalzuruck gefuhrt und kann wie ein solches einer Fourier Transformation unterzogen werden.

1Information kann mit einer der drei folgenden Formulierungen definiert werden:

• Information ist das, was wir nicht wissen.

• Information ist die Eigenschaft einer Nachricht, beim Empfanger Kenntniszuwachs zu erzeugen.

• Information ist Wissenszuwachs und damit Abbau von Unsicherheiten uber einen interessierenden Sach-verhalt.

Information hat also etwas mit Unbekanntem oder Unerwartetem zu tun. Alles, was wir bereits wissen,enthalt keine Information. Nur der Aspekt des Unbekannten ist wichtig, nicht die

’Inhaltsschwere‘ oder

Bedeutsamkeit der Nachricht: die Nachricht’Die Kuh XYZ auf der Alm QRS hat heute gekalbt‘ hat den

gleichen Informationsgehalt wie’Sie haben den Jackpott mit 21 Mio. Euro geknackt‘. Die Nachricht

’Irgendwo

auf der Welt hat heute irgendeine beliebige Kuh gekalbt‘hat dagegen einen Informationsgehalt von Null: zwarkann die Meldung irritieren, da man nicht weiß, was man mit ihr anfangen soll – die Information in dieserNachricht ist jedoch trivial.Um Information wahrscheinlichkeitstheoretisch zu beschreiben betrachten wir ein Urnen-Experiment: In einerUrne befinde sich eine große Menge Kugeln, davon seien 70% weiß, 20% schwarz und 10% rot. X zieht jeweilseine Kugel und ruft Y das Ergebnis zu. Dann ist X zusammen mit der Urne eine Nachrichtenquelle, diedie Nachrichten

’weiß‘,

’rot‘ und

’schwarz‘ erzeugt. Y ist ein Nachrichtenempfanger, der sich genau fur diese

Informationen interessiert. Welche der drei Nachrichten enthalt nun fur Y die großte Information? Nach derZiehung und Ubermittlung von vielen Kugeln kennt der Empfanger Y die Wahrscheinlichkeit px fur dasAuftreten der einzelnen Farben: pw=0.7, ps=0.2 und pr=0.1. Damit kennt er auch den Informationsgehaltdieser Nachrichten: die Nachricht

’weiß‘ enthalt die geringste Information (sie ist aufgrund ihrer großen

Wahrscheinlichkeit das Standardsignal, interessant sind erst Abweichungen von’weiß‘), die Nachricht

’rot‘

enthalt am meisten Information. Das ist anschaulich, wenn man sich vorstellt, dass die Urne nur Kugeln einerFarbe enthalt, z.B. weiß. Dann ist pw=1 und der Empfanger Y weiß bereits vorher, welche Nachricht ihm Xubermitteln wird. Da es sich dann um eine sichere Nachricht handelt, ist ihr Informationsgehalt gleich Null.Aufgrund dieser statistischen Beschreibungsweise wird auch der Begriff Versuchsausgang anstelle von Signal,Zeichen oder Information verwendet.Aus diesem Experiment konnen wir zwei Kriterien zur Definition des Informationsgehaltes einer Nachrichtableiten:

K1 Der Informationsgehalt Ix einer Nachricht ist umso großer, je kleiner die Wahrscheinlichkeit px ihresAuftretens ist, d.h. je großer ihr

’Uberraschungswert‘ ist. Damit wird Information als der Neuigkeitsgehalt

aber nicht die Inhaltsschwere einer Nachricht definiert.

K2 Eine Nachricht mit der Wahrscheinlichkeit px=1, d.h. das sichere Ereignis, hat den InformationsgehaltIx=0.

Ein drittes Kriterium zur Definition des Informationsgehalts erhalt man bei der Verwendung mehrere Nach-richten:

K3 Der Informationsgehalt verschiedener voneinander unabhangiger Nachrichten soll sich addieren.

4. Februar 2008 c© M.-B. Kallenrode

Page 52: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 41

Das großtmogliche Abtastintervall TA = 1/fA < (2fmax)−1 fur ein Signal mit der maximalauftretenden Frequenz fmax ist definiert uber

f(t) =∞∑

n=−∞f(nTA) si

TA(t− nTA)

).

Darin ist si eine Abkurzung fur sinc oder sine cardinal, vgl. § 146 und insbesondere dieFußnote dazu.

2.2 Fourier Transformation

§ 138 Die Fourier Transformation ist die Abbildung einer beliebigen Funktion f(t) auf eineFouriertransformierte Funktion F (ω). Die Einschrankung auf periodische Funktionen f(t)wie bei der Fourier Reihe ist nicht erforderlich. Damit gibt es allerdings auch nicht wie beider periodischen Funktion ein naturliches endliches Integrationsintervall mit der Lange T derPeriode. Stattdessen wird von −∞ bis +∞ integriert.

Verstandnisfrage 19 Ergibt sich damit ein Widerspruch zum endlichen Integrationsinter-vall in (2.10)?

§ 139 Dies Abbildung existiert in zwei Varianten, der kontinuierlichen Fourier Transforma-tion und der diskreten Fourier Transformation.

2.2.1 Kontinuierliche Fourier Transformation

§ 140 Bei der Entwicklung einer Funktion f(t) in eine Fourier Reihe verwenden wir diskretenBasen ωn = nω0 mit ω0 = 2π/T . Da wir bei der Fourier Transformation nicht nur periodischeFunktionen betrachten, entfallt die Beschrankung auf ein endliches Zeitintervall, so dass Tgegen unendlich geht: T → ∞. Damit gibt es keine diskreten Werte ωn mehr sondern wirerhalten ein kontinuierliches Frequenzspektrum ω.

§ 141 Fur die Fourier Koeffizienten gilt dann in der komplexen Darstellung (2.6)

Cn =1T

T/2∫−T/2

f(t) e−inω0t dt ⇒ limT→∞

(T Cn) =

∞∫−∞

f(t) eiωt dt .

§ 142 Darauf aufbauend ergibt sich fur die Transformationsgleichungen der kontinuierlichenFourier Transformation f(t)→ F (ω)

F (ω) =

∞∫−∞

f(t) e−iωt dt Hintransformation

f(t) =12π

∞∫−∞

F (ω) eiωt dω Rucktransformation . (2.11)

Die Transformationen sind nicht symmetrisch, da bei F (ω) → f(t) noch ein Vorfaktor 2πauftritt. Dieser ist zur Normierung erforderlich, damit f(0) =

∫∞−∞ f(t) dt den Mittelwert

gibt. Die auf der Frequenz ν anstelle der Kreisfrequenz ω basierende Notation von Weaver[136] ist symmetrisch, handelt sich dafur aber den Faktor 2π im Exponenten ein:

F (ν) =

∞∫−∞

f(t) e−2πiνt dt und f(t) =

∞∫−∞

F (ν) e2πiνt dt .

c© M.-B. Kallenrode 4. Februar 2008

Page 53: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

42 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.6: Im Zeitbereich(links) langsam (rot) und schnell(blau) veranderliche Funktion undihr Fourier Spektrum (rechts)

Abbildung 2.7: Fourier Reihe eines Rechtecks: die Amplitude nimmt mit zunehmender Fre-quenz ab, allerdings sind die hochfrequenten Beitrage unerlasslich, um den Sprung bei t = nπzu erzeugen – was insbesondere in der Ausschnittvergroßerung rechts deutlich wird

Fourier Transformation Beispiele

§ 143 Die Fourier Transformation bildet die Funktion f(t) aus dem Zeitbereich auf ein (konti-nuierliches) Frequenzspektrum F (ω) ab. Aus unserer Erfahrung mit der Fourier Reihe konnenwir eine Faustregel formulieren:

Faustregel 2 Eine langsam veranderliche Funktion f(t) hat im wesentlichen niederfrequentespektrale Komponenten, eine schnell veranderliche Funktion dagegen hat spektrale Kompo-nenten uber einen weiten Frequenzbereich.

Die Regel wird vielleicht am einfachsten bei der Annaherung einer Rechteckfunktion (oderder Sprungfunktion) deutlich: die Fourier Reihe ist [10, 122]

f(t) =4π

∞∑n=1,3,5,...

1n

sin(nω0t) mit ω0 =2π

T.

§ 144 Im linken Teil von Abb. 2.7 sind die einzelnen Terme mit ihren Vorfaktoren gezeigt:die Amplitude der einzelnen Summanden nimmt mit zunehmendem n und damit mit zuneh-mender Frequenz der Schwingung ab. Die Grundschwingung dominiert eindeutig das Am-plitudenspektrum, ihr Makel wird in der Nahe der Nulldurchgange am deutlichsten: hierhat die Rechteckfunktion ihre Sprungstellen und gleichzeitig die großte Abweichung von derGrundschwingung. Um diesen Makel zu beseitigen, sind nur die Oberschwingungen inter-essant, die beim Nulldurchgang den Vorzeichenwechsel in gleicher Richtung vornehmen wiedie Grundschwingung. Diese konnen die ‘Lucke’ zwischen Grundschwingung und Rechteckauffullen, vgl. mittleren Teil von Abb. 2.7. Daher wird die Rechteckfunktion nur aus denungeraden Termen der Reihe zusammen gesetzt. Um eine Annaherung an die Sprungstelle zuerreichen, mussen auch die Oberschwingungen berucksichtigt werden, die beim Nulldurch-gang recht steil sind, d.h. die hochfrequenten Anteile sind um so wichtiger, je steiler dieanzunahernde Funktion ist. Dies wird in der Ausschnittvergroßerung um den Nulldurchgangnochmals deutlich.

§ 145 Allerdings schießt die Berucksichtigung aller Oberwellen im wahrsten Sinne des Wortesuber das Ziel hinaus: an der Sprungstelle entsteht jeweils ein Uberschwinger, vgl. Abb. 2.8.

4. Februar 2008 c© M.-B. Kallenrode

Page 54: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 43

Abbildung 2.8: Gibbs’-sches: an der Sprung-stelle entsteht einUberschwinger, Indexgibt die berucksichtigtenGlieder an

Abbildung 2.9: Die Fourier Transformierteeiner Rechteckfunktion hat die Form derSpaltfunktion sin(x)/x

Dieser wird bereits bei recht niedrigen Ordnungen deutlich, mit zunehmender Ordnung wirder zwar immer schmaler, verschwindet aber nicht. Dieser Uberschwinger wird als Gibbs’schesPhanomen bezeichnet, eine genauere Diskussion findet sich in [11].

§ 146 Betrachten wir statt der Rechteckfunktion ein einzelnes Rechteck, d.h. eine nicht-periodische Funktion der Form

f(t) =

1 fur −T/2 ≤ t ≤ T/20 sonst

.

Da diese Funktion nicht-periodisch ist, lasst sie sich nicht durch eine Fourier Reihe beschrei-ben. Da es sich um eine gerade Funktion handelt, wird sie nur Kosinus-Terme und keineSinus-Terme enthalten, d.h. der Imaginarteil in der Fourier Transformation verschwindetund wir erhalten

F (ω) = 2

T∫0

cos(ωt) dt = Tsin(ωT/2)

ωT/2.

Die Fourier Transformierte eines Rechtecks ist also eine Funktion der Form (sinx)/x wie inAbb. 2.9 gezeigt.2

2Die Funktion sin(x)/x wird als Spaltfunktion bezeichnet, da sich das Beugungsmuster hinter einem Ein-fachspalt mit ihr beschreiben lasst. Sie spielt eine so wichtige Rolle im Zusammenhang mit dem Abtasttheo-rem, dass sie teilweise mit einem eigenen Namen versehen wird: sinc fur sine cardinal, abgekurzt als si. ZweiDefinitionen sind gebrauchlich:

si(t) =

1 fur t = 0sin t

tsonst mit

∞Z−∞

si(t) dt = π

und

siπ =

1 fur t = 0sin(πt)

πtsonst mit

∞Z−∞

siπ(t) dt = 1 .

Eine fruhe Beschreibung geht auf Franciscus Vieta zu, der 1539 die Spaltfunktion als Produkt von Kosinus-funktionen definiert hat:

si(t) =

∞Yn=1

cos

t

2n

.

c© M.-B. Kallenrode 4. Februar 2008

Page 55: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

44 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.10: Die FourierTransformierte der beidseitigenExponentialfunktion (links) istdie Lorentz Funktion (rechts)

Querverbindung 1 Die Funktion f(x) = sin(x)/x hat fur x = 0 eine Definitionslucke. Istdas ein ernstes Problem (die Definitionslucke von f(x) = x−1 ist immerhin eine Polstelle!)oder kann man uber die Lucke einfach hinweg gehen. Wenn ja, mit welcher Begrundung?

§ 147 Lassen wir T gegen Null gehen bei gleichzeitiger Erhaltung der Flache unter demRechteck, so erhalten wir statt der Rechteckfunktion die δ-Funktion. Uber diese Kastenfunk-tion fur Kastenbreite gegen Null wird die δ-Funktion haufig eingefuhrt. Die Fourier Trans-formierte erklart damit auch eine der haufig als Annaherung an die δ-Funktion gegebenenVarianten:

δ(x) = limn→∞

gn(x) = limn→∞

=1π

sinnx

x= lim

n→∞

12π

+n∫−n

eikx dk =12π

+∞∫−∞

eikx dk .

§ 148 Die normierte Gauß Funktion

f(t) =1

σ√

2πe−

t2

2 σ2

ist ebenfalls eine gerade Funktion, d.h. auch hier ist die Beschrankung auf die Kosinus Termeausreichend. Ihre Fourier Transformierte ist daher

F (ω) =1

σ√

∞∫−∞

e−t2

2 σ2 eiωt dt =2

σ,√

∞∫0

e−t2

2 σ2 cos(ωt) dt = e−σ2ω2

2

und damit ebenfalls eine normierte Gauß Funktion.

Verstandnisfrage 20 Sagt die Tatsache, dass die Fourier Transformierte einer normiertenGauß-Funktion wieder eine normierte Gauß-Funktion ist, auch etwas uber die Fourier Trans-formiert einer Exponentialfunktion aus? Oder genauer: bleibt die Fourier Transformierte einerExponentialfunktion eine Exponentialfunktion? Und weiter: bleibt die Fourier Transformier-te einer nicht normierten Gauß Funktion eine Gauß Funktion? Versuchen Sie die Frage ausder Definition der Transformation (2.11) zu beantworten, sonst hilft Tabelle 2.1 weiter.

§ 149 Mit Hilfe der normierten Gauß Funktion konnen wir auch ein formales Beispiel furFaustregel 2 geben: bei f(t) erscheint die Varianz σ im Nenner des des Exponenten, bei F (ω)dagegen in dessen Zahler. Je schmaler also die Verteilung f(t), um so breiter ihre FourierTransformierte F (ω) und umgekehrt.

§ 150 Fur die Spektroskopen liefert die Fourier Transformation ebenfalls etwas. Der ange-regte Zustand eines Kerns entvolkert sich mit der Lebensdauer τ gemaß e−t/τ , die zugehorigeEmmisionslinie wird durch eine Lorentz Funktion beschrieben. Die Funktion im Zeitbereichf(t) ist

f(t) = e−|t|/τ ,

d.h. eine gerade Funktion. Die Fourier Transformierte dieser beidseitigen Exponentialfunktionist mit

F (ω) =

∞∫−∞

e−|t|/τ e−iωt dt =

∞∫−∞

e−|t|/τ cos(ωt) dt =2τ

1 + ω2τ2

4. Februar 2008 c© M.-B. Kallenrode

Page 56: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 45

F (ω) f(t)2π δ(ω) (Deltafkt.) 1π δ(ω) + (iω)−1 H(t) (Heavyside, Sprungfkt.)1 δ(t) (Deltafkt.)iπ δ(ω + ω0)− iπ δ(ω − ω0) sin(ω0t)π δ(ω + ω0) + π δ(ω − ω0) cos(ω0t)Fs(ω) f(t)π/2 t−1

π/2 e−bω t/(t2 + b2)ω/(ω2 + b2) e−bt

Fc(ω) f(t)b/(ω2 + b2) e−bt

π/(2b) e−bω 1/(t2 + b2)√π/(2ω) t−1/2

Tabelle 2.1: Fourier Trans-formierte wichtiger Funk-tionen, Fs bzw. Fc bezeich-nen Fourier Sinus bzw. Fou-rier Kosinus Transformierte

genau diese Lorentz Funktion im Frequenzbereich. Beide Funktionen sind in Abb. 2.10 ge-zeigt.

§ 151 Die Fourier Transformierten fur viele gebrauchliche Funktionen finden sich in dengangigen Tabellenwerken wie Bronstein [10] oder Stocker [122]; einige Beispiele sind auch inTabelle 2.1 gegeben.

§ 152 Eine Transformation konnen wir uns in Anlehnung an die Fourier Reihe ohne Ruckgriffauf die Transformationsgleichungen klar machen: die Winkelfunktionen Sinus und Kosinusbilden die Basisfunktionen. Eine Funktion sin(ω0t) hat im Frequenzspektrum einen einzi-gen Peak, eben bei ω0, d.h. die Transformierte einer Winkelfunktion ist eine δ-Funktionδ(ω ± ω0). Die Argumentation gilt allerdings auch fur cos(ωt). Auch hier ergibt sich im Fre-quenzspektrum ein einziger Peak bei ω. Da die Fourier Transformation eindeutig ist, mussdie Phaseninformation zur Unterscheidung von Sinus und Kosinus mit geliefert werden: dazukriegt der Sinus einen Faktor i vor die δ-Funktion, vgl. Tabelle 2.1.

Eigenschaften der kontinuierlichen Fourier Transformation

§ 153 Um außer der Signalanalyse noch etwas mit der Fourier Transformation – und spatermit der Laplace Transformation – anfangen zu konnen, mussen wir uns uber ihre Eigenschaf-ten im Klaren sein:

1. die Fourier Transformation ist eine lineare Transformation:

F α f(t) + β g(t) = αF f(t)+ β F g(t) = α F (ω) + β G(ω) .

Skalierungen und additive Uberlagerungen von Funktionen konnen also vor oder nachder Transformation ausgefuhrt werden, ohne dass sich das Ergebnis der Transformationandert.Die Linearitat der Fourier Transformation lasst sich unmittelbar aus der Definition derTransformation in (2.11) begrunden:

F α f(t) + β g(t) =

∞∫−∞

α f(t) + β g(t) e−iωt dt

=

∞∫−∞

α f(t) e−iωt dt +

∞∫−∞

β g(t) e−iωt dt

= α

∞∫−∞

f(t) e−iωt dt + β

∞∫−∞

g(t) e−iωt dt

c© M.-B. Kallenrode 4. Februar 2008

Page 57: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

46 KAPITEL 2. LAPLACE TRANSFORMATION

= αF f(t)+ β F g(t) = α F (ω) + β G(ω) .

Die Linearitat der Fourier Transformation ist also eine direkte Konsequenz der Linearitatder Integration.

2. eine Verschiebung im Zeitbereich entspricht einer Modulation im Frequenzbereich (ersterVerschiebungssatz)

F f(t− τ) = F (ω) e−iωτ .

Wenn wir an ein kontinuierliches periodisches Signal denken, ist diese Aussage vielleichtauf den ersten Blick verwirrend: sollte ein verschobener Sinus sich nicht wieder auf diegleiche Frequenz abbilden? Das ist korrekt insofern, als dass sich der Betrag der Fourier-transformierten, das Frequenzspektrum, nicht andert. Allerdings andern sich die Real-und die Imaginarteile: gehen wir von f(t) = sin(ω0t), so hat die Fourier-Transformiertegemaß Tabelle 2.1 nur zwei imaginare Komponenten F (ω) = ±iπ δ(ω ± ω0); die um−π/2 verschobene Funktion f(t) = cos(ω0t) dagegen hat die Fourier TranformiertenF (ω) = π δ(ω ± ω0). Im einen Fall erhalten wir nur reelle, im anderen nur imaginareAnteile – bei einer Verschiebung um eine beliebige Phase dagegen hat die Fourier Trans-formierte sowohl einen reellen als auch einen imaginaren Anteil, wobei das Verhaltnis ausImaginar- und Realteil wieder dem Tangens der Phase entspricht.

3. eine Modulation im Zeitbereich entspricht einer Verschiebung im Frequenzbereich (zwei-ter Verschiebungssatz)

Ff(t) e−iω0t

= F (ω − ω0) .

4. eine Streckung (Stauchung) im Zeitbereich entspricht einer Stauchung (Streckung) imFrequenzbereich (Skalierungssatz)

F f(at) =1|a|

F(ω

a

).

Diese Eigenschaft ist praktisch, da sie es uns ermoglicht, mit dimensionslosen Großenzu arbeiten (d.h. insbesondere die Frequenz in Einheiten von ω0 anzugeben bzw. dieZeitachse in Einheiten der Schwingungsdauer).

5. aus einem Faltungsintegral3 wird durch Fourier Transformation das Produkt der FourierTransformierten (Faltungsregel)

F(f(t)⊗ g(t)) = F

t∫

0

f(t− τ) h(τ) dτ

= F (ω) H(ω) .

Das Faltungsintegral ist vielleicht die Eigenschaft der Fourier Transformation, die insbe-sondere in der Systemtheorie die großte rechentechnische Erleichterung bringt, da einehaufig auftretende Integration durch ein einfaches Produkt ersetzt wird.

3Zur Erinnerung: eine Faltung ist ein mathematischer Operator, der fur zwei Funktionen f und g einedritte Funktion liefert, die die Uberlappung zwischen f und einer verschobenen Version von g ist und damiteinem gleitenden Durchschnitt ahnelt:

f(t)⊗ g(t) =

∞Z−∞

f(τ)g(t− τ) dτ

Eine anschauliche Deutung der Faltung ist die Gewichtung einer Funktion mit einer anderen – wir werdenim Zusammenhang mit der Losung der Systemgleichungen und der Ubertragungsfunktion genauer auf dieseanschauliche Interpretation eingehen. Der Funktionswert der Gewichtsfunktion f an einer Stelle τ gibt dannan, wie stark der um τ zuruckliegende Wert der gewichteten Funktion, also g(t− τ), in den Wert der Ergeb-nisfunktion an der Stelle t eingeht.Die Faltung ist eine lineare Operation, d.h. es gilt ein Distributivgesetz

f(t)⊗ (g(t) + h(t)) = f(t)⊗ g(t) + f(t)⊗ h(t) .

Die Faltung ist ferner kommutativ, f(t)⊗ g(t) = g(t)⊗ f(t), (Beweis durch Substitution der Integrationsva-riablen) und assoziativ, f(t) ⊗ [g(t) ⊗ h(t)] = [f(t) ⊗ g(t)] ⊗ h(t) (Beweis: Doppelintegral mit Vertauschungder Integrationsreihenfolge).

4. Februar 2008 c© M.-B. Kallenrode

Page 58: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 47

Der Zusammenhang lasst sich unmittelbar durch Anwendung der Transformationsregelneinsehen:

F (f(t) ? g(t)) = F

∞∫−∞

f(τ)g(t + τ) dτ

=

∫ ∞

−∞dt eiωt

(∫ ∞

−∞f(τ)g(t + τ) dτ

)=

∫ ∞

−∞dτ f(τ) eiωτ

∫ ∞

−∞g(t− τ) e−iω(t−τ)

=∫ ∞

−∞dτ f(τ) eiωτ

∫ ∞

−∞dt′ g(t′) e−iωt′ mit t′ = t− τ

= F (ω) G(ω) .

Die Faltungsregel liefert die Begrundung dafur, dass sich die Ubertragungsfunktion imBildbereich einfach als Quotient aus Aus- und Eingangssignal bestimmen lasst: die linkeSeite ist die Laplace Transformierte des Ausgangs, die rechte Seite ist ein Produkt ausder Laplace Transformierten des Faltungskerns, also der Ubertragungsfunktion, mit derLaplace Transformierten des Eingangs.Da das Faltungsintegral in allen Filtertechniken (bei Bildern sogar im zwei-dimensionalen)auftitt und eine Faltung durch die Integration (bzw. im diskreten Bereich die Summati-on) rechenaufwendig ist, fuhrt z.B. MatLab die Faltung uber die Funktionen conv undconv2 mit Hilfe einer Multiplikation in der Frequenzdomane durch: das Signal wird Fou-rier transformiert, mit dem transformierten Kernel multipliziert und das Ergebnis wirdin die Zeitdomane zuruck transformiert.In engem Zusammenhang dazu steht Parseval’s Theorem

∞∫−∞

|f(t)|2 dt =12π

∞∫−∞

|F (ω)|2 dω , (2.12)

das eine Beziehung zwischen der Energie des Signals im Zeitbereich und seiner Energieim Spektralbereich herstellt.

6. Die Kreuzkorrelation4 zwischen zwei Funktionen f(t) und g(t) lasst sich ebenfalls voneinem Integral in ein Produkt transformieren:

F (f(t) ? g(t)) = F

∞∫−∞

f(τ)g∗(t + τ) dτ

= F (ω) G∗(ω) .

7. Die Autokorrelation5, d.h. die Kreuzkorrelation einer Funktion mit sich selbst, wird4Die Kreuzkorrelation

f(t) ? g(t) =

∞Z−∞

f(τ)g∗(t + τ) dτ

wird verwendet, um zu untersuchen, ob eine (gemessene) Funktion f(t) irgendetwas gemeinsam hat mit eineranderen gemessenen Funktion g(t). Der ∗ bedeutet hier das konjugiert komplexe. Das Integral ahnelt dem inder Faltung, bis auf das Vorzeichen der Verschiebung (+ statt −) und eben der Verwendung der konjugiertkomplexen Funktion. Die Kreuzkorrelation ist distributiv und assoziativ, jedoch nicht kommutativ.

5Die Autokorrelation

f(t) ? f(t) =

∞Z−∞

f(τ)f∗(t + τ) dτ

ist formal die Kreuzkorrelation einer Funktion mit sich selbst. Optisch lasst sich damit das Signal-zu-Rausch-Verhaltnis im Frequenzspektrum aufpappeln, allerdings um den Verlust der Linearitat. Bei stochastischenProzessen dagegen hat die Autokorrelation ihre Bedeutung – anschaulich wird sie z.B. in der Berechnung desmittleren Abstandsquadrats im Random Walk. Als simple Merkregel: die Autokorrelation ist die Korrelati-on einer Folge von gleichartigen Zufallsvariablen; die Kreuzkorrelation lasst sich entsprechend ebenfalls furZufallsvariablen bestimmen, gibt dann aber die Korrelation zwischen verschiedenen Merkmalen.

c© M.-B. Kallenrode 4. Februar 2008

Page 59: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

48 KAPITEL 2. LAPLACE TRANSFORMATION

entsprechend gebildet und entspricht daher dem Quadrat der Fourier-Transformierten:f(t) ? f(t) = F (ω) F ∗(ω) = |F (ω)|2.

8. die zeitliche Ableitung entspricht einer Multiplikation der Fourier Transformierten mitiω:

F

df(t)dt

= iω F (ω) .

Der Beweis erfolgt durch partielle Integration:

F(

df

dt

)=

∞∫−∞

f ′(t) eiωt dt =[f(t) eiωt

]∞−∞ − (−iω)

∞∫−∞

f(t) e−iωt dt = iωF (Ω) .

9. entsprechend lasst sich bei einer Funktion f(x, t) die moglicherweise auftretende raumlicheAbleitung durch Multiplikation der Fourier Transformierten mit ik

F

df(x, t)dx

= ik F (ω) . (2.13)

Betrachten wir nur die raumliche Ableitung. Diese konnen wir entsprechend der zeit-lichen Ableitung behandeln – allerdings mussen wir auf die geeigneten Variablen imAusgangs- und im Bildbereich achten. Zur Zeit t gehort im Bildbereich die Frequenz ω,zur Lineardimension Strecke x die Wellenzahl k. Die Fourier Transformation lasst sichalso auf verschiedenen Variablenpaare anwenden, diese mussen jedoch jeweils zueinanderkonjugiert sein.

10. die Anwendung des Nabla Operators ∇ auf eine von ~r abhangige skalare bzw. vektor-wertige Funktion entspricht daher der Multiplikation der Fourier Transformierten miti~k:

F ∇f = i~k F , F∇ · ~f

= i~k · ~F und F

∇× ~f

= i~k × ~F ,

Fourier Transformation und DGLs: einfache Beispiele

§ 154 Betrachten wir unter diesem Gesichtspunkt nochmals den harmonischen Oszillator.Die Bewegungsgleichung ist x+ω2

0x = 0. Die Differentialgleichung ist eine Bestimmungsglei-chung fur die Funktion x(t) im Zeitbereich. Transformieren wir die DGL schrittweise in denFrequenzbereich:

Fx + ω2

0x

= 0 .

Da die Fourier Transformation linear ist, konnen die Terme auf der linken Seite einzelntransformiert werden:

Fx+ Fω2

0x

= 0 .

Die zeitliche Ableitung bringt jeweils einen Faktor iω vor die Fourier Transformierte, bei derzweiten zeitlichen Ableitung ist der Vorfaktor daher (iω)2 = −ω2:

−ω2 X(ω) + ω20 X(ω) = 0 ⇒ ω2 = ω2

0 ⇒ ω = ±ω .

Die DGL wird im Frequenzbereich nur fur zwei Frequenzen ω0 und −ω0 gelost. Das entsprichtden bereits bekannten Eigenfrequenzen des harmonischen Oszillators. Das FrequenzspektrumX(s) lasst sich daher als eine Kombination von zwei δ-Funktionen darstellen, δ(ω − ω0) undδ(ω + ω0). Diese transformieren gemaß Tabelle 2.1 auf die Winkelfunktionen zuruck, so dasswir auch auf diese Weise das bereits bekannte Ergebnis erhalten.

Verstandnisfrage 21 Ist die Darstellung korrekt? Was erlaubt die Einfuhrung der ima-ginaren Anteile, um neben dem Kosinus auch den Sinus als Losung zu erhalten?

4. Februar 2008 c© M.-B. Kallenrode

Page 60: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 49

§ 155 In der Magnetohydrodynamik gibt es ein Phanomen, das der Seilwelle sehr ahnlichist: durch den magnetischen Zug kann sich auf einer Feldlinie eine Storung ausbreiten in dergleichen Form, in der sich eine mechanische Storung entlang eines Seils ausbreiten wurde.Die dabei entstehende Alfven-Welle ist anschaulich aquivalent zur schwingenden Seite, dieformale Beschreibung ist jedoch etwas komplexer: wahrend das Seil ein diskretes ‘Bauelement’ist, ist die Magnetfeldlinie Bestandteil eines kontinuierlichen Mediums. Dieses muss in derformalen Beschreibung berucksichtigt werden.

§ 156 Die Alfven-Welle wird als eine kleine Storung betrachtet, so dass man die relevantenGleichungen linearisieren kann. Dazu werden die momentanen physikalischen Großen u jeweilsin einen ungestorten oder mittleren Wert u0 und die Storung u1 zerlegt: u = u0+u1 mit 〈u〉 =u0, 〈u1〉 = 0 und u1 u0. Die Gleichungen lassen sich durch Einsetzen der entsprechendenSummen fur die momentanen Großen in einen mittleren und einen gestorten Anteil zerlegen.Die Welle ist eine Storung, d.h. hier sind nur die Gleichungen fur die gestorten Großenrelevant.

§ 157 Die Grundgleichungen sind die Bewegungsgleichung (eine verallgemeinerte Form derNavier–Stokes-Gleichung)

%0∂~u1

∂t= ~j1 × ~B1 =

1µ0

(∇× ~B0)× ~B1 ,

das Ohm’sche Gesetz∂ ~B1

∂t= ∇× (~u1 × ~B0)

sowie die oben bereits teilweise eingesetzten Maxwell-Gleichungen, von denen hier nur nochdas Gauß’sche Gesetz des magnetischen Feldes verbleibt:

∇ · ~B1 = 0

mit % als Dichte, ~u als Stromungsgeschwindigkeit, ~j als Stromdichte und ~B als magnetischerFlussdichte.

§ 158 Diese drei Gleichungen mussen gleichzeitig gelost werden – fur konventionelle analyti-sche Verfahren ist das ein Problem. Fourier Transformation uberfuhrt das System partiellerDifferentialgleichungen jedoch in ein System aus drei algebraischen Gleichungen:

−i%0ω~u1 =i

µ0(~k × ~B1)× ~B0

iω ~B1 = i~k × (~u1 × ~B0)~k · ~B1 = 0 .

Da sich Alfven-Wellen parallel zum Feld ausbreiten, ist ~k‖ ~B0. Unter Verwendung von∇· ~B0 =0 reduziert sich das Gleichungssystem auf

ω~u1 =i

µ0%0

~k( ~B1~B0)

ω ~B1 = (~k · ~u1) ~B0

~k · ~B1 = 0 .

Multiplikation der ersten Gleichung mit ~k und der zweiten mit ~B0 sowie Addition der beidenGleichungen liefert die Dispersionsrelation fur die Alfven-Welle:

ω2 =B2

0

µ0%0k2 .

Die Alfven-Welle ist eine nicht-dispersive Welle, bei der Gruppen- und Phasengeschwindigkeitidentisch sind; diese Geschwindigkeit

vA =B0õ0%0

wird als Alfven-Geschwindigkeit bezeichnet und gibt die Geschwindigkeit, mit der sich eineStorung entlang der Magnetfeldlinie ausbreitet.

c© M.-B. Kallenrode 4. Februar 2008

Page 61: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

50 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.11: DiskreteFourier TransformationWinkelfunktionen

2.2.2 Diskrete Fourier Transformation

§ 159 Die diskrete Fourier Transformation bildet eine periodische Zahlenfolge fk auf eineFourier Transformierte Zahlenfolge Fl ab. Die zeitkontinuierliche Fourier Transformationist daher fur analytische Beschreibungen hilfreich sowie in der analogen Signalverarbeitung.Digitale Signale dagegen liegen nicht als zeitkontinuierliche sondern auf Grund der endlichenDauer der Sampling Intervalle immer als diskrete Signale vor.

§ 160 Ohne die Phantasie zu sehr uberstrapazieren zu mussen, konnen wir fast vermuten,dass bei der diskreten Fourier Transformation die Integrale in den Transformationsgleichun-gen (2.6) durch Summen ersetzt werden. Das hat die Nebenwirkung, dass diese Transforma-tionen numerisch bestimmt werden konnen – fur die digitale Signalverarbeitung ein großerVorteil.6 Ein typischerweise verwendeter Algorithmus zur diskreten Fourier Transformationist die Fast Fourier Transform FFT.

§ 161 Die diskrete Fourier Transformation konnen wir analog zur kontinuierlichen FourierTransformation einfuhren. Die Fourier Reihe war fur eine Funktion f(t) definiert, die peri-odisch mit T in t ist. In der komplexen Darstellung gilt werden ihre Koeffizienten in die derdiskreten Fourier Reihe uberfuhrt durch

cn =1T

T/2∫−T/2

f(t) e−2πin/T dt → cn =1N

N−1∑k=0

fk e−2πink/N .

Fur die diskrete Fourier Reihe ist nicht die Periode T relevant sondern die Zahl N der Samp-ling Intervalle der Lange ∆t innerhalb einer Periode, d.h. T = N ∆t. Statt der Integrationvon −T/2 bis +T/2 ist hier das Integrationsintervall verschoben, so dass die Summation beiNull startet. Das ist irrelevant, wichtig ist nur, dass uber eine vollstandige Periode integriertwird. Dazu muss die Integration nur bis N − 1 laufen, da hier das letzte Sampling Intervallbeginnt und damit an dessen Ende genau die Periode abgeschlossen ist.

§ 162 Mit diesen Voruberlegungen konnen wir die diskrete Fourier Transformation direktangeben:

Fn =1N

N−1∑k=0

fk e−ikw0n mit w0 =2π

N.

Fur die inverse Fourier Transformation gilt entsprechend:

fn =N−1∑k=0

Fk eikw0n .

Beispiele

§ 163 Betrachten wir als Beispiele die Winkelfunktionen mit einer etwas reduzierten Abta-strate von 4 Punkten pro Periode, vgl. Abb. 2.11. Fur den Kosinus (rote Kurve) erhalten wirdann N = 4 Stutzstellen mit den Funktionswerten

f0 = 1 , f1 = 0 , f2 = −1 und f3 = 0 .

6Oder formulieren Sie es anders: den Ubergang zur Summe mussten wir in einem numerischen Verfahrenimmer machen – das ist ja gerade die Bedeutung der numerischen Integration.

4. Februar 2008 c© M.-B. Kallenrode

Page 62: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 51

Abbildung 2.12: Die Fourier-Koeffizienten fur den Kosinus (oben)sind reell, die fur den Sinus (unten)imaginar

Eine weitere Stutzstelle benotigen wir nicht, da f4 = f0 bzw. allgemein fn = fn+4. Fur dieFourier Koeffizienten ergibt sich F0 = 0, da der Mittelwert Null ist (Gleichstromanteil). Dieanderen Koeffizienten sind

F1 =14

(1 + (−1)(−1))) =12

F2 =14

(1 + (−1)1) = 0

F3 =14

(1 + (−1)(−1)) =12

.

Hier sind zwei Koeffizienten, F1 und F3 von Null verschieden – wir erhalten zwei Peaks imFrequenzspektrum, obwohl die Eingangsfunktion nur durch eine Grundfrequenz ω1 = 2π 1

4 ∆tbestimmt ist. Die zweite spektrale Komponente entspricht −ω1, sie wird bei der Entwick-lung ‘herum gewrapped’: statt das Frequenzspektrum symmetrisch um Null im Intervall vonF−2 bis F2 zu bestimmen, erhalten wir ein Frequenzspektrum im Intervall von F0 bis F4

derart, dass die negativen Frequenzen vom rechten Intervallrand nach links absteigend biszur Intervallmitte lokalisiert sind, siehe auch obere Zeile in Abb. 2.12. Bei reellem Input giltallgemein

FN−j = Fj .

Bei geradem Input steht daher in der rechten Intervallhalfte das selbe wie in der linken; beiungeradem Input dagegen dessen konjugiert komplexes (bzw. das Negative). Addition vonF1 und F3 = −F1 ergibt dann, wie von der Normierung gefordert, 1:

fk = 1 cos(

4k

).

§ 164 Uberprufen wir das am Sinus (schwarze Kurve in Abb. 2.11). Die Funktionswerte anden Stutzstellen sind

f0 = 0 , f1 = 1 , f2 = 0 und f3 = −1 .

Daraus ergeben sich die folgenden Fourier-Koeffizienten

F0 = 0 , F1 = − i2

, F2 = 0 und F3 =i2

.

Auch hier verschwindet der Gleichstromanteil (Mittelwert) F0. Das unterschiedliche Vorzei-chen berucksichtigen wir dadurch, dass wir die negative Freuqnz mit −1 multiplizieren. Die

c© M.-B. Kallenrode 4. Februar 2008

Page 63: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

52 KAPITEL 2. LAPLACE TRANSFORMATION

Summe wird daher F1 + (−1)F3 = −i. Da die Rucktransformation einen weiteren Faktor iliefert, ergibt sich die Intensitat der Sinuswelle zu

fk = i(F1 + (−1)F3) = sin(

4k

).

Zwischenrechnung 5 Auch wenn es etwas muhsam ist, fuhren Sie das ganze Verfahrennoch einmal mit der doppelten Zahl von Stutzstellen durch.

Zwischenrechnung 6 Wenden Sie das Verfahren ferner (wieder mit einer geringen Zahl vonStutzstellen) auf die bereits aus § 127 bekannte Funktion f(t) = cos2(ωt) an.

Eigenschaften der diskreten Fourier Transformation

§ 165 Die Eigenschaften der diskreten Fourier Transformation entsprechen im wesentlichendenen der kontinuierlichen Fourier Transformation – lediglich in der formalen Darstellungwerden die Integrale durch Summen ersetzt. Außerdem sind die Ableitungen nicht mehrsinnvoll, da diese fur den Grenzwert unendlich kleiner Differenzen definiert sind wahrend diediskrete Fourier Transformation ja gerade auf endlichen Differenzen basiert.

§ 166 Der in der kontinuierlichen Fouriertransformation auftretetende Faktor eiωt lasst sichfur diskrete Zeiten tk = k ∆t mit k = 0, 1, . . . , N − 1 und T = N ∆t schreiben als

eiωt = ei 2πtT = e

2πikN = W k

N .

Mit dem so definierten Kern

WN = e2πiN

lassen sich die Eigenschaften der Fourier Transformation einfach darstellen:

1. die diskrete Fourier Transformation ist eine lineare Operation:

F α fn+ β gn = α Fn+ β Gn .

2. eine Verschiebung im Zeitbereich entspricht einer Multiplikation mit dem Phasenfaktorim Frequenzbereich (Verschiebungssatz im Zeitbereich):

F(fk−j) = F(fkW−knN ) = FkW kn

N n ∈ Z .

3. eine Modulation in der Zeitdomane mit dem Phasenfaktor entspricht einer Verschiebungim Frequenzbereich (Verschiebungssatz im Frequenzbereich):

FfkW−knN = Fk−n n ∈ Z .

4. Durch das Wrappen der Fourierkoeffizienten entspricht der mittlere Koeffizient der hochstenFrequenz ωmax bzw. −ωmax. Diese Nyquist Frequenz [86] oder Abschneidefrequenz

ωN =π

∆t= 2ωmax

stellt eine Beziehung zwischen der Sampling-Rate ∆t und der hochsten, bei dieser Samp-lingrate noch zu rekonstruierenden Frequenz dar. Das Shannon’sche Abtasttheorem [114]verwendet diesen Begriff:

fabtast < 2fmax bzw. fabtast > 2(fmax − fmin) .

Die erste Gleichung bezieht sich auf den Fall einer Grundfreuquenz gleich Null, die zweiteauf den Fall einer hoheren Grundfrequenz fmin.7 Der durch die Nyquvist-Frequenz be-schriebene Zusammenhang wird manchmal auch als Skalierungssatz bezeichnet, da sichdurch die Wahl von ∆t bei fester Zahl N von Samples die Zeitachse und damit dieFrequenzen skalieren lassen.

7Das Abtasttheorem besagt letztendlich nur, dass ein periodisches Signal mit mehr als der doppel-ten der maximal auftretenden Frequenzen abgetastet werden muss. Das Abtasttheorem wird manchmalfalschlicherweise mit einem ≤ statt eines < angegeben, d.h. es wird angenommen, dass man mit zwei Samplespro Periode auskommt. Das ist nicht korrekt, da das Ergebnis der Abtastung dann von der Phase des Signalsabhangt:

4. Februar 2008 c© M.-B. Kallenrode

Page 64: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 53

5. Faltung, Auto- und Kreuzkorrelation werden ebenfalls analog zur kontinuierlichen FTdefiniert, allerdings muss die Zahl der Samples in beiden Funktionen gleich sein – gege-benenfalls durch Auffullen mit Nullen. Dieses Zero Padding ist ein interessantes Problemfur sich, soll uns aber hier nicht weiter beschaftigen.

2.2.3 Fast Fourier Transformation FFT

§ 167 In der Signalanalyse liegt die Funktion f(t) nicht in analytischer Form sondern alsWertetabelle vor, d.h. hier kann nur die diskrete Fourier Transformation verwendet werden.Die schnelle Fourier Transformation (fast Fourier transform FFT) ist keine neue Form derFourier Transformation sondern nur Algorithmus zur schnellen Berechnung einer diskretenFourier Transformation. Ein Teil des Algorithmus geht bereits auf Gauß zuruck, als entschei-dendes Paper zur Einfuhrung des Algorithmus gilt Cooley und Tukey [15].

§ 168 Eine Zahlenfolge mit nur einer reellen Zahl (N = 1) f0 hat eine ganz simple FourierTransformierte: F0 = 1

1f0W−01 = f0. Oder, wie von Butz [11] als Antwort eines Philosophen

formuliert:

Wir wissen, dass die Fouriertransformierte einer δ-Funktion eine Konstante ergibt undumgekehrt. Wie stellt man eine Konstante in der Welt der eingliedrigen Zahlenfolgendar? Durch die Zahl f0. Wie stellt man in dieser Welt eine δ-Funktion dar? Durchdie diese Zahl f0. Es verschwindet also in dieser Welt der Unterschied zwischen einerKonstanten und einer δ-Funktion. Fazit: f0 ist seine eigene Fouriertransformierte.

§ 169 Die FFT ist ein Teile-und-Herrsche-Verfahren, bei dem man durch geschickte Hal-bierung des Inputs zu eine Folge der Lange N = 1 gelangen will, da man sich dann dieBestimmung der Fourier Transformierten ersparen kann. Daher muss die Zahl der Abtast-punkte eine Zweierpotenz sein. Diese Folge von N = 2p Messwerten zerlegen wie in zweiFolgen mit je 2p−1 Messwerten, von denen die eine Folge nur die geraden, die andere nur dieungeraden Indizes enthalt:

f1,k = f2kf2,k = f2k+1

k = 0, 1, 2, . . . ,M − 1 und M = N/2

mit den Fourier Transformierten

F1,j =1M

M−1∑k=1

f1,kW−kjM und F2,j =

1M

M−1∑k=1

f1,kW−kjM mit j = 0, 1, . . . ,M − 1 .

Fuhrt die Phasenlage auf die roten Punkte als Abtaststellen, so lasst sich mit den zwei Samples pro Periodescheinbar (s.u.) ein Kosinus rekonstruieren. Bei einer Phasenverschiebung um π/2 (blaue Punkte, das ent-sprache der Abtastung eines Sinus oder genauer eines invertierten Sinus), dagegen verschwindet die Amplitudean allen Abtaststellen; entsprechend wurde das Signal als Null interpretiert. Bei einer Phasenlage dazwischen(grune Punkte) wird die Aussage ‘scheinbar’ beim Kosinus deutlich: hier verschwindet die Amplitude nicht,allerdings lasst sich ohne die zusatzliche Angabe einer Phase das Signal nicht eindeutig rekonstruieren: mankonnte schließlich auch eine Phasenverschiebung annehmen und die Werte an den Abtaststellen als die ma-ximale Amplitude interpretieren – so, wie wir umgekehrt bei den roten Punkten ohne Kenntnis der Phasenicht wissen, ob wirklich im Maximum abgetastet wurde.In der Praxis verwendet man daher eine modifizierte Formel fabtast ≈ 2.2 fmax – daher wird eine Audio-CD,mit der Frequenzen bis 20 kHz ubertragen werden sollen, auch mit 44.1 kHz abgetastet; ebenso sind dieSamplingstufen bei der MP3 Codierung an Vielfache dieser 44.1 kHz angelehnt.

c© M.-B. Kallenrode 4. Februar 2008

Page 65: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

54 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.13: Zeitserie derSonnenfleckenzahl (oben links),Periodigramm (Frequenzspek-trum) (oben rechts und un-ten links) in verschiedenen Be-reichen, sowie Leistungsdich-tespektrum aufgetragen uberDer Periode statt der Frequenz(rechts unten)

§ 170 Die Fourier Transformierte der Ausgangsfolge dagegen ist

Fj =1N

N−1∑k=0

fkW−kjN =

1N

M−1∑k=0

f2kW−2kjN +

1N

M−1∑k=0

f2k+1W−(2k+1)jN .

Manipulation des Kerns WM erlaubt seine Darstellung mit Hilfe von WN, so dass sich derAusdruck auch schreiben lasst als die (gewichtete) Summe der Fourier Transformierten derbeiden Teilreihen.

Fj =1N

M−1∑k=0

f1,kW−kjM +

W jN

N

M−1∑k=0

f2,kW−kjM =

12F1,j +

W−jN

2F2,j .

Dieses Verfahren wird rekursiv bis N = 1 weiter gefuhrt. Wahrend die normale FourierTransformation N2 Rechenoperationen benotigt, reduziert sich deren Zahl bei der FFT aufpN = N log2(N) Operationen.

2.2.4 FFT in MatLab

§ 171 MatLab kennt fur die FFT eine Funktion FFT. Diese kann auf einen Vektor oder aufeine Matrix angewendet werden – in letzterem Fall werden die Fourier Koeffizienten fur dieeinzelnen Spalten der Matrix bestimmt.

§ 172 Das einfachste Anwendungsbeispiel konnen wir aus der MatLab Hilfe importieren:wir bestimmen die Periode der Sonnenflecken, den Solarzyklus. Die notwendige Datei liegtin MatLab vor, das Codefragment

01 load sunspot.dat02 year = sunspot(:,1); wolfer = sunspot(:,2);03 subplot(2,2,1),plot(year,wolfer); xlabel(’Time’); ylabel(’Sunspot Number’)

liefert den linken Teil von Abb. 2.13. Die Fourier Transformation erfolgt mit04 Y = fft(wolfer);

Das Ergebnis ist ein komplexer Vektor, sein Quadrat gibt das Leistungsdichtespektrum inAbhangigkeit von der Frequenz. Da bei den Eingangsdaten die Zeitachse vor der FourierTransformation entfernt wurde, ist die Frequenz in diesem Periodigramm ebenfalls nicht ent-halten sondern entsprechend dem Skalierungssatz als normierte Große durch den Index desentsprechenden Vektorelements gegeben. Vor der Darstellung muss daher ein entsprechen-der Vektor fur die x-Achse erzeugt werden. Außerdem lassen wir die erste Komponente bei

4. Februar 2008 c© M.-B. Kallenrode

Page 66: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 55

Abbildung 2.14: Rechteck alsFourier Reihe (links) und FFTdieses Signals (rechts)

der Darstellung weg: sie enthalt einen großen Wert (Summe der Daten), der die eigentlichinteressanten Fourier Koeffizienten in der graphischen Darstellung nur unterdrucken wurde.Mit diesen Einschrankungen lasst sich die graphische Darstellung des Periodigramms (rechtsoben in Abb. 2.13) mit folgenden MatLab-Fragment erzeugen:

05 N = length(Y); Y(1) = []; nyquist = 1/2; freq = (1:N/2)/(N/2)*nyquist;06 power = abs(Y(1:N/2)).∧2;07 subplot(2,2,2),plot(freq,power);xlabel(’Cycles/year’);ylabel(’Power’)

§ 173 Im Periodogramm im rechten oberen Teilbild von Abb. 2.13 ragt der ungefahr 11-jahrige Solarzyklus als dominante Peak heraus, die Struktur an seiner Basis zeigt aber auch,dass der Solarzyklus nicht wie Uhrwerk ablauft sondern seine Dauer Schwankungen unterwor-fen ist.8 Ein zweiter Peak mit ca. 1/3 der maximalen Power findet sich bei ca. 0.01 Zyklenpro Jahr (vgl. auch die Vergroßerung im linken unteren Teil von Abb. 2.13): mit diesemGleissberg-Zyklus ist die solare Aktivitat moduliert.

§ 174 Ein genauer Blick zeigt, dass der Ausgangsdatensatz 288 Samples umfasst – was kei-ne Zweierpotenz ist. Der Cooley–Tukey-Algorithmus ist fur Zweierpotenzen formuliert, Da-tensatze mit anderer Lange konnen manchmal auf einen Cooley–Tukey-Algorithmus reduziertwerden. It das nicht moglich, so stehen verschiedene andere Algorithmen zur Verfugung. Ei-nige Hinweise dazu finden Sie z.B. in der MatLab-Hilfe, bei Wikipedia unter http://de.wikipedia.org/wiki/Schnelle Fourier-Transformation bzw. http://en.wikipedia.org/wiki/Fast Fourier transform und naturlich die Numerical Recipes [97].

‘Uberprufung’ mit selbsterzeugten Datensatzen

§ 175 Erzeugen wir mit Hilfe einer Fourier Reihe ein Rechtecksignal wie in Abb. 2.7, jedochuber einen langeren Zeitraum (linkes Bild in Abb. 2.14). Auf dieses Signal wenden wir dieFFT aus MatLab an und erhalten das im rechten Teil von Abb. 2.14 gezeigte Frequenzspek-trum. Die wichtigsten Aspekt des Eingangsspektrums wirden rekonstruiert: (a) die Power derGrundfrequenz ist am hochsten; (b) mit zunehmender Frequenz nimmt die Power ab; (c) dieAbnahme der Power lasst sich grob qualitativ mit 1/f annahern, d.h. in Einheiten der Grund-frequenz f0 ergibt sich 1/n; (d) es treten nur die ungeraden Vielfachen der Grundfrequenzauf; (e) die im Periodigramm auftretenden Frequenzen erstrecken sich bis zum 17-fachen derGrundfrequenz – mehr Frequenzen wurden auch nicht zur Konstruktion des Rechtecks ver-wendet. Die Peaks im Frequenzspektrum sind nicht, wie theoretisch erwartet, scharf sondernverschmiert: die Stutzstellen in der Periode sind durch die Zeitauflosung und die Lange desDatensatzes bestimmt, nicht aber durch die Periode des Eingangssignals. Letztere liegen zwi-schen den Stutzstellen, so dass das numerische Verfahren den δ-Peak uber die benachbartenStutzstellen verschmiert.

8Die Verbreiterung eines Peaks ist allerdings nicht nur durch die Streuung der Periode um einen Wertbedingt sondern auch durch die endliche Auflosung in einem diskreten Datensatz: Sampling Rate und Langedes Datensatzes bestimmen die auftretenden diskreten Frequenzen – die ‘reale’ Frequenz muss aber nicht aufeiner dieser Stutzstellen liegen, vgl. auch Abb. 2.14f.

c© M.-B. Kallenrode 4. Februar 2008

Page 67: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

56 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.15: ReduziertesRechteck und FFT; wieAbb. 2.14, jedoch wurde beider Konstruktion der Funktionnur die Grundfrequenz und das11-fache der Grundfrequenzverwendet

Abbildung 2.16: ‘Echtes’Rechteck und FFT; wieAbb. 2.14, jedoch wurdedas Rechteck nicht uber dieFourier-Reihe konstruiert son-dern aus Sprungfunktionenzusammen gesetzt

§ 176 Abbildung 2.15 entspricht Abb. 2.14, jedoch wurden bei der Konstruktion des Ein-gangssignals nur die Grundfrequenz und ihr 11-faches verwendet. Entsprechend ist das Peri-odigramm auf diese beiden Frequenzen beschrankt.

§ 177 Und wie sieht es mit einem realen Rechteck aus? Dieses konnen wir aus Sprungen zu-sammensetzen und erhalten, wie in Abb. 2.16 gegeben, ein Frequenzspektrum, dessen obersteFrequenz nur noch durch die Zeitauflosung (Sampling Rate) der Eingangsfunktion begrenztist.

Zwischenrechnung 7 Die Idee sollte klar geworden sein – Spielen Sie zur Ubung, zumVertrauensgewinn und zum Training einer saubereren Darstellung als in Abb. 2.14–2.16 mitweiteren Funktionen. Spielen Sie auch mit anderen Funktionen wie der in § 135f diskutiertennicht periodischen Funktion.

Fensterln mit Fourier

§ 178 Wahrend die Zeitauflosung des Datensatzes die hochste zu detektierende Frequenzbestimmt, bestimmt die Lange des Datensatzes die niedrigste Frequenz. Zusatzlich bestimmtdie Lange des Datensatzes aber auch, wie genau diese Frequenz detektiert werden kann;sie kann auch numerische Artefakte bis hin zu Peaks bei nicht existierenden Frequenzeneinfuhren. Dazu zeigt Abb. 2.17 zeigt fur verschieden lange Abschnitte der Funktionenf(t) = sin(t)+0.2 sin(9t) (schwarz) bzw. f(t) = cos(t)+0.2 cos(9t)) (rot; jeweils linke Teilbil-der) die zugehorigen Periodigramme. Ist die Fensterlange ein Vielfaches der Periode (oberesund unteres Bild), so sind die Peaks im Periodigramm scharf und fur die Sinus und KosinusVariante identisch. Im mittleren Teilbild dagegen ist ein Fenster mit der 2.5fachen Peri-odenlange gewahlt. Die Peaks liegen an den richtigen Stellen, aber (a) sie sind breiter alsdurch die Auflosung des numerischen Verfahrens erfordert, (b) die Periodigramme fur Sinusund Kosinus unterscheiden sich und (c) die unterste Frequenz (Null) beim Sinus verschwindetnicht.

§ 179 Der letzte Unterschied ist am einfachsten zu verstehen: der erste Wert im Periodi-gramm gibt den Gleichstromanteil und damit den Mittelwert des betrachteten Datensatzes.Dieser verschwindet beim Kosinus (rote Kurve) auch fur ganzzahlige Vielfache der Halfteder Periodenlange, beim Sinus jedoch nur fur ganzzahlige Vielfache der Periodenlange. Die-ser nicht verschwindende Gleichstromanteil enthalt einen Teil der Leistung des gesamtenSignals, so dass sich das Periodigramm auch in den anderen Teilen von dem des Kosinusunterscheiden muss.

4. Februar 2008 c© M.-B. Kallenrode

Page 68: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 57

Abbildung 2.17: Periodigramm(rechts) der Funktion f(t) =sin(t) + 0.2 sin(9t) (schwarz)bzw. f(t) = cos(t)+0.2 cos(9t))(rot) fur verschiedene Langendes Datensatzes (links)

§ 180 Insbesondere fallen beim Kosinus im Leistungsdichtespektrum die hohen Frequenzenauf: das Spektrum fallt zu diesen nur recht langsam ab wahrend es beim Sinus schnell abfallt.Der langsame Abfall zu hohen Frequenzen ware verstandlich, wenn wir statt der Winkelfunk-tion eine Funktion mit einem Sprung oder zumindest einem sehr steilen Anstieg betrachtenwurden, wie z.B. das Rechteck in Abb. 2.16. Dieser Sprung ist in der zu analysierenden Funk-tion f(t) = cos(t)+0.2 cos(9t) mit t ∈ [0, 5π] aus unserer Sicht nicht vorhanden – aus der Sichteines Algorithmus zur Fourier Transformation dagegen schon. In § 137 haben wir gesehen,dass sich der Informationsgehalt eines endlichen Signals nicht verandert, wenn es beliebig oftwiederholt wird. Bei der Fourier Transformation wird aus dem nicht zwingend-periodischenSignal eine periodische Funktion erzeugt, in dem dieses Signal wiederholt wird.

§ 181 Das wiederholte Aneinanderhangen ist wahrend der FFT bei allen Signalen in Abb. 2.17erfolgt – die hohen Frequenzen treten nur in einem der dort verwendeten sechs Signale auf.Warum? In den oberen und unteren Datensatzen ist der betrachtete Zeitraum jeweils einganzzahliges Vielfaches der Periodendauer der Grundschwingung – damit schließt diese aberbeim aneinander hangen stetig und sogar differenzierbar an. Nur im mittleren Teilbild wer-den die hohen Frequenzen benotigt. Besonders stark von der Kosinus-Variante, da diese beimaneinander hangen einen Sprung bewirkt – entsprechend der Rechteckfunktion werden danndie hochfrequenten Anteile zur Rekonstruktion des Signals benotigt. In der Sinus-Variantewerden wesentlich weniger hochfrequente Anteile im Leistungsdichtespektrum benotigt, dadie Funktion beim aneinander hangen keinen Sprung aufweist. Einige hochfrequente Anteilewerde aber dennoch benotigt, da der Ubergang zwar stetig aber nicht differenzierbar ist. Beibeiden Funktionen fallen die hochfrequenten Anteile vollkommen weg, wenn nur Vielfacheder Periodenlange betrachtet werden – und dabei ist es egal, ob eine oder mehrere Periodenim Signal enthalten sind. Dieses diffundieren von Leistung von den eigentlichen Frequenzenwird als leakage bezeichnet, das Gegenmittel als Windowing.

Zwischenrechnung 8 Spielen Sie noch mit anderen Datensatzen und unterschiedlichenFenstern um ein Gefuhl fur diese leakage zu kriegen.

c© M.-B. Kallenrode 4. Februar 2008

Page 69: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

58 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.18: VerrauschtesRechteck und FFT; wieAbb. 2.14, jedoch wurde demuber die Fourier-Reihe kon-struierten Rechteck mit Hilfedes Zufallsgenerators Rau-schen uberlagert; Obere Reihe:die Amplitude des Rauschenserreicht maximal 20% derAmplitude des Nutzsignals;Untere Reihe: die Amplitudedes Rauschens entspricht derdes Nutzsignals

§ 182 Im Gegensatz zu den willkurlich erzeugten Datensatzen in diesem Abschnitt wissenwir in einem gemessenen Datensatz nicht, welche Frequenzen auftreten. Daher konnen wirFenster nicht als Vielfache der großten Periode wahlen und gehen das Risiko von numeri-schen Artefakten ein. Um Sprunge beim Aneinanderhangen zu vermeiden, wird ein als Win-dowing bezeichnetes Verfahren verwendet: der zu analysierende Datensatz wird mit einemFilterkernel multipliziert, der bewirkt, dass die Amplitude an den Randern des betrachtetenDatenabschnitts gegen Null geht, so dass beim aneinander hangen keine Sprunge auftretenkonnen. Press et al. [97] helfen beim Fensterln mit Erklarungen und Algorithmen fur diegebrauchlichsten: Welch window, Hann window und Bartlett window.

§ 183 Und Press et l. [97] helfen auch beim Verstandnis des Zero Paddings: neben der Spek-tralanalyse ist die Faltung zweier Funktionen eine wichtige Domane der Fourier Transfor-mation. Numerisch macht diese Faltung jedoch nur dann Sinn, wenn die Datensatze beiderFunktionen die gleiche Basis haben und gleich lang sind. Ungleiche Lange umschifft mandadurch, dass der kurzere Datensatz mit Nullen aufgefullt wird um ihn an den langerenanzugleichen.

Verstandnisfrage 22 Die meisten von Ihnen werden die Fourier Transformation zur Be-stimmung des Leistungsdichtespektrums schon verwendet haben, z.B. im Rahmen des Elek-tronikpraktikums. Dort haben Sie es in der Regel mit langen Datensatzen zu tun gehabt undsich nicht um windowing gekummert. Haben Sie damals die leakage nur ubersehen oder wardie unbedeutend?

Verrauschter Fourier

§ 184 In einem realen Datensatz ist dem Nutzsignal in der Regel ein Rauschen uberlagert.Die Auswirkungen dieses Rauschens auf die FFT hangen vom Signal-zu-Rausch-Verhaltnisab. Eine entsprechende Situation ist durch Uberlagerung von Zufallswerten uber das Nutz-signal in Abb. 2.18 gezeigt. In den Beispielen wird deutlich, dass das Rauschen die leakageverstarkt: Power diffundiert von den im Nutzsignal vorhandenen Frequenzen in benachbarteFrequenzen.

Verstandnisfrage 23 Welches Fourier Spektrum hat Rauschen bzw. eine Reihe von Zu-fallszahlen? Begrunden Sie!

Zwischenrechnung 9 Spielen Sie mit einigen weiteren verrauschten Signalen und drehenSie das Rauschen kraftig auf.

4. Februar 2008 c© M.-B. Kallenrode

Page 70: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 59

Abbildung 2.19: Multiplikation im Frequenzbereich statt Faltungsintegral im Zeitbereich, zurErlauterung siehe Text

Fourier und Faltung

§ 185 Die Faltungsregel konnen wir nun auch praktisch ausprobieren. Dazu erzeugen wir einperiodisches Signal (z.B. durch Uberlagerung verschiedener Sinus- und Kosinusfunktionen,transformieren dieses mit Hilfe der FFT in den Frequenzbereich, multiplizieren die trans-formierte Funktion einmal mit der Ubertragungsfunktion eines Tiefpass und einmal mit dereines Hochpass. Diese Multiplikationen liefern die gefilterte Funktion im Frequenzbereich.Rucktransformation mit IFFT liefert die gefilterter Funktion im Zeitbereich.

§ 186 Abbildung 2.19 zeigt das Ergebnis einer derartigen Prozedur fur das aus Abb. 2.16recycelte Rechteck fur einen Tiefpass (oben) sowie einen Hochpass (unten) mit verschie-denen Grenzfrequenzen. Im linken Teil ist die schwarze Kurve jeweils das Ausgangssignal,das schwarze Leistungsdichtespektrum im rechten Teil gehort dazu. Die mit den jeweiligenUbertragungsfunktionen multiplizierten Frequenzspektren sind jeweils farbig in den rechtenTeilbildern dargestellt; die daraus rekonstruierten Zeitverlaufe sind in gleicher Farbe in denlinken Teilbildern dargestellt.

§ 187 Beim Tiefpass verhindert das Abschneiden der hohen Frequenzen die Reproduktionder steilen Flanke des Rechtecks: bei der roten Kurve (Eingangsfrequenz kleiner als Grenz-frequenz) fuhrt dies zu einer leichten Verzerrung, ist die Grenzfrequenz in der Große der Ein-gangsfrequenz, so beobachtet man den Kondensator beim Auf- und Entladen (grune Kurve).Fur Frequenzen sehr viel großer als die Grenzfrequenz (rote Kurve) wirkt der Tiefpass alsIntegrator.

§ 188 Beim Hochpass wird das Leistungsdichtespektrum fur hohe Frequenzen nicht modifi-ziert, stattdessen werden die tiefen Frequenzen unterdruckt. Fur Frequenzen deutlich unterder Grenzfrequenz wirkt der Hochpass als Differentiator.

c© M.-B. Kallenrode 4. Februar 2008

Page 71: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

60 KAPITEL 2. LAPLACE TRANSFORMATION

Abbildung 2.20: Annaherungeiner Funktion durchRechteckfunktionen

Zwischenrechnung 10 Erzeugen Sie verschiedenen Signale, bilden deren Fourier Transfor-mation und manipulieren dann das Spektrum. Untersuchen Sie den Einfluss dieser Manipu-lation auf das rekonstruierte Signal.

§ 189 MatLab fuhrt bei einer Faltung von zwei Funktionen diese ebenfalls im Frequenzbe-reich durch. Die Funktionen conv bzw. conv2 fur zweidimensionale Daten wie Bilder erzeugenerst die Fourier Transformierten beider Funktionen, multiplizieren diese und transformierenanschließend in den Zeitbereich zuruck.

§ 190 Wenn Sie sich den Algorithmus in der MatLab-Hilfe ansehen, so fallt, dass die Be-fehlssequenz conv(x,y) = ifft(X.*Y) nur dann korrekte Resultate liefert, wenn die FourierTransformierten X und Y erzeugt werden als

X = fft([x zeros(1,length(y)-1)]Y = fft([y zeros(1,length(x)-1)])

Beide Eingabevektoren werden mit Nullen aufgefullt. Dieses Zero Padding ist erforderlich, dadie Fourier Transformation mittel fft das wrap-around der Fourier Koeffizienten bewirkt.Außerdem mussen die Langen der Signale angeglichen werden.

2.2.5 Zusammenfassung: Fourier in der Signalanalyse

§ 191 Eine δ-Funktion als Eingangsfunktion eines Systems liefert die Sprungantwort h(t) desSystems, in der Theoretischen Mechanik auch als Green’sche Funktion bekannt, auf diesenReiz:

h(t) = F [δ(t)] .

Diese Impulsantwort ist vollstandig durch die Systemeigenschaften bestimmt. Den Ubergangvon der δ-Funktion zu einem beliebigen Eingangssignal s(t) konnen wir uns so vorstellen,dass wir das Eingangssignal im Zeitbereich in schmale Rechteckfunktionen s(nT0) zerlegen,vgl. Abb. 2.20:

s(t) ≈ sa(t) =∑

n

s(nT0) s(t− nT0)T0 (2.14)

mit s0(t) als dem ’ Einheitsrechteck’, das bei verschwindender zeitlicher Ausdehnung in dieδ-Funktion uber geht. Mit der Impulsantwort g0(t) = F [s0(t)] erhalten wir als Annaherungan die Antwort

g(t) ≈ ga(t) =∑

n

s(nT0) g0(t− nT0) T0 . (2.15)

Je kleiner die Intervallbreite T0, um so genauer die Annaherung. Im Grenzubergang T0 → 0gehen 2.14 und 2.15 uber in die Faltungsintegrale

s(t) =

∞∫−∞

s(τ) ∆(t− τ) dτ und g(t) =

∞∫−∞

s(τ) h(t− τ) dτ

oder in verkurzter Schreibweise mit Hilfe des Faltungsproduktes

s(t) = s(t) ∗ δ(t) und g(t) = s(t) ∗ h(t) .

4. Februar 2008 c© M.-B. Kallenrode

Page 72: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.2. FOURIER TRANSFORMATION 61

§ 192 Neben der δ-Funktion und der durch sie bewirkten Impulsantwort ist in der Elektronikdie Sprungfunktion

E(t) = 1 fur t > 0

0 fur t < 0= δ(t) ∗ E(t) =

∞∫−∞

δ(τ) E(t− τ) dτ (2.16)

mit

E(t) =

t∫−∞

δ(τ) dτ bzw.ddt

E(t) = δ(t)

von Interesse. Sie eignet sich z.B. zur Beschreibung von Ein- und Ausschaltvorgangen.

§ 193 Wird in 2.16 die Deltafunktion durch eine beliebige zeitabhangige Funktion ersetzt,so ergibt sich fur das Faltungsintegral

s(t) ∗ E(t) =

∞∫−∞

s(τ)E(t− τ) dτ =

t∫−∞

s(τ) dτ .

Daraus folgt

Faustregel 3 Hat ein System die Eigenschaft, dass seine Impulsantwort h(t) die Sprung-funktion ist, so ist das System ein idealer Integrator. Ist seine Sprungantwort die δ-Funktion,so ist es ein idealer Differentiator.

Anwendung des Kommutativgesetzes und Ersetzen von s(t) durch h(t) liefert

E(t) ∗ h(t) =

∞∫−∞

E(τ) h(t− τ) dτ .

Die Sprungantwort eines Systems ergibt sich also aus dem Integral der Impulsantwort.

§ 194 Die Idee der Fourier Transformation besteht darin, eine Zeitfunktion in eine Summeaus diskreten oder bei nichtperiodischen Funktionen beliebig dicht liegenden periodischenFunktionen der Grundform

s(t) = eiωt = cos ωt + i sinωt

zu zerlegen. In einem linearen System brauchen solche Funktionen bei der Ubertragung nurmit einem von der Frequenz abhangigen (komplexen) Amplitudenfaktor multipliziert zu wer-den:

h(t) ∗ eiωt =∫

h(τ) eiωτ dτ = eiωt H(ω)

mit H(ω) als Ubertragungsfunktion. Aus dem Faltungsprodukt im Zeitbereich wird damitein algebraischens Produkt im Frequenzbereich. Mit F als Fourier Transformation lasst sichallgemein schreiben

s(t) ∗ h(t) = g(t)⇒ F ⇒⇐ F−1 ⇐

S(ω) H(ω) = G(ω) .

§ 195 Die Fourier Reihe wird zur Darstellung periodischer Funktionen durch Sinus undKosinus verwendet. Das Fourier Integral ist eine Erweiterung der Fourier Reihe auf nicht-periodische Funktionen, es entsteht durch die Verschiebung der Intervallgrenzen gegen Un-endlich:

f(t) =

∞∫0

(a(ω) cos(ωt) + b(ω) sin(ωt)) dω

c© M.-B. Kallenrode 4. Februar 2008

Page 73: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

62 KAPITEL 2. LAPLACE TRANSFORMATION

mit

a(ω) =1π

∞∫−∞

f(t) cos(ωt)dt und b(ω) =1π

∞∫−∞

f(t) cos(ωt) dt

bzw. in komplexer Schreibweise

f(t) =12π

∞∫−∞

∞∫−∞

eiω(t−τ) f(τ) dω dτ . (2.17)

Die Fourier Transformation entsteht aus (2.17) durch Substitution von F (ω) =∫

e−iωtf(τ) dτund liefert den Zusammenhang zwischen einer reellen Originalfunktion f(t) und der im all-gemeinen komplexen Bildfunktion F (ω):

f(t) =12π

∞∫−∞

eiωtF (ω) dω .

2.3 Laplace Transformation

§ 196 Wahrend die Fourier Transformation mathematisch fur die Behandlung einer Impuls-funktion als Testfunktion im Zeitbereich geeignet ist, entsteht bei Verwendung einer Sprung-funktion ein Problem: der Ausdruck ist nicht integrierbar, d.h. wir erhalten keine Sprungant-wort. Um diese Integrierbarkeit zu erzeugen, wird die Laplace Transformation verwendet, diezusatzlich einen Konvergenz erzeugenden Faktor enthalt.

Verstandnisfrage 24 Warum ist der Ausdruck nicht integrierbar? Und warum lost ein Kon-vergenz erzeugender Faktor das Problem?

§ 197 Statt der Transformationsgleichungen der Fourier Transformation

f(t) =12π

∞∫−∞

F (ω) eiωt dω bzw. F (ω) =

∞∫−∞

f(t) e−iωt dt

wird mit dem zusatzlichen Faktor e−σt aus F (ω) ein F (ω, σ) mit

F (ω, σ) =

∞∫−∞

f(t) e−iωt e−σt dt .

Der Ausdruck ist absolut integrierbar, so lange f(t) nicht starker ansteigt als die Exponen-tialfunktion mit dem Exponenten σ. Der niedrigste Wert von σ, fur den diese Bedingungerfullt ist, wird als Konvergenzabszisse bezeichnet. Die beiden Exponentialfunktionen wer-den zusammen gefasst, so dass mit einer komplexen Frequenz s = σ + iω gearbeitet werdenkann:

F (s) =

∞∫0

f(t) e−st dt .

Die Integration beginnt bei t = 0 als dem Zeitpunkt, zu dem das Signal beginnt, d.h. es istf(t) = 0 fur t < 0.

§ 198 Die Laplace Transformierte F (s) einer Funktion f(t) ist also definiert als

F (s) = Lf(t) =

∞∫0

f(t) e−st dt , (2.18)

wobei s eine beliebige, auch komplexe Variable sein kann, z.B. iω. Einzige Einschrankung ist,dass das Integral in (2.18) konvergieren muss.

4. Februar 2008 c© M.-B. Kallenrode

Page 74: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.3. LAPLACE TRANSFORMATION 63

§ 199 Die Rucktransformation wird entsprechend geschrieben als L−1F (s) = f(t):

f(t) = L−1F (s) =12π

∞∫−∞

F (s) est dω .

Die Funktion im t-Bereich wird, wie bereits von der Fourier Transformation bekannt, alsOriginalfunktion bezeichnet, die Funktion im s-Bereich als Bildfunktion.

§ 200 Die Laplace Transformation erlaubt eine formal einfache Losung linearer Differential-gleichungen mit konstanten Koeffizienten: statt der direkten Losung der Differentialgleichungim Zeitbereich t wird eine algebraische Gleichung im Bildraum s gelost. Das Losungsverfahrenbesteht aus drei Schritten:

1. die Differentialgleichung wird mit Hilfe einer Laplace Transformation in eine algebraischeGleichung im Bildraum uberfuhrt;

2. die algebraische Gleichung wird im Bildraum gelost, es ergibt sich die Bildfunktion dergesuchten Losung;

3. die inverse Laplace Transformation der Bildfunktion ergibt die Losung im Zeitbereich.

§ 201 Die Laplace Transformation hat praktisch alle Eigenschaften der Fourier Transforma-tion geerbt. Insbesondere ist sie eine lineare Operation:

Lαf(t) + βg(t) = αLf(t)+ βLg(t) . (2.19)

Auch die Faltungsregel bleibt bestehen, d.h. die Faltung zweier Funktionen kann uberfuhrtwerden in das Produkt ihrer Transformierten:

L

t∫

0

f(t− τ)h(τ)dτ

= f(s)h(s) . (2.20)

Mit f(t = 0) = f0 gilt die Differentiationsregel

L

df(t)dt

= sf(s)− f0 , (2.21)

auch diese Regel ist bereits von der Fourier Transformation bekannt – lediglich die imaginareEinheit als Vorfaktor verschwindet, da s komplex ist.

§ 202 Bei einer vektorwertigen Funktion wird die Laplace Transformation komponentenweisedurchgefuhrt – das gilt auch fur die Fourier Transformation, wie eigentlich bereits aus derspaltenweisen Anwendung von FFT auf Matrizen in MatLab zu erahnen war.

§ 203 Laplace Transformierte fur einige wichtige Funktionen sind in Tab. 2.2 gegeben, um-fangreichere Tabellen finden Sie in [10] oder [122].

§ 204 Die Laplace-Transformation ist, bis auf den Konvergenz erzeugenden Faktor, dasAquivalent zur kontinuierlichen Fourier Transformation. Eine diskrete Laplace Transforma-tion als Aquivalent zur DFT gibt es nicht – entsprechend gibt es auch in MatLab keineFunktionen, die irgendetwas mit Laplace Transformationen zu tun haben. In SimuLink da-gegen tritt zumindest die aus der Laplace Transformation bekannte Notation fur die Integra-tion und die Ubertragungsfunktion auf; allerdings sollte man sich davon nicht aufs Glatteisfuhren lassen: SimuLink verwendet zwar die Notation, rechnet als numerisches System abernaturlich nicht mit den Laplace-Transformierten sondern verwendet ersatzweise konventio-nelle Algorithmen. Daher sollten Sie bei der Verwendung von SimuLink zur Filterung vonanderen als harmonischen Signalen stets einen einfachen Testrun machen um zu uberprufen,ob die entsprechende Signalform korrekt behandelt wurde.

c© M.-B. Kallenrode 4. Februar 2008

Page 75: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

64 KAPITEL 2. LAPLACE TRANSFORMATION

Tabelle 2.2: Laplace Transfor-mierte wichtiger Funktionen mitC = 0.577216 als der Euler’schenKonstante

F (s) f(t)0 01 δ-Funktion1/s 1 (Sprungfunktion)1/sn tn−1/(n− 1)!1/(s− α)n eαt tn−1/(n− 1)!1/[(s− α)(s− β)] [eβt − eαt]/[β − α]s/[(s− α)(s− β)] [βeβt − αe−αt]/[β − α]α/(s2 + α2) sin(αt)[α cos β + s sinβ]/[s2 + α2] sin(αt + β)s/(s2 + α2) cos(αt)[s cos β − α sinβ]/[s2 + α2] cos(αt + β)α/(s2 − α2) sinh(αt)s/(s2 − α2) cosh(αt)[s2 + 2α2]/[s(s2 + 4α2)] cos2(αt)2α2/[s(s2 + 4α2)] sin2(αt)[s2 − 2α2]/[s(s2 − 4α2)] cosh2(αt)2α2/[s(s2 − 4α2)] sinh2(αt)αs/(s2 + α2)2 1

2 t sin(αt)αs/(s2 − α2)2 1

2 t sinh(αt)1/√

s 1/√

πt

1/(s√

s) 2√

t/π

1/√

s + α e−αt/√

πt√√s2 + α2 − s sin(αt)/[t

√2πt]

arctan(α/s) sin(αt)/tln s/s −C − ln t

2.3.1 Laplace Transformation und Losung der DGls

§ 205 Auf Grund dieser Einschrankungen ist die Anwendung der Laplace Transformationauf analytische Verfahren beschrankt; insbesondere in der Systemtheorie kommt man ander Laplace Transformation kaum vorbei – nur auf diese Weise lasst sich eine allgemeineUbertragungsfunktion angeben.

§ 206 Ansonsten lasst sich die Laplace Transformation ebenso wie die kontinuierliche Fou-rier Transformation bei der Losung von Differentialgleichung(ssystem)en einsetzen. Wie beider kontinuierlichen Fourier Transformation wird die DGL in eine algebraische Gleichunguberfuhrt, die Losung eines Differentialgleichungssystems wird damit auf die Losung einesSystems algebraischer Gleichungen reduziert. Sind die DGLs erster Ordnung, so ist das alge-braische Gleichungssystem linear, handelt es sich um DGLs hoherer Ordnung ist das Systemnicht mehr linear. Gegenuber der Fourier Transformation hat die Laplace Transformationbei der Losung von Differentialgleichungen den Vorteil, dass die δ-Funktion nicht so haufigauftritt – die Funktionen im Ausgangs- und im Bildbereich sind in der Regel ‘well-behaved’.

Zwischenrechnung 11 Wenn die Laplace Transformation abgesehen von der anderen Trans-formationstabelle vollig aquivalent zur kontinuierlichen Fourier Transformation verwendetwerden kann, so mussen auch die Beispiele aus § 154 (freie Schwingung) und § 155f (Alfven-Welle) mit Hilfe einer Laplace Transformation zu losen sein. Uberprufen Sie dies.

Gewohnliche DGL 1. Ordnung: Auf- und Entladen eines Kondensators

§ 207 Betrachten wir als einfaches Beispiel eine gewohnliche Differentialgleichung ersterOrdnung. Das Entladen eines Kondensators (oder alternativ der radioaktive Zerfall) wird

4. Februar 2008 c© M.-B. Kallenrode

Page 76: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.3. LAPLACE TRANSFORMATION 65

beschrieben durch eine homogene DGL vom Zerfallstyp:

q = − 1RC

q

mit q(t) als der auf dem Kondensator befindlichen Ladung, C der Kapazitat und R demWiderstand. Laplace Transformation der Gleichung liefert eine lineare algebraische Gleichungfur Q(s), d.h. die Funktion im Bildraum:

sQ(s)−Q0 = − 1RC

Q(s) .

Die Losung der Bildgleichung ist

Q(s) =1

s + 1RC

Q0 .

Rucktransformation in den Zeitbereich liefert gemaß Tabelle 2.2 das bereits bekannte Ergeb-nis

q(t) = q0 e−t/(RC) = q0 e−t/τ mit τ = RC .

§ 208 Und die Umkehrung? Laden wir den Kondensator auf. Dazu liegt eine (konstante)außere Spannung U0 an, die homogene DGL wird zu einer inhomogenen:

q = − q

RC+

U0

R.

Bei der Laplace Transformation tritt entsprechend ein zusatzlicher Term auf, namlich der,der die Transformation der Konstanten U0/R beschreibt:

sQ(s)−Q0 = − 1RC

Q(s) +1s

U0

R.

Die Losung der Bildgleichung ist ...

Q(s) =1

s + 1RC

Q0 +1

s(s + 1RC )

U0

R.

Rucktransformation liefert die Losung im Zeitbereich:

q(t) = Qmax(1− ec−t/τ )

mit CU0 = Qmax, τ = RC und c =. Verschwindet die Ladung zur Zeit t = 0, d.h. q0 = 0, soreduziert sich die Losung auf

q(t) = Qmax(1− e−t/τ )

Zwischenrechnung 12 Falls Ihnen der Kondensator nicht bereits zum Hals raushangt –legen Sie statt der konstanten Spannung doch einfach mal eine Wechselspannung an und be-trachten, was dann passiert (Hinweis: wenn Sie das tun, haben Sie im den Tiefpass eigentlichschon gerechnet).

§ 209 Gewohnliche Differentialgleichungen hoherer Ordnung konnen entsprechend behan-delt werden – liefern dann allerdings algebraische Gleichungen hoherer Ordnung. Das wurdebereits bei der Losung der Schwingungsgleichung mit Hilfe der Fourier Transformation deut-lich. Ein Blick auf Tabellen zur Laplace Transformation, wie z.B. Tab. 2.2, legt nahe, dass dasbei DGLs nter Ordnung entstehende Polynom nter Ordnung in s vor der Rucktransformationfaktorisiert werden muss.

c© M.-B. Kallenrode 4. Februar 2008

Page 77: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

66 KAPITEL 2. LAPLACE TRANSFORMATION

Partielle Differentialgleichungen

§ 210 Analytische Losungen fur partielle Differentialgleichungen basieren, wie bei der Wel-lengleichung in Abschn. 2.1.1 beschrieben, auf einem Separationsansatz: die partielle Differen-tialgleichung wird durch Separation der raumlichen und zeitlichen Abhangigkeit in mehreregewohnliche Differentialgleichungen uberfuhrt. Das Verfahren zur Losung einer partiellenDifferentialgleichung mit Hilfe einer Laplace Transformation ist ahnlich:9

1. die partielle Differentialgleichung mit ihren Anfangs- und Randbedingungen wird mitHilfe der Laplace Transformation in eine gewohnliche Differentialgleichung im Bildbereichuberfuhrt. In dieser gewohnlichen DGL sind die Anfangsbedingungen bereits automatischberucksichtigt, die Randbedingungen gehen bei der Transformation in Randbedingungenuber.

2. die gewohnliche Differentialgleichung im Bildbereich wird gelost.3. die Losung wird aus dem Bildbereich in den Originalraum zuruck transformiert – dieser

Schritt ist haufig der Schwierigste.

Und wenn wir gemein sind, losen wir die gewohnliche DGL durch – klar, eine Laplace Trans-formation. Diesen Ansatz haben wir verwendet, als wir in § 155f das System partieller DGLsfur die Alfven-Welle betrachtet haben.

§ 211 Als Beispiel fur eine partielle DGL soll die eindimensionale Diffusions- bzw. Warme-leitungsgleichung dienen – wir werden ihr in Abschn. 6.3 ohnehin noch haufiger begegnen.Setzen wir die Diffusionskonstante gleich 1, so wird die Struktur der Diffusionsgleichungdeutlich:

∂2u

∂x2=

∂u

∂t.

Diese Diffusionsgleichung ist eine Bestimmungsgleichung fur die Funktion u(x, t).

§ 212 Als Anfangsbedingung nehmen wir auf dem linearen Leiter ein (Temperatur)Profilu(x, 0) = U0(x) an. Fur die Randbedingungen nehmen wir an, dass die Enden x = 0 undx = l des Leiters auf einer vorgegebenen (aber gegebenenfalls von der Zeit abhangigen)Temperatur/Dichte gehalten werden konnen: u(0, t) = a0(t) und u(l, t) = a1(t).

§ 213 Als erster Schritt ist die Laplace Transformation durchzufuhren. Fur die Gleichungim Bildbereich erhalten wir

sU(x, s)− U0(x) =∂2U(x, s)

∂x2.

Dabei haben wir auf der rechten Seite vorausgesetzt, dass die Ableitung nach x mit derLaplace Transformation vertauschbar ist. Da nur noch nach einer Variablen x abgeleitetwird, konnen wir die partielle Ableitung durch eine gewohnliche Ableitung ersetzen unds als einen Parameter betrachten. Die transformierten Randbedingungen schreiben wir alsU(0, s) = A0(s) und u(l, s) = A1(s).

Verstandnisfrage 25 Zeigen Sie mit Hilfe der Transformationsregeln, dass die LaplaceTransformation und die Ableitung nach einer anderen Variablen wirklich vertauschbar sind.

§ 214 Betrachten wir den einfachsten Fall: die Anfangstemperatur verschwindet. Dann habenwir im Bildbereich eine gewohnliche homogene DGL 2. Ordnung:

d2U

dx2= sU .

9Dias Herunterbrechen der PDGL in gewohnliche DGLs erfolgt letztendlich auch bei numerischenLosungen: dort wird bei der Diffusionsgleichung eine große Zeitschleife angelegt und in jedem Zeitschrittwird der raumliche Transport gelost. Also frei nach einem Sohn der Stadt Osnabruck: ‘Im Bildraum nichtsNeues’.

4. Februar 2008 c© M.-B. Kallenrode

Page 78: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

2.3. LAPLACE TRANSFORMATION 67

Die Gleichung kennen wir; als Losungsverfahren konnen wir den Exponentialansatz U = eλx

verwenden und erhalten die beiden Eigenwerte λ1,2 =√

s und damit die allgemeine Losungc1ex

√s + c2e−x

√s. Die Integrationskonstanten c1 und c2 sind aus den Randbedingungen zu

bestimmen. Von diesem Punkt an ist eine allgemeine Losung nicht mehr sinnvoll, der weitereVerlauf der Losung hangt stark von den Randbedingungen ab – und damit kann auch dieRucktransformation beliebig unhandlich werden.

§ 215 Lassen wir die Anfangstemperatur nicht verschwinden, so muss im Bildbereich ei-ne inhomogene gewohnliche DGL 2. Ordnung gelost werden. Beide Varianten finden Sieausfuhrlicher diskutiert in [19] – mir kam es hier nur darauf an, das Verfahren einzufuhrenund zu skizzieren.

Literaturhinweise

§ 216 Die wichtigsten Aspekte zur Laplace Tramsformation inklusive der wichtigsten Trans-formationen finden Sie in den ublichen Handbuchern wie dem Bronstein [10] oder dem Stocker[122]. Die praktischen Aspekte der Laplace Transformation werden in recht anschaulicherWeise im Doetsch [19] erklart; etwas tabellarischer, dafur aber mit vielen (physikalischen)Beispielen, ist die Darstellung in Spiegel [119]. Die Fourier Transformation in ihren verschie-denen Geschmacksrichtungen und insbesondere ihre Anwendung in der Signalanalyse inklu-sive Windowing und Zero Padding ist im entsprechenden Kapitel in Meffert und Hochmuth[73] beschrieben, ebenso in McClellan et al. [72].

Fragen

Frage 3 Erlautern Sie Unterschiede und Zusammenhange zwischen Fourier Reihe und Fou-rier Transformation.

Frage 4 Erlautern Sie Unterschiede und Zusammenhange zwischen kontinuierlicher Fourierund Laplace Transformation.

Frage 5 Erlautern Sie den Begriff und die Bedeutung der Nyquist Frequenz.

Frage 6 Wodurch werden die minimale und die maximale Frequenz bei der FFT bestimmt?

Frage 7 Erlautern Sie die Bedeutung von windowing und zero padding in der FFT.

Frage 8 Erlautern Sie die wesentlichen Eigenschaften der kontinuierlichen Fourier Transfor-mation.

Frage 9 Erlautern Sie die Verwendung in der Laplace Transformation bei der Losung vonDifferentialgleichungen.

Aufgaben

Aufgabe 3 Entwickeln Sie die Funktion

F (x) = 2− x 0 < x < 4

x− 6 4 < x < 8

in eine Fourier Reihe mit Periode 8.

Aufgabe 4 Losen Sie die Differentialgleichungen aus Kapitel 1 (harmonischer Oszillator,gekoppelte Oszillatoren, vom Tisch gleitendes Seil) mit Hilfe einer Laplace Transformation.Fur die Rucktransformation konnen Sie sich von den Ihnen bekannten Losungen inspirierenlassen.

c© M.-B. Kallenrode 4. Februar 2008

Page 79: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

68 KAPITEL 2. LAPLACE TRANSFORMATION

Aufgabe 5 Losen Sie die Differentialgleichung x − 3x + 2x = 4e2t mit den Anfangsbedin-gungen x(0) = −3 und x(0) = 5 mit Hilfe einer Laplace Transformation.

Aufgabe 6 Losen Sie das Differentialgleichungssystem

x = 2x− 3yy = y − 2x

mit x(0) = 0y(0) = 3

mit Hilfe einer Laplace Transformation.

Aufgabe 7 Ein Balken liegt an den Punkten x = 0 und x = l auf, er tragt eine gleichmaßigeLast von W0 pro Langeneinheit. Die DGL fur die Durchbiegung des Balkens ist

d4y

dx4=

X0

E0 < x < l y(0) = y′′(0) = y(l) = y′′(l) = 0 .

Bestimmen Sie die Durchbiegung y(x) des Balkens mit Hilfe einer Laplace Transformation.

Aufgabe 8 Versuchen Sie sich an der Losung der Wellengleichung mit Hilfe einer LaplaceTransformation.

4. Februar 2008 c© M.-B. Kallenrode

Page 80: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 3Lineare zeitinvariante Systeme:Systemtheorie im Vorbeigehen

Every occurrence in nature is preceded by other occurrences which are its cause,and succeeded by others which are its effects. The human mind is not satisfied withobserving and studying any natural occurrence alone, but takes pleasure in connectingevery natural fact which has gone before it, and with what is to come after it.

J. Tyndall [132]

§ 217 Systemtheorie und die Modellierung dynamischer Systeme ist insbesondere auf Grundder vielfaltigen Anwendungen ein fur ein einfaches Skript uber simple Simulation viel zuumfangreiches Feld. Dieses Kapitel beschrankt sich auf eine etwas formale, an die in derSchaltungs- und Regelungstechnik gebrauchliche Betrachtung von linearen zeitinvariantenSystemen um die grundlegenden Begriffe einzufuhren und damit auch die Benennung undFunktion einiger der SimuLink-Blocke besser zu verstehen.

§ 218 Da das Kapitel keine Liste einfacher Definitionen werden sollte, werden wir uns anHand eines einfachen Beispiels durch diese Definitionen hangeln. Da wir uns ohnehin ander Schaltungs- und Regelungstechnik orientieren und in Kapitel 5 auch Filter betrachtenwerden, verwenden wir als Beispiele die einfachsten in der Elektronik bekannten Filter: Hoch-und Tiefpass sowie Serienschwindgkreis.

§ 219 Auch wenn man im Vergleich zu den in Abschn. 1.3 gegebenen Beispielen eine elektro-nische Schaltung nicht unbedingt als System betrachten wurde, ist sie ein gutes Beispiel furSysteme und Untersysteme. In einem HiFi-Verstarker sind jede Menge an Filtern zur Vermei-dung von Signalverzerrungen und zur Optimierung des Outputs vorhanden. Diese sind jeweilsKombinationen aus Widerstanden, Spule und Kondensatoren. In einer EDA (Electronic De-sign Automation) werden die Bauteile einzeln betrachtet, in einem eher systemortientiertenAnsatz dagegen konnen wir die entsprechenden Bauteile jeweils zur funktionalen Gruppe desFilters zusammen fassen und nicht mehr durch die Parameter der Bauteile sondern die Ei-genschaften des Filters, d.h. seine Ubertragungsfunktion, beschreiben. Diese ist nicht durchdie Bauteilparameter sondern die charakteristische Große des Systems bestimmt: so ist dieGrenzfrequenz eines Tief- oder Hochpass durch die Zeitkonstante τ bestimmt. Zwar geht indiese das Produkt aus Widerstand und Kapazitat ein, allerdings lasst sich ein festes τ (zu-mindest im Prinzip) mit unendlich vielen Kombinationen von R und C realisieren. Welchedavon gewahlt wurde, ist fur den systemtheoretischen Ansatz irrelevant.

69

Page 81: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

70 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

§ 220 Wir wollen hier die Systemtheorie als formale Basis verwenden, mit deren Hilfe dieUbertragungsfunktion als Zusammenhang zwischen Eingangs- und Ausgangangsgroße be-schrieben werden kann – ohne dass eine Beschrankung auf eine spezielle Sorte von Eingangs-signalen erfolgen muss.

§ 221 Schwerpunkt dieses Abschnitts sind lineare und zeitinvariante Systeme, haufig alsLTI-Systeme (fur ‘Linear Time Invariant’) bezeichnet. Ziel ist die Beschreibung der Reakti-on eines Systems auf eine definierte Testfunktion. Der dazu erforderliche Formalismus kannim Zeitbereich oder im Frequenzbereich betrachtet werden; beide Varianten konnen durchFourier oder Laplace Transformationen verknupft werden. Als Testfunktionen werden imZeitbereich die δ-Funktion, im Frequenzbereich periodische Funktionen verwendet. Wahrenddie δ-Funktion eine Impulsantwort liefert, mit deren Hilfe die Antworten des Systems auf an-dere Testfunktionen durch Faltung bestimmt werden konnen, liefert die periodische Funktiondie Ubertragungsfunktion des Systems.

Lernziele: nach Durcharbeiten dieses Kapitels sollten Sie in der Lage sein

• die Grundbegriffe der Systemtheorie, insbesondere Ubertragungsfunktion und Ruckkopplungen,zu kennen und korrekt anzuwenden.• einfache Systeme unter systemtheoretischen Aspekten zu beschreiben.• die formale Beschreibung eines Systems durch die Systemgleichungen zu kennen – Simu-

Link hat einen genau auf diese Beschreibung zuruck greifenden Block.

3.1 Grundbegriffe: Was ist ein System?

§ 222 Im Rahmen dieser Abschnitts uber LTI-Systeme werden wir mit einfachen Beispielenaus der Elektronik arbeiten, d.h. im wesentlichen der bereits in § 185 Hoch- und Tiefpass oderder Bandpass. Eine elektronische Schaltung werden wir dabei als ein System betrachten, dieStrome oder Spannungen in diesem Netzwerk als Signale, auch bezeichnet als Systemgroßeoder Systemvariable. Damit konnen wir die langatmige Definition aus § 73 reduzieren auf diefolgende Gebrauchsdefinition:

Definition 1 Ein System ist eine Zusammenfugung verschiedener mit einander wechselwir-kender Komponenten (z.B. elektronische Bauteile). Innerhalb des Systems sind Ruckkopp-lungen moglich. Ein System kann in Untersysteme zerlegt werden.

Entsprechend konnen wir die dieses System erst ‘lebendig’ machenden Signale definieren als

Definition 2 Ein Signal ist eine messbare Große innerhalb dieses Systems. Insbesonderesind auch die Ein- und Ausgangsgroße des Systems Signale.

§ 223 Typische Signale in der Elektronik (aber auch in der Reizleitung im Nervensystem)sind Strome und Spannungen. Dabei treten spezielle Zeitverlaufe immer wieder auf:

• konstante Spannung u = U0 = const,• Sprungfunktion u = H(t0) U0 (in ihrer Bedeutung hinreichend bekannt von der Sprungant-

wort),• abfallende Exponentialfunktion u = U0 e−αt (alles im Zerfall begriffene, daher auch bei

Verzogerungen/leckenden Speichern beliebt),• Rampe u = kt (und sei es nur bei der Aufnahme einer Kennlinie),• Rechteckimpuls der Dauer T als u = U0 H(t) H(T−t), d.h. die Kombination zweier Sprung-

funktionen, oder• sinusoidale Spannung u = U0 sin(ωt + ϕ).

Die δ-Funktion mit ihrer Bedeutung fur die Impulsantwort tritt in der realen Elektroniknaturlich nicht auf, da sie eine mathematische Funktion ist. Real lasst sich die Sprungantwort

4. Februar 2008 c© M.-B. Kallenrode

Page 82: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.1. GRUNDBEGRIFFE: WAS IST EIN SYSTEM? 71

eines Systems nicht bestimmen; der Rechteckimpuls mit kurzest moglicher Dauer T ist dieAnnaherung an die δ-Funktion.1

§ 224 Die Methodik der Systemtheorie besteht in der Abstraktion vom realen physikalischenSystem mit allen seinen Details auf ein allgemeineres mathematisches Modell. In der Elektro-nik bedeutet dies z.B. der Ubergang von den konkreten Eigenschaften der Bauelemente wieWiderstanden oder Kapazitaten auf sich aus daraus ergebende funktionale Eigenschaften derSchaltung wie z.B. Zeitkonstanten. Das mathematische Modell ist daher, da es sich von denDetails gelost hat, auf unterschiedliche physikalische Realisierungen eines Systems anwend-bar. Daher lasst ein Neuron sich ja auch praktisch in diese Struktur pressen, obwohl seinephysikalische Realisierung sich sicherlich deutlich von der mit konventionellen elektronischenBauteilen unterscheidet.

§ 225 Die Grundaufgabe in der Systemtheorie besteht also darin (a) die wesentlichen Pro-zesse eines Systems zu identifizieren und (b) sie adaquat formal zu beschreiben.

3.1.1 Ein- und Ausgangsgroßen, Zustandsvariable

§ 226 Großere Systeme werden haufig in Teilsysteme zerlegt: zum einen sind die Teilsystemeuberschaubarer und damit einfacher formal zu erfassen. Zum anderen entsteht auf dieseWeise ein Baukasten von Systemmodulen, von denen einzelne auch als Teilsysteme in anderenSystemen verwendet werden konnen. Dadurch wird es moglich, z.B. in SimuLink nahezubeliebige Systeme mit einem kleinen Satz an Systemmodulen zu realisieren.

§ 227 In diesen (Teil-)Systemen werden die Systemgroßen erfasst und beschrieben. Die Sys-temgroßen konnen in der Regel in zwei Kategorien unterteilt werden: Großen innerhalb desSystems (z.B. Strom durch den Widerstand in einem Tiefpass) und die Ein- und Ausgangs-großen, die die Verknupfung des Systems mit der Außenwelt bilden – wobei letztere System-großen sein konnen (der Spannungsabfall uber dem Kondensator beim Tiefpass) aber nichtsein mussen.

Definition 3 Eine Systemgroße wird als Zustandsvariable oder kurz Zustand bezeichnet,wenn sie durch die Angabe eines Anfangswerts x0 = x(t0) und die Angabe einer Eingangs-große u(t) das Verhalten des Systems fur alle t > t0 festlegt.

Verstandnisfrage 26 Fur ein LTI-System ist das eine einfach einzusehende Bedingung.Wie sieht es in einem nicht-linearen System aus? Lasst sich die Zustandsvariable dort auf diegleiche Weise definieren?

Verstandnisfrage 27 Zustandsgroßen bzw. -variablen sollten Ihnen aus der Thermodyna-mik bekannt sein. Ist deren Definition mit der obigen Definition fur ein LTI-System konsistentoder nicht? Oder anders gefragt: ist ein ideales Gas ein LTI System? Und wie sieht es miteinem realen Gas aus?

§ 228 Wird ein System durch n Zustandsvariable xi beschrieben, so lassen sich diese in einemn-dimensionalen Zustandsvektor zusammen fassen:2

~x(t) = (x1(t), x2(t), . . . , xn(t) ) .

1Aus dieser Vorbemerkung konnen wir eine allgemeine Schlussfolgerung bezuglich der formalen Behand-lung realer Systeme ziehen: die Fourier Transformation ist in einem realen System nur bedingt brauchbar, dasich der Impuls als Input eigentlich nicht realisieren lasst: selbst beim Abschlag eines Golfballs ist die Kraftkeine δ-Funktion sondern kann bestenfalls durch eine Dreieck- oder Trapezfunktion angenahert werden. AufGrund dieser endlichen Signaldauern ist es daher sinnvoller, in Sprungfunktionen bzw. deren Kombinationzu denken. Daher ist in der formalen Beschreibung die Laplace Transformation auf Grund des Konvergenzerzeugenden Faktors besser geeignet. Konzeptionell ist die Impulsantwort als Green’sche Funktion aber furunsere Konzepte von Punktladung und Punktmasse wichtig: das Poisson Integral ist die Faltung der Impul-santwort (elektrisches Feld einer Punktladung) mit der Ladungsverteilung. Und selbst fur soziale Systeme istder ‘unit act’ (die kleinste Handlungseinheit, der Handlungsimpuls) von Parsons [91] eingefuhrt worden.

2Da wir an keiner Stelle ein dyadisches Produkt zweier Vektoren benotigen, werde ich mit der Darstellungder Vektoren etwas nachlassig sein und nicht zwischen Zeilen- und Spaltenvektoren unterscheiden: drehen Siesich den Vektor bei Bedarf einfach in die von den Regeln der Vektormultiplikation geforderte Lage.

c© M.-B. Kallenrode 4. Februar 2008

Page 83: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

72 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

§ 229 Ein Beispiel fur ein einfaches System ist ein Tiefpass, vgl. linken Teil in Abb. 3.1.Die von der Spannungsquelle gelieferte Spannung u(t) ist die Eingangsgroße, die uber demKondensator abfallende Spannung uC(t) die Ausgangsgroße. Fur die Entwicklung eines ma-thematischen Modells dieses Netzes gehen wir von idealen Bauteilen aus, bei denen die Be-ziehungen zwischen dem Strom i und der Spannung u jeweils durch die BauteilparameterKapazitat C bzw. Widerstand R gegeben sind: i(t) = C uC(t) und uR(t) = i(t) R. Aus derMaschenregel erhalten wir als die das System beschreibende Differentialgleichung

u(t) = uR(t) + uC(t) ⇒ RC uC(t) = u(t)− uC(t) . (3.1)

Fur bekanntes u(t) und vorgegebenen Anfangswert uC(t0) ist die Losung uC(t) der DGLeindeutig festgelegt, d.h. die Spannung uC(t) ist eine Zustandsvariable des Systems.

3.1.2 LTI-System

§ 230 Fur die formale Betrachtung wollen wir uns auf Systeme beschranken, die linear sindund die sich nur langsam verandern im Vergleich zu den betrachteten zeitlichen Anderungender Systemgroßen (linear time invariant LTI). Daher werden die Modelle als zeitinvariantbetrachtet.

Definition 4 Linearitat eines Systems bedeutet, (a) die Gultigkeit des Superpositionsprinzipsund (b) eine Kausalitat in dem Sinne, dass zwischen Ursache und Wirkung eine Proportio-nalitat besteht.

§ 231 Betrachten wir dazu eine lineare und konstante Zuordnungsvorschrift zwischen derAusgangsgroße y(t), den Zustandsvariablen ~x und der Eingangsgroße u(t):

y(t) = ~c · ~x(t) + du(t) =n∑

i=1

cixi(t) + du(t)

mit ~c = const und d = const. Bei einem derartigen Bildungsgesetz hangen die Werte desZustandsvektors ~x zur Zeit t nur von seinem Anfangswert ~x0 und dem zeitlichen Verlaufder Eingangsgroße u(t) bis zum Zeitpunkt t ab. Daher ist das System ein kausales System,symbolisch geschrieben als

~x(t) = Γ(

~x0

u(τ)

)mit t0 ≤ τ ≤ t

bzw. in verkurzter Schreibweise

~x = Γ(

~x0

u

).

Der obere Teil des Vektors enthalt die Abhangigkeit von der Eingangsgroße und damit denhomogenen Teil der Systemgleichungen, die untere Komponente gibt die Eingangsgroße unddamit die Inhomogenitat.

§ 232 In einem linearen System gilt das Superpositionsprinzip. Es erlaubt die Zerlegung desLosungsverfahrens in zwei Teile: die Uberlagerung des Beitrags auf Grund von ~x0 bei ver-schwindendem u (homogener Anteil) und des Beitrags der Eingangsgroße u bei verschwinden-dem ~x0 (inhomogener Anteil bei trivialem Anfangszustand). Dieser Aspekt des Superpositi-onsprinzips ist fur die Losung des das System beschreibenden DGL-Systems von Bedeutung –wir haben es in einem 1D System bereits bei der erzwungenen Schwingung in der Einleitungverwendet.

§ 233 Das Superpositionsprinzip erlaubt aber auch die Uberlagerung der Reaktionen aufunterschiedliche Eingangssignale: liefern die Eingangsgroßen u1 und u2 jeweils die Zustande~x1 und ~x2, oder symbolisch u1 → ~x1 und u2 → ~x2, so liefert die kombinierte Eingangsgroßeu = u1 + u2 den Zustand ~x = ~x1 + ~x2, oder symbolisch: (u1 + u2)→ ~x1 + ~x2.

4. Februar 2008 c© M.-B. Kallenrode

Page 84: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.1. GRUNDBEGRIFFE: WAS IST EIN SYSTEM? 73

Abbildung 3.1: RC-Netzwerk: konventionel-ler Tiefpass (links) unddoppeltes RC-Netzwerk(rechts)

§ 234 Mit der verkurzten Schreibweise erhalten wir damit

~x1 = Γ(

0u1

)∧ ~x2 = Γ

(0u2

)⇒ Γ

(0

u1 + u2

)= Γ

(0u1

)+ Γ

(0u2

)bzw. bei verschwindender Eingangsgroße

~x1 = Γ(

~x01

0

)∧ ~x2 = Γ

(~x02

0

)⇒ Γ

(~x01 + ~x02

0

)= Γ

(~x01

0

)+ Γ

(~x02

0

).

Entsprechend lasst sich die Proportionalitat zwischen Ursache und Wirkung formulieren als

~x = Γ(

0u

)⇒ α~x = Γ

(0

αu

)und ~x = Γ

(~x0

u

)⇒ α~x = Γ

(α~x0

0

).

Insgesamt lasst sich die Linearitat in dieser verkurzten Schreibweise formulieren als

Definition 5 Das System

~x = Γ(

~x0

0

)heißt linear, wenn fur beliebige Konstanten α, β, ~x01 und ~x02 sowie beliebige Funktionen u1

und u2 das Superpositionsprinzip gilt

Γ[α

(~x01

u1

)+ β

(~x02

u2

)]= αΓ

(~x01

u1

)+ βΓ

(~x02

u2

).

§ 235 Die zweite Einschrankung an das System, die Zeitinvarianz, bedeutet anschaulich,dass eine Verschiebung von Anfangs- und Eingangsgroßen um ein Zeitintervall T an denZustandsgroßen keine weitere Anderung als eine Verschiebung um eben dieses Zeitintervallbewirkt:

~x(t− T ) = Γ(

~x0

u(t− T )

).

§ 236 Fur ein lineares System gilt die folgende Definition:

Definition 6 Lineare Systeme lassen sich charakterisieren durch die Gleichungen

~x(t) = A~x(t) +~bu(t) und y(t) = ~c · ~x(t) + du(t) . (3.2)

Die erste Gleichung ist eine Differentialgleichung, die die Entwicklung der Zustandsgroßen~x beschreibt. Die Systemmatrix A und der Vektor ~b legen die Systemeigenschaften fest. Diezweite Gleichung gibt den Zusammenhang zwischen Eingangsgroße u(t) und Ausgangsgroßey(t) in Abhangigkeit vom Zustand ~x des Systems. Damit wird uber den Zustandsvektor ~xauch der Anfangszustand ~x0 des Systems berucksichtigt (z.B. ob der Kondensator des Tiefpassanfangs geladen war oder nicht – oder ob ein Neuron gerade gefeuert hat oder nicht).

§ 237 Betrachten wir als System ein RC-Netzwerk aus zwei Widerstanden R1 und R2, zweiKondensatoren C1 und C2 sowie einer Spannungsquelle u wie im rechten Teil von Abb. 3.1dargestellt. Die Spannung u(t) ist die Eingangsgroße des Systems, den Strom iR durch denWiderstand R1 wahlen wir als Ausgangsgroße.

c© M.-B. Kallenrode 4. Februar 2008

Page 85: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

74 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

§ 238 Wir haben in § 229 bereits festgestellt, dass der Spannungsabfall uber einem Konden-sator eine mogliche Zustandsvariable ist, d.h. wir konnen einen Zustandsvektor ~x = (uC1, uC2)verwenden und erhalten fur die Kondensatorstrome iC1 = iR1 = C1x1 und iC2 = C2x2. DieKirchhoff’schen Gesetze liefern ferner fur die rechte Masche x2 = R1iC1+x1 und fur die linkeMasche u = R2(iC2 + iC1) + x2. Zusammenfassen liefert die beiden Differentialgleichungen

x1 = − 1τ1

x1 +1τ1

x2 und x2 =%

τ2x1 −

1 + %

τ2x2 +

1τ2

u

mit den Abkurzungen τ1 = R1C1, τ2 = R2C2 und % = R2/R1. Fur die Ausgangsgroße y = iC1

gilt ferner y = (x2 − x1)/R1.

§ 239 Das komplette mathematische Modell konnen wir in Matrixschreibweise darstellen:

x =(−1/τ1 1/τ1

%/τ2 −(1 + %)/τ2

)~x +

(0

1/τ2

)u und y =

(−1/R1

1/R1

)~x .

In dieser Formulierung enthalt die Systemmatrix nicht mehr explizit die Parameter einzel-ner Bauteile wie Widerstande oder Kapazitaten sondern Zeitkonstanten und Widerstands-verhaltnisse, die die Eigenschaften einer Schaltung unabhangig von den konkret verwendetenBauteilen beschreiben.

3.1.3 Nicht-Eindeutigkeit der Zustandsvariablen

§ 240 In den bisherigen Beispielen wurde die Wahl der Zustandsvariablen nicht begrundet.In § 237ff z.B. haben wir die Spannungsabfalle uber den Kondensatoren als Zustandsva-riablen gewahlt. Nach § 229 ist dieser Ansatz gerechtfertigt. Allerdings ist die Wahl derZustandsvariablen nicht eindeutig: fur ein gegebenes System gibt es verschiedenen Zustands-beschreibungen. Deren Zahl wachst mit der Zahl der zur Verfugung stehenden Bauteile unddamit mit der Zahl der moglichen Zustande.

§ 241 Stellen wir dazu den Zustandsvektor ~x im Zustandsraum mit Einheitsvektoren dar:

~x = x1~e1 + x2~e2 + . . . + xn~en =n∑

i=1

xi~ei .

Die n Einheitsvektoren sind linear unabhangig.

§ 242 Allerdings lasst sich der gleiche Zustandsraum auch mit beliebigen anderen Vektorenaufspannen – diese mussen nur linear unabhangig sein. In einem durch die Einheitsvektoren~ti aufgespannten Raum lasst sich der Zustandsvektor ~x schreiben als

~x = z1~t1 + z2~t2 + . . . + zn~tn = T~z

mit

T = (~t1,~t2, . . . ,~tn) und ~z = (z1, z2, . . . , zn) .

§ 243 Mit Hilfe der aus den Basisvektoren gebildeteten Transformationsmatrix T lasst sichdas mathematische Modell

~x = A~x +~bu mit y = ~c · ~x + du

uberfuhren in ein neues Modell

z = (T−1 A T)~z + (T−1~b)u mit y = (~cT)~z + du

in dem statt der Zustandsvariablen ~x die neue Zustandsvariable ~t verwendet wird.

§ 244 Fur diese Transformation gilt:

• die wichtigen Eigenschaften und Merkmale des System hangen nicht von der Wahl derZustandsvariablen ab, bleiben also bei der Transformation unverandert.

4. Februar 2008 c© M.-B. Kallenrode

Page 86: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.2. LOSUNG DER SYSTEMGLEICHUNGEN 75

• die Wahl einer geeigneten Transformation kann die rechentechnische Behandlung des Pro-blems vereinfachen.

§ 245 Zur Illustration des letzten Punkts betrachten wir nochmals das Beispiel in § 237ff.Als Werte fur die Systemparameter wahlen wir τ1 = 1/3, τ2 = 3/4 und % = 1/2. DieZustandsgleichung wird damit

~x =(−3 32/3 −2

)~x +

(0

4/3

)u .

Mit der Transformationsmatrix

T =(

1 12/3 −1/3

)ergibt sich die neue Differentialgleichung zu

~z =(−1 00 −4

)~z +

(4/3−4/3

)u ,

das System hat sich also auf zwei entkoppelte Differentialgleichungen bezuglich der neuenZustandsvariablen z1 und z2 reduziert und ist damit einfach zu losen.

Verstandnisfrage 28 Und wie findet man eine geeignete Transformationsmatrix? Aus ma-thematischer Sicht sollte Ihnen das Problem bereits aus der Anfangsvorlesung ‘Lineare Alge-bra’ bekannt sein.

§ 246 Diese Entkopplung der Differentialgleichungen reflektiert die Tatsache, dass das Ge-samtsystem in zwei Teilsysteme zerlegt werden kann, fur die die Ubertragungsfunktionengetrennt bestimmt werden und anschließend geeignet kombiniert werden konnen.

3.2 Losung der Systemgleichungen

§ 247 Zur Losung der Systemgleichungen gibt es neben der oben indirekt erwahnten Diago-nalisierung der Systemmatrix zwei Standard-Verfahren: die Losung des Systems gewohnlicherinhomogener Differentialgleichung erster Ordnung oder die Laplace Transformation. Letzterehat den Vorteil, dass nur eine algebraische Gleichung zu losen ist – um den Preis, eine Trans-formation und deren Rucktransformation durchzufuhren. Da die Transformationen tabelliertsind, lasst sich die algebraische Losung leicht in einen Algorithmus einbauen.

3.2.1 Wiederholung: Losung im Zeitbereich

§ 248 Die Losung im Zeitbereich ist mathematisch trivial, die notigen Handwerkszeuge ha-ben Sie bereits in fruheren Veranstaltungen kennen gelernt. Sie wird hier nur kurz wiederholt,um an das Auftreten des Faltungsintegrals zu erinnern und damit die Laplace Transformationinteressant zu machen.

§ 249 Die Differentialgleichung ~x = A~x + ~bu ist eine inhomogene DGL erster Ordnung.Ihre Losung ergibt sich durch die Superposition der allgemeinen Losung der homogene DGL~x = A~x (freies System, verschwindende Eingangsgroße u) und einer partikularen Losung derinhomogenen DGL (angeregtes System).

Homogener Anteil

§ 250 Da wir konstante Koeffizienten voraussetzen konnen, bietet sich zur Losung des ho-mogenen Differentialgleichungssystems ~x = A~x der Exponentialansatz an:

~xh(t) = ~x0 eAt =∞∑

k=0

(At)k

k!~x0 = Φ(t) ~x0 . (3.3)

c© M.-B. Kallenrode 4. Februar 2008

Page 87: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

76 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Der einzige Unterschied zur Standardanwendung auf eine einzelne DGL ist hier die Matrix imExponenten. Die Erweiterung der Exponentialfunktion auf eine konstante Matrix A im Ex-ponenten lasst sich durch Reihenentwicklung der Exponentialfunktion in die rechts stehendeReihe erreichen. Die Eigenschaften der Exponentialfunktion mit einer Matrix als Argumententsprechen denen einer Exponentialfunktion mit reellem oder komplexen Argument:

eAt1 eAt2 = eA(t1+t2) ,(eAt)−1 = e−At ,ddt

(eAt) = A eAt ,∫ t

0

eAt dt = A−1(eAt − E) (A regular vorausgesetzt) ,

eAt eBt = e(A+B)t nur fur AB = BA .

Zwischenrechnung 13 Machen Sie sich die einzelnen Regeln durch Anwendung der Rei-henentwicklung aus (3.3) klar.

Verstandnisfrage 29 Bei der Integration wird eine regulare Matrix vorausgesetzt. Was be-deutet das? Begrunden Sie diese Einschrankung. Warum gilt in der letzten Zeile die Additionnur fur den Fall, dass die Matrizen bei Multiplikation ausnahmsweise kommutativ sind?

Verstandnisfrage 30 Normalerweise losen wir ein System gekoppelter Differentialgleichun-gen mit Hilfe von Eigenwerte und Eigenvektoren, wie in Abschn. 1.2.1. Ist das ein ganz anderesVerfahren oder ist das eine andere Formulierung des hier verwendeten Exponentialansatzes?

§ 251 Mit dem Exponentialansatz erhalten wir als Losung der homogenen Gleichung

~xh(t) = eAt ~χ =∞∑

k=0

(At)k

k!~χ = Φ(t) ~χ

und mit der Anfangsbedingung ~χ = ~x0

~xhom = Φ(t) ~x0 .

§ 252 Die Transitionsmatrix Φ(t) erfullt die Differentialgleichung des freien Systems, da gilt

Φ = AΦ . (3.4)

Sie beschreibt die Transition des freien Systems von einem Zustand zur Zeit t0 in den Zustandzur Zeit t.

Inhomogener Anteil

§ 253 Zusatzlich zu der allgemeinen Losung der homogenen DGL benotigen wir eine par-tikulare Losung des inhomogenen Differentialgleichungssystems 1. Ordnung. Diese lasst sichwie bei der gewohnlichen DGL durch Variation der Konstanten finden: statt die Integrati-onskonste χ mit Hilfe des Anfangswerts zu bestimmen, machen wir einen Ansatz, der einezeitliche Abhangigkeit von χ zu lasst.3

§ 254 Auf unser System ubertragen bedeutet dies:

~xs = Φ(t)~z(t)

mit ~z(t) als einer noch nicht bekannten vektoriellen Funktion. Dieser Ansatz wird in dieinhomogene DGL eingesetzt und liefert unter Berucksichtigung von (3.4)

Φ~z = ~bu .3Ein alternatives Verfahren zur Losung des inhomogenen Anteils ist das Aufsuchen einer partikularen

Losung durch einen Ansatz ahnlich dem der Inhomogenitat. Dieses Verfahren ist aber per definitionem vonder Inhomogenitat abhangig und lasst sich daher nicht auf beliebige Eingansgroßen/Inhomogenitaten verall-gemeinern. Dies wird beim Tiefpass besonders anschaulich: im Zeitbereich finden wir leicht die Losung fureine harmonische Inhomogenitat – bei einem Rechtecksignal als Inhomogenitat dagegen fehlt uns schon dieIdee fur einen vernunftigen Ansatz.

4. Februar 2008 c© M.-B. Kallenrode

Page 88: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.2. LOSUNG DER SYSTEMGLEICHUNGEN 77

Durch Multiplikation mit dem Inversen der Transitionsmatrix ergibt sich die DGL fur ~z(t)

~z = Φ−1~bu

mit der Losung

~z(t) =

t∫0

Φ−1(τ)~bu(τ) dτ =

t∫0

Φ(−τ)~bu(τ) dτ .

Verstandnisfrage 31 Begrunden Sie Φ(−τ) = Φ−1(τ) anschaulich und formal. Welche phy-sikalischen Implikationen hat dieser Zusammenhang?

§ 255 Die Losung der inhomogenen Gleichung ist damit

~xs(t) = Φ(t)

t∫0

Φ(−τ)~bu(τ) dτ =

t∫0

Φ(t)Φ(−τ)~bu(τ) dτ =

t∫0

Φ(t− τ)~bu(τ) dτ (3.5)

Sie entsteht durch Faltung der Funktionen Φ(t) und ~bu(t). Auf Grund dieser Faltung ist dieLosung zum Zeitpunkt t nicht alleine von dem momentanen Wert der Eingangsgroße abhangigsondern vom ihrem gesamten Verlauf im Intervall [0,t); das System hat eine ‘Erinnerung’an seine fruheren Zustande. Physikalisch ist dieses Erinnerungsvermogen bei integrierendenSystemkomponenten wie Kondensatoren offensichtlich.

§ 256 Rechentechnisch ist es die Faltung, die die Losung im Zeitbereich relativ aufwendigmacht. Spatestens an dieser Stelle konnte man auf den Gedanken kommen, alles weitere imFrequenzbereich zu rechnen um die Faltung durch eine Multiplikation zu ersetzen. Vorsicht:die Laplace Transformation scharrt schon mit den Hufen und harrt ihres Einsatzes.

Gesamtlosung

§ 257 Die Gesamtlosung ergibt sich durch Superposition der allgemeinen Losung der homo-genen und der partikularen Losung der inhomogenen DGL zu:

~x = ~xh + ~xs = Φ(t) ~x0 +

t∫0

Φ(t− τ)~bu(τ) dτ . (3.6)

Dabei stecken die Einflusse des Anfangszustands ~x0 nur im homogenen, die der Eingangsgroßeu(t) nur im inhomogenen Teil der Losung.4 Die Ausgangsgroße erhalten wir daraus zu

y(t) = ~c Φ(t)~x0 + ~c

t∫0

Φ(t− τ)~bu(τ) dτ + du(t)

oder im Fall des trivialen Anfangszustands ~x0 = 0

y(t) = ~c

t∫0

Φ(t− τ)~bu(τ) dτ + du(t) .

§ 258 Mit Hilfe einer Gewichtsfunktion

g(t) = ~cΦ(t)~b (3.7)

konnen wir dies zu einer einfachen Eingangs–Ausgangs-Relation umschreiben:

y(t) =

t∫0

g(t− τ)u(τ) dτ + du(t) . (3.8)

4Das kennen Sie anschaulich bereits von der erzwungenen Schwingung: der Anfangszustand geht nur inden Einschwingvorgang (homogener Anteil) ein und wird mit zunehmender Zeit heraus gedampft, so dassnur die der Anregung folgende erzwungene Schwingung (inhomogener Anteil) verbleibt.

c© M.-B. Kallenrode 4. Februar 2008

Page 89: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

78 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Abbildung 3.2:Harmonischer Oszillator

Der Wert der Ausgangsgroße y ergibt sich daher im wesentlichen durch Faltung der Gewichts-funktion g mit der Eingangsgroße u.

Verstandnisfrage 32 Was soll die Einschrankung ‘im wesentlichen’ in dieser Aussage?

§ 259 Die Gewichtsfunktion ist fur ein System charakteristisch, sie bildet gleichsam seinenFingerabdruck: die Gewichtsfunktion ist invariant gegenuber einer Zustandstransformation.5

Beispiel: Harmonischer Oszillator

§ 260 Betrachten wir, da wir uns ja bereits in der Einleitung intensiv mit seiner mechani-schen Realisierung beschaftigt haben, als Beispiel einen linearen Oszillator als Serienschaltungaus einer Induktivitat L, einem Kondensator C und einer Spannungsquelle, d.h. einen Seri-enschwingkreis ohne Dampfung durch einen Widerstand R – das entspricht der angeregtenSchwingung bei verschwindender Dampfung. Als Zustandsgroßen wahlen wir den Strom iLdurch die Induktivitat und die Spannung uc an der Kapazitat. Die Eingangsgroße ist wiederdie Spannung u(t). Das Systemverhalten wird beschrieben durch iL = CuC und u = LiL+uC.

§ 261 Mit den Zustandsvariablen x1 = uC

√C und x2 = iL

√L sowie der skalierten Zeit

τ = t/√

LC = t/ω0 erhalten wir die Differentialgleichung

x =(

0 1−1 0

)x +

(0√C

)u .

§ 262 Die Transitionsmatrix bestimmen wir durch Auswertung der unendlichen Reihe

eAτ =∞∑

k=0

(Aτ)k

k!= E

(1− τ2

2!+

τ4

4!− τ6

6!. . .

)+ A

(τ − τ3

3!+

τ5

5!− τ7

7!. . .

)= E cos τ + A sin τ =

(cos τ sin τ− sin τ cos τ

)=( cos t√

LCsin t√

LC

− sin t√LC

cos t√LC

).

Das Ergebnis hat die Form einer Drehmatrix mit einem linear mit der Zeit wachsendenDrehwinkel t/

√LC: der Zustandsvektor rotiert mit konstanter Winkelgeschwindigkeit im

Zustandsraum, die Trajektorien des Systems sind also Kreise. Dieser lineare Oszillator hatdie Kreisfrequenz

ω0 =1√LC

.

Verstandnisfrage 33 Wo kommt die Einheitsmatrix in der Reihenentwicklung her?

Verstandnisfrage 34 Was rotiert denn da? Machen Sie sich klar, welche Großen in derMatrix beschrieben werden!

§ 263 Fur die Ausgangsgroße, die Spannung am Kondensator, ergibt sich

y =( 1√

C0)~x ;

die Gewichtsfunktion ergibt sich gemaß (3.7) zu

g(t) =( 1√

C0)( cos(ω0t) sin(ω0t)− sin(ω0t) cos(ω0t)

)(0√C

)= sin(ω0t) .

5Das sollte sie gefalligst auch sein: der Output eines Systems auf einen gegebenen Input sollte nicht davonabhangen, welches System linear unabhangiger Zustandsvariablen ich gerade zur Beschreibung des Systemsverwendet habe.

4. Februar 2008 c© M.-B. Kallenrode

Page 90: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.2. LOSUNG DER SYSTEMGLEICHUNGEN 79

Beispiel: Tiefpass

§ 264 Kehren wir nochmals zum Tiefpass aus § 229 zuruck. Die allgemeine Losung im Zeit-bereich (3.8) reduziert sich auf den eindimensionalen Fall:

y(t) =

t∫0

g(t− τ)u(τ) dτ + du(t) .

§ 265 Zur Bestimmung der Gewichtsfunktion (3.7) g(t) = ~cΦ(t)~b benotigen wir die Transi-tionsmatrix, die sich in diesem Fall auf eine 1× 1-Matrix reduziert. Mit den Großen wie imlinken Teil von Abb. 3.1 und (3.1) erhalten wir als Systemgleichung fur uC

uC =u

RC− uC

RC, (3.9)

d.h. in der Systemgleichung ~x = A~x +~bu erhalten wir fur die Systemmatrix A = −((RC)−1)und den Vektor ~b = (RC)−1. Da die Systemgroße uC gleichzeitig die Ausgangsgroße ist,erhalten wir aus der Gleichung y = ~c~x + du fur ~c = (1) und d = 0. Zur Bestimmung derGewichtsfunktion benotigen wir noch die Transitionsmatrix Φ, die, da sie die DGL des freienSystems erfullt, Φ = AΦ, sich in unserem Falle reduziert auf Φ = e−t/RC . Die Gewichtsfunktion(3.7) wird damit

g = ~c Φ~b =e−t/RC

RC.

§ 266 Fur eine harmonische Eingangsfunktion u(t) = Ueiωt erhalten wir gemaß (3.8) alsAusgangsgroße6

y =

t∫0

1RC

e−(t−τ)/RC Uejωτdτ =U

RC

t∫0

e−t+τ+iωRCτ

RC dτ =u

1 + iωRC

6Die Losung fur eine harmonische Eingangsgroße hatte man auch leicht aus (3.9) bestimmen konnen. Dieangelegte Spannung u muss gleich der Summe aus dem Spannungsabfall uR uber dem Widerstand und demSpannungsabfall uC uber dem Kondensator sein: u = uR + uC. Der Spannungsabfall uber dem Widerstandist durch den Strom i und den Widerstand R bestimmt: uR = iR. Der Strom wiederum ergibt sich aus derAnderung der Ladung auf dem Kondensator zu i = CuC mit C als der Kapazitat. Damit erhalten wir dieDifferentialgleichung

u = uR + uC = iR + uC = CRuC + uC .

Fur ein harmonisches Signal u ∼ eiωt ist u = iωu, also auch uC = iωuC und damit

u = (iωRC + 1)uC .

Da gleichzeitig u das Eingangssignal ist, u = uein und uC das Ausgangssignal, uC = uaus, ergibt sich fur dieUbertragungsfunktion im Zeitbereich

G(t) =uaus

uein=

1

1 + iωRC.

Fur den Betrag der Ubertragungsfunktion ergibt sich

|G(t)| =1

√1 + ω2R2C2

=1p

1 + (ω/ω0)2mit ω0 =

1

RC,

die Phase der Ausgangsspannung ist

tan ϕ ==G<G

= −ωRC = −ω

ω0oder ϕ = arctan(ωRC) .

In komplexer Form lasst sich das Ausgangssignal (naturlich wieder nur fur den harmonischen Input) schreibenals

uC = <Gu = <|G|Uei(ωt+ϕ) mit G =1

1 + iωRC.

Betrag und Phase der Ubertragungsfunktion stellt man im Bode-Diagramm dar.

c© M.-B. Kallenrode 4. Februar 2008

Page 91: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

80 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Abbildung 3.3: Tiefpass: Ein- und Ausgangssignal fur unterschiedliche Frequenzen und Signal-formen; Oben: harmonisches Eingangssignal, Mitte: Rechteckfunktion als Eingang. Eingangs-frequenzen von links nach rechts: 10 Hz, 100 Hz, 500 Hz, 1 kHz und 10 kHz; die Grenzfrequenzbetragt 525 Hz; unten: Betrag und Phase der Ubertragungsfunktion fur ein harmonischesEingangssignal dargestellt im Bode-Diagramm

Physikalisch sinnvoll ist nur der Realteil, d.h. wir erhalten

uaus = <(y) =U√

1 + ω2R2C2sin(ωt + ϕ) .

§ 267 Abbildung 3.3 zeigt die Ein- und Ausgangssignale fur verschiedene Frequenzen undFormen des Eingangspulse. Die Großen sind experimentell bestimmt mit Hilfe eines Tiefpassesmit R = 1 kΩ und C = 0.33 µF, d.h. einer Grenzfrequenz fg = (2πRC)−1 von 525 Hz.Die obere Reihe zeigt Eingang (blau) und Ausgang (rot) fur ein harmonisches Signal furFrequenzen von 10 Hz, 100 Hz, 500 Hz, 1 kHz und 10 kHz. Liegt die Eingangsfrequenzdeutlich unter der Grenzfrequenz, so sind Eingangs- (blau) und Ausgangssignal (rot) nahezuidentisch. Mit zunehmender Eingangsfrequenz nimmt die Amplitude des Ausgangssignals ab,zusatzlich erfolgt eine mit der Eingangsfrequenz zunehmende Phasenverschiebung. Bei derGrenzfrequenz von 525 Hz (Kurve fur 500 Hz gezeigt), ist die Amplitude des Ausgangssignalauf 1/

√2 abgesunken und um π/4 verschoben.7

§ 268 Dieses Absinken der Amplitude mit zunehmender Frequenz wird auch in der unterenZeile fur das Rechtecksignal deutlich (linkes Teilbild bitte entschuldigen, hier war der Ausgangdes Signalgenerators zu stark belastet, um eine saubere Rechteckform zu erzeugen). Wahrenddas harmonische Signal unter Wahrung der Form – wenn auch mit einer Phasenverschiebung– ubertragen wird, findet beim Rechteck eine Verformung statt: bei Frequenzen deutlichkleiner der Grenzfrequenz bleibt die Form gewahrt, mit zunehmender Frequenz werden dieFlanken weniger steil. Physikalisch lasst sich dies durch die endliche Zeit zum Aufladen desKondensators in der ansteigende Flanke erklaren bzw. der zum Entladen in der abfallendenFlanke benotigten Zeit.

§ 269 Mathematisch lasst sich diese Verformung ebenfalls begrunden. Das Rechtecksignalkonnen wir als eine Uberlagerung unendlich vieler harmonischer Signale interpretieren (vgl.

7Das ist die Definition der Grenzfrequenz: die Amplitude des Ausgangssignals betragt an der Grenzfrequenz70.7% der des Eingangssignals.

4. Februar 2008 c© M.-B. Kallenrode

Page 92: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.2. LOSUNG DER SYSTEMGLEICHUNGEN 81

Abb. 2.7. Eine Fourier Analyse gibt daher ein sich zu unendlich hohen Frequenzen erstre-ckendes Spektrum. Von diesem konnen die nieder-frequenten Anteile den Tiefpass nahezuungedampft passieren wahrend die hoheren Frequenzen mit zunehmender Frequenz immerstarker gedampft werden. Diese sind aber fur die steile Flanke erforderlich, so dass die Si-gnalform bei der Ubertragung nicht erhalten werden kann. In Abb. 2.19 haben wir diesesVerfahren bereits verwendet, die Teilbilder in der oberen Reihe dort entsprechen sinngemaßder unteren Reihe in Abb. 3.3.

§ 270 Ist die Eingangsgroße ein δ-Impuls, so ergibt sich als Systemantwort u(t) = U0e−t/RC –das ist auch anschaulich, da sich in diesem Fall der durch den δ-Puls aufgeladene Kondensatoruber den Widerstand entladt.

§ 271 Ist die Eingangsgroße eine Sprungfunktion, so verschiebt sich die untere Integrations-grenze auf den Einsatzpunkt tS der Sprungfunktion:

y =

t∫tS

U

RCe−(t−τ)/RCdτ = U(1− e−(t−tS)/τ ) .

Anschaulich sehen wir dabei nur dem Kondensator beim Aufladen zu. Fur große t tS ver-schwindet der zweite Term in der Klammer. Auf diese Weise konnen wir uns auch anschaulichdie Verformung des Rechteckimpulses herleiten.

3.2.2 Losung mit Hilfe einer Laplace Transformation

§ 272 Fur die Laplace Tramsformierte des Systems ~x(t) = A~x(t) +~bu(t) erhalten wir unterBerucksichtigung von (2.19) und (2.21)

s~x(s)− ~x0 = A~x(s) +~bu(s) .

§ 273 Im Bildbereich ergibt sich damit eine einfache algebraische Beziehung fur den Zu-standsvektor ~x(s):

~x(s) = (sE− A)−1~x0 + (sE− A)−1~bu .

Der erste Term hangt nur vom Anfangszustand ~x0 ab, entspricht also der homogenen Losungim Zeitbereich; der zweite Term hangt nur von der Eingangsgroße u ab, entspricht also derinhomogenen Losung im Zeitbereich:

~xh = (sE− A)−1~x0 und ~xs = (sE− A)−1~bu .

In beiden Termen tritt die Resolvente

A = (sE− A)−1 (3.10)

der Matrix A auf.

§ 274 Ein Vergleich mit der Losung (3.6) im Zeitbereich zeigt den Zusammenhang zwischender transformierten und der nicht-transformierten Funktion:

LΦ(t)~x0 = L~xh(t) = ~xh(s)

und

L

t∫

0

Φ(t− τ)~bu(τ) dτ

= L~xs(t) = ~xs(s) .

Die letzte Gleichung verdeutlicht den Vorteil der Laplace Transformation: die relativ kom-plizierte Faltung im Zeitbereich wird in eine Multiplikation im Bildbereich transformiert.

c© M.-B. Kallenrode 4. Februar 2008

Page 93: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

82 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

§ 275 Außerdem erhalten wir einen Zusammenhang zwischen der Resolvente und der Tran-sitionsmatrix: die Resolvente von A ist die Laplace Transformierte der TransitionsmatrixLΦ(t) = Φ(s) = (sE− A)−1 oder formuliert mit Hilfe der Matrix-Exponentialfunktion

LeAt = (sE− A)−1 . (3.11)

Im skalaren Fall gilt analog

Leat =

∞∫0

eat e−stdt =

∞∫0

e(a−s)t dt =[

1a− s

e(a−s)t

]∞0

=1

s− a= (s1− a)−1 .

§ 276 Das Kochrezept zur Losung der DGL besteht also darin, die Transitionsmatrix auffolgendem Wege mit Hilfe einer Laplace Transformation zu ermitteln: aus der bekannten Sy-stemmatrix A wird deren Resolvente A = (sE−A)−1 gebildet. Ihre Elementen sind gebrochenrationale Funktionen und konnen jeweils in eine Summe von Partialbruchen zerlegt werden.Anschließend werden die einzelnen Summanden in den Zeitbereich zuruck transformiert unddort addiert.

§ 277 Greifen wir zur Erlauterung nochmals auf das RC-Netzwerk in § 245ff zuruck. Fur dieSystemmatrix

A =(−3 32/3 −2

)erhalten wir mit (3.10) als Laplace Transformierte

(sE− A)−1 =(

s + 3 1− 3−2/3 s + 2

)−1

=1

(s + 1)(s + 4)

(s + 2 32/3 s + 3

).

§ 278 Fur die Rucktransformation mussen wir nur den Vorfaktor betrachten. Partialbruch-zerlegung liefert

1(s + 1)(s + 4)

=13

(1

s + 1− 1

s + 4

)= φ1(s) .

Unter Berucksichtigung der Linearitat (2.19) erhalten wir fur die Rucktransformierten

L−1

1

(s + 1)(s + 4)

=

13

(L−1

1

s + 1

− L−1

1

s + 4

)=

13(e−t − e−4t

)und

L−1

s

(s + 1)(s + 4)

= L−1s φ1(s) =

13

ddt

(e−t − e−4t

)=

13(−e−t + 4e−4t

).

Die Transitionsmatrix wird damit zu

Φ(t) =(

13 (e−t + 2e−4t) e−t − e−4t

29 (e−t − e−4t) 1

3 (2e−t + e−4t)

).

§ 279 Betrachten wir nochmals den linearen Oszillator aus § 260 (vereinfachte Schreibweisemit ω0 = 1). Die DGL ist dann

~x =(

0 1−1 0

)~x .

Fur die Laplace Transformierte der Transitionsmatrix ergibt sich

(sE− A)−1 =(

s −11 s

)−1

=1

s2 + 1

(s 1−1 s

).

Die Rucktransformation des Vorfaktors liefert sin t, d.h. wir erhalten fur die Transitionsmatrix

Φ(t) =(

cos t sin t− sin t cos t

).

4. Februar 2008 c© M.-B. Kallenrode

Page 94: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.3. UBERTRAGUNGSFUNKTION 83

3.3 Ubertragungsfunktion

§ 280 Bisher haben wir die Transitionsmatrix und die Gewichtsfunktion eines Systems be-trachtet: mit Hilfe der Transitionsmatrix wird die Entwicklung der Systemzustande beschrie-ben, daraus wird die Gewichtsfunktion bestimmt, die in die Bestimmung der Ausgangsgroßeeingeht.

§ 281 Fur die praktische Arbeit interessanter ist jedoch die Ubertragungsfunktion G, dieeinen direkten Zusammenhang zwischen den Ein- und Ausgangsgroßen liefert. Im Zeitbereichlasst sich die Ubertragungsfunktion als Quotient Gt = y(t)/u(t) nur dann bilden, wenn dieEingangsgroße eine Eigenfunktion ist – im Falle von Tief- und Hochpass in der Form Ueξt.

Verstandnisfrage 35 Was ist eine Eigenfunktion? Falls Sie bisher nicht uber den Begriffgestolpert sind, nehmen Sie Anleihe in der Linearen Algebra!

§ 282 Im Bildbereich dagegen ist die Ubertragungsfunktion

Gs =y(s)u(s)|~x0=0 = ~c (sE− A)−1~b + d . (3.12)

eine universelle Große, unabhangig von der Eingangsfunktion u(s). Hier ist die Ubertragungs-funktion die Laplace Transformierte der Gewichtsfunktion g(t) = ~c Φ(t)~b:

G(s) = Lg(t)+ d .

§ 283 Angewandt auf ein elektronisches Netzwerk wie z.B. den Tiefpass bedeutet dies, dasswir im Zeitbereich zwar eine Ubertragungsfunktion Gt fur harmonische Eingangsgroßen be-stimmen konnen, nicht jedoch eine Ubertragungsfunktion fur allgemeine Großen. Die Ubertra-gungsfunktion fur allgemeine Großen lasst sich nur im Bildbereich bestimmen – das solltebereits bei der anschaulichen Darstellung des Tiefpass in § 264ff deutlich geworden sein.

§ 284 Zur Bestimmung der Systemantwort konnen wir bei bekannter Ubertragungsfunktionim Bildbereich dann nach dem folgenden Kochrezept vorgehen:

1. die Ubertragungsfunktion G(s) wurde bestimmt.2. die Eingangsfunktion u(t) wird Laplace transformiert: u(s).3. das Produkt y(s) = G(s)u(s) wird bestimmt.4. das Produkt wird in elementare Beitrage zerlegt (meist Partialbruchzerlegung) und ruck-

transformiert.

§ 285 Gleichung (3.12) ist fur den trivialen Anfangszustand ~x = 0 formuliert. Fur einennicht-trivialen Anfangszustand ~x0 6= 0 wurden wir unter Berucksichtigung der Tatsache,dass die Transformierte des Differentialquotienten d~x/dt durch s~x(s) − ~x0 gegeben ist, eineallgemeine Eingangs–Ausgangs-Relation

y(s) = ~c (sE− A)−1~x0 + G(s)u(s)

erhalten. Zum Verstandnis der wesentlichen Struktur der Ubertragungsfunktion ist es aus-reichend, den trivialen Anfangszustand zu betrachten, da der nicht-triviale Anfangszustandnur zu einem additiven Term fuhrt.8

§ 286 Betrachten wir als 1D-Beispiel nochmals den RC-Tiefpass aus § 264. Fur die System-matrix hatten wir dort bestimmt A = −((RC)−1). Seine Ubertragungsfunktion im Bildbereichkonnen wir mit Hilfe der Resolvente (3.10) und (3.12) bestimmen:

G(s) = ~c(sE− A)−1~b + d =(

s +1

RC

)−1

RC . (3.13)

8Auch physikalisch ist das sinnvoll: der Anfangszustand tritt nur im homogenen Teil der Losung auf undwird im Laufe der Zeit weg gedampft. Wenn wir nicht am Einschwingvorgang interessiert sind, ist seineBetrachtung nicht erforderlich.

c© M.-B. Kallenrode 4. Februar 2008

Page 95: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

84 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Fur ein harmonisches Eingangssignal u(t) = Ueiωt erhalten wir als Laplace Transformierte

u(s) =U

s− iω.

Das Ausgangssignal im Bildbereich wird damit zu

y(s) =U

RC(s + 1RC )(s− iω)

.

Mit Hilfe von Tabelle 2.2 erhalten wir als Rucktransformation in den Zeitbereich

y(t) =U

RC( 1RC + iω)

(e−t/(RC) − eiωt

)=

U

1 + iωRC

(e−t/(RC) − eiωt

)=

§ 287 Wir konnen jetzt das Beispiel aus § 277 fortsetzen. Mit der der gegebenen Systemma-trix erhalten wir als Systemgleichung

~x =(−3 32/3 −2

)~x +

(0

4/3

)u .

Fur die Ausgangsgroße, die Spannung an C1, erhalten wir als Abhangigkeit von der Zustands-variablen x1:

y =(

10

)~x .

Die Ubertragungsfunktion im Bildbereich ist damit

G(s) = ( 1 0 )(

s + 3 −3−2/3 s + 2

)−1 ( 04/3

)=

4(s + 1)(s + 4)

.

Auf die Anwendung dieser Ubertragungsfunktion auf eine harmonische Eingangsgroße werdenwir in § 313 zuruck kommen.

§ 288 Als letztes Beispiel betrachten wir nochmals den linearen Oszillator aus § 279. SeineGewichtsfunktion hatten wir bereits bestimmt zu g(t) = sin t. Fur die Ubertragungsfunktionerhalten wir wegen d = 0:

G(s) = Lsin t = (s2 + 1)−1 .

Betrachten wir nun die Systemantwort auf eine Sprungfunktion, u(t) = 1 fur t ≥ 0. ImBildbereich ergibt sich die Antwort durch Multiplikation mit der Eingangsgroße zu

y(s) = G(s = u(s) =1

s2 + 1Lu(t) =

1(s2 + 1)s

.

Fur die Rucktransformation nehmen wir eine Partialbruchzerlegung vor, die Ausgangsgroßelasst sich dann schreiben als

y(s) =1

s2 + 11s

=−0.5s + i

+−0.5s− i

+1s

.

Rucktransformation liefert dann als komplexe Ausgangsgroße

y(t) = −0.5e−it − 0.5eit + 1

und bei Reduktion auf den physikalisch sinnvollen Realteil

y(t) = − cos t + 1 .

4. Februar 2008 c© M.-B. Kallenrode

Page 96: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.3. UBERTRAGUNGSFUNKTION 85

3.3.1 Wichtig fur SimuLink: Struktur der Ubertragungsfunktion

§ 289 Die Struktur der Ubertragunsgfunktion ergibt sich aus dem Bildungsgesetz der Resol-venten A = (sE− A)−1 zu

G(s) = ~c(sE− A)−1~b + d =µ(s)ν(s)

.

Dabei hat das Zahlerpolynom die gleiche oder eine geringere Ordnung n als das System,das Nennerpolynom dagegen ist von nter Ordnung. Der kleinster gemeinsamer Nenner allerNennerpolynome ist das charakteristische Polynom det(sE− A).

§ 290 Fur das Verhalten des Systems sind die Pole und Nullstellen der Ubertragungsfunktionentscheidend. Deren Definition ist eine direkte Erweiterung der aus dem Reellen bekanntenDefinitionen: Eine (komplexe) Zahl α heißt Pol von G(s), wenn ν(α) = 0. Und entsprechend:Eine (komplexe) Zahl β heißt Nullstelle von G(s), wenn µ(β) = 0.

§ 291 Ist die Eingangsgroße eine Eigenfunktion des Systems, so ist an den Nullstellen des Sys-temverhalten nur durch die Transitionsmatrix bestimmt und unabhangig von der Eingangs-große. An einem Pol dagegen wird bei verschwindender Eingangsgroße die Ausgangsgroßedurch einen exponentiellen Abfall beschrieben, dessen Zeitkonstante dem Pol der Ubertra-gungsfunktion entspricht.

§ 292 Mit Hilfe der Pol- und Nullstellen lasst sich die Ubertragsungsfunktion in faktorisierterForm darstellen als

G(s) = K

m∏i=1

(s− βi)

l∏i=1

(s− αi)mit m ≤ l ≤ n .

3.3.2 Ruckkopplungen und Ubertragungsfunktion

§ 293 Eine Ruckkopplung liegt dann vor, wenn das Ausgangssignal bzw. ein Teil desselben,auf den Eingang zuruck gegeben wird. Ein einfaches Beispiel ist der Pfeifton, der entsteht,wenn ein Mikrofon sich zu nahe am Lautsprecher befindet und dadurch das Ausgangssignal(Lautsprecher) nochmals auf den Eingang (Mikrofon) gegeben und verstarkt wird. Das ist einBeispiel fur eine positive Ruckkopplung. In vielen Systemen werden negative Ruckkopplungenvon Schaltungen eingesetzt bzw. benotigt: Aus- und Eingangssignal sind um π Phasen ver-schoben, so dass die Ruckkopplung eines Teils des Ausgangssignals auf den Eingang dasEingangssignal reduziert und so ein zu großes Anwachsen der Ausgangsamplitude verhin-dert.

§ 294 Betrachten wir diese beiden Arten von Ruckkopplungen etwas genauer:

• bei der positiven Ruckkopplung wird ein Teil des Ausgangssignals gleichphasig auf dasEingangssignal auf addiert, verstarkt dieses also. Der Pfeifton beim System Lautspre-cher/Mikrofon ware ein Beispiel. Ein System mit positiver Ruckkopplung wird daher leichtinstabil und lauft gegen einen Grenzzustand; positive Ruckkoplung wird auch als Mitkopp-lung bezeichnet.Ein einfaches Beispiel fur eine positive Ruckkopplung im System Erde–Atmosphare istdas Eis–Albedo-Feedback: Eis hat eine hohe Albedo, d.h. es reflektiert einen großen Teilder einfallenden solaren Strahlung – ganz im Gegensatz zu Boden, Fels oder Meerwas-ser. Verringert sich aus irgendeinem Grunde (z.B. Klimaerwarmung) die Eisbedeckung, sowird weniger Sonnenstrahlung reflektiert und stattdessen absorbiert. Dies fuhrt zu einerErwarmung und damit zu einem Abschmelzen des noch verbliebenen Eis. Damit wird dieAlbedo auf einer noch großeren Flache verringert, noch mehr einfallende Sonnenstrahlungabsorbiert, es wird warmer und das Eis schmilzt weiter. Durch diese positive Ruckkopplung

c© M.-B. Kallenrode 4. Februar 2008

Page 97: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

86 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Abbildung 3.4: Systeme in Serie

Abbildung 3.5:Parallele Systeme

kann sich eine anfanglich kleine Erwarmung immer weiter Aufschaukeln, so dass der Grenz-zustand ‘eisfrei’ relativ schnell erreicht werden kann.• bei der negativen Ruckkopplung wird ein Teil des Ausgangssignals gegenphasig auf das

Eingangssignal addiert. Damit wird das Eingangssignal abgeschwacht und das System sta-bilisiert. Negative Ruckkopplung wird als Gegenkopplung bezeichnet. Das System Erde–Atmosphare liefert auch fur diese negative Ruckkopplung ein Beispiel, die Druck—Tem-peratur–Ruckkopplung: eine erhohte Luftbewegung fuhrt zu einer Verstarkung der Mee-restromungen. Dadurch werden Temperaturunterschiede im Ozean besser ausgeglichen, sodass es an der Meeresoberflache keine thermischen Druckunterschiede mehr gibt und damitauch keine antreibenden Krafte fur die Luftbewegungen.

§ 295 Mit Hilfe der Ubertragungsfunktion im Bildbereich ist die Beschreibung gekoppelterSystemen (bzw. umgekehrt die Zerlegung eines Systems in Teilsysteme) besonders einfach.Die beiden Grundformen gekoppelter Systeme sind ihre Serien- bzw. Parallelschaltung.

§ 296 Die Beschreibung zweier Systeme in Serie, vgl. Abb. 3.4, ist besonders einfach. Indiesem Fall ist die Eingangsgroße des zweiten Systems die Ausgangsgoße des ersten. Damitergibt sich die Ubertragungsfunktion dieser Reihenschaltung durch Multiplikation der Uber-tragungsfunktionen der einzelnen Systeme: aus

y = u2G2 = y1G2 = u1G1G2 = uG1G2 = uG

ergibt sich unmittelbar

G(s) = G1(s)G2(s) . (3.14)

In diesem Fall sind die Nullstellen und Pole von G auch Nullstellen bzw. Pole von G1 oderG2, d.h. die ausgezeichneten Punkte jedes Einzelsystems setzen sich auch in der Ubertra-gungsfunktion des Gesamtsystems durch.

§ 297 Betrachtet man dagegen zwei parallel geschaltete Systeme, vgl. Abb. 3.5, so ist dieEingangsgroße in beiden Systemen gleich. Jedes Teilsystem erzeugt die Ausgangsgroße mitseiner jeweiligen Ubertragungsfunktion und beide Ausgangsgroßen werden addiert. Daher er-gibt sich die Gesamtubertragungsfunktion als Summe der Ubertragungsfunktionen der Ein-zelsysteme: aus

y = y1 + y2 = G1u1 + G2u2u1=u2=u= (G1 + G2)u

folgt unmittelbar

G(s) = G1(s) + G2(s) . (3.15)

In diesem Fall sind die Pole in G auch Pole in G1 oder G2, die Nullstellen bleiben in derRegel jedoch nicht erhalten.

Abbildung 3.6: Ruckkopplung (links)und offener Regelkreis (rechts)

4. Februar 2008 c© M.-B. Kallenrode

Page 98: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.3. UBERTRAGUNGSFUNKTION 87

Abbildung 3.7: Standardregel-kreis

§ 298 Serien- und Parallelschaltung von Systemen ist eine rechentechnische Hilfe zur Kom-bination von Systemen oder zur Zerlegung von Systemen in Untersysteme. Dabei werden dieSysteme als unabhangig von einander arbeitend betrachtet. Interessanter ist eine Kombina-tionen von Systemen, die eine Ruckkopplung erlaubt, vgl. linken Teil von Abb. 3.6. In diesemFall wird ein Teil des Ausgangssignals des ersten Systems (Ubertragungsfunktion G1) imzweiten System (Ubertragungsfunktion G2) verarbeitet und erneut auf den Eingang des ers-ten Systems gegeben. Das gesamte Eingangssignal ist proportional dem Eingangssignal plusdem Ausgang des zweiten Systems, also ∼ 1 + G1(s)G2(s). Dieses Signal wird vom erstenSystem verarbeitet, so dass die Ubertragungsfunktion insgesamt gegeben ist als

G(s) =G1(s)

1 + G1(s)G2(s)=

µ1ν2

µ1µ2 + ν1ν2.

Zwischenrechnung 14 Leiten Sie den Ausdruck fur die Ubertragungsfunktion gekoppelterSysteme her.

§ 299 An diesem Gleichung ist die zweite Darstellungsform mit Hilfe der Polynome die in-teressante: durch geschickte Wahl von G2 konnen die Nullstellen im Nennerpolynom unddamit die Pole der Ubetragungsfunktion gezielt beeinflusst werden. Dabei betrachten wirdas zweite System als eine Art freien Parameter, der nur mit dem Ziel eingefuhrt wird, dieUbertragungsfunktion G1 zu verandern.9

§ 300 Als Grundlage fur die Beschreibung derartiger Regelkreise fuhrt man das Konzept desoffenen Regelkreises ein, vgl. rechten Teil von Abb. 3.6. Der offenen Regelkreis entsteht, indem man die Ruckkopplung auftrennt. Die Ubertragunsgfunktion des offenen Regelkreisesentspricht dann der der beiden hinter einander geschalteten Systeme

L(s) = G1(s)G2(s) .

Obwohl der offene Regelkreis etwas kunstlich erscheint, kann mit Hilfe von L(s) das Verhalteneines Gesamtsystems haufig sehr gut beschrieben werden.

§ 301 Dies ist insbesondere beim Standardregelkreis, vgl. Abb. 3.7, der Fall. Hierbei wird dieRuckkopplung einer Serienschaltung zweier Systeme mit den Ubertragungsfunktionen G1(s)und G2(s) betrachtet. Die Gesamtubertragunsgfunktion ist dann

G(s) =G1(s)G2(s)

1 + G1(s)G2(s)=

L(s)1 + L(s)

,

wobei im letzten Ausdurck die Ubertragungsfunktion L(s) des offenen Regelkreises verwendetwurde.

3.3.3 Eigenfunktionen

§ 302 Eigenfunktionen sind spezielle (komplexe) Eingangsfunktionen eines linearen und zei-tinvarianten Systems der Form ~x = A~x +~bu und y = ~c · ~x + du. Die Eigenfunktionen bildendie Basen eines nicht-geometrischen Vektorraums, in dem sich beliebige Eingangsfunktionendarstellen lassen – die Fourier Reihe verwendet Sinus und Kosinus als Basen zur Darstellung

9Ein einfaches Beispiel aus der Elektronik ist die Beschaltung von Operationsverstarkern. Ein OP wird miteiner Betriebsspannung von ±12 V betrieben und hat eine Verstarkung von 105. Legt man ein Signal von 1 mVan den Eingang, so wurde die Verstarkung am Ausgang 100 V liefern – obwohl nur 12 V Betriebsspannungzur Verfugung stehen. Großere Signale als 0.1 mV konnen vom OP also nur verzerrt ubertragen werden.Die außere Beschaltung muss daher zu einer Reduktion der Verstarkung verwendet werden – sie bestimmtanschließend die Eigenschaften des Verstarkers. Ob der eingesetzte OP dann eine interne Verstarkung von105 oder gar 106 hat, spielt keine Rolle mehr.

c© M.-B. Kallenrode 4. Februar 2008

Page 99: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

88 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

beliebiger periodischer Funktionen. Eigenfunktionen eines Systems sind entsprechend den Ei-genvektoren einer Matrix die Funktionen, die auf sich selbst abgebildet werden, gegebenenfallsskaliert mit einem Faktor, dem Eigenwert.

§ 303 Aus systemtheoretischen Gesichtspunkten ist die folgende Eigenschaft wichtiger: dieEigenfunktionen ermoglichen eine anschauliche Interpretation der Pole und Nullstellen derUbertragungsfunktion. Sie erlauben auch die anschauliche Deutung des Begriffes Frequenz-gang.

§ 304 Die Gleichung der Resolvente erinnert in ihrer Form bereits an eine Eigenwertglei-chung. Fur die hier betrachteten Beispiele Tiefpass, erweitertes RC-Netzwerk und linearerOszillator sind die Eigenfunktionen der Form

u(t) = Ueξt .

Die skalaren Konstanten U und ξ konnen komplex sein. Damit erlaubt diese Gleichungauch die Beschreibung der fur viele Anwendungen wichtigen harmonischen Funktionen (undnaturlich der Exponentialfunktion bzw. der Konstanten).

§ 305 Beschrankt sich die Betrachtung eines Systems auf Eingangsgroßen, die Eigenfunktio-nen sind, so ist Ubertragungsfunktion im Zeitbereich allgemein gultig, unabhangig von derspeziellen Eingangsfunktion – wir genießen also die Vorteile der Darstellung von Ubertra-gungsfunktionen im Bildbereich auch im Zeitbereich.

§ 306 Die allgemeine Losung des Systems setzt sich wieder aus der Losung der homogenenDGL und einer speziellen Losung der inhomogenen DGL zusammen, wobei wir fur letztereeinen Ansatz wahlen, der der Eingangsfunktion moglichst ahnlich ist. Als allgemeine Losungdes inhomogenen Systems im Zeitbereich erhalten wir damit

y(t) = ~ceAtη +[~c(ξE− A)−1~b + d

]Ueξt .

Die eckige Klammer gibt den Wert der Ubertragungsfunktion an Stelle ξ – dies ist die Ei-genschaft, die es erlaubt, fur Eigenfunktionen eine allgemeine Ubertragungsfunktion G(s) =~c(sE− A)−1~b + d auch im Zeit- und nicht nur im Bildbereich zu erhalten.

§ 307 Berucksichtigen wir den Anfangswert, so erhalten wir fur die Losung der Systemglei-chung

~x = eA(t−t0)[~x0 − (ξE− A)−1~bUeξt0

]+ (ξE− A)−1~bUeξt

und damit fur die Ausgangsgroße

y = ~ceA(t−t0)[~x0 − (ξE− A)−1~bUeξt0

]+[~c(ξE− A)−1~b + d

]Ueξt .

§ 308 Da die allgemeine Ubertragungsfunktion G(s) = ~c(sE− A)−1~b + d an der Stelle ξ dieAusgangsgroße

y(t) = ~ceAtη + G(ξ)Ueξt

erzeugt, kann man fur eine geeignete Wahl des Anfangszustand ~x0 in der Form

~x0 = (ξE− A)−1~bUeξt0

den Zusammenhang zwischen Aus- und Eingangsgroße schreiben als

y(t) = G(ξ)Ueξt ,

d.h. fur die Eigenfunktion wird dann die Ubertragungsfunktion auch im Zeitbereich derQuotient aus Ausgangs- und Eingangsgroße.

4. Februar 2008 c© M.-B. Kallenrode

Page 100: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

3.3. UBERTRAGUNGSFUNKTION 89

§ 309 Betrachten wir nun Nullstellen der Ubertragungsfunktion, d.h. die Stellen, an denendas Zahlerpolynom der Ubetragungsfunktion verschwindet. An einer Nullstelle β ergibt sichfur die Ausgangsgroße

y(t) = ~ceAtη + G(β)Ueβt = ~ceAtη + G(β) .

In dieser Beziehung tritt die Eingangsgroße u(t) nicht mehr auf, d.h. an den Nullstellen derUbertragungsfunktion ist das Zeitverhalten nur durch die Transitionsmatrix bestimmt undunabhangig von der Eingangsgroße. Wahlen wir als Anfangszustand

~x0 = (βE− A)−1~bUeβt0 ,

so ist die Ausgangsgroße unabhangig von der Eingangsgroße stets Null!

§ 310 Zur Betrachtung des Verhaltens an den Polstellen wahlen wir die Eingangsgroße u(t) =0. Die Ausgangsgroße reduziert sich dann auf

y(t) = ~ceA(t−t0) ~x0 .

Wahlen wir jetzt eine Anfangszustand ~x0 auf einer Eigenrichtung des Systems. Dieser An-fangszustand entspricht einem Eigenvektor der Systemmatrix A zum Eigenwert λ. In diesemFall gilt ~x = ~x0 eλt und die Ausgangsgroße wird

y(t) = ~c~x0eλ(t−t0) = Y eλt :

bei verschwindender Eingangsgroße wird die Ausgangsgroße durch einen exponentiellen Ver-lauf beschrieben, die Zeitkonstante entspricht dem Pol der Ubertragungsfunktion.

3.3.4 Frequenzgang

§ 311 Der Frequenzgang ist die Ubertragungsfunktion G(s) auf der imaginaren Achse, G(s) =iω. Betrachten wir eine Systemmatrix, deren Eigenwerte alle einen negativen Realteil besit-zen und beschranken uns auf Eingangsgroßen der Form u(t) = Ueiωt mit U und ω reell.Außerdem wollen wir das System im eingeschwungenen Zustand betrachten. Das stationareSystemverhalten ist beschrieben durch die Gleichungen

~x(t) = (iωE− A)−1~bUeiωt und y(t) = G(iω)Ueiωt .

§ 312 Verwenden wir als Eingangsgroße die harmonische Schwingung, so erhalten wir alsAusgangsgroße eine harmonische Schwingung mit einer Phasenverschiebung ϕ:

y(t) = |G(iω)|U cos(ωt + ϕ)

mit ϕ als Winkel der komplexen Zahl. Die Ausgangsschwingung hat also die gleiche Frequenz,ist um ϕ phasenverschoben und hat Amplitude |G(iω)|U . Diese Aussage ist einer verallgemei-nerte Form dessen, was wir bereits als Ubertragungsfunktion fur den Tiefpass kennen gelernthaben.

§ 313 Fur das RC-Netz hatten wir Bsp. 287 bereits die Ubertragungsfunktion bestimmt zu

G(s) =4

(s + 1)(s + 4).

Verwenden wir jetzt als Eingangsgroße u(t) = sin ω0t, so erhalten wir fur die Ausgangsgroßeim stationaren Zustand

y(t) = |G(iω0)| sin(ω0t) + arc|G(iω0)| ,

wie bereits in Abb. 3.3 und der zugehorigen Fußnote gegeben. Das Auftragen von Phase undBetrag von G(iω) liefert den Frequenzgang (Bode-Diagramm).

c© M.-B. Kallenrode 4. Februar 2008

Page 101: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

90 KAPITEL 3. SYSTEMTHEORIE IM VORBEIGEHEN

Literaturhinweise

§ 314 Als einfache Einfuhrungen in diesen Abschnitt eignen sich Bucher zur Schaltungs- undRegelungstechnik; ein Beispiel ist Horn und Dourdoumas [40], an dem ich mich in diesemKapitel deutlich orientiert habe. Weitere Hinweise finden sich auch in Lutz und Wendt [68]und, allerdings mit starkem Bezug auf die Elektronik, Wupper [143].

Fragen

Frage 10 Erlautern Sie die Grundbegriffe zur Beschreibung eines Systems.

Frage 11 Welche Rolle spielt die Laplace Transformation in der Systemtheorie? ErlauternSie die Vorteile gegenuber anderen Losungsverfahren.

Frage 12 Erlautern Sie die Bedeutung der Transitionsmatrix.

Frage 13 Was versteht man unter einer Ubertragungsfunktion? Ist die Ubertragungsfunktionim Zeitbereich eine universelle Konstante des Systems?

Frage 14 Erlautern Sie die Grundideen der Ruckkopplung. Diskutieren Sie die Stabilitat.

Frage 15 Wie verhalten sich die Ubertragungsfunktionen zweier Systeme bei Serien- undParallelschaltung? Begrunden Sie (Skizze).

Aufgaben

Aufgabe 9 Stellen Sie die Systemgleichung fur einen RC-Hochpass auf und losen Sie sie(a) im Zeitbereich und (b) mit Hilfe einer Laplace Transformation fur eine harmonischeEingangsgroße und fur eine Sprungfunktion.

Aufgabe 10 Ein Tiefpass kann auch durch Reihenschaltung einer Spule und eines Wider-stands realisiert werden, wobei die Spannung uber dem Widerstand abgegriffen wird. StellenSie die Systemgleichungen auf und losen Sie sie im Zeitbereich.

Aufgabe 11 Ein Tiefpass zweiter Ordnung wird aus einer Serienschaltung aus Spule, Wi-derstand und Kondensator realisiert, die Ausgangsspannung wird uber dem Kondensatorabgegriffen (Serienschwingkreis). Stellen Sie die Systemgleichungen auf. Bestimmen Sie dieUbertragungsfunktion. Diskutieren Sie auch deren Pol(e). Zeichnen Sie das zugehorige Bode-Diagramm.

Aufgabe 12 Bestimmen Sie die Antwort des Tiefpass aus Aufg. 11 auf eine Sprungfunktionund auf einen δ-Puls.

4. Februar 2008 c© M.-B. Kallenrode

Page 102: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Teil II

SimuLink und lineare Systeme

91

Page 103: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 4Simulink – Die Grundlagen

Language is not a cultural artifact that we learn the way we learn to tell the timeor how the federal government works. Instead, it is a distinct piece of the biologicalmakeup of our brains. Language is a complex, specialized skill, which develops inthe child spontaneously, without conscious effort or formal instruction, is deployedwithout awareness of its underlying logic, is qualitatively the same in every indivi-dual, and is distinct from more general abilities to process information or behaveintelligently.

S. Pinker [96]

§ 315 In diesem Kapitel werden einige wichtige Grundbausteine einer Simulation vorgestellt– allerdings werden wir SimuLink leider nicht wie eine naturliche Sprache unbewusst sonebenbei assimilieren konnen sondern mussen uns mit dem ganzen formalen Wust einerSprache rumschlagen, d.h. dem Vokabular und der Grammatik. Dazu gehoren neben dergraphischen Benutzeroberflache von SimuLink Hinweise zu den wichtigsten Elementen undden daran vorzunehmenden Parametereinstellungen.1 Als Anwendungsbeispiel werden wirdas bereits in Abschn. 1.1 betrachtete Federpendel verwenden. Die Anwendung auf etwaskomplexere Systeme wird ausgehend vom in Abschn. 1.2 betrachteten Doppelpendel aufKetten bzw. Gitter von Federpendeln erfolgen.

§ 316 SiumLink ist, wie durch die Verwendung von Blocken bereits nahe gelegt, eine ArtLegor der Simulation (und auf Grund der Definition eines Blockes Ubertragungsfunktionauch der numerischen Datenbearbeitung). Das klingt vielleicht vereinfachend und nicht sehrserios – aber unterschatzen Sie Legor bitte nicht (siehe Abb. 4.1). Fur die Moglichkeitenzur Arbeit mit SimuLink ist einfach die Komplexitat der einzelnen Bausteine entscheidend.

§ 317 Gegenuber der Programmierung von Hand hat SimuLink, wie bereits in der Einlei-tung angedeutet, einige Vor- und Nachteile:

Vorteile Nachteileweniger anfallig fur Codierungsfehler Test von Code nicht erzwungenerzwingt Verwendung von Flussdiagramm weniger Beachtung von Stabilitats-komplexere Probleme bleiben ubersichtlich und Genauigkeitskriterienviele vorprogrammierte Routinen Solver teilweise sehr komplexRoutinen aus MatLab bekanntgute Tools fur Daten

Lernziele: nach Durcharbeiten dieses Kapitels sollten Sie in der Lage sein1Alle Screenshots sind von einem PC-System – auf Unix sieht es anders aus!

92

Page 104: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.1. ERSTE SCHRITTE: START VON SIMULINK 93

Abbildung 4.1: Auch mit Legor las-sen sich komplexe Probleme wieEscher’s unmogliche Bauten bearbeiten(http://www.andrewlipson.com/escher/ascending.html)

• die verschiedenen grundlegenden in SimuLink zum Aufbau eines Models zur Verfugungstehenden Blocke in ihrer Funktion zu kennen und geeignet zu kombinieren.• Simulationen fur einfache physikalische Probleme zu konstruieren.• Parameter, Randbedingungen und externe Treiber korrekt an die Simulation zu ubergeben.• die Simulation im Hinblick auf Genauigkeit und Stabilitat kritisch zu hinterfragen.

4.1 Erste Schritte: Start von SimuLink

§ 318 Zur Modellbildung stellt SimuLink ein Graphical User Interface (GUI) zur Verfugung,in dem das Modell aus einfachen Blocken mit bestimmten Eigenschaften erstellt werden kann.Blocke konnen z.B. Quellen und Senken oder lineare und nicht-lineare Komponenten sein,Blocke konnen auch vom Nutzer definiert werden.

§ 319 Zum Start von SimuLink gibt es zwei Moglichkeiten: die Eingabe des Befehls simulinkim Command Window von MatLab oder die Verwendung des Buttons aus der MatLab-Werkzeugleiste. In beiden Fallen offnet sich das Simulink Library Browser Fenster dessenInhalt in Abschn. 4.2 genauer beschrieben wird.

§ 320 Zum Aufbau eines einfachen Modells konnen wir das Beispiel Building a Model ::Getting Started (Using Simulink) aus der MatLab-Hilfe verwenden und uns mit Hilfevon Variationen dieses Beispiels in der Simulation weiter tasten.

§ 321 Um das Konzept von SimuLink zu verstehen, verwenden wir wieder die bereits be-kannten Beispiele Hoch- bzw. Tiefpass. Um diese in SimuLink darzustellen, benotigen wirjetzt keine Bauteile sondern Systemkomponenten, in diesem Fall:

• eine Signalquelle, die uns z.B. einen Sinus oder eine Rechteckfunktion variabler Frequenzliefern kann,• eine Komponente, deren Ubertragungsfunktion das Verhalten eines Hoch- oder Tiefpass

beschreibt, sowie• eine Senke, die in unserem Fall einem Oszilloskop entspricht und der Signaldarstellung

dient.

Diese drei Blocke mussen derart mit Signalpfaden verbunden werden, dass das Eingangssi-gnal zusammen mit dem Ausgangssignal auf die Senke gegeben werden kann, so dass beidegemeinsam dargestellt werden konnen.

c© M.-B. Kallenrode 4. Februar 2008

Page 105: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

94 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.2: Tiefpass inSimuLink

§ 322 Ein Modell kann mit Hilfe des bereits erwahnten Graphical User Interfaces erzeugtwerden. Dazu wird im Menu File der Menupunkt New und dort das Untermenu Model aus-gewahlt: File ← New ← Model. Darauf offnet sich ein Editor fur das Modell. In diesemFenster kann im Menu View uber den Unterpunkt Library Browser der SimuLink Libra-ry Browser ausgewahlt werden. In diesem sind die fur die Modellbildung zur Verfugungstehenden Blocke in Untergruppen sortiert, z.B. Quellen und Senken. Durch Anklicken desbetreffenden Icons offnet sich das Untermenu. Im Fall von Quellen erhalten wir in diesemUntermenu u.a. einen Pulsgenerator, einen Signalgenerator oder eine einfache Sinuswelle.Letzteren Block klicken wir mit der linken Maustaste an und schieben ihn ins Simulations-fenster. Zuruck im Hauptmenu des SimuLink Library Browser wahlen wir das Menu Sinksund darin den Unterpunkt Scope, der uns das Aquivalent eines Oszilloskops zur Verfugungstellt. Unter dem Hauptmenupunkt Continuous finden wir einen allgemeinen Block TransferFunction, den wir als die Signal modifizierende Komponente ebenfalls im Modell-Editor ab-legen. Die Eigenschaften dieses Blocks konnen wir spater unseren Wunschen entsprechendmodifizieren.

§ 323 Jetzt fehlen uns nur noch die Signalpfade. Wie viele Signale in einen Block hineinbzw. aus ihm heraus gehen konnen, wird durch die Anzahl der 〉 und 〈 an diesem Blockangezeigt: die Quelle erlaubt einen Ausgang, die Signal modifizierende Komponente einenEin- und einen Ausgang, und das Scope hat nur einen Eingang. Um beide Signale auf deneinen Eingang geben zu konnen, benotigen wir noch einen Multiplexer Mux, den wir ebenfallsunter dem Menupunkt Commonly Used Blocks finden. Dieser hat zwei Eingange und einenAusgang, d.h. die beiden Signale werden abwechselnd auf das Scope gegeben. Damit erhaltenwir ein Modell entsprechend dem in Abb. 4.2.

§ 324 Die Verbindung der Blocke erfolgt mit der linken Maustaste. Lediglich bei der Ver-zweigung hinter der Quelle muss man statt der linken die rechte Maustaste beim Verbindenverwenden.

§ 325 Nun ist das Modell bis auf die Spezifikation der Transfer-Funktion fertig. Hier erwartetSimuLink eine Transferfunktion im Bildbereich, d.h. wir konnen Anleihe bei (3.13) nehmen.Die Ubertragungsfunktion eines Tiefpass muss daher die Form

G(s) =1

s + 1RC

=1

s + ω0

annehmen. Das entspricht der Struktur der von Simulink vorgegebenen Ubertragungsfunktion:diese erwartet in Zahler und Nenner jeweils ein Polynom in s, wobei die Ordnung des Nenner-Polynoms großer gleich der des Zahlerpolynoms sein muss. Die Koeffizienten werden furZahler und Nenner als Vektoren eingegeben, verschwindet einer der Vorfaktoren, so ist dieserals 0 explizit mit anzugeben. Simulink gibt als einfachste Ubertragungsfunktion den Ausdruck

G(s) =1

s + 1

vor, das entsprache also einem Tiefpass mit der Grenzfrequenz 1 rad/s. Die Koeffizientenin der Ubertragungsfunktion lassen sich verandern, in dem man den Block mit der rechtenMaustaste anklickt und aus dem Menu den Punkt TransferFcn Parameter ... anklickt.In dem sich dann offnenden Fenster konnen die Koeffizientenvektoren fur Zahler- und Nen-nerpolynom eingegeben werden – bitte die Nullen nicht vergessen; das letzte Element desVektors ist jeweils die Konstante, d.h. der Faktor vor s0.

4. Februar 2008 c© M.-B. Kallenrode

Page 106: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.1. ERSTE SCHRITTE: START VON SIMULINK 95

Abbildung 4.3: Der Bandpass lasst sich inSimuLink durch hintereinander schalten derUbertragungsfunktion von Hoch- und Tiefpasserzeugen

Abbildung 4.4: Signalverlauf fur verschiedene Eingangsfrequenzen beim Bandpass ausAbb. 4.3; Eingang Gelb, Ausgang Tiefpass Magenta, Ausgang Bandpass Cyan.

§ 326 Die Eigenschaften der Signalquelle lassen sich ebenfalls durch Anklicken derselben mitder rechten Maustaste und Auswahl des Menupunktes Sin Parameters ... andern.

§ 327 Im Gegensatz zum EDA mussen wir fur SimuLink die Ubertragungsfunktionen bereitskennen. Daher mussen wir die Simulation nicht laufen lassen, um ein Bode-Diagramm zu er-stellen, sondern unsere Frage an SimuLink ist die nach dem Ausgangssignal in Abhangigkeitvom Eingangssignal (und der Ubertragungsfunktion). Haben wir die Parameter der Signal-quelle und der Transferfunktion eingestellt, so lasst sich die Simulation mit Ctrl T starten.Anklicken des Scope gibt uns dann eine graphische Ausgabe, entsprechend der auf einemOszilloskop. Details der Simulation, wie z.B. die Zeitauflosung, die Simulationsdauer und derStartpunkt der Datenausgabe (zum ‘Abschneiden’ des Einschwingvorgangs) lassen sich aufder Steuerkarte fur die Simulation eintragen – wir werden in Abschn. 4.2.5 darauf zuruckkommen; momentan mussen Sie gegebenenfalls mit etwas kantigen Kurven leben.)

Zwischenrechnung 15 Hier lasst sich mit verschiedenen Variationen der Grenzfrequenzund der Eingangsfrequenz spielen und so das Verhalten als Tiefpass uberprufen – tun Siedas.

Zwischenrechnung 16 Andere einfache Ubertragungsfunktionen sind der Integrator 1/soder s/(s + 1) fur den Hochpass. Spielen Sie auch mit diesen.

§ 328 Interessant wird SimuLink insbesondere bei Filtern hoherer Ordnung. Diese basierenauf mehreren Bauelementen mit zeitlicher Verschiebung – so kann der Serienschwingkreis alsFilter zweiter Ordnung verwendet werden. Da bei Filtern hoherer Ordnung auch Resonan-zen auftreten konnen, kann der Betrag der Ubertragungsfunktion großer als Eins werden.Aber auch die Kombination von Filtern erster Ordnung ist moglich: so lasst sich z.B. einBandpass aus einem Hoch- und einem Tiefpass (jeweils mit geeigneten Grenzfrequenzen)konstruieren. Hier zeigt sich die eigentliche Starke von SimuLink (und der Rechnung mitUbertragungsfunktion): wir konnen die einzelnen Filter in SimuLink einfach als Reihen-schaltung wie in Abb. 3.4 hinter einander setzen, wie in Abb. 4.3 gezeigt. Signalverlaufe furverschiedene Frequenzen (1/10 der Grenzfrequenz, Grenzfrequenz, 10fache Grenzfrequenz)sind in Abb. 4.4 gezeigt.

§ 329 Bevor wir uns in die eigentliche Simulation vertiefen, wollen wir zuerst die einzelnenzur Verfugung stehenden Blocke genauer betrachten. Dabei steht uns der SimuLink LibraryBrowser hilfreich zur Seite.

c© M.-B. Kallenrode 4. Februar 2008

Page 107: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

96 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.5: Ubersicht uber dieverschiedenen Gruppen der inSimuLink zur Simulation zurVerfugung stehenden Blocke

4.2 Der SimuLink Libraray Browser

§ 330 Der SimuLink Library Browser enthalt alle Blocke, die wir zur Simulation eines Sys-tems in SimuLink benotigen. Diese Blocke sind in verschiedenen Untergruppen abgelegt.Beim Offnen von SimuLink erhalten wir eine Ubersicht, ahnlich der in Abb. 4.5.

§ 331 Da wir uns in unseren ersten Versuchen mit SimuLink auf zeitkontinuierliche Systemebeschranken, sind fur uns die folgenden Untergruppen interessant:

• Continuous: enthalt die Operationen wie Integration, Ableitung, Ubertragungsfunktionoder verschiedene Delays, die sich auf zeitkontinuierliche Signale anwenden lassen.• Math Operations: enthalt im wesentlichen eine symbolische der meisten bereits aus Mat-

Lab bekannten mathematischen Funktionen, inklusive der Manipulation von Vektoren undMatrizen.• Sinks: enthalt die Blocke, die fur die Ausgabe (graphisch, in eine Datei oder in den

Workspace von MatLab) benotigt werden.• Sources: enthalt verschiedene Signalformen, die als externer Antrieb verwendet werden

konnen. Neben den konventionellen Signalgeneratoren (inklusive Rampe und Springfunk-tion) kann das externe Signal auch aus einer Datei oder dem Workspace bezogen werden.Letzteres ist insbesondere fur die Verwendung von SimuLink zur Signalbearbeitung vonBedeutung.

Die Untergruppe Signal Routing enthalt unter anderem Multiplexer und Demultiplexerzum Zusammenfuhren und Aufspalten von Signalen – bide Blocke sind auch in der Gruppe

4. Februar 2008 c© M.-B. Kallenrode

Page 108: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.2. DER SIMULINK LIBRARAY BROWSER 97

Abbildung 4.6: Blocke zur Bear-beitung zeitkontinuierlicher Signa-le in SimuLink

Commonly Used Blocks enthalten. Auf die Untergruppe Ports & Subsystems werden wirin Abschn. 4.5 eingehen.

§ 332 Die Gruppe Commonly Used Blocks enthalt eine Zusammenstellung der (nach Mei-nung von MathWorks) am haufigsten benotigten Blocke. Fur alle in Kapitel 1 gezeigtenSimulationen sind die Blocke in dieser Gruppe ausreichend.

§ 333 Alle Blocke sind in einer abstrakten Form gegeben. Anklicken eines Blocks mit derrechten Maustaste offnet ein Menu, in dem unter anderem die Punkte ‘Block Properties’und, je nach Block, z.B. ’Gain Parameters’ oder ’Integration Parameters’ eingestellt werdenkonnen. Anklicken der entsprechenden Punkte offnet eine Karteikarte in der die Eigenschaf-ten des Blockes (relevant fur die technischen Aspekte der Simulation) und die ParameterFunktion des Blockes (z.B. die physikalischen Parameter, die Systemparameter oder die An-fangsbedingungen) eingetragen werden konnen.

§ 334 Um die Moglichkeiten von SimuLink besser zu verstehen, ist ein genauerer Blick indie einzelnen Gruppen von Blocken sinnvoll.

4.2.1 Blockgruppe Continuous

§ 335 Die zur Verarbeitung zeitkontinuierlicher Signale benotigten Blocke sind in Abb. 4.6zusammen gefasst. Die oberen vier Blocke sind fur uns am wichtigsten:

• Derivative bildet die Ableitung einer (vektorwertigen) Funktion.• Integrator integriert eine (vektorwertige) Funktion, wobei die Anfangsbedingung(en) in

der Karteikarte ‘Integrator Properties’ angegeben werden konnen.• State Space erlaubt die Darstellung eines Systems nicht mit Hilfe der Ubertragungsfunktion

sondern mit Hilfe der Systemgleichungen (vgl. (3.2)).• Transfer Fcn erlaubt die Specifikation einer Ubertragungsfunktion in der aus § 292 be-

kannten Polynomdarstellung.

Drivative

§ 336 Der Block Derivative bildet die Ableitung des gegebenenfalls vektorwertigen Signals.Die Karteikarte mit den diesem Block zugeordneten Parametern ist zu minimalistisch, um ihreine eigene Abbildung zu geben. Sie enthalt ein Informationsfeld bezuglich der Eigenschaftendes Blocks:Derivative: Numerical derivative: du/dt

c© M.-B. Kallenrode 4. Februar 2008

Page 109: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

98 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.7: Karteikarte zur Eingabe derParameter des Integrators. Fur uns sind daszweite und dritte Feld wichtig, da sie die Ein-gabe der Anfangsbedingung erlauben

Der einzige einstellbare Parameter ist die Zeitkonstante fur die Linearisierung, formal gegebenals s/(Ns+1). Der Defaultwert ist inf. Diese Option wird jedoch erst dann interessant, wennwir uns mit diskreten Signalen beschaftigen.

§ 337 Die Karteikarte enthalt, wie naturlich auch die Karteikarten der anderen Blocke, eineSchaltflache Help, die ein Fenster mit der MatLab-Hilfe zu diesem Block offnet. Wie aus derMatLab-Hilfe bereits bekannt, werden Funktion, Anforderungen an In- und Output, etwaigedefault-Einstellungen, unterstutzte Datentypen usw. recht genau beschrieben.

§ 338 Inhaltlich greift SimuLink dabei auf die bereits aus MatLab bekannte Funktiondiff zuruck. Zu derivative, ebenso wie zu den anderen Blocken, finden Sie die notwendigenInformationen uber die Hilfe zu den einzelnen Blocken bzw. teilweise auch uber die allgemeineMatLab-Hilfe. In der Hilfe finden Sie in der Regel auch Informationen uber die Kontrolleder Genauigkeit – sonst mussen Sie diese fur die in der genaueren Spezifikation des Blockseingestellten Solver unter dem entsprechenden MatLab-Solver nachschlagen.

Integrator

§ 339 Der Block Integrator integriert ein gegebenenfalls vektorwertiges Signal. Die Kar-teikarte fur die diesem Block erklart als erstes wieder die Funktion des Blocks:Integrator: Continuous-time integration of the input signalDie Hilfe spezifiziert dieses Statement etwas genauer: ‘ The following equation represents theoutput of the block y as a function of its input u and an initial condition y0, where y and uare vector functions of the current simulation time t:’

y(t) =

t∫t0

u(t) dt + y0 .

§ 340 Die Hilfe hilft uns auch beim Verstandnis der anderen auf der in Abb. 4.7 gezeigtenKarteikarte einzutragenden Parameter. Die ersten drei Eingaben betreffen inhaltliche Aspek-te, die folgenden Zeilen beziehen sich eher auf die technischen Details der Simulation. Dieerste Zeile erlaubt die Spezifikation von Bedingungen, unter denen der Integrator auf sei-nen Anfangszustand zuruck gesetzt wird. Fur unsere bisher betrachteten statischen Systemeist diese Funktion in der Regel nicht wichtig – bei dynamischen Systemen dagegen wird siebenotigt.

4. Februar 2008 c© M.-B. Kallenrode

Page 110: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.2. DER SIMULINK LIBRARAY BROWSER 99

Abbildung 4.8: Integration einer linearen Funktion – die Quelle Ramp wird zur Erzeugung derFunktion benutzt

§ 341 Die wichtigsten an den Integrator zu ubergebenden Parameter betreffen die Anfangs-bedingungen. Im zweiten Feld konnen wir wahlen, ob die Anfangsbedingungen extern oderintern vorgegeben werden sollen. Entscheiden wir uns fur den Fall intern, so werden die An-fangsbedingungen im dritten Feld eingegeben. Entscheiden wir uns fur eine externe Eingabeder Anfangsbedingungen, so verschwindet die dritte Zeile aus der Karteikarte. Der Integra-torblock erhalt dann einen zusatzlichen Eingang, uber den die Anfangsbedingung zugefuhrtwerden kann – aus dem Workspace, aus einer Datei oder von einem anderen Punkt innerhalbder Simulation.

Zwischenrechnung 17 In letzterem Fall sollte sich das Ergebnis der Simulation nicht andern,wenn wir den Ausgang des Blocks auf den Eingang fur die Integrationskonstante legen.Uberprufen Sie und diskutieren Sie das Ergebnis.

§ 342 Mit Hilfe des Integrator-Blocks konnen wir eine einfache Simulation zusammen setzen,siehe Abb. 4.8. Außer dem Integratorblock benotigen wir eine Funktion zur Integration – indiesem Fall machen wir es uns einfach und wahlen aus der Blockgruppe Sources die FunktionRamp zur Darstellung einer linearen Funktion. Fur die Ausgabe wahlen wir ebenfalls die ein-fachste Moglichkeit, die graphische Darstellung mit Hilfe des Sope aus der Blockgruppe Sinks.Doppelklick mit links auf einen der drei Blocke zeigt dessen Parameter. So konnen wir beider Rampe einen Offset, die Steigung und die Startzeit vorgeben; die Eingabemoglichkeitenfur den Integratorblock sind im Zusammenhang mit Abb. 4.7 bereits beschrieben.

Zwischenrechnung 18 Spielen Sie etwas mit der Rampe (Veranderung der Anfangsbedin-gungen, der Steigung der Rampe und eines eventuellen Offsets) und anderen zu integrierendenSignalen.

State Space

§ 343 Der Block State Space erlaubt die Eingabe einer Systemmatrix mit Hilfe der zu-gehorigen Karteikarte. Diese erlautert als erstes die Funktion des Blocks:State Space: State-space model dx/dt=Ax+Bu, y=Cx+DuDie Gleichungen entsprechen den in (3.2) gegebenen, d.h. wir konnen an dieser Stelle einSystem mit Hilfe seiner Systemmatrix spezifizieren ohne die Ubertragungsfunktion angebenzu mussen.

§ 344 Auch ein Blick in die Hilfe erlautert diese kurze Beschreibung genauer. Der BlockState-Space dient zur Beschreibung eines Systems, dessen Verhalten durch die Gleichungen

~x = A~x + B~u und ~y = C~x + D~u

beschrieben wird. Darin ist ~x der Zustandsvektor, ~u der Eingabevektor und ~y der Ausga-bevektor, entsprechend der Beschreibung eines Systems durch (3.2). Mit n als der Zahl der

c© M.-B. Kallenrode 4. Februar 2008

Page 111: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

100 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Zustande ist A eine n×n-Matrix. B ist eine n×m-Matrix, wobei m der Zahl der Eingaben unddamit der Lange des Eingabevektors ~u entspricht. Entsprechend ist mit r als der Zahl derAusgaben (oder der Lange des Ausgabevektors) C eine r×n-Matrix und D eine r×m-Matrix.Das sind genau die Spezifikationen eines LTI-Systems wie in Abschn. 3.1.2 beschrieben; dieerzwungene Schwingung ist als Beispiel in Abschn. 4.3.5 diskutiert.

§ 345 Die Karteikarte ist selbsterklarend: es werden die vier Matrizen in den entsprechendenGroßen benotigt, sowie ein Vektor mit den Anfangsbedingungen. Im letzten Feld kann eineToleranz zur Bestimmung der Genauigkeit bei der Losung dieses Blocks angegeben werden.Mit der Einstellung auto bestimmt SimuLink diesen Wert selbst.

Transfer Function

§ 346 Wahrend der Block State Space eine explizite Beschreibung des Systems mit Hilfe derSystemmatrix enthalt, verwendet der Block Transfer Fcn die direkte Darstellung der Input-Output-Relation als Ubertragungsfunktion. Diese lasst sich wie in Abschn. 3.3 beschriebenals Quotient zweier Polynome der komplexen Frequenz s darstellen:

G(s) =y(s)u(s)

=a1s

n−1 + a2sn−2 + . . . + an

b1sm−1 + b2sm−2 + . . . bmmit m > n .

§ 347 In der Definition des Blocks auf seiner Karteikarte sind die Details der Eingabe eben-falls spezifiziert:Transfer Fcn: The numerator coefficient can be a vector or matrix expression. The deno-minator coefficient must be a vector. The output width equals the number of rows in thenumerator coefficient. You should specify the coefficients in descending order of powers of s.Und dabei bitte auch die Koeffizienten angeben, die Null werden – SimuLink zahlt einfachdie Zahl der Koeffizienten, um die Ordnung des Polynoms zu bestimmen.

§ 348 Hat man einmal die Ubertragungsfunktion eines Systems bestimmt, so bietet Simu-Link mit Hilfe dieses Blocks eine einfache Moglichkeit, diese auf die verschiedensten Ein-gangssignale anzuwenden. Wir werden in Kap. 5 naher darauf eingehen.

Verstandnisfrage 36 Brauchen wir den Block Transfer Function uberhaupt, wenn sichdoch alles durch den Block State Space erschlagen ließe? Diskutieren Sie Vor- und Nachteile.

Zwischenrechnung 19 Greifen Sie auf ein System mit bekannter Systemgleichung und be-kannter Ubertragungsfunktion zuruck. Vergleichen Sie die Ergebnisse beider Verfahren.

4.2.2 Blockgruppe Math Operations

§ 349 Die verschiedenen mathematische Operationen reprasentierenden Blocke sind in Abb. 4.9zusammen gefasst. Die fur unsere Zwecke wichtigsten Blocke sind (zumindest fur den Anfang):

• Divide multipliziert oder dividiert Systemgroßen. Wie von MatLab gewohnt konnen die-se Operationen punktweise oder entsprechend der Regeln der Matrixmultiplikation durch-gefuhrt werden.

• Gain multipliziert Systemgroßen mit Konstanten. Auch hier kann die Operation element-weise oder entsprechend den Regeln der Matrixmultiplikation durchgefuhrt werden.

• Math Function umfassen Logarithmen, die Exponentialfunktion, Potenzen und den Mo-dulus. Die Funktion kann ein oder mehrere Argumente haben – in letzterem Fall hat derBlock entsprechend viele Eingange.

• Sum erlaubt die Erzeugung eines Summationspunktes an dem mehrere Input-Signale addiert(oder auch subtrahiert) werden konnen.

• Trigonometric Function erlaubt die Anwendung trigonometrischer und hyperbolischerFunktionen auf ein Signal. Hat die Funktion mehr als ein Argument, so wird die Zahl derEingange in den Block entsprechend angepasst.

4. Februar 2008 c© M.-B. Kallenrode

Page 112: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.2. DER SIMULINK LIBRARAY BROWSER 101

Abbildung 4.9: Blocke fur mathematische Operationen in SimuLink. Die Blocke geben sche-matische Darstellungen der auch aus Matlab bekannten mathematischen Funktionen

Divide

§ 350 Im Gegensatz zu den bisher beschriebene Blocken hat der Block Divide nicht nur einensondern mindestens zwei Eingange.2 In seiner Karteikarte wird seine Funktion charakterisiertalsDivide: Multiply or divide inputs. Choose element-wise or matrix product

§ 351 Auf der zugehorigen Karteikarte ist die Zahl der miteinander zu verknupfenden Signaleund damit auch der Eingange zu spezifizieren. Dies erfolgt uber eine Liste aus den Symbolen‘*’ und ‘/’, jeweils fur Multiplikation oder Division. Im nachsten Feld lasst sich auswahlen,ob diese Operationen Punktweise oder als Matrixoperationen ausgefuhrt werden sollen.

§ 352 Im unteren Feld lasst sich in dieser Karteikarte, wie auch in den Karten der folgendenBlocke, jeweils eine Sample Time einstellen. Durch diese kann der zeitliche Abstand zwischenzwei aufeinander folgenden Samples explizit angegeben werden. Falls es keine Grunde fur dieWahl einer speziellen sample time gibt, sollte der Parameter auf -1 gesetzt bleiben: dann wirddie sample time des Gesamtschemas verwendet.

§ 353 Verwandte Blocke sind Dot Product zur Ausfuhrung des Skalarprodukts (zwei vek-torielle Signale werden punktweise multipliziert und die Produkte werden addiert), Productmit einer nahezu identischen Beschreibung und Syntax sowie Product of Elements.

§ 354 Aus der Auflistung erkennen wir eine Eigenschaft, die SimuLink von MatLab geerbthat: viele Wege fuhren nach Rom bzw. eine Verknupfung von Großen lasst sich oftmals durchverschiedenen MatLab-Funktionen oder SimuLink-Blocke realisieren.

2Das klingt fur die Division etwas befremdlich; da der Block aber auch fur die Multiplikation verwendetwerden kann, ist das ok.

c© M.-B. Kallenrode 4. Februar 2008

Page 113: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

102 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Gain

§ 355 Der Block Gain beschreibt ebenfalls eine Multiplikation, jedoch nicht von Signalenuntereinander sondern mit einem als Parameter spezifizierten konstanten Faktor K:

Gain: Element-wise gain (y=K.*u) or matrix gain (y=K*u or y=u*K)

Sowohl das zu bearbeitende Signal als auch der Gain-Faktor konnen ein Skalar, ein Vektoroder eine Matrix sein.

§ 356 Die zu dem Block gehorige Karteikarte besteht aus drei Elementen. Im Main-Elementwerden der Gain-Faktor und die Art der Multiplikation spezifiziert. Die beiden anderen Ele-mente erlauben eine Spezifikation der Datentypen des Signals (Signal Data Types) und derParameter (Parameter Data Types). Nahere Informationen zu diesen beiden Punkten findenSie in der MatLab-Hilfe.

Math Function

§ 357 Auf ein Signal kann mit Hilfe des Blocks Math Function eine mathematische Funktionangewandt werden. Auch hier liefert die Karteikarte die notwendigen Erklarungen:

Math: Mathematical functions including logarithmic, exponential poser, and modulus functi-ons.

Die gewunschte Funktion kann uber ein Pulldown Menu ausgewahlt werden. Außerdem kanndie Art des Output-Signals eingeschrankt werden: komplex, real oder auto.

§ 358 Fur den letzten Eintrag gilt wieder das bereits in § 352 gesagte: die sample time solltenur verandert werden, wenn es dafur gute Grunde gibt. Im zweiten Element der Karteikartegeht es um den Umgang mit dem Datentyp im Falle eines Overflows – wir werden diesesProblem vorerst vernachlassigen.

§ 359 Beim Durchscannen der im Pulldown-Menu gegebenen Funktionen fallt auf, dass dieebenfalls haufig benotigten Winkelfunktionen fehlen. Diese finden sich in einem separatenBlock Trigonometric Functions (s.u.).

Sum

§ 360 Die Kombination von Signalen erfolgt im Block Sum. Dieser kann (uber den erstenEintrag der Karteikarte) rund oder rechteckig dargestellt werden. Die runde Darstellung hateinen gewissen Charme, da sie an den Summationspunkt erinnert und damit diesen Block als‘Signalkombinierer’ gegenuber den anderen rechteckigen Blocken abhebt. Die Zahl der erfor-derlichen Eingange wird im zweiten Feld der Karteikarte eingestellt, wobei jedes ‘+’ einemzu addierenden, jedes ‘-’ einem zu subtrahierenden Eintrag entspricht. Die Eingangsgroßenkonnen Skalare, Vektoren oder Matrizen sein – aber fur jeden einzelnen Summationspunktnaturlich einheitlich.

§ 361 Das zweite Element der Karteikarte, die ‘Signal Data Types’, sollte vielleicht eineskurzen Blicks gewurdigt werden, da dort z.B. eingefordert werden kann, dass alle Eingangs-großen vom gleichen Datentyp sein mussen. Ist das nicht der Fall, so hat SimuLink festeVerknupfungsregeln fur die unterschiedlichen Datentypen (fur Details siehe die MatLab-Hilfe). Auch der Datentyp der Ausgabe lasst sich entweder auf der Basis der MatLab-Regelnfestlegen (Default-Einstellung) oder explizit vorgeben.

§ 362 Die Blocke Add, Subtract und Sum of Elements sind andere Darstellungsformen dergleichen Operation – wahlen Sie den Block, der Ihnen die Simulation am ubersichtlichstendarstellt. Aufgrund dieser Gleichheit haben alle vier Blocke nur eine Hilfe; die zugehorigeKarteikarte liefert entsprechend als Beschreibung der Funktion

Sum: Add or subtract inputs

4. Februar 2008 c© M.-B. Kallenrode

Page 114: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.2. DER SIMULINK LIBRARAY BROWSER 103

Abbildung 4.10: In der Untergrup-pe Sinks sind die in SimuLinkzur Darstellung von Signalen zurVerfugung stehenden Blocke zu-sammen gefasst

Die Hilfe spezifiziert etwas genauer: ‘The Sum block performs addition or subtraction on itsinputs. This block can add or subtract scalar, vector, or matrix inputs. It can also collapsethe elements of a single input vector.’

Trigonometric Function

§ 363 Die bei den Math Functions bereits vermissten trigonometrischen und hyperbolischenFunktionen finden sich im Block Trigonometric Function. Dies besagt auch die Spezifika-tion auf der Karteikarte:Trigonometric Function: Trigonometric and hyperbolic functionsWie bei den mathematischen Funktionen wird die gewunschte Funktion uber ein Pulldown-Menu ausgewahlt. Als weiterer Parameter kann wieder der gewunschte Typ des Ausgangssi-gnals angegeben werden.

§ 364 Verwandte Blocke sind Sine Wave Function und Math Function; letztere ist nurformal verwandt, erstere auch inhaltlich.

4.2.3 Blockgruppe Sinks

§ 365 Die Blockgruppe Sinks enthalt alle Senken fur Daten, wobei mit Senken Speicher- undDarstellungsmoglichkeiten fur Daten gemeint sind.

§ 366 Fur die einfache und schnelle Darstellung von Daten werden wir uns in der Vorlesungauf das Scope beschranken – wie der Name schon andeutet eine Darstellung Signal vs. Zeit,wie wir sie vom Oszilloskop kennen. Mit dem Multiplexer Mux konnen Signale kombiniertund auf ein Scope gegeben werden (entspricht einem Mehrkanaloszilloskop), wie z.B. in denBeispielen in Kap. 1. Alternativ kann ein Oszilloskop mehrere Eingange haben wie z.B. inAbb. 4.39. Dann werden die verschiedenen Eingange jeweils in eigenen Fenstern dargestellt.

§ 367 Der Block XY Graph bietet die Moglichkeit der Darstellung einer zweidimensionalenBewegung oder der Darstellung einer eindimensionalen Bewegung im Phasenraum: hier wer-den nicht wie beim Scope x(t) und y(t) dargestellt sondern t wird als Parameter verwendetund y(x) dargestellt.

§ 368 Fur die Speicherung oder weitere Darstellung/Verarbeitung von Signalen sind dieBlocke To File und To Workspace. Ersterer schreibt Simulationsergebnisse in eine Datei;der Name der Datei ebenso wie die in diese zu schreibenden Variablen ist in der zugehorigenKarteikarte zu spezifizieren. Letztere ubergibt die auf der Karteikarte spezifizierten Variablen

c© M.-B. Kallenrode 4. Februar 2008

Page 115: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

104 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.11: Blocke zur Darstellung externer Antriebe in SimuLink

an den MatLab Workspace – wo sie weiter bearbeitet (auch gespeichert) werden konnen.Wir werden in Abschn. 4.3.3 naher darauf eingehen; allerdings werden wir in Abschn. 4.6 auchdie Variante der Simulationssteuerung direkt aus dem Workspace und damit der Ruckgabeder Losungen an selbigen betrachten.

4.2.4 Blockgruppe Sources

§ 369 Der entgegengesetzte Vorgang, das Einfuttern von Signalen in die Simulation kannebenfalls auf zwei Weisen erfolgen: zum einen konnen diese Signale mit Hilfe des BlocksFrom File aus einer in der zugehorigen Karteikarte zu spezifizierenden Datei oder mit Hilfedes Blocks From Workspace aus dem MatLab Workspace eingelesen werden. Im Gegen-satz zu MatLab ist SimuLink im Hinblick auf die Eingabeformate etwas eingeschrankt:eingelesen werden nur *.mat-Dateien. Andere Datensatze, insbesondere Audio-, Bild- oderVideo-Dateien mussen einmal separat in MatLab eingelesen werden und dann entweder kon-vertiert in eine *.mat-Datei geschrieben oder direkt aus dem Workspace eingelesen werden.Wir werden in Kap. 5 ausfuhrlich Gebrauch davon machen.

§ 370 Zum anderen stehen, in Analogie zum Oszilloskop als Senke aus der Elektronik be-kannt, eine Vielzahl von Puls-, Signal- und Sinusgeneratoren zur Verfugung. Teilweise habendiese Generatoren uberlappende Funktionen (oder sind Spezialfalle eines allgemeineren Ge-nerators). Die Entscheidung fur einen davon ist eher Geschmackssache – und richtet sichvielleicht auch nach der Ubersichtlichkeit des zugehorigen Symbols in der Darstellung: wirdein Funktionsgenerator nur zur Erzeugung eines Sinus benotigt, so macht die Verwendungdes Blocks Sinusgenerator das Diagramm einfacher lesbar.

§ 371 Fur die Anwendung von Filtern und das Verstandnis naturlicher Systeme sind insbe-sondere auch die Quellen von Bedeutung, mit denen sich Rauschen und/oder stochastischeSignale erzeugen lassen. Auch dafur stehen verschiedene Generatoren zur Verfugung.

4.2.5 Ausfuhren der Simulation

§ 372 Der Start der Simulation kann uber den Button in der Werkzeugleiste von SimuLinkerfolgen, uber die Tastenkombination CTRL + T oder uber den Menupunkt Simulation ←Start.

4. Februar 2008 c© M.-B. Kallenrode

Page 116: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.2. DER SIMULINK LIBRARAY BROWSER 105

Abbildung 4.12: Simula-tionskontrolle in Simu-Link, die Karte zurKontrolle des Solvers istgeoffnet

§ 373 Vor dem Start der Simulation sollten jedoch noch die Parameter der Simulation ein-gestellt werden. Die Zeit, uber die die Simulation laufen soll, lasst sich in einem Fenster inder Werkzeugleiste eintragen – als Default nimmt SimuLink 10.0 Zeiteinheiten an. Die an-deren Simulationsparameter lassen sich auf einer Karteikarte vereinbaren; diese kann uberdie Tastenkombination CTRL + E oder uber den Menupunkt Simulation ← ConfigurationParameters geoffnet werden. Die Karte fur den Tiefpass aus Abb. 4.2 ist in Abb. 4.12 gezeigt.

§ 374 Die Simulationskontrolle bietet eine Vielzahl von Moglichkeiten; fur den Anfang soll-ten wir uns auf die ersten beiden in der linken Ubersicht genannten Punkte beschranken:Solver und Data Import/Export. Von diesen ist die Auseinandersetzung mit dem Solver diewichtigste, da diese die Genauigkeit (und Stabilitat) der Simulation bestimmen.

§ 375 Die ersten beiden Felder auf der Solver-Karte dienen der Definition des Simulations-zeitraums. Der betrachtete Zeitraum sollte sinnvollerweise einige charakteristische Zeiten desSystems umfassen. Die Wahl der Startzeit hangt von der zu untersuchenden Frage ab: wirdsie auf Null gesetzt, so enthalt das Simulationsergebnis etwaige Einschwingvorgange. Sinddiese das Ziel der Untersuchung, so sollte der Zeitraum bei Null beginnen und bis zum Endedes Einschwingvorgangs reichen. Ist dagegen der anschließende stationare Zustand das Zielder Untersuchung, so braucht die Simulation auch erst ab diesem Zeitpunkt protokolliert zuwerden.

§ 376 Die folgenden Einstellungen sind fur die numerische Genauigkeit des Verfahrens vonBedeutung. Die von Simulink angebotene Default Version kann zumindest fur einen erstenUberblick ubernommen werden. In der Regel handelt es sich dabei um bereits aus MatLabbekannte Solver fur Differentialgleichungen mit variabler Schrittweite. Hat man es nicht zueilig (und eine Vorstellung bezuglich einer sinnvollen Schrittweite), so kann man im linkenTeil der Karte auch eine feste Schrittweite einstellen. Ebenso kann es sinnvoll sein, im rechtenTeil die relative Genauigkeit ein wenig zu tunen.

Verstandnisfrage 37 Sie begegnen hier dem Problem der numerischen Genauigkeit inner-halb eines Blocks. Ein System besteht aus vielen Blocken – jeder mit seiner eigenen numeri-schen (Un-)Genauigkeit. Wie schatzt man die Genauigkeit der Gesamtsimulation ab? Mussenformal vergleichbare Blocke alle jeweils mit dem gleichen Schema, Fehler und der gleichenSchrittweite laufen oder durfen sich diese unterscheiden bzw. kann es sogar sinnvoll sein,dass sich diese unterscheiden? Sie konnen viele Analogien in den Verfahren zur numerischenLosung umfangreicherer partieller Differentialgleichungen finden.

c© M.-B. Kallenrode 4. Februar 2008

Page 117: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

106 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.13: Einstellungenzum Funktionsblock Gain; hier furdas Beispiel der freien Schwingungmit ω2

0 = −1

Verstandnisfrage 38 Die von SimuLink verwendeten Solver gehen alle von einer variablenSchrittweite in der Zeit aus. Erlautern Sie die Grundidee derartiger Verfahren und diskutierenSie Vor- und Nachteile gegenuber numerischen Verfahren mit fester Schrittweite.

Verstandnisfrage 39 Von einem numerischen Verfahren wird nicht nur Genauigkeit er-wartet sondern auch Stabilitat – die numerische Losung fur die freie Schwingung im linkenund mittleren Teilbild in Abb. 1.4 verletzt ganz offenbar jegliche Stabilitatskriterien. Wiesind Stabilitatskriterien bei Verfahren mit fester Schrittweite definiert, wie bei Verfahren mitvariabler Schrittweite?

4.3 Ein erstes einfaches Modell: Einfaches Federpendel

§ 377 Als einfachstes Modell kann uns das bereits in der Einleitung etwas uberstrapazierteFederpendel in allen seinen Variationen dienen. Am einfachen Federpendel konnen wir ein-mal einen Blick in die Spezifikationen der einzelnen Blocke werfen; außerdem konnen wir dieGrundlagen fur eine animierte Darstellung kennen lernen. Am Beispiel gekoppelter Federpen-del werden wir diese Grundlagen in Kap. ?? vertiefen und uns etwas Gedanken uber Chaosund Emergenz machen.

§ 378 Die formalen Grundlagen sind in Abschn. 1.1 ausfuhrlich diskutiert; die SimuLink-Simulationen wurden in Abb. 1.6–1.8 bereits gezeigt.

4.3.1 Die Simulation

§ 379 Die Simulation der freien Schwingung in Abb. 1.6 ist ein minimalistisches Modell. Dieinteressierenden Großen ist der Ort x(t) (und die Geschwindigkeit v(t)); die einzige wirkendeKraft ist die rucktreibende Kraft −kx. Die Simulation lasst sich dann mit Hilfe von dreiBlocken realisieren:

1. im Block Gain wird die Auslenkung mit ω20 multipliziert. Das Ergebnis ist die Beschleu-

nigung.2. Diese wird im ersten Integratorblock integriert. Das Ergebnis ist die Geschwindigkeit.3. Diese wird im zweiten Integratorblock integriert. Das Ergebnis ist der Ort. Dieser wird als

Ausgabe auf das Scope gegeben und ist gleichzeitig Eingabe fur den nachsten Durchlaufdieser Schleife.

§ 380 Betrachten wir jetzt die Blocke genauer. Fur die Simulation verwenden wir dimensi-onslose Großen und setzen Masse m und Federkonstante k jeweils gleich 1; dann ist auch dieKreisfrequenz ω2

0 = k/m gleich 1, der Gain Faktor also −1. Dieser ist fur den Block Gain zu

4. Februar 2008 c© M.-B. Kallenrode

Page 118: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.3. EIN ERSTES EINFACHES MODELL: EINFACHES FEDERPENDEL 107

Abbildung 4.14: Einstellungenzum Funktionsblock Integration

spezifizieren. Anklicken des Blocks mit der rechten Maustaste offnet ein Menu, in dem wir dieKarte Gain Parameters auswahlen konnen. Der Gain selbst wird dabei auf der in Abb. 4.13gezeigten Karte Main in die entsprechende Zeile eingetragen werden. Da in diesem Beispieldie betrachtete Variable eine skalare Große ist, ist der Gain ebenfalls ein Skalar. Daher ist inder zweiten Zeile die Spezifikation der Multiplikation als Elementweise oder den Regeln derMatrixmultiplikation gehorchend nicht erforderlich. Wenn es keine wirklich triftigen Grundegibt, sollte in der letzten Zeile die Zeitauflosung nicht verandert werden sondern aus derSimulation bezogen werden: daher die −1 stehen lassen.

§ 381 Lassen wir die Simulation so laufen, so passiert nichts: Ort und Geschwindigkeit sindidentisch Null fur alle Zeiten. Das ist nicht verwunderlich, da wir keine Anfangsbedingungenexplizit spezifiziert haben. In diesem Fall startet der Integratorblock mit der Anfangsbedin-gung Null, d.h. wir betrachten die Schwingung eines Pendels, das sich im Anfangszustand inRuhe in der Ruhelage befindet, d.h. v0 = 0 und x0 = 0.

§ 382 Fur die beiden Integratorblocke mussen daher noch Einstellungen der Anfangsbe-dingungen vorgenommen werden. Abbildung 4.14 zeigt die zur Festlegung der IntegratorParameters benotigte Karte fur den linken Integrationsblock, d.h. die Geschwindigkeit. Eben-so wie beim Gain werden wir in diesem Schritt alle rechentechnischen Optionen ignorierenund uns auf die inhaltlichen Angaben beschranken. Diese stecken in den ersten drei Zeilen.Davon ist die dritte die wichtigste: hier wird die Anfangsbedingung angegeben. Da wir einnumerisches Verfahren betrachten, kann nur ein bestimmtes Integral ausgefuhrt werden, d.h.die Aufgabe des Integrationsblocks lasst sich formal darstellen als

vi+1 =

vi+∆v∫vi

adt = a∆t + vi mit a = −ω20x . (4.1)

c© M.-B. Kallenrode 4. Februar 2008

Page 119: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

108 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.15: Ge-dampfte Schwingung

Die Anfangsbedingung ist also ein Simulationsparameter, namlich die Geschwindigkeit ausdem voran gegangenen Zeitschritt. Daher ist in der zweiten Zeile die Initial Source Conditionals internal zu vereinbaren. Lediglich im ersten Zeitschritt muss die Anfangsbedingung expli-zit vorgeben werden. Hier ist sie bei der Integration in v auf 1 gesetzt; bei der in s dagegenauf Null.3 Das entspricht einer Masse, die sich zur Zeit t = 0 im Ursprung befindet undsich mit der dimensionslosen Geschwindigkeit 1 in positiver x-Richtung bewegt – wie auchin Abb. 1.6 gezeigt.

§ 383 Jetzt fehlt noch die Darstellung des Ergebnisses. Soll der Ort die Zielgroße sein, somussen wir das Signal hinter der zweiten Integration abgreifen (an die rechte Maustastedenken, da Verzweigung!) und auf eine Senke legen. In Abb. 1.6 ist dies ein Scope, fur daswir erst einmal keine weiteren Einstellungen treffen mussen.

§ 384 Das Modell ist fertig und die Simulation kann im Prinzip gestartet werden. Vorher soll-ten wir allerdings entweder im entsprechenden Feld im SimuLink-Fenster oder in der Kartezur Simulationskontrolle das Ende des Simulationsintervalls angeben (der Default Wert von10 ist bei einem ω0 von 1 ok). Die Simulation lasst sich mit ctrl T oder uber den entsprechen-den Unterpunkt des Menus Simulation im SimuLink-Fenster starten. Die Ergebnisse werdendurch Doppelklick mit Links auf das Scope in einem neuen Fenster angezeigt. Achsen undSkalierung dieser Darstellung lassen sich bearbeiten, auch lasst sich das Fenster verkleinernoder vergroßern.

§ 385 Mit der Default-Einstellung hat das Signal noch einiges an Ecken, d.h. eine hohereZeitauflosung ist anzustreben. Diese lasst sich in der Simulationskontrolle einstellen, ein festerZeitschritt von 0.05 liefert schon weniger kantige Ergebnisse. Alternativ kann man auch beivariabler Schrittweite eine großere Genauigkeit erzwingen. So lange wir kleine Modelle haben,werde ich mich auf die Variante einer festen ‘Angstschrittweite’ beschranken: das gibt einegute Genauigkeit auf Kosten der Laufzeit.

§ 386 Um außer dem Ort auch die Geschwindigkeit darzustellen, konnen wir dieses Signalzwischen den beiden Integratoren abgreifen und entweder auf ein eigenes Scope geben oder,wie in Abb. 1.7 geschehen, uber einen Multiplexer Mux (aus der Untergruppe Signal Routing )mit dem Ort zusammen auf das Scope fuhren. Der Multiplexer hat als Default zwei Eingange,uber die Karte Mux Parameters kann die Zahl der Eingange verandert werden. Als Ausgangerhalten wir auf dem Scope eine Darstellung, die Ort und Geschwindigkeit in Abhangigkeitvon der Zeit enthalt; dabei wird das erste Signal (oberer Eingang des Multiplexers) in gelb,das zweite in Magenta dargestellt.

3Da die Schwingungsgleichung eine DGL zweiter Ordnung ist, benotigen wir auch zwei Anfangsbedingun-gen. Als Default verwendet SimuLink eine Null als Anfangsbedingung. Beim Federpendel sieht man dahersofort, ob die Angabe der Anfangsbedingungen vergessen wurde: war das der Fall, so ist x(t) = v(t) = 0 unddas Ergebnis recht trivial. Leider gibt nicht jede DGL diese Sicherheit.

4. Februar 2008 c© M.-B. Kallenrode

Page 120: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.3. EIN ERSTES EINFACHES MODELL: EINFACHES FEDERPENDEL 109

§ 387 Die freie Schwingung lasst sich durch Hinzufugung einer von der Geschwindigkeitabhangigen dampfenden Kraft −βv auf die gedampfte Schwingung erweitern, vgl. Abb. 4.15.Dazu mussen wir nur das Signal Geschwindigkeit zwischen den beiden Integratoren ab-greifen, mit Hilfe eines Blocks Gain mit −β/m multiplizieren und ebenso wie die aus derrucktreibenden Kraft resultierende Beschleunigung −ω2

0x dem Integratorblock in v zufuhren.Dazu benotigen wir einen Summationsblock, der die beiden Beschleunigungen vor ihrer Inte-gration addiert. An der Integration andert sich nichts, lediglich die Beschleunigung a in (4.1)ist jetzt a = −ω2

0x− βv/m.

§ 388 Die Parameter des Summenblocks lassen sich uber die Karte Function Block Parame-ters: Sum einstellen. Wichtig ist dabei nur die Zahl der Eingange, in unserem Fall zwei, sowiederen Vorzeichen: bei + wird das Signal addiert, bei − subtrahiert Das Hin- und Herschiebender einzelnen Eingange mussen Sie durch Probieren hinkriegen.

§ 389 Fur die erzwungene Schwingung muss anschließend, wie in Abb. 1.8 nur noch dieexterne antreibende Kraft zugefugt werden. Dieses erfolgt ebenfalls am Summenknoten. Dazuwird mit Hilfe der Karte Function Block Parameters: Sum ein weiterer Eingang erzeugtund auf diesen das Signal eines Funktionsgenerators, in diesem Fall Sine Wave fur einenSinus, gegeben. In der entsprechenden Karte Source Block Parameters: Sin Wave lassensich Amplitude, Frequenz und Phase des Signals einstellen.

4.3.2 Test der Simulation

§ 390 Eine Simulation ist ein numerisches Verfahren. Wie in jedem derartigen Verfahren wirdstatt der kontinuierlichen Zeitachse eine Folge endlicher Zeitintervalle betrachtet: Differentialeund Differentialquotienten werden durch Differenzen und Differenzenquotienten ersetzt. Einederartige Diskretisierung ist, wie bereits im Zusammenhang mit Abb. 1.4 angedeutet, stetsmit einem Fehler behaftet. Dieser muss abgeschatzt und hinreichend klein gehalten werden.

§ 391 Bei einem manuell erstellten numerischen Verfahren lassen sich diese Diskretisierungs-fehler abschatzen. SimuLink verwendet man auch, weil man sich uber diese Details keineGedanken machen mochte und dem Solver vertraut. Da SimuLink bei der Auswahl der Sol-ver eine Angabe von Schrittweiten und Genauigkeiten erlaubt, lasst sich die voreingestellteGenauigkeit verandern – in diesem Fall ist eine Uberprufung der Losung sicherlich sinnvoll.

§ 392 Wie allgemein in der Modellierung bieten sich die Erhaltungsgroßen fur einen Testan, also z.B. Energie, Masse oder Impuls. Bei der freien Schwingung aus Abb. 1.7 ist diemechanische Energie die Erhaltungsgroße. Diese lasst sich in der Simulation als Emech(t) =12mv2 + 1

2kx2 aus der Auslenkung und der Geschwindigkeit bestimmen. Dazu greifen wirbeide Großen ab, vgl. Abb. 4.16. Um die kinetische und die potentielle Energie mussen dieseGroßen quadriert sowie mit dem Faktor 1

2 und der Masse m bzw. Federkonstante k multipli-ziert werden. Da m und k jeweils Eins sind, konnen wir uns die Multiplikation sparen; denFaktor 1

2 sparen wir uns ebenfalls: er ist konstant und wir wollen nur wissen, ob die Energieebenfalls konstant ist. Das quadrieren erfolgt mit dem Block Math Function aus der Un-tergruppe Math Operations, in dem wir verschiedene mathematische Funktionen auswahlenkonnen. Alternativ lasst sich auch der Block Fcn aus der Untergruppe User-Defined Functionsverwenden. In ihm lassen sich beliebige Funktionen entsprechend den Regeln von MatLabdefinieren.

§ 393 Beide Signale werden uber einen Multiplexer auf Scope 2 gegeben, dass uns damitden zeitlichen Verlauf von kinetischer und potentieller Energie gibt. Außerdem werden beideSignale auf einen Additionsblock gegeben. Dessen Ausgang, also die Gesamtenergie, wird aufScope 1 gegeben. Ob ein Additionsblock rund wie in Abb. 4.15 oder eckig wie hier ist, istnur eine Frage der Darstellung, hat aber keine inhaltliche Bedeutung. Entscheidend ist nur,dass die Gesamtenergie konstant bleibt – auch wenn das hier betrachtete, nicht einmal zweiSchwingungsperioden umfassende Zeitfenster vielleicht etwas kurz ist.

c© M.-B. Kallenrode 4. Februar 2008

Page 121: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

110 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.16: Freie Schwingung in SimuLink mit zusatzlichen Darstellungen zurUberprufung der Losung: Scope 2 gibt jeweils die kinetische und die potentielle Energie,Scope 1 die Gesamtenergie

§ 394 Alternativ hatten wir Ort und Geschwindigkeit auch uber einen Multiplexer in einevektorielle Große zusammen fassen konnen. Dann hatten wir nur einen Block Math Functionbenotigt, um den Vektor komponentenweise zu quadrieren. Das Ergebnis hatten wir auf einemScope darstellen konnen sowie in einem weiteren Block die Elemente des Vektors addierenund ebenfalls darstellen konnen.

§ 395 Und die kurzeste Variante wurde hinter dem Multiplexer das Skalarprodukt des Vek-tors mit sich selbst bilden und das Ergebnis dann als Gesamtenergie darstellen.

4.3.3 Der Export der Daten

§ 396 Der Einbau des Tests in die eigentliche Simulation ist eher storend, da der Test nichtBestandteil der spateren lauffahigen Simulation sein sollte sondern nur in der Designphasebenotigt wird. Daher ist ein separater Test erstrebenswert. Dazu konnen wir die fur den Testbenotigten Daten in den Workspace oder in eine Datei exportieren und dort mit den ublichenMatLab-Tools bearbeiten.

§ 397 Beide Varianten benotigen eine Datensenke, d.h. die entsprechenden SimuLink-Blockewerden in der Untergruppe Sinks mit den in Abb. 4.10 gezeigten Elemente zu finden sein.Diese Blocke werden wie das Scope verwendet; sie konnen auch parallel zum Scope verwendetwerden.

§ 398 Mit Hilfe des Blocks ToWorkspace wird ein einzelnes strukturiertes Element mit demim Block spezifizierten Namen (Default: simout) erzeugt. Dieser kann mit Hilfe der KarteToWorkspace Parameters neu gesetzt werden. Auch konnen die Zahl der Nachkommastellen,die Schrittweite der Ausgabe sowie die Art der Ausgabe (Array statt strukturiertes Elementbzw. strukturiertes Element plus Zeit) angegeben werden. Bei der Ausgabe als Array konnendie Daten direkt verwendet werden, was insbesondere fur einen schnellen Test hilfreich ist. Beider Ausgabe als strukturiertes Element muss man dieses zur Weiterverarbeitung zwar erstmit dem Array-Editor offnen. Dafur enthalt das Element jedoch zusatzliche Informationen,was fur eine auf langere Sicht angelegte Speicherung von Ergebnissen von Vorteil ist.

§ 399 Die Ausgabe in eine Datei mit Hilfe des Blocks ToFile erzeugt stets einen *.mat-Filemit einem Array, wobei die erste Zeile die Zeit enthalt, die folgenden Zeilen jeweils einen

4. Februar 2008 c© M.-B. Kallenrode

Page 122: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.3. EIN ERSTES EINFACHES MODELL: EINFACHES FEDERPENDEL 111

Abbildung 4.17: Er-zwungene Schwingungin SimuLink unterVerwendung des BlocksTransfer Function

der Simulationsparameter. Die sonstige Ansteuerung (inklusive der Karten) entspricht derim Block ToWorkspace.

§ 400 Selbstverstandlich sind beide Ausgabeoptionen nicht nur fur Tests hilfreich sonderngeben die Simulationsergebnisse allgemein zur weiteren Verarbeitung heraus. Außerdem istder externe Test zumindest fur den Umgang mit MatLab gewohnte User deutlich einfa-cher, da auf den vollstandigen Funktionsumfang von MatLab zuruck gegriffen werden kann.So ließe sich z.B. beim Federpendel neben der Energieerhaltung auch auf eine Drift in derSchwingungsfrequenz prufen.

4.3.4 Simulation mit Hilfe der Ubertragungsfunktion: erzwungeneSchwingung

§ 401 Die angetriebene Schwingung konnen wir auf zwei unterschiedliche Weisen in Simu-Link realisieren. Aufbauend auf den bisherigen Simulationen konnen wir im Summations-punkt in Abb. 4.15 den externen Antrieb als weitere Beschleunigung hinzufugen (vgl. auchAbb. 1.8).

§ 402 Alternativ konnen wir fur dieses Problem mit Hilfe einer Laplace Transformation eineUbertragungsfunktion bestimmen und diese im Block Transfer Function einsetzen. DieDifferentialgleichung

mx + βx + kx = FA

transformiert sich (unter Vernachlassigung der Anfangsbedingungen) zu

ms2X(s) + βsX(s) + kX(s) = F (s) .

Die Ubertragungsfunktion ist definiert als das Verhaltnis von Ausgangs- zu Eingangssignal

G(s) =X(s)F (s)

=1/m

s2 + βms + k

m

.

Im Bildbereich gilt dieser Zusammenhang fur beliebige Eingangssignale, d.h. wir sind nichtauf harmonische Krafte beschrankt.

Verstandnisfrage 40 Darf man die Anfangsbedingungen einfach so vernachlassigen? Wel-che Konsequenzen hat das fur die Losung? Und als Nachfrage: Vernachlassigt man Anfangs-bedingungen wirklich? Betrachten Sie die Losung genau!

§ 403 Abbildung 4.17 zeigt die Realisierung dieser Simulation in SimuLink mit Hilfe desBlocks Transfer Function. Das ist die einfachste Form der Simulation dieses Problems, dawir nur drei Elemente benotigen: eine Quelle zur Darstellung des externen Antriebs, den

c© M.-B. Kallenrode 4. Februar 2008

Page 123: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

112 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.18:Erzwungene Schwin-gung unter Verwendungdes Blocks State Space

Block fur die Ubertragungsfunktion und eine Senke zur Darstellung der Ergebnisse. Mit denbereits in Abb. 4.15 verwendeten Großen m = 1, k/m = 10 sowie β/m = 1 ergibt sichfur die Ubertragungsunfktion G(s) = 1/(s2 + 1s + 10) und damit die in Abb. 4.17 gezeigteSimulation.

Zwischenrechnung 20 Die Simulation in Abb. 4.17 ist bereits mit einem allgemeinen Si-gnalgenerator ausgestattet. Spielen Sie mit verschiedenen Eigenfrequenzen des freien Systemsund verschiedenen Formen/Frequenzen der Anregungsfunktion. Konnen Sie Resonanz erzeu-gen? Was passiert bei Anregung mit einer Sprungfunktion (Block Step) oder einer Rampe(Block Ramp)? Wie lange mussen Sie bei verschiedenen Eigenfrequenzen/Dampfungen simu-lieren, um aus dem Bereich des Einschwingens heraus zu kommen.

Verstandnisfrage 41 Steht diese Variante auch fur die freie bzw. fur die gedampfte Schwin-gung zur Verfugung?

4.3.5 Losung der Systemgleichungen mit State Space

§ 404 Der Block State Space geht von einer Beschreibung des Systems durch Zustandsva-riablen aus. Der Block ist insbesondere fur die Beschreibung linearer Systeme geeignet; LTISysteme gehen jedoch stets von einer Beschreibung des Systems durch eine DGL erster Ord-nung aus wahrend die erzwungene Schwingung durch eine DGL zweiter Ordnung beschriebenwird. Fur dieses Modell betrachten wir ein Single-Input, Single-Output System: wir habeneine antreibende Kraft als Input und den Ort der einen im System vorhandenen Masse alsOutput.

§ 405 Folgen wir also dem bereits in § 18 verwendeten Verfahren und ersetzen die DGLszweiter Ordnung durch zwei DGLs erster Ordnung. Dann lasst sich unser System durch zweiZustandsgroßen beschreiben: x1 = x und x2 = x. Die zeitlichen Anderungen der beidenZustandsvariablen sind

x1 = x2 und x2 = − k

mx1 −

β

mx2 +

1m

FA .

In Matrizschreibweise ergibt sich

~x = A~x + B~u

mit dem Zustandsvektor

~x =(

x1

x2

),

4. Februar 2008 c© M.-B. Kallenrode

Page 124: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.3. EIN ERSTES EINFACHES MODELL: EINFACHES FEDERPENDEL 113

der quadratischen Systemmatrix

A =(

0 1−k/m −β/m

),

der Eingangsmatrix (bei der die Zeilenzahl der Zahl der Zustandsvariablen entspricht, dieSpaltenzahl der Zahl der Eingangsgroßen)

B =(

01/m

)und dem (in diesem Fall recht kurzen) Vektor der Eingangsgroße

~u = FA .

§ 406 Die Ausgangsgleichung des Systems ist

~y = C~x + D~u

mit der den Anfangszustand enthaltenden Ausgangsmatrix

C = ( 1 0 )

und D = 0.

§ 407 Modell, Parametereinstellungen sowie Ergebnis sind in Abb. 4.18 gezeigt. Mathema-tisch unterscheidet sich die Losung naturlich nicht von der in Abb. 1.8: auch hier werden zweiIntegratoren benotigt, da beide Zustandsvariablen integriert werden mussen.

Verstandnisfrage 42 Gilt hier die gleiche Einschrankung wie beider Ubertragungsfunktion(außerer Antrieb muss vorhanden sein) oder lasst sich diese Variante auch auf die freie bzw.gedampfte Schwingung anwenden?

§ 408 Da wir die erzwungene Schwingung bereits mit Hilfe der Ubertragungsfunktion be-trachtet haben, konnen wir das System als eine Art Filter interpretieren. Die inhaltlichaquivalente Beschreibung mit Hilfe des Zustandsraumes State Space legt nahe, dass sich ei-ne derartige Beschreibung auch auf andere Filter anwenden lasst. Wir werden in Abschn. 5.2.4darauf zuruck kommen.

4.3.6 Zusammenfassung: Gewohnliche Differentialgleichung in Si-muLink

§ 409 Das Federpendel wird durch eine gewohnliche inhomogene Differentialgleichung zwei-ter Ordnung beschrieben:

x + αx + βx = γ(t)

mit α und β als konstanten Koeffizienten und γ als einer von der unabhangigen Variablenabhangigen Funktion.

§ 410 Zur Losung der ODE stehen uns in SimuLink die auch von analytischen Verfahrenbekannten zwei Varianten zur Verfugung:

• die Losung im Zeitbereich durch wiederholte Integration, wobei in SimuLink im Gegen-satz zur analytischen Losung nicht zwischen der inhomogenen und der homogenen DGLunterschieden werden muss. Alternativ zur Integration kann die Losung auch mit Hilfe desBlocks State Space erfolgen – mathematisch passiert das gleiche wie bei der doppeltenIntegration, da ja zwei Zustandsvariablen jeweils integriert werden mussen; lediglich dieDarstellung ist kompakter.• die Losung im Bildbereich durch Laplace Transformation und Bestimmung der Ubertra-

gungsfunktion. Im Gegensatz zur analytischen Losung entfallt hier die Rucktransformation,da SimuLink uns mit dem Ergebnis im Zeitbereich versorgt.

c© M.-B. Kallenrode 4. Februar 2008

Page 125: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

114 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

§ 411 Im Zeitbereich benotigen wir fur die Losung einer ODE nter Ordnung n Integrator-blocke, fur jeden Koeffizienten der ODE einen Gain-Block, einen Summationsblock sowie imFalle der inhomogenen DGL einen Input oder Funktionsgenerator, der die Inhomogenitatbeschreibt und ebenfalls auf den Summenblock geht. Außerdem naturlich den Output – essei denn, die Simulation soll reine Beschaftigungstherapie fur den Rechner sein.

Verstandnisfrage 43 Wie wird ein verschwindener Koeffizient berucksichtigt, d.h. z.B. beieiner ODE 3ter Ordnung tritt die zweite Ableitung nicht auf?

§ 412 Das Herunterbrechen der Losung einer ODE nter Ordnung auf die entsprechende An-zahl von Integrationen gibt einen Einblick in die von SimuLink (und damit letztendlich auchvon MatLab) verwendeten Losungsstragie fur ODEs: die ODE wird auf ein System von nODEs erster Ordnung zuruck gefuhrt, die dann gleichzeitig gelost werden. Das Verfahren istokonomisch insofern, als dass nur Solver fur ODEs erster Ordnung benotigt werden. Fur dieseSolver sind Stabilitat und Genauigkeit zwar wohl definiert, allerdings summieren sich die Un-genauigkeiten der einzelnen Solver im Laufe des Verfahrens. Die Moglichkeiten einer echtenhandgestrickten Losung, z.B. durch eine geschickte Diskretisierung auch hoherer Ableitun-gen (fur einige einfache erste Hinweise siehe z.B. [53]), werden auf diese Weise verschenkt.Dadurch ist SimuLink fur die Losung komplexerer Probleme zumindest in der wissenschaft-lichen Arbeit nicht (oder nur bedingt) geeignet.4

§ 413 Im Bildbereich liefert die Laplace Transformation einer ODE nter Ordnung ein Poly-nom nter Ordnung in der komplexen Frequenz s:

x(n)′ + an−1x(n−1)′ + . . . + a2x + a1x + a0x = b(t)

(sn + an−1sn−1 + . . . + a2s

2 + a1s + a0)X(s) = L(b) .

Dieses bestimmt die Ubertragungsfunktion:

G(s) =X(s)L(b)

=1

sn + an−1sn−1 + . . . + a2s2 + a1s + a0;

neben dem Output wird dann nur noch ein Signalgenerator oder anderer Input fur die Inho-mogenitat benotigt.

§ 414 Unabhangig von der Losungsstrategie hat SimuLink gegenuber der analytischen Lo-sung den Vorteil, dass sich nicht nur die etwas schwerer formulierbaren Anregungen (δ-Pulse,Rechteck) sondern auch stochastische Anregungen genauso einfach berucksichtigen lassen wiedie harmonische Anregung. Gerade im Hinblick auf die Selbstorganisation ist der Zufall einezu wichtige Große als dass man ihn einfach vernachlassigen konnte.

4.3.7 Technische Anwendung: schwingender Container am Kran

§ 415 Die DGL fur das Fadenpendel unterscheidet sich fur kleine Auslenkungen ϑ nicht vonder des Feder–Masse Systems: die rucktreibende Kraft ist wieder linear von der Auslenkungabhangig, da fur kleine Winkel der Sinus des Winkels gleich dem Winkel ist.

4Das ist kein SimuLink Problem sondern letztendlich nur ein MatLab-Erbe, da SimuLink ja nur aufdie MatLab-Funktionen zuruck greift. Auch wenn komplexere Modelle (Atmosphare, Ozean, Klima, inter-planetarer Raum und darin befindliche Teilchen und Shocks) fur die wissenschaftliche Arbeit immer nochFortran oder verwandtes benotigen, schließt das nicht die Anwendung von SimuLink auf diese Problemein der Ausbildung aus: da SimuLink sehr gut strukturiert ist, lassen sich die Prinzipien (und damit auchdie Annahmen und Probleme der Modelle) darin viel besser erfassen als im realen ‘wissenschaftlichen’ Code,wo zuviel Aufmerksamkeit in das HichHack um eine effiziente/okonomische/saubere Codierung geht. Und inSystemen, die auf viele ODEs niedriger Ordnung zuruck greifen, ist die Reduktion auf ODEs erster Ordnungohnehin keine Einschrankung – daher lassen sich viele technische Probleme gut in SimuLink beschreiben.Entsprechend weit verbreitet ist der Einsatz in der Industrie.

4. Februar 2008 c© M.-B. Kallenrode

Page 126: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.3. EIN ERSTES EINFACHES MODELL: EINFACHES FEDERPENDEL 115

Abbildung 4.19: Der Kran alsFadenpendel

§ 416 Hunt et al. [42] geben ein auch physikalisch anspruchsvolles Beispiel einer technischenAnwendung fur ein Fadenpendel veranderlicher Lange. Ein Kran zum Verladen von Contai-nern kommt als technisches Beispiel diesem physikalischen Problem recht nahe. Betrachtenwir dazu den Kran wie in Abb. 4.19 dargestellt. Die beiden Umlenkrollen am Kransauslegersowie der Container seien infinitesimal klein; die linke Rolle ist fest und bildet den Urpsrungunseres Koordinatensystems, die recht Rolle kann durch den Kranfuhrer bewegt werden, sodass sich der Abstand w zwischen den beiden Umlenkrollen verandern lasst. Ebenso lasst sichdie Lange l des Seils zwischen rechter Rolle und Container verandern. Außerdem kann derContainer um den Winkel ϑ gegenuber der Vertikalen ausgelenkt werden. Der momentaneAufenthaltsort des Containers relativ zur festen linken Rolle ist dann beschrieben durch diedrei Parameter w, l und ϑ mit

~r =(

xy

)=(

w + l sinϑ−l cos ϑ

).

§ 417 Die zu untersuchende Bewegung ist das Anheben des Containers am Anfangsort~r0 = (w0,−l0) und sein Absetzen an einem anderen Ort ~r1 = (w1,−l0). Unser besonde-res Interesse gilt dabei den vom Container ausgefuhrten Schwingungen – der Container solltransportiert werden, nicht aber eine Zweitkarriere als Abrissbirne beginnen. Den Luftwi-derstand vernachlassigen wir, die einzigen wirkenden Krafte sind die Gravitation und sieSpannung im Seil.

Verstandnisfrage 44 Sie haben als Vertreter der Berufsgenossenschaft der Hafenarbeiterdiese Simulation in Auftrag gegeben und erhalten jetzt das unter Vernachlassigung der Rei-bung gewonnene Ergebnis. Ist das fur Sie eine problematische Einschrankung? Wurde derHafenbetreiber bezuglich dieser Einschrankung zu dem gleichen Schluss kommen wie Sie?

§ 418 Da es sich bei dem Kran um ein alteres Modell handelt, mussen die verschiedenenBewegungen nacheinander ausgefuhrt werden: (1) der Kranfuhrer kann den Container durchEinholen des Seils senkrecht anheben (l wird verandert, w ist konstant), (2) die horizon-tale Bewegung der rechten Rolle verandert w unter Beibehaltung der Lange l, und (3) derContainer wird bei festem w vertikal abgesetzt (l wird verandert).

§ 419 Solange keine außeren Krafte (z.B. boiger Wind) wirken, ist Schritt (1) recht langwei-lig: die Bewegung des Containers erfolgt ausschließlich in der Vertikalen; da keine Auslen-kung vorhanden ist, tritt auch keine Schwingung auf. Auch Schritt (3) ist nicht besondersinteressant: zwar kann der Container am Anfang von schritt (3) noch schwingen, erfolgt dieVeranderung der Seillange hinreichend langsam, so lasst sich das problem durch eine adiaba-tische Invariante beschreiben. Wirklich interessant ist nur der zweite Schritt: der horizontaleTransport eines Fadenpendels.5

§ 420 Zur Beschreibung der Bewegung greifen wir auf die Lagrange’sche Mechanik zuruck.Die kinetische und potentielle Energie des Containers der Masse m sind

K =m

2~r2

=m

2(x2 + y2

)=

m

2

((w + l ϑ cos ϑ

)2

+(l ϑ sinϑ

)2)

5Ein verwandtes, genauer um π gedrehtes Problem ist das invertierte Pendel auf einem Wagen; dieses istauch in der SimuLink-Hilfe vorgestellt.

c© M.-B. Kallenrode 4. Februar 2008

Page 127: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

116 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.20:SimuLink Modellzum Kran aus Abb. 4.19

=m

2

(w2 + l2 ϑ2 + 2lwϑ cos ϑ

)V = mgy = −mgl cos ϑ .

Aus der Lagrange Funktion L = K − V ergibt sich die Bewegungsgleichung gemaß∂L

∂ϑ=

ddt

∂L

∂ϑ

nach einigem Kurzen und zusammen fassen zu

ϑ +cos ϑ

lw +

g

lsinϑ = 0 oder ϑ = −cos ϑ

lw − g

lsinϑ .

Im Gegensatz zur gewohnlichen Schwingungsgleichung ergibt sich hier ein Zusatzterm, derdie horizontale Beschleunigung w des Krans enthalt.

Querverbindung 2 Falls es Ihnen nicht mehr ganz gelaufig ist, ware dies eine gute Stelle,noch einmal schnell uber die Grundideen der Lagrange’schen Mechanik nachzudenken.

§ 421 Fur die Realisierung des Problems in SimuLink ist nur dieser Zusatzterm mit derhorizontalen Beschleunigung neu, den Rest konnen wir vom Federpendel ausleihen. Wie beieiner externen Kraft sollte dieser Beschleunigungsterm variabel gestaltet sein, so dass sichLosungen ϑ(t) fur verschiedene Operationsweisen des Krans bestimmen lassen.

§ 422 Eine mogliche Realisierung ist in Abb. 4.20 gegeben: die beiden Integratoren benotigenwir, da wir eine DGL 2ter Ordnung betrachten. Das Signal ϑ zwischen den Integratoren wirdnicht abgegriffen, da die DGL keinen Term proportional ϑ, wie z.B. reibung, enthalt. Derobere Gain Block ist der Faktor vor der rucktreibenden Kraft: da wir die Einschrankungauf kleine Winkel fallen lassen muss erst der Gain auf den Sinus und nicht auf ϑ direktangewendet werden; daher die trigonometrische Funktion zwischen dem zweiten Integratorund dem Gain. Das Ergebnis ist die Beschleunigung auf Grund der rucktreibenden Kraft undwird fur den nachsten Zeitschritt auf den Integrator gegeben – nicht ohne vorher die zweiteKraft zu addieren. Letztere ist das Produkt aus der externen Beschleunigung, beschriebendurch eine externe Funktion f(u) und dem Kosinus des Winkels ϑ (multipliziert mit einemGain). Die Clock erzeugt den Zeittakt zur Bestimmung der externen Funktion f(u).

§ 423 Nach dem Prinzip kommen die Zahlen: g = 10 m/s2, ∆w = w1 − w0 = 10 m, ∆l =5 m. Und da der Kranfuhrer eine hinreichende Stuckzahl bewaltigen muss, billigen wir ihmeine Zeit von tend = 200 s pro Container zu. Damit erhalten wir die Gain Faktoren wie inAbb. 4.20. Die einzige Herausforderung ist die Eingabe von w(t): dies sollte eine stetigeFunktion sein mit w(0) = 0 und w(tend) = w1. Aus physikalischen Grunden ware eineFunktion, die Punkt-symmetrisch um (tend/2, w1/2) keine schlechte Idee. Außerdem solltedie erste Ableitung zu Beginn und Ende der Bewegung verschwinden: w(0) = w(tend) = 0.Diese Einschrankungen ließen sich mit einer geeignet verschobenen Winkelfunktion erfullen.Fordern wir zusatzlich noch ein Verschwinden der Beschleunigung am Anfang und Ende derBewegung, w(0) = w(tend) = 0, so kann man ein geeignet verschobenes Polynom verwenden.Hunt et al. [42] geben als Beispiel

w(t) = −358

+832

t +(t− 100)3

160000+

(t− 100)5

16000000000

4. Februar 2008 c© M.-B. Kallenrode

Page 128: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.4. ETWAS KOMPLIZIERTER: ZWEI GEKOPPELTE FEDERPENDEL 117

Abbildung 4.21: Auslenkungdes Containers aus der verti-kalen fur eine langsame (links)und eine schnelle (rechts)Bewegung

und damit

w(t) = − 3t

80000+

3800

+3(t− 100)3

800000000.

§ 424 Die aus dieser Bewegung resultierende Auslenkung des Containers ist im linken Teilvon Abb. 4.21 gegeben: eine maximale Auslenkung von 2·10−4 ergibt selbst bei einer Seillangevon 5 m nur eine minimale Versetzung des Containers; die Sicherheit fur Mensch und Materiein der Umgebung ist gewahrleistet.

§ 425 In einem modernen Hafenbetrieb sind 200 s Verschubzeit fur einen Container aberviel zu lang – Reduktion um einen Faktor 10 heißt zehnmal so viele Container (und damitmehr Geld). Zum Vergleich behalten wir den Verlauf von w, allerdings muss die Zeitachseentsprechend skaliert werden. Wir ubernehmen erstmal wieder von [42]:

w =3t

40+

3t3

8000− 9t2

800.

Mit diesen Parametern (und einer auf 20 s reduzierten Simulationszeit) ergibt sich das rechteTeilbild in Abb. 4.21: die Auslenkung liegt im Bereich von 0.02, was bei 5 m Seillange im-merhin schon 10 cm entspricht: nicht genug fur eine Abrissbirne aber fur einen unschonenblauen Fleck oder eine Delle reicht das schon.

Zwischenrechnung 21 Spielen Sie mit der Funktion w(t), insbesondere auch unter physi-kalisch sinnvollen Randbedingungen – bitte daran denken, dass im Funktionsblock nicht dieFunktion sondern die zweite Ableitung eingesetzt wird!.

Zwischenrechnung 22 Und jetzt packen Sie dem armen Kranfuhrer noch einen boigenWind als Storung hinzu: vernachlassigen Sie den mittleren Wind und drucken Sie die diefluktuierende Komponente als eine stochastische Beschleunigung (in was?) aus.

4.4 Etwas komplizierter: zwei gekoppelte Federpendel

§ 426 Dieser Abschnitt bildet die Erganzung zum bereits in Abschn. 1.2 und insbesondere inAbb. 1.12 dargestellte Modell zur Beschreibung des Doppelpendels aus zwei Massen und dreiFedern. Mathematisch betrachten wir ein (zugegebenermaßen einfaches) System gekoppeltergewohnlicher Differentialgleichungen.

4.4.1 Die Simulation

§ 427 Wie der Vergleich von Abb. 1.12 und Abb. 1.6 zeigt, unterscheiden sich die Simu-Link Modelle fur die freie Schwingung einer Masse und das Doppelpendel in ihrer Strukturuberhaupt nicht. Der einzige Unterschied wird in der Ausgabe auf dem Scope sichtbar: statteiner Kurve finden wir zwei Kurven im Weg–Zeit-Diagramm – fur jede Masse eine. Da wir nurein Signal haben, behandelt SimuLink das Problem offenbar genauso, wie wir es auch in deranalytischen Losung getan haben: die Orte der Massen (und ebenso die Geschwindigkeiten)

c© M.-B. Kallenrode 4. Februar 2008

Page 129: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

118 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

werden jeweils in einem Vektor zusammen gefasst. Konsequenterweise ist der Gain dann keinSkalar mehr sondern die bereits bei der analytischen Losung verwendete Matrix.

§ 428 Der Ubergang zu Vektoren bzw. Matrizen erfolgt auf den zu den jeweiligen Blockengehorenden Karten: in der Karte fur den Gain, vgl. Abb. 4.13, wird in der ersten Zeile stattdes Skalars 1 die Matrix in der MatLab-typischen Form [−2, 1; 1,−2] eingetragen. In derzweiten Zeile muss jetzt darauf geachtet werden, dass Multiplikation entsprechend den Regelnder Matrizenrechnung verwendet wird.

§ 429 Wichtiger noch ist der korrekte Eintrag auf den Integratorkarten, vgl. Abb. 4.14. Hiererkennt SimuLink aus der Tatsache, dass in der dritten Zeile als Anfangswert statt einesSkalars ein Vektor eingetragen ist, dass es sich bei den Signalen nicht um skalare sonderneben vektorielle Großen handelt mit der Lange des Vektors als Dimension des Problems.

§ 430 Am Scope ist ein Ubergang von skalaren zu vektoriellen Großen nicht erforderlich: istdas Eingangssignal am Scope vektoriell, so werden automatisch die einzelnen Komponentendargestellt.

4.4.2 Gibt es Alternativen?

§ 431 Fur das einzelne Pendel haben wir bereits festgestellt, dass die Simulation mit Hilfeeiner Ubertragungsfunktion nur dann Sinn macht, wenn es eine antreibende Kraft gibt; dieBewegungsgleichungen 1.9 sind also um diese zu erganzen:

~x =(−2ω2

0 ω20

ω20 −2ω2

0

)~x + ~fext . (4.2)

Laplace Transformation liefert

s2 ~X =(−2ω2

0 ω20

ω20 −2ω2

0

)~X + L(~fext)

oder umgeformt(s2E−

(−2ω2

0 ω20

ω20 −2ω2

0

))~X = L(~fext) . (4.3)

Der Faktor vor dem ~X erinnert stark an (die Inverse) der Resolvente (3.10); allerdings trittstatt des sE in (3.10) ein s2E auf, da wir von einer DGL zweiter Ordnung ausgehen.

Zwischenrechnung 23 Uberzeugen Sie sich, dass wir diese Gleichung auch erhalten hatten,wenn wir das Gleichungssystem transformiert und dann in Matrix-Schreibweise zusammengefasst hatten.

§ 432 Wir konnen (4.3) zwar nach ~X auflosen – dann erhalten wir auch die Resolvente.Wir konnen aber keine Ubertragungsfunktion bestimmen, da letztere nur skalar definiert ist.SimuLink betrachtet sie Ubertragungsfunktion als Single-Input, Single-Output Funktion.

§ 433 Bei der erzwungenen Schwingung eines einzelnen Pendels haben wir in Abschn. 4.3.5mit dem Zustandsvektor gearbeitet. Da der Block State Space nicht auf Single-Input, Single-Output Systeme beschrankt ist sondern auch Multiple-Input, Multiple-Output Systeme be-schreiben kann, konnen wir die gekoppelten Pendel auf diese Weise modellieren. Die Bewe-gungsgleichungen (4.2) sind zwei Gleichungen fur zwei Inputs (die jeweils direkt auf eineMasse wirkende Kraft) sowie zwei Outputs (die Orte der Massen). Fur jede Masse haben wirzwei Zustandsvariablen, Ort und Geschwindigkeit, so dass das System insgesamt durch vierZustandsvariablen beschrieben ist:

z1 = x1 z2 = x1 z3 = x2 und z4 = x2 .

Darin sind z1 und z3 auch gleichzeitig die Ausgangsgroßen.

Zwischenrechnung 24 Fuhren Sie das Modell zu Ende aus. Verandern Sie das Modellferner so, dass (a) die Massen und Federkonstanten nicht identisch sein mussen und (b)zusatzlich Reibung auftreten kann.

4. Februar 2008 c© M.-B. Kallenrode

Page 130: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.4. ETWAS KOMPLIZIERTER: ZWEI GEKOPPELTE FEDERPENDEL 119

Abbildung 4.22: Darstellung der Bewegung des Doppelpendels im Phasenraum fur die beidenMassen fur verschiedene Anfangsbedingungen (rechte Zeile); links jeweils ein Ausschnitt ausdem Simulationszeitraum, rechts der vollstandige Zeitraum

4.4.3 Ist die Bewegung periodisch oder nicht?

§ 434 Nach MatLab noch eine inhaltliche Anmerkung: weder die Animation noch die ver-schiedenen Weg– oder Geschwindigkeits–Zeit-Diagramme verhelfen uns auf einfache Weise zueinem tieferen Verstandnis der Bewegung: ist dieses einfache Problem noch periodisch oderbereits chaotisch?

§ 435 Zur genaueren Untersuchung lassen wir die Simulation uber einen langeren Zeitraum(einige hundert Schwingungsperioden) laufen und exportieren die Daten in ein mat-File oderin den Workspace. Die einfachste Form Untersuchung ist die Darstellung der Bewegung imPhasenraum. Dazu tragen wir, jeweils fur die Massen getrennt, die Geschwindigkeit v gegenden Ort x auf. In Abb. 4.22 ist dies fur nur wenige Schwingungen (links) bzw. eine großereZahl von Schwingungen (rechts) und unterschiedliche Anfangsbedingungen gezeigt.

§ 436 Die ersten beiden Zeilen in Abb. 4.22 betrachten symmetrische Anfangsbedingungen.Die Anfangsgeschwindigkeit ~v0 ist in beiden Fallen Null, beide Pendel sind ausgelenkt. Inder oberen Zeile ist das linke Pendel nach rechts, das rechte nach links ausgelenkt, d.h.die beiden Massen schwingen gegeneinander. In der zweiten Zeile sind beide nach rechtsausgelenkt, sie schwingen im Gleichtakt. Die Bahnen sind im Phasenraum geschlossen, d.h.die Bewegung ist periodisch; aus der analytischen Losung bzw. bei geeigneter Darstellung imPhasenraum ergeben sich als Frequenzen

√3 ω0 bzw. ω0. Beide Bahnen unterscheiden sich

in der Skalierung: bei der gegensinnigen Schwingung ist die Geschwindigkeit großer, da dieanfangliche rucktreibende Kraft großer ist. Oder formuliert uber die Energie: die Kompressionbzw. Dehnung der koppelnden Feder stellt eine entsprechende zusatzliche potentielle Energiezur Verfugung..

§ 437 Bei den in den beiden unteren Zeilen gezeigten asymmetrischen Anfangsbedingungendagegen ist eine Periodizitat nicht offensichtlich. In der oberen Zeile ist die linke Masse nach

c© M.-B. Kallenrode 4. Februar 2008

Page 131: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

120 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.23: Geschwin-digkeiten (links) bzw. Orte(rechts) der beiden Pendelmas-sen gegeneinander aufgetragenergeben im allgemeinen Fallnicht geschlossene Lissajous-Figuren

rechts ausgelenkt, die rechte befindet sich in der Ruhelage und die Anfangsgeschwindigkeitverschwindet. In der unteren Zeile wurde die gleiche Auslenkung verwendet, allerdings bewegtsich die linke Masse zusatzlich nach links, die rechte nach rechts. In beiden Fallen bilden sichkompliziertere Bahnen im Phasenraum, deren Trajektorien nach einiger Zeit einen gewissenBereich des Phasenraums vollstandig ausfullen: im Rahmen dieser Darstellung konnen wirkeine Hinweise auf Periodizitat erkennen.

Verstandnisfrage 45 Woher kommt in der unteren Zeile von Abb. 4.22 das ‘Auge’ in derMitte? Schließt es sich bei langeren Simulationen?

§ 438 Im Prinzip konnte die mangelnde Periodizitat durch numerische Ungenauigkeiten be-stimmt sein – auch wenn die rechten beiden Teilbilder der oberen Zeilen diesen Schluss nichtnahe legen. Betrachten wir nochmals die analytische Losung

~z(t) = ~A1eiω0t + ~A2e−iω0t + ~A3ei√

3ω0t + ~A4e−i√

3ω0t

bzw. ihren Realteil

~x(t) = ~a1 cos(ω0t) + ~a2 sin(ω0t) + ~a3 cos(√

3ω0t) + ~a4 sin(√

3ω0t) .

Daraus ergibt sich fur due Geschwindigkeit

~v(t) = ω0

(~a2 cos(ω0t)− ~a1 sin(ω0t) +

√3(~a4 cos(

√3ω0t)− ~a3 sin(

√3ω0t)

)).

Eine geschlossene Darstellung der Bahn im Phasenraum ist nicht moglich, da wir keine derbeiden Gleichungen nach dem Parameter t auflosen und in die andere Gleichung einsetzenkonnen.

§ 439 Fur allgemeine Randbedingungen besteht jede einzelne Losung aus einer Superpositionzweier harmonischer Funktionen mit einem nicht-rationalen Frequenzverhaltnis. Damit ist dieBahn zwar nicht chaotisch, aber auch nicht wiederkehrend.

Verstandnisfrage 46 Rekapitulieren Sie aus der Theoretischen Mechanik die Moglichkeiten,chaotische Bahnen zu beschreiben bzw. zu charakterisieren. Konnen wir mit solchen Verfah-ren noch etwas uber unsere gekoppelten Pendel lernen?

§ 440 Die fehlende Geschlossenheit der Kurven im Phasenraum findet sich auch an andererStelle wieder. Tragt man die Orte (oder die Geschwindigkeiten) der beiden Massen gegenein-ander auf, so ergeben sich nicht geschlossene Lissajous-Figuren wie in Abb. 4.23 angedeutet.Letztere sind allgemein definiert als die Uberlagerung zweier harmonischer Schwingungen wo-bei die Zeit als Parameter einer Parameterdarstellung verwendet wird. Lissajous-Figuren sindperiodisch (und damit geschlossen), wenn das Verhaltnis der Perioden der beiden Schwin-gungen rational ist – was in unserem Fall durch das Auftreten der

√3 in der Regel nicht der

Fall sein wird. Da die beiden Massen die gleiche relative Lage nicht wieder einnehmen, wirdauch in dieser Darstellung die mangelnde Periodizitat der Bewegung deutlich.

Verstandnisfrage 47 Sie sollen Lissajous-Figuren vorfuhren. Uberlegen Sie sich einfach zurealisierende Beispiele und/oder rufen Sie sich ins Gedachtnis zuruck, wo Ihnen Lissajous-Figuren bereits begegnet sind.

4. Februar 2008 c© M.-B. Kallenrode

Page 132: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.5. (MASKIERTE) UNTERSYSTEME 121

Abbildung 4.24: Geometrie fur gekop-pelte Federpendel zur Darstellung mitHilfe von Untersystemen

Abbildung 4.25: Subsystem fur eine einzelne Masse der gekoppelten Pendel aus Abb. 4.24;die Ovale bilden die Ubergabepunkte zu denanderen Blocken der Simulation

4.5 (Maskierte) Untersysteme

§ 441 Ein einzelnes Federpendel bildet ein System und lasst sich als solches mit Hilfe ein-zelner Blocke oder einer Ubertragungsfunktion simulieren. Fur gekoppelte Federpendel kannman daher abstrakt die in Abschn. 4.4 gezeigte vektorielle Darstellung verwenden oder al-ternativ jedes Pendel als ein Untersystem betrachten. Diese mussen dann geeignet verknupftwerden, um die Kopplung der Pendel korrekt zu beschreiben. Fur gekoppelte Pendel istnaturlich die vektorielle Darstellung viel einfacher als die uber Untersysteme – wobei letztereauch bei den gekoppelten Pendeln einfach ist, da man nur ein Untersystem wirklich erzeu-gen muss, die anderen konnen einfach kopiert werden. Interessanter werden Untersystemenaturlich in komplexeren Modellen mit auch physikalisch oder technisch deutlich abgegrenz-ten Untersystemen wie in Kap. ?? genauer beschrieben.

§ 442 Um eine hinreichend komplexe aber immer noch uberschaubare Geometrie zu erhalten,betrachten wir drei gekoppelte Massen, von denen die linke uber eine Feder mit der linkenWand verbunden ist, die rechte aber nur mit der mittleren Masse uber eine Feder verbundenist und nach rechts frei schwingen kann (vgl. Abb. 4.24).

4.5.1 Das Untersystem

§ 443 Da jede Masse als ein eigenes System betrachtet wird, benotigen wir fur jede Massedie zugehorige Bewegungsgleichung. Allgemein ist die Bewegungsgleichung einer einzelnenMasse mn gegeben als

xn =1

mn[kn(xn−1 − xn)− kn+1(xn − xn+1)]

mit xn als der Position dieser Masse, xn−1 und xn+1 als den Positionen der Massen linksund rechts davon sowie kn und kn+1 als den Federkonstanten der Federn links bz.w rechtsder Masse.

§ 444 Aus dieser Bewegungsgleichung lasst sich das Subsystem wie in Abb. 4.25 gezeigtkonstruieren. Dazu offnen wir konventionell ein neues Modell in SimuLink und ziehen einenSubsystems-Block auf die Arbeitsflache. Dieser hat, wie die meisten Simulink-Blocke alsDefault einen Ein- und Ausgang. Uber diese Eingange kann die Verknupfung mit anderenUntersystemen oder mit einem konventionellen SimuLink-Block erfolgen. Linker Doppelklickauf dieses Modell offnet in einem neuen Fenster eine Arbeitsflache, auf der sich das Unter-system so aufbauen lasst, wie wir es von einem normalen Modell kennen.6 Zusatzliche Input-

6Um nicht in Platz-Probleme zu kommen, sollten Sie das Modell eher von links nach rechts aufbauen alsumgekehrt: der linke Rand lasst sich nicht sehr weit zuruck schiebe.

c© M.-B. Kallenrode 4. Februar 2008

Page 133: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

122 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.26: Simulation von gekop-pelten Pendeln derart, dass jedes Pen-del durch ein Untersystem beschriebenist, die ihrerseits gekoppelt sind

Abbildung 4.27:Simulationsergebniszum System aus dreiMassen und drei Federnaus Abb. 4.24

oder Output-Ports lassen sich durch kopieren im Subsystem selbst erzeugen. In diesem Bei-spiel sind die Parameter der einzelnen Gain Blocke nicht explizit angegeben sondern durchVariablen (die Federkonstanten der mit der betrachteten Masse verbundenen Federn sowiedie Masse).

§ 445 Der Aufbau der Simulation beinhaltet die beiden bereits hinlanglich bekannten In-tegratoren. Der Output des zweiten Integrators, d.h. die Große xk wird zum einen auf denOutput des Untersystems gegeben, um den anderen Untersystemen zur Verfugung zu stehen.Zum anderen wird dieser Output wieder zuruckgefuhrt: seine Differenz zu den Outputs derbeiden anderen Untersysteme gibt den Abstand zwischen den Massen und damit, multipli-ziert mit der entsprechenden Federkonstanten, die von den Federn ausgeubten Krafte. Diesewerden summiert und mit der Masse skaliert, um die Beschleunigung zu erhalten. Im Prinzipkonnen wir uns diesen Gain Block sparen und stattdessen in den beiden anderen Blockenjeweils statt der Federkonstanten die Federkonstanten/Masse angeben. Das wurde bei derkonventionellen Parameterdefinition durch Anklicken der Symbole etwas Klicken sparen –diese Form des Untersystems hat den Vorteil, dass die Parameter in reiner Form vorliegenund nicht bereits ‘verhackstuckt’.

§ 446 Das Gesamtmodell ergibt sich durch Kopieren des Blocks fur das Subsystem undkorrekte Verbindung der einzelnen Subsysteme wie in Abb. 4.26 gezeigt. In den einzelnenSubsystemen mussen jetzt noch die Variablennamen fur die verschiedenen Parameter (undfalls gewunscht die Bezeichnungen/Erklarungen der einzelnen Blocke) angepasst werden.

4.5.2 Ubergabe der Modellparameter

§ 447 Im Gegensatz zu fruheren Modellen werden in diesem Modell die Parameter nichtmehr direkt in die Blocke eingetragen – schließlich mussen wir sonst jeden Block in jedemUntersystem einmal anfassen. Stattdessen definieren wir diese in einem MatLab-Skript.Dieses wird vor dem Start der Simulation unter dem MatLab prompt aufgerufen. Dahermuss es einen anderen Namen haben als das Modell – sonst versucht MatLab den mdl-Filestatt des m-Files auszufuhren.

§ 448 In den einzelnen Untersystemen tragen wir dazu in den ‘Gain Parameters’ keinenZahlenwert fur den Gain ein sondern einen Variablennamen. In den Untersystemen sind

4. Februar 2008 c© M.-B. Kallenrode

Page 134: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.5. (MASKIERTE) UNTERSYSTEME 123

Abbildung 4.28: Editor fur ein mas-kiertes Subsystem, Eroffnungsseite

diese jeweils als ki, die Massen als mi bezeichnet. Die zugehorige Datei mit den Parameternordnet einfach diesen Variablennamen Werte zu:Parameter fur Feder-Masse System mit Untersystemen

k1=1;

k2=2;

k3=3;

m1=3;

m2=1;

m3=2;

Damit haben wir uns das Klicken fur die Parameter erspart – allerdings ist die Simulationrecht unbefriedigend solange wir nicht an irgendeinem Integrator eine Anfangsbedingungungleich Null spezifizieren. Fur diesen Run ist im ersten Subsystem die Masse ausgelenkt,d.h. der Integrator fur den Ort ist auf die Anfangsbedingung 1 gesetzt.7 Die Ergebnisse sindin Abb. 4.27 gezeigt.

4.5.3 Maskierte Blocke

§ 449 SimuLink bietet einen weitere einfache Moglichkeit im Umgang mit Untersystemen:das Untersystem wird ‘maskiert’ und als ein neuer SimuLink-Block definiert. Jedes Unter-system hat dann eine einzige Karte ’Block Parameters’, in der alle Parameter eingetragenwerden konnen.

§ 450 Als Beispiel nehmen wir wieder das Modell der drei Federn und Massen aus Abb. 4.24.Die dort verwendeten Untersysteme wandeln wir in Blocke um, in dem wir im Hauptsystemden Block des entsprechenden Untersystem markieren und uber den Menupunkt Edit ←Mask Subsystem den Masken-Editor aufrufen. Dieser erscheint wie in Abb. 4.28; er bestehtaus vier Karteikarten.

Parameter

§ 451 Die Karteikarte Parameter, vgl. Abb. 4.29, erlaubt die Definition von Parameternfur die im Untersystem enthaltenen Blocke. Im oberen Teil der Seite lassen sich die Dialog-felder einstellen und mit einer MatLab-Variablen verknupfen; im unteren Teil lassen sichzusatzliche Optionen fur diese Parameter einstellen.

7Alternativ konnen wir diesem Feld naturlich auch einen Variablennamen zuweisen und dann die Parametermit der Datei (oder von Hand aus dem Workspace heraus) ubergeben.

c© M.-B. Kallenrode 4. Februar 2008

Page 135: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

124 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.29: Editor fur ein mas-kiertes Subsystem, Parameter

§ 452 Die Schaltflachen an der Seite des oberen Feldes erlauben das Hinzufugen, Loschen undVerschieben von Dialogfeldern zur Eingabe von Parametern. Der oberste Button ‘add’ fugtein Dialogfeld hinzu: in dieses lasst sich die Abfrage auf der Karteikarte (Prompt) angebensowie der Name der Variablen, der dieser Wert zugewiesen werden soll. Weiteres hinzufugenvon Dialogfeldern erlaubt die Eingabe von weiteren Parametern – in der Version in Abb. 4.29haben wir auch die Anfangswerte der Integratoren mit ubergeben.

§ 453 Das dritte Feld in der Liste gibt bezeichnet den Typ der Eingabe. Der default istedit, d.h. die Werte werden eingegeben. Als Alternativen stehen Checkbox und Popup zurVerfugung: in ersterem Fall wird ein Feld erzeugt, in dem zwei Moglichkeiten zur Auswahlstehen, je nachdem, ob die Checkbox markiert ist oder nicht. Ein derartiges Feld kann z.B.verwendet werden, um bei Winkelgroßen zwischen Grad- und Bogenmass zu unterscheiden,so dass die Eingabe nicht von vornherein auf die eine Moglichkeit eingeschrankt ist. In derVariante Popup kann in einem Menu zwischen verschiedenen Moglichkeiten ausgewahlt wer-den.

§ 454 Die anderen beiden Spalten schranken die Behandlung der Variablen ein. Falls in derSimulation einer Variablen bereits ein Wert zugewiesen wurde, so erscheint dieser bei ange-kreuztem Feld Evaluate im Dialogfenster. Ist der Variablen kein Wert zugeordnet oder istEvaluate ausgeschaltet, so wird nur der Variablenname als Zeichenkette angezeigt. Tunableerlaubt eine Veranderung der Variablen wahrend des Programmablaufs. So lassen sich einer-seits Parameter gegen versehentliches Uberschreiben schutzen – bei einer Anfangsbedingungware dieses Verbot des Uberschreibens allerdings fatal. Daher entweder immer tunable an-gekreuzt lassen oder vor Veranderung der Markierung grundlich nachdenken.

§ 455 Das Callback-Feld im unteren Teil der Karte erlaubt es, mit dem ausgewahlten Para-meter ein Stuck MatLab-Code auszufuhren, z.B. um den wahrscheinlichen Vorzeichenfehlerbei der Eingabe zu vermeiden: der Benutzer weis naturlich nicht genau, ob wirklich die Fe-derkonstante als positive Große oder der Eintrag in den Gain-Block (also das negative derFederkonstante) gewunscht ist.

Initialisierung

§ 456 Die Karte fur die Initialisierung, wie in Abb. 4.30 gezeigt, liefert eine Liste der imBlock behandelten Variablen. Sie kann beliebige MatLab-Statements enthalten und aufdiese Weise MatLab-Variablen Werte zu weisen, die in der Konfiguration der Blocke immaskierten Untersystem benotigt werden konnen. So konnen wir z.B. unserem maskiertenBlock ein Icon geben, in dem die Masse wirklich als Wagelchen und nicht einfach als Rechteck

4. Februar 2008 c© M.-B. Kallenrode

Page 136: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.5. (MASKIERTE) UNTERSYSTEME 125

Abbildung 4.30: Editor fur ein mas-kiertes Subsystem, Initialisierung

Abbildung 4.31: Editor fur ein mas-kiertes Subsystem, Dokumentationund Hilfe

dargestellt ist. Dazu benotigen wir z.B. Rader, die wir mit Hilfe der in Abb. 4.30 erzeugtenVektoren darstellen konnen.

§ 457 Die hier erzeugten Variablen sind lokale Variablen. Sie gehen weder in den MatLab-Workspace ein noch konnen von dort Variablen importiert werden. Das gilt ubrigens fur alleVariablen innerhalb eines maskierten Untersystems. Damit unterscheiden sie sich von einemgewohnlichen Untersystem: dem konnten wir in § 448 einfach Variablen aus dem Workspacezuweisen. Das maskiert Untersystem dagegen ist gegenuber dem Workspace blind und umge-kehrt – daher auch der Name. Die einzigen ausgetauschten Großen sind die, die im Dialogfelddes maskierten Untersystems auftreten.

§ 458 Kommandos im Initialisierungsfenster sollten jeweils mit einem Semikolon beendetwerden (Echo off); es konnen alle MatLab-Operationen und -Funktionen ebenso wie selbstgeschriebenen Funktionen verwendet werden. Auch die ublichen Steuerstrukturen wie if,while und end konnen benutzt werden.

Dokumentation

§ 459 Die letzte Karteikarte, siehe Abb. 4.31, dient der Dokumentation und ist optional.Trotzdem sollte man sie nicht vernachlassigen: die Eintrage erscheinen auf der Block Pa-rameters Karte und liefern nicht nur eine Kurzbeschreibung (der Text aus dem Feld Maskdescription) sondern auch die richtige Hilfe.

c© M.-B. Kallenrode 4. Februar 2008

Page 137: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

126 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.32: Editor furein maskiertes Subsystem,Icon

Abbildung 4.33: Das Feder–Masse System aus Abb. 4.24 mit maskierten Untersystemen. Imrechten Teil ist die Dialog-Box fur das obere Untersystem geoffnet

Icon

§ 460 Die erste Karte haben wir uns bis zuletzt aufbewahrt. Fur das Icon konnen wir ent-weder mit imread ein .tif-Bild einlesen oder wir mussen etwas basteln. Die Karte erlaubteine Vielzahl von Einstellungsmoglichkeiten (Icon mit oder ohne Rahmen, transparent odernicht ...), das Icon selbst mussen wir aber im Fenster drawing commands zusammen basteln.Dabei konnen wir auf die ublichen MatLab-Befehle zuruck greifen.

§ 461 Schließen wir jetzt den Editor, so sollte sich das Subsystem in dieses Icon umgewandelthaben. Anklicken des Icons offnet das Dialog-Feld zum Eintrag der Parameter. Diese konnenals numerische Werte eingetragen oder als Variablen definiert werden – letztere konnen dannwie bei den gewohnlichen Blocken uber den Workspace oder ein m-File eingegeben werden.

Das zusammengebaute System

§ 462 Das komplette System erhalten wir, in dem wir auch die anderen beiden Untersystemedurch das maskierte Untersystem ersetzen, vgl. Abb. 4.33. Da die maskierten Blocke die

4. Februar 2008 c© M.-B. Kallenrode

Page 138: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.6. KOMMUNIKATION MIT DEM WORKSPACE 127

gleichen Ein- und Ausgabeports haben wie die unmaskierten Untersysteme, andert sich anden Verbindungen nichts – und am Ergebnis zum Gluck auch nichts.

Und wohin damit?

§ 463 Maskierte Blocke haben in SimuLink die gleiche Funktion wie Unterprogramme inder konventionellen Programmierung oder Funktionen in MatLab: sie halten nicht nur einspezielles Programm ubersichtlich sondern stehen auch zur weiteren Verwendung in anderenProgrammen, bzw. im Falle der Blocke in anderen Modellen, zur Verfugung. Entsprechenderlaubt SimuLink die Erstellung einer Block Library. Kopieren wir einen Block aus dieser Bi-bliothek in ein Modell, so bleibt die Verbindung vom Modell zum Block erhalten: Anderungendes Blocks in der Library werden auch im Modell wirksam.

§ 464 Eine neue Bibliothek lasst sich in SimuLink uber File ← New ← Library erzeugen.Es offnet sich ein Fenster Library:untitled, in das wir den maskierten Block (und bei Bedarfweitere Blocke, die wir in dieser Bibliothek ablegen wollen) hinein kopieren konnen. Speichernerzeugt den Bibliotheksblock, alle seine Kopien sind Referenzblocke. Zu Anderungen unddem Vererben von Eigenschaften gelten die ublichen Regeln, weitere Informationen in derMatLab-Hilfe.

4.6 Kommunikation mit dem WorkSpace

§ 465 Da wir in Abschn. 4.5.2 die Parameter fur die Gain-Blocke einfach mit Hilfe einesm-Files in den Workspace schreiben konnten und sie dort von SimuLink ‘abgeholt’ wur-den, findet ganz offenbar eine Kommunikation zwischen Simulation und Workspace statt. Indiesem Abschnitt wollen wir diese etwas genauer betrachten und uns zu Nutze machen.

4.6.1 GUI oder nicht?

§ 466 SimuLink ist uns bisher nur in Form des GUIs begegnet: Modelle haben wir durchverbinden geeigneter Blocke ahnlich einem Flussdiagramm erzeugt. Die dabei erzeugte mdl-Datei ist eine Textdatei, die sich mit einem normalen Editor offnen lasst. In ihr finden sich alleEinstellungen zur Simulation im allgemeinen (entsprechend der Simulationssteuereung), dieInformationen uber die verwendeten Blocke und die darin enthaltenen Parameter, sowie diezur graphischen Darstellung notwendigen Positionsinformationen. Im Prinzip konnen wir dasModell nicht nur im graphischen Modus modifizieren sondern auch in dieser Datei manuellAnderungen vornehmen.

§ 467 Aus dem Workspace konnen wir (ohne Verwendung des GUI) auf ein Modell und auchauf diese Informationen zuruck greifen. In § 447 haben wir bereits darauf hingewiesen, dassdas m-File zur Ubergabe von Parametern nicht den gleichen Namen haben darf, wie dasmdl-File des Modells, da MatLab sonst das mdl-File statt des m-Files ausfuhrt.

§ 468 Ohne SimuLink zu offnen konnen wir mit

>> uiopen(’gedaempfte schwingung.mdl’,1)

das Modell gedaempfte schwingungr.mdl (vgl. Abb. 4.15) aus dem MatLab Kommando-Fenster heraus offnen; die einfache Eingabe des Namens des mdl-Files reicht hierzu auchschon aus. Mit dem Befehl gcs (get current system) lasst sich aus dem Kommandofensterheraus das gerade in SimuLink geoffnete Modell identifizieren:

>> gcsans =gedaempfte schwingung

c© M.-B. Kallenrode 4. Februar 2008

Page 139: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

128 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

§ 469 Informationen uber das so identifizierte System konnen wir mit find system erhalten:

>> find system(gcs, ’Type’, ’block’)ans =’gedaempfte schwingung/Integration s’’gedaempfte schwingung/Integration v’’gedaempfte schwingung/Mux’’gedaempfte schwingung/Scope’’gedaempfte schwingung/Sum’’gedaempfte schwingung/beta’’gedaempfte schwingung/omega∧2’

Mit diesem Befehl lassen sich, je nach ubergebenen Parametern, auch nach Ports, Verbin-dungen und Anmerkungen suchen. Auch ein Blick hinter die Masken von maskierten Blockenist, bei entsprechender Einstellung, moglich; fur weitere Informationen die MatLab-Hilfekonsultieren.

§ 470 Mit Hilfe von get param konnen wir den Parameter Denominator des Blocks TransferFunction abfragen:

>> get param(’gedaempfte schwingung/beta’, ’Gain’)ans =-1

Verandern konnen wir diesen (oder jeden anderen) Parameter mit set param:

set param(’gedaempfte schwingung/beta’, ’Gain’, ’-0.2’)

§ 471 Auch der Start der Simulation kann aus dem Kommando-Fenster erfolgen:

>> [t,results] = sim(’gedaempfte schwingung’, [0,40]);

Der Start der Simulation aus dem Workspace hat den Vorteil, dass die Ausgabe ebenfallsdirekt in den Workspace in die beim Aufruf der Simulation festgelegten Variablen erfolgt: indiesem Fall Geschwindigkeit und Position als erste und zweite Spalte in der Matrix Results.Damit sind wir bei der Darstellung der Ergebnisse nicht mehr auf das Scope angewiesensondern konnen aus dem Workspace direkt mit

>> plot(t,results)

eine konventionelle MatLab-Abbildung erzeigen, die wir mit den ublichen Werkzeugen weiterbearbeiten konnen. Um die Abbildung im Scope-Fenster zu reproduzieren, konnen wir esalternativ auch mit simplot versuchen

>> simplot(t,results)

Da die Abbildung mit simplot an das Oszilloskop erinnern soll, verwendet MatLab fur dieKurven helle Farben auf dunklem Grund. Fur den Druck ist das, wie Sie in den Beispielen imSkript schon hinreichend festgestellt haben, nicht sehr praktisch. Um dunkle Linien vor hellemHintergrund zu erreichen, kann man vor dem Druck die fur das Oszilloskop erforderlicheFarbinversion mit der Sequenz set(gcf, ’InvertHardcopy’, ’off’) ruckgangig machen.

Starten einer Simulation mit SIM

§ 472 Die vollstandige Syntax des sim Befehls ist

>> [t,x,y] = sim(model,TimeSpan,Options,ut)

Die Liste der zuruck zu gebenden Variablen ist optional; sie kann aus einer, zwei oder allendrei Variablen bestehen. Die erste Variable t ist der Wert der simulierten Zeit an jedemAusgabepunkt. Diese Variable ist nicht nur im Zusammenhang mit den anderen Simulations-ergebnissen interessant sondern auch fur eine genauere Untersuchung der Arbeitsweise des

4. Februar 2008 c© M.-B. Kallenrode

Page 140: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.6. KOMMUNIKATION MIT DEM WORKSPACE 129

Abbildung 4.34: Schrittweite des variablenSolvers ODE45 bei Losung der erzwungenenSchwingung aus Abb. 4.15 fur ω2

0 = 10 undβ = 0.2, Schrittweiten ‘auto’, relative Tole-ranz auf 10−8 erzwungen

Solvers: der Solver erzeugt am Ende jedes Integrationsintervalls eine neue Zeitmarke, d.h. dieAnderungen in den Abstanden der Zeitmarken zeigen die Anpassung des Solvers an die Ei-genschaften der zu integrierenden Funktion. Abbildung 4.34 zeigt als Beispiel die Anderungder Schrittweite des Solvers ODE45 fur die erzwungene Schwingung; Parameter siehe Bild-beschriftung. Die Ausgabezeitpunkte konnen jedoch auch mit Hilfe der Simulationskontrolleverandert werden, vgl. Abschn. 4.7.3.

§ 473 Die zweite Ruckgabevariable x enthalt die Trajektorie der Zustandsvariablen: jedeSpalte der Matrix entspricht einer Zustandsvariablen des Systems; jede Zeile entspricht einerfesten Zeit, spezifiziert durch das entsprechende Element in t. Die letzte Ruckgabevariabley enthalt die Trajektorie der Ausgangsvariablen. Enthalt das Modell keinen Output Blockobwohl eine Output Variable erzeugt wurde, so enthalt diese Ruckgabevariable einen leerenVektor [].

§ 474 Die Variablen model als String mit dem Namen des Modells und TimeSpan als Vek-tor mit Start- und Endzeit sind bereits aus dem Beispiel bekannt. In der einfachsten Formwerden Anfangs- und Endzeit ubergeben: enthalt der Vektor mehr als zwei Komponenten,so werden die Simulationsergebnisse zu diesen Zeiten ausgegeben. Auch eine Angabe in derForm [T Start:TimeSpacing:T Final] ist moglich.

§ 475 Wahrend die erste Variable ubergeben werden muss, sind als folgenden optional underlauben es, verschiedene Parameter in der Konfiguration des Modells zu verandern. Die Va-riable Options erlauben die Veranderung einer großen Zahl von Simulationsparametern; ihreStruktur kann mit simset dargestellt und verandert werden. Der Parameter ut erlaubt eineVeranderung der vom Modell aus dem Workspace einzulesenden Großen wie in den Simulati-onsparametern festgelegt. ut kann eine Tabelle sein in der Form [t, u1, u2, ...] oder alsString der Name einer MatLab Funktion. Eingabegroßen mussen mit einem entsprechendemImport Block im Modell verknupft sein.

§ 476 Die mit sim ubergebenen Parameter beeinflussen nur diesen einen Run des Modells;die in der Simulationskontrolle eingetragenen Parameter werden nicht verandert, d.h. sie sindvor dem Ausfuhren von sim die gleichen wie danach.

Veranderung der Simulationsparameter mit simset

§ 477 Die Struktur der mit sim zu ubergebenden Optionen kann, ebenso wie einzelnen Si-mulationsparameter, mit simset modifiziert werden. simset tritt daher in drei Formen auf.Die einfachste Form erlaubt die Spezifikation eines Solvers und seiner Eigenschaften, z.B.

options = simset(’RelTol’,1.0E-4,’Solver’,’ode4’)

Mit Hilfe der zweiten Form lasst sich eine bestehende Optionenstruktur verandern:

options = simset(oldopts,’name 1’,value 1, ...)

c© M.-B. Kallenrode 4. Februar 2008

Page 141: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

130 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Mit der dritten Form konnen die beiden Satze von Optionen, oldopts und newopts zu einemneuen Satz verschmolzen werden, wobei newopts Prioritat hat:

options = simset(oldopts,newopts)

§ 478 Mit simset konnen die folgenden Eigenschaften gesetzt werden:

Solver Auswahl des Solvers, neben den in § 481 beschriebenen Solvern kann auch ’FixedStepDiscrete’oder ’VariableStepDiscrete’ spezifiziert werden.

RelTol relative Toleranz des Verfahrens, siehe § 487AbsTol absolute Toleranz des Verfahrens, siehe § 487Refine Verfeinerung Output, siehe auch Abschn. 4.7.3; wird ignoriert, wenn die Zeitpunkte

der Ausgabe explizit angegeben werdenMaxStep maximale Schrittweite, siehe § 485InitialStep Schrittweite im ersten Schritt, siehe § 486MaxOrder falls ODE15s verwendet, wird die maximale Ordnung des Solvers spezifiziert; sonst

wird der Wert ignoriertFixedStep Schrittweite fur einen Solver mit fester SchrittweiteOutputPoints entweder ’specified’ oder ’all’. In letzterem Fall werden alle Zeitschritte

ausgegeben, in ersterem nur an den in TimeSpan definierten. Aquivalent zu specifiedoutput only oder Produce additional output in § 4.7.3

Outputvariables uberschreibt die drei typischerweise ausgegebenen und in § 472 beschrie-benen Ausgabevariablen; die variable wird durch einen String aus bis zu drei Zeichendefiniert, der Kombinationen vont, tt x und y enthalt, z.B. tx.

MaxRows limitiert die maximale Zeilenzahl der Ausgabe, entspricht Limit to Last in Ab-schn. 4.7.3

Decimation positiver Integer; bestimmt, ob jeder (1) oder jeder nte (n) Zeitpunkt ausgege-ben wird, vgl. Abschn. 4.7.3

InitialState Vektor, der die Anfangswerte der Zustandsvariablen ubergibt, vgl. Abschn. 4.7.3FinalStateName Name der Variablen im Workspace, in die die letzten Werte der Zustands-

variablen geschrieben werden konnen. Mit Hilfe dieses Vektors kann eine Simulation andieser Stelle fortgesetzt werden

Trace erzeugt Systeminfos wie Compilation Listing; siehe SimuLink HilfeSrcWorkspace wahlt den MatLab Workspace aus, in dem die im Modell verwendeten MatLab-

Ausdrucke auszuwerten sind. Die Option ist besonders wichtig, wenn ein Modell aus einemm-file, d.h. einer MatLab-Funktion, heraus lauft. ’base’ bezeichnet, dass alle Variablender Simulation aus dem Basis-Workspace von MatLab bezogen werden. ’current’ holtdie Variablen aus dem personlichen Workspace, aus dem heraus das Modell aufgerufenwurde; ’parent’ dagegen nimmt die Variablen au s dem Workspace, aus dem die mo-mentan verwendete Funktion (also die, die das Modell aufgerufen hat) aufgerufen wurde.Auf den Simulationsparameter-Karten gibt es keine entsprechende Einstellmoglichkeit;wahrscheinlich, weil diese Frage ohnehin nur bei Steuerung aus dem Workspace herausauftreten kann.

DstWorkspace ahnlich SrcWorkspace jedoch nicht bezogen auf den In- sondern den OutputZeroCross verandert die Disable zero crossing detection Box

§ 479 Den Wert einer bestimmten Variablen oder die Struktur der Optionen kann mansimget erhalten:

opts = simget(model)

Der Wert einer bestimmten Eigenschaft lasst sich gezielt abfragen mit

value=simget(model,property name)

mit den Eigenschaften wie in § 478.

4. Februar 2008 c© M.-B. Kallenrode

Page 142: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 131

Abbildung 4.35:Simulationskontrolle

4.7 Simulationskontrolle

§ 480 Bisher haben wir die Frage verdrangt (bzw. eine Angstschrittweite) erzwungen: unterwelchen Bedingungen ist das von SimuLink verwendete Verfahren stabil und wie konnen wirdie Genauigkeit beeinflussen? Werfen wir einen genaueren Blick auf die Karte Simulation← Configuration Parameters; ein Beispiel ist in Abb. 4.35 gezeigt. Hier lassen sich ver-schiedene Bereiche vom Solver uber Datenim- und -export, Optimierung und Diagnose bishin zur Hardware Implementierung auswahlen.

4.7.1 Solver

§ 481 Der großte Handlungsbedarf besteht bei der Wahl des Solvers. Alle Solver sind furDGLs erster Ordnung. Die meisten von ihnen durften aus MatLab bekannt sein:

ODE45 allgemeines einstufiges Losungsverfahren, basiert auf dem auf ein Runge–Kutta Ver-fahren vierter/funfter Ordnung zuruck greifendes Dormand–Prince Verfahren: die Funkti-on wird in jedem Integrationsintervall durch Polynome (Tayler-Entwicklung) entsprechen-der Ordnung angenahert. Die Kombination von zwei Ordnungen erlaubt die Uberprufungvon Genauigkeit und Stabilitat durch Vergleich. Ist der Default Solver; wenn keinen Ge-genargumente bekannt sind, lohnt sich der Solver auf jeden Fall fur den ersten Versuch.

ODE23 Es ist schneller aber auch weniger genau als ODE45, d.h. seine Genauigkeit ist von nurniedriger Ordnung. Dennoch kann es fur schnelle Abschatzungen sinnvoll sein, bei einigenDifferentialgleichungen auch Genauigkeiten liefern, die mit denen von ode45 vergleichbarsind.

ODE113 (Adams–Bashforth–Moulton Verfahren) ist im Gegensatz zu den beiden vorherigenMethoden kein einstufiges Verfahren sondern ein mehrstufiges: es basiert, ahnlich dem Eu-ler Ruckwarts Verfahren [51, 54] auf einem Pradikator–Korrektor Schema. Außerdem istes kein Verfahren fester Ordnung: die Ordnung des Polynoms wird unter Berucksichtigungvon Genauigkeit und Rechenzeit automatisch angepasst. Die sich daraus ergebende hohereGenauigkeit und Stabilitat erkaufen wir mit einem mehrstufigen Verfahren und entspre-chend großerer Rechenzeit. Daher ist ode113 nicht unbedingt das erste Verfahren mitdem man einer gewohnlichen Differentialgleichung auf den Leib rucken sollte. Es ist aberein Verfahren, das eventuell auch fur DGLs eine Losung liefert, am denen ode45 scheitert.

ODE15S ist ebenfalls ein mehrstufiges Verfahren variabler Ordnung. Es ist, ebenso wie al-le anderen auf S endenden Solver, speziell fur steife Differentialgleichungen entwickelt.Die Bezeichnung stammt (sorry, es ist ein sehr strapaziertes Beispiel) vom (gedampften)Federpendel mit einer sehr steifen Feder. In diesem Fall ergibt sich die Uberlagerungeiner sehr schnellen Dynamik (die Schwingung) mit einer sehr langsamen Dynamik (dem

c© M.-B. Kallenrode 4. Februar 2008

Page 143: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

132 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abklingen der Amplitude auf Grund der Dampfung). Die Kombination der unterschied-lichen Zeitkonstanten ist mit einem hohen Rechenaufwand verbunden, so dass Solver fursteife DGLs in der Regel fur nicht-steife Probleme ineffizient sind.

ODE23S basiert auf dem Rosenbrock Algorithmus; nur fur steife DGLs.ODE23T Trapez-Integration einer steifen DGL.ODE23TB wie ODE23T aber mit anderem Verfahren zur Bestimmung des Rundungsfehlers.

Etwas langsamer aber dafur etwas stabiler als ODE23T.Discrete spezielles Losungsverfahren fur Systeme ohne kontinuierliche Zustande; zwar sind

alle anderen Solver ebenfalls auf derartige Systeme anwendbar, dieser ist aber der schnells-te.

ODE5 Dormand–Prince Verfahren wie in ODE45, jedoch mit fester SchrittweiteODE4 ganz klassisches Runge–Kutta Verfahren vierter Ordnung (siehe z.B. [54, 51], Kurzfas-

sung in Abschn. B.2.1), per definitionem mit fester SchrittweiteODE3 Bogacki–Shampine Verfahren wie in ODE23 aber mit fester SchrittweiteODE2 ebenfalls ein Runge–Kutta Verfahren mit fester Schrittweite aber nur von zweiter Ord-

nung; auch als Heun’s Verfahren bezeichnet.ODE1 Euler Verfahren – da weiß man zumindest, was man macht. Feste Schrittweite sowieso.ODE14x impliziter Solver mit fester Schrittweite und schlechter Dokumentation; kann in ver-

schiedenen Ordnungen spezifiziert werden. Alle anderen Solver mit fester Schrittweitesind explizite Verfahren (die Solver mit variabler Schrittweite sind meines Verstandnissesnach ebenfalls alle explizit).

Die Auswahl ist auf der Karte eingeschrankt: ist im linken Bereich eine variable Schrittweiteeingestellt, so bietet SimuLink auch nur Solver mit variabler Schrittweite an (ODE45 bisDiscrete). Ist dagegen eine feste Schrittweite gewahlt, so werden auch nur die entsprechendenSolver (Discrete bis ODE14x) zur Auswahl gestellt. Die Details der einzelnen Solver sind in[41] und [111] gegeben.

Zwischenrechnung 25 Betrachten Sie ein Federpendel (gedampft, kein externer Antrieb)beschrieben durch

x + 100x + 0.9999x = 0

mit den Anfangsbedingungen x(0) = 0 und x(0) = 0. Laplace Transformation ergibt

s2X(s)− s x(0)− x(0) + 100(sX(s)− x(0)) + 0.9999X(s) = 0 .

Einsetzen der Anfangsbedingungen und Auflosen nach X(s) liefert

X(s) =s + 100

s2 + 100s + 0.9999.

Rucktransformation liefert

x(t) = −0.0001 e−99.99t + 1.0001 e−0.01t .

Der erst Term beginnt bei kleiner Amplitude und zerfallt sehr schnell, der zweite Term beginntbei einer 4 Großenordnungen hoheren Amplitude und zerfallt langsame. Damit dominiert erdas Verhalten. Untersuchen Sie das Verhalten der Losung fur verschiedene Solver, insbeson-dere einem Solver fur steife DGLs, z.B. ODE15s und dem Standardsolver ODE45. Achten Siedabei auf Laufzeit, Große des Outputs (Lange des Zeitvektors) und eventuelle Schwingungen(Ausschnittvergroßerungen!).

§ 482 Grundsatzlich gibt es keinen besten Solver – lediglich fur eine bestimmte Aufgabe kannder eine oder andere Solver besser geeignet sein. Um einen Solver vernunftig auszuwahlen,mussen wir also auch die Dynamik des Systems verstehen.

4. Februar 2008 c© M.-B. Kallenrode

Page 144: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 133

Feste oder variable Schrittweite?

§ 483 Feste Schrittweite ist in jedem Fall eine langsame (und bei ungeschickter Wahl derSchrittweite auch Fehler anfallige) Variante, vgl. Abb. 1.4. Die Verwendung eines Losungs-verfahrens fester Schrittweite ist gerechtfertigt, wenn man die Vorzuge der genauen formalenBeschreibung von Stabilitatskriterien und Abbruchfehlern ausnutzen mochte. Kann man sichmit derartigen Fragen beschaftigen, so ist in der Regel die korrekte Wahl des Zeitschrittsauch kein Problem mehr.

§ 484 Wahlen wir einen Solver variabler Schrittweite, so liefert die Karte vier Felder zurKontrolle der Schrittweite, vgl. Abb. 4.35. Die beiden Felder Max Step Size und Initialstep Size erlauben es, das Risiko zu reduzieren, dass der Solver wichtige Aspekte des Sys-temverhaltens ubersieht.

§ 485 Die maximale Schrittweite ist so definiert, dass das zu simulierende Zeitintervall in 50Schritte unterteilt wird:

hmax =tstop − tstart

50.

Ein Federpendel mit einer Frequenz von 1 Hz lasst sich damit uber eine Simulationsdauer von10 s noch recht vernunftig (wenn auch etwas zackig) betrachten – uber eine Simulationsdauervon 200 s ist die maximale Schrittweite aber so groß, dass der Solver u.U. einen wichtigenAspekt des Systems, namlich die Schwingung, ubersieht. Fur eine periodische Bewegungschlagt MathWorks vor, die maximale Schrittweite auf 1/4 der Frequenz zu setzen.

§ 486 Ein Solver variabler Schrittweite sucht sich seine Schrittweite aus der Ableitung. Furden ersten Schritt gibt es keine ‘Vergangenheit’, d.h. SimuLink kann nur auf der Basis derAnfangswerte Zustandsgroßen und der Ableitungen in diesen Punkten arbeiten – ohne die furdie Anpassung der Schrittweite wichtige Anderung der Ableitung bewerten zu konnen. Daherkann insbesondere im ersten Schritt wichtiges Systemverhalten ‘ubersehen’ werden. Gibt eseinen Grund zu der Annahme, dass sich das System kurz nach Start der Simulation zur ZeittStart deutlich verandert, so sollte der Parameter Initial step Size auf einen entsprechendkleinen Wert gesetzt werden. Besteht dieser Verdacht nicht, so ist es eine gute Idee, sich aufden Solver zu verlassen und diesen Parameter auf auto zu stellen.

§ 487 Die beiden anderen Parameter, Relative Tolerance und Absolute Tolerance, er-lauben es, fur jeden Zustand xi den zulassigen Wert ei des Integrationsfehlers zu bestimmengemaß

ei ≤ max (trel|xi|, tabs) .

Ist die Zustandsgroße xi groß, so bestimmt die relative Toleranz den Integrationsfehler; furkleine Werte der Zustandsgroßen ist die absolute Toleranz maßgeblich.

§ 488 Das, was auf dieser Karte an Parametern verandert werden kann, wird bei Verwendungdes entsprechenden Solvers aus MatLab heraus mit der Funktion odeset verandert.

Beispiele variable Schrittweite

§ 489 In Abb. 4.36 sind im linken Teil die von den Solvern ODE45, ODE23 und ODE113 ver-wendeten Schrittweiten fur die Simulation der gedampften Schwingung mit den Parame-tern wie in Abb. 4.34 bei einer relativen Toleranz von 10−3 (Default) gegeben. ODE45 (rot)kommt mit der geringsten Zahl an Schritten aus und verwendet fast durchgangig die maximalmogliche Schrittweite – der Graph ist auf Grund der großen Schrittweite im Vergleich zurSchwingungsperiode entsprechend zackig. ODE23 (blaue Symbole) arbeitet mit einer kleinerenSchrittweite und benotigt entsprechend eine großere Zahl von Schritten. Hier erkennt manauch, ahnlich dem Ergebnis in Abb. 4.34, die haufige Anpassung der Schrittweite. In dergraphischen Darstellung ist die Losung auf Grund der großeren Zahl von Schritten weniger

c© M.-B. Kallenrode 4. Februar 2008

Page 145: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

134 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.36: Links: Wie Abb. 4.34 fur drei verschiedene Solver und eine relative Toleranzvon 10−3; Rechts: wie links aber fur eine relative Toleranz von 10−8; fur ODE45 vgl. auchAbb. 4.34

zackig. Das implizite Verfahren mit Pradikatorschritt in ODE113 hat uber langere Zeiten kon-stante Schrittweiten, erreicht aber die maximale Schrittweite nicht. Auf Grund der relativgroßen Schrittzahl (im Vergleich zu ODE45) und der langen Rechenzeit pro Schritt (im Ver-gleich zu ODE45 und noch mehr im Vergleich zu ODE23) ist das Verfahren langsam – und deroptische Eindruck ist immer noch recht zackig.8

§ 490 Weniger zackige Kurven lassen sich durch Erhohung der relativen Toleranz oder durchReduktion der maximalen Schrittweite erzeugen. Im rechten Teil von Abb. 4.36 ist eine re-lative Toleranz von 10−8 gewahlt. Die Schrittzahlen in ODE45 und ODE113 sind vergleichbar,ODE23 braucht eine mehr als funfmal so große Schrittzahl. In ODE23 (und ebenso in ODE45in der Darstellung wie in Abb. 4.34) wird die schnelle Variation der Schrittweite mit derSchwingung deutlich. ODE113 zeigt auch hier uber langere Zeiten konstante Schrittweiten –diese werden offenbar an der Steigung der Hullkurve und weniger an der Frequenz ausgerich-tet.

§ 491 Ahnliche Verhaltnisse zwischen den einzelnen Solvern im rechten Teil von Abb. 4.36ergeben sich, wenn man statt der relativen Toleranz von 10−8 den Default-Wert von 10−3

verwendet und die maximale Schrittweite mit 0.1 begrenzt.

4.7.2 Nullstellendetektion

§ 492 Auf der Karte zur Kontrolle der Solver in Abb. 4.35 konnen außerdem Einstellungenzur Behandlung von Nullstellen vorgenommen werden. Diese sind z.B. bei einem springendenBall interessant, wenn dieser beim Auftreffen auf den Boden reflektiert werden soll. Egal obSolver mit konstanter oder variabler Schrittweite verwendet werden: es ist nicht zu erwarten,dass der Solver genau beim Auftreffen des balls auf den Boden eine Stutzstelle in der Zeithat. In der Regel wird der Solver das Auftreffen des Balls erst entdecken, wenn dieser in derLosung bereits ein Stuckchen in den Boden eingedrungen ist. Die Detektion von Nullstellenerlaubt es dem Solver, sich entsprechend anzupassen und so den Ball vor seinem Eindringenin den Boden korrekt zu reflektieren.

8Das Argument der Zackigkeit des Graphen als numerisches Artefakt ist zwar anschaulich aber eigentlichbedeutungslos. Zum einen sagt eine mehr oder weniger deutliche Zackigkeit nichts uber die Genauigkeit desSolvers aus. Zum anderen ist SimuLink in der Lage, einerseits mit dem Solver variabler Schrittweite zu arbei-ten, andererseits aber auch eine Ausgabe zu vordefinierten Zeiten und insbesondere auf einem aquidistantenZeitvektor vorzunehmen, vgl. § 474. Daher ist auch der Wunsch nach einer aquidistanten Zeitachse mit vor-gegebener Teilung kein Grund fur die Verwendung eines Solvers mit fester Schrittweite.

4. Februar 2008 c© M.-B. Kallenrode

Page 146: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 135

Abbildung 4.37:Springender Ball inSimuLink, basierendauf [35]

Abbildung 4.38: Modell eineselastischen Balls [35]

Springender Ball

§ 493 Ein Ball wird aus der Hohe y(0) = h fallen gelassen. Beim Aufprall auf den Boden wirder elastisch reflektiert, die Abstoßgeschwindigkeit ist proportional Aufprallgeschwindigkeitmit einem Proportionalitatsfaktor -0.8. Die Differentialgleichung der Bewegung ist einfach:

y = −g mit y(0) = h und y(0) = 0 .

Diese Kombination aus Bewegungsgleichung und Anfangsbedingungen gilt bis der Ball zurZeit tR auf den Boden trifft: y = 0. Dann gilt zwar die gleiche Bewegungsgleichung, jedochmit den neuen Anfangsbedingungen y(tR) = 0 und y(tR) = −0.8vAufprall.

§ 494 Zur Steuerung der in Abb. 4.37 gezeigten Simulation ist auf der Karte Simulationskon-trolle im Feld ‘zero crossings control’ die Einstellung ‘use local settings’ aktiviert. Integrator2 liefert als Ergebnis die Geschwindigkeit. Bei der Einstellung der Parameter des Blocks wirddas Feld Limit Output aktiviert: dann lassen sich ein oberer und ein unterer Sattigungspunkteingeben. In diesem Fall ist der untere Sattigungspunkt Null relevant, der obere kann einenbeliebigen Wert (aus inf fur unendlich) annehmen. Außerdem ist auf dieser Karte das dieQuelle fur die Anfangsbedingung als extern eingestellt. Diese wird daher durch einen kon-stanten Block von außen vorgegeben.

§ 495 Fur den ersten Integrator benotigen wir keine Einstellung der Sattigungspunkte. Die-ser Integrator hat auf der linken Seite des Blocks drei Eingange: der obere Eingang fur dieEingangsgroße, in unserem Beispiel die konstante Gravitationsbeschleunigung. Der zweiteEingang dient der Rucksetzung. Dies erfolgt genau dann, wenn der erste Integrator eineNull sendet, d.h. wenn er seinen unteren Sattigungspunkt erreicht hat. Der Integrator wirddann von der Anfangsbedingung, die an seinem unteren Eingang ebenfalls von außen anliegt,wieder neu gestartet. Dieser Eingang wird aus dem mit der Option ’show state port’ akti-vierten Ausgang uber einen Gain Block mit dem Faktor -0.8 und einem IC oder initialcondition Block auf den Eingang fur die Anfangsbedingung gefuhrt. Der IC Block ist an-fangs auf Null gesetzt (verschwindende Anfangsgeschwindigkeit bei Beginn der Bewegung).Die Verwendung des State Port anstelle des normalen Ausgangs ist mathematisch irrelevant,da beide Großen identisch sind. Allerdings wird durch den State Port die sonst auftretendealgebraische Schleife unterbrochen.

Elastischer Ball

§ 496 Wir konnen das Beispiel noch etwas komplexer gestalten und dabei den Block Switch

c© M.-B. Kallenrode 4. Februar 2008

Page 147: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

136 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.39:Elastischer Ball alsFeder–Masse System inSimuLink, basierendauf dem Modell aus [35]

einsetzen, wie in Hoffmann und Brunner [35] dargestellt. Ein elastischer Ball lasst sich alsein Feder–Masse System darstellen, vgl. Abb. 4.38.

§ 497 In unserem Modell soll die Bewegung in der Luft reibungsfrei erfolgen. Die Bewe-gungsgleichung ist dann

my = −mg mit y(0) = h und y(0) = 0 .

Besteht dagegen Kontakt mit dem Boden (y ≤ 0), so ist die Differentialgleichung

my + βy + ky = 0 .

Die Anfangswerte sind durch die Endwerte des freien Falls gegeben.

§ 498 Das zugehorige Modell ist in Abb. 4.39 gegeben. Der Switch-Block schaltet zwischendem freien Fall und dem Bodenkontakt. Da in beiden Bewegungsabschnitten die gleichen In-tegratoren verwendet werden, sind die Anfangsbedingungen automatisch korrekt und mussennicht gesondert ubergeben werden. Fur y > 0 steht der Switch auf dem oberen Eingang, dasModell beschreibt den freien Fall des Balls. Wird y ≤ 0, so steht der Switch auf dem unterenEingang und das Modell beschreibt die Differentialgleichung des elastischen Balls – wobei dieIntegratoren beim ersten Schritt fur den elastischen Ball noch genau die Endwerte des freienFalls als Anfangsbedingungen haben.

Diskontinuierliches System: Idealisierte (Zener-)Diode

§ 499 Am Beispiel des elastischen Balls haben wir SimuLink in einem System eingesetzt,dass zwischen zwei Zustanden, dem freien Fall und der Kompression des Balls, wechselt. Dazuhaben wir den Schalter verwendet. Fur derartige nicht kontinuierliche Systeme stehen in derDiscontinuities Block Library weitere Hilfsmittel zur Verfugung.

§ 500 Der Block Dead Zone z.B. erlaubt die Simulation einer idealisierten Zener-Diode. Diesesperrt im Durchlassbereich unterhalb der Schwellspannung von 0.7 V, fur hohere Spannungenfließt in unserem idealisierten Modell ein der anliegenden Spannung minus der Schwellspan-nung proportionaler Strom. Diesen betrachten wir als Ausgangsgroße (bzw. statt des Stromeskonnen wir auch den Spannungsabfall uber dem in Serie geschalteten Widerstand verwen-den). Im Sperrbereich sperrt die Zener-Diode bis zum erreichen der Zenerspannung – dannwird sie auch dort leitfahig mit dem Strom proportional der Differenz zwischen anliegender

4. Februar 2008 c© M.-B. Kallenrode

Page 148: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 137

Abbildung 4.40: IdealisierteZener-Diode simuliert mit demDead Zone Block

Abbildung 4.41: Schmitt Trig-ger simuliert mit dem RelayBlock

Spannung und Zenerspannung. Im Block Dead Zone mussen wir nur diese beiden Spannun-gen definieren: zwischen den beiden Spannungen wird der anliegende Funktionswert auf Nullgesetzt, im Bereich außerhalb werden die Signale entsprechend der Werte der Kanten derdead Zone versetzt.

§ 501 Abbildung 4.40 gibt das zugehorige Modell in SimuLink fur eine harmonische Ein-gangsgroße, einen xy-Plot von Ausgangs- gegen Eingangsspannung sowie den zeitlichen Ver-lauf von Ein- (magenta) und Ausgangssignal (gelb). Der xy-Plot veranschaulicht noch einmaldie Funktion und die Grenzen des Blocks Dead Zone, die Spannungsverlaufe auf dem Oszil-loskop entsprechen den Erwartungen.

Verstandnisfrage 48 Musste der xy-Plot nicht eigentlich die Kennlinie der Diode wieder-geben? Ist diese hier sinnvoll oder lassen sich noch Verbesserungen vornehmen, um zu einembesseren Diodenmodell zu kommen?

Diskontinuierliches System: Schmitt-Trigger

§ 502 Und den beruhmt beruchtigten Schmitt-Trigger konnen wir mit dem Block Relay ausgleicher Bibliothek ebenfalls simulieren. Der Block ist fur alle Elemente mit einer Hystere-se gedacht. Der Schmitt-Trigger ist ein Beispiel dafur: zwei verschiedene Schwellen fur dieEingangssignale werden definiert. Oberhalb einer Schwelle wird angeschaltet, unterhalb deranderen Schwelle ausgeschaltet. Eingangsgroßen zwischen den beiden Schwellen fuhren nichtzum Schalten. Ein typisches Anwendungsbeispiel ist ein Dammerungsschalter. Schaltet diesernur auf der Basis des direkt anliegenden Signals, so fuhren Fluktuationen im Signal insbeson-dere wahrend der Dammerung zu einem steten An- und Ausschalten. Um dieses Abzufangen,wird eine Schwelle zum An- und eine zweite zum Ausschalten definiert.

§ 503 Abbildung 4.41 zeigt das entsprechende SimuLink Modell zusammen mit der Hysterese-Kurve im xy-Diagramm und dem zeitlichen Verlauf eines harmonischen Eingangssignals

c© M.-B. Kallenrode 4. Februar 2008

Page 149: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

138 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.42:Simulationskontrolle:auf der Karte DataIm-und Export lassensich die Details desAustausches mit demWorkspace angeben

Abbildung 4.43:Simulationskontrolle:Optimierung erfolgt inSimuLink Defaultmaßig

(magenta) sowie des Ausgangssignals (gelb). Bei Uberschreiten einer Eingangsspannung von2.5 V schaltet der Schmitt-Trigger in den Arbeitszustand, bei Unterschreiten von 1 V schalteter zuruck.

4.7.3 Datenim- und -export

§ 504 Zur Steuerung des Datenaustauschs mit dem Workspace bietet in der Simulations-kontrolle die Karte DataImport/Export, siehe auch Abb. 4.42, die Moglichkeit. Diese Kartebeinhaltet auch die bereits bei der Steuerung aus dem Workspace heraus in § 472 angespro-chenen Variablen.

4.7.4 Optimierung

§ 505 Zur Optimierung der Simulation konnen mit Hilfe der in Abb. 4.43 gezeigten KarteEinstellungen vorgenommen werden. Diese gehen aber uber die Ziele dieses Skripts hinaus;der Verweis auf diese Karte erfolgt im wesentlichen um zu zeigen, dass SimuLink, wie jedergute Compiler, versucht den Code zu optimieren.

4.7.5 Direkte Ruckkopplung: algebraische Schleifen

§ 506 Jeder Bock, dessen Ausgang vollstandig oder teilweise direkt auf seinen Eingang

4. Februar 2008 c© M.-B. Kallenrode

Page 150: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 139

Abbildung 4.44:Simulationskontrolle:Diagnostik erlaubtdie Einstellung etli-cher Warnungen undFehlermeldungen furSolver, Datentypen,Schrittweiten und vielesmehr

Abbildung 4.45: Modell zur Losung DGL ers-ter Ordnung mit algebraischer Schleife: x =u− k2k3x− k1k3x

zuruck gekoppelt wird, bildet eine algebraische Schleife.9 Die Behandlung dieser Schleifenin SimuLink erfordert spezielle Aufmerksamkeit.

§ 507 SimuLink ist ein numerisches System. Daher kann es einen Ausdruck der Form

x = u− k2k3x− k1k3x (4.4)

zwar wie in Abb. 4.45 als Modell behandeln, nicht jedoch algebraisch auflosen, um dieRuckkopplung des Ausgangs auf den Eingang zu vermeiden.

§ 508 Mathematisch handelt es sich bei (4.4) um eine Gleichung, in der x eine Funktionvon u, x und x ist: x = x(x, u, x). Da SimuLink keine algebraischen sondern nur numerischeFertigkeiten besitzt, kann diese Gleichung nur iterativ gelost werden. Das hat zwei Nachteile:(a) iterative Losungen benotigen Zeit und (b) iterative Verfahren finden nicht zwingend die(oder alle) Losungen.

§ 509 Im Beispiel in Abb. 4.45 wird die Schleife aus den Gain Blocken k2 und k3 sowie denbeiden Summenblocken gebildet. Algebraische Schleifen sind jedoch nicht auf diese beidenTypen von Blocken beschrankt: jeder Block, bei dem der momentane Output direkt oderteilweise auf den momentanen Input zuruck wirkt, kann Teil einer algebraischen Schleifesein. Das gilt fur alle Blocke aus der Math Operations Block Library. Das gilt auch furTransfer Function-Blocke, in denen der Grad von Nenner- und Zahlerpolynom identischist sowie fur State Space-Blocke mit nicht verschwindender Transmissionsmatrix D.

Verstandnisfrage 49 Treten in den bisher behandelten Modellen algebraische Schleifenauf? Und wenn ja, in welchen?

9In SimuLink beachten wir die algebraischen Schleifen, weil Sie ein Storfaktor sind – umgekehrt sindalgebraische Schleifen die mathematische Grundlage fur das Chaos und bescheren uns so schone Bildchen wieMandelbrot’s Apfelmannchen, vgl. Abschn. B.3.

c© M.-B. Kallenrode 4. Februar 2008

Page 151: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

140 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.46: Das System erster Ordnungaus Abb. 4.7.5 umformuliert, so dass es keinealgebraische Schleife mehr enthalt

Abbildung 4.47: Das System erster Ordnungaus Abb. 4.7.5 mit Memory Block zum Auf-brechen der algebraischen Schleife

Out11

k3

1/2

k2

2

k1

4

Memory

Integrator

1s

In11 u dotx x

§ 510 SimuLink behandelt die algebraische Schleife mit Hilfe einer robusten Version derNewton–Raphson Methode (siehe auch Abschn. B.2.5). Fur ein skalares Problem kann diealgebraische Schleife dargestellt werden als x = f(x, x, u, t), d.h. die Newton–Raphson Me-thode wird eingesetzt, um die Nullstelle der Funktion Φ = x − f(x, x, u, t) zu suchen. Ist∂Φ/∂x eine konstante, so ist f(x, x, u, t) linear im bezug auf x und das Verfahren konvergiertnach einem Schritt. Ist ∂Φ/∂x nicht konstant, so benotigt das Verfahren u.U. viele Iteratio-nen oder konvergiert uberhaupt nicht. In letzterem Fall ist die Losung instabil – die Losung,nicht zwingend das System. In ersterem Fall findet SimuLink eine Losung, allerdings gehtu.U. viel Zeit verloren.

§ 511 Wenn moglich sollte man daher algebraische Schleifen in einem SimuLink Modell ver-meiden. Mit Hilfe der Diagnostics-Karte der Simulationskontrolle lasst sich eine automati-sche Warnung oder Fehlermeldung fur eine algebraische Schleife einschalten. Ist diese einmalentdeckt, so bestehen zwei Moglichkeiten: die algebraische Schleife bestehen lassen oder sieentfernen. Ist die Geschwindigkeit der Simulation akzeptabel und besteht keine Veranlassungzu der Annahme, dass die algebraische Schleife eine Instabilitat bewirkt, so kann man siebeibehalten. Ist die Losung sehr langsam, so bietet es sich an, die Schleife zu entfernen.

§ 512 Zur Entfernung der algebraischen Schleife genugt manchmal eine einfache Umformulie-rung des Modells. Abbildung 4.46 zeigt ein System mit dem gleichen Input–Output Verhaltenwie das in Abb. 4.7.5 jedoch ohne algebraische Schleife. Entsprechend ist eine Simulation mitdiesem Modell deutlich schneller.

Zwischenrechnung 26 Experimentieren Sie mit dem angegebenen Beispiel und anderenModellen mit algebraischen Schleifen.

§ 513 Manchmal ist es nicht einfach moglich, eine algebraische Schleife durch Umformulie-rung zu entfernen, insbesondere, wenn sich diese z.B. direkt aus der Bewegungsgleichungeines physikalischen Systems ergibt. In diesem fall kann die algebraische Schleife mit Hilfeeines memory Blocks (zu finden in der Blockgruppe Discrete) aufgebrochen werden, vgl.Abb. 4.47. Die Hilfe erklart die Aufgabe dieses Blocks: ‘The Memory block outputs its inputfrom the previous time step, applying a one integration step sample-and-hold to its inputsignal.’ Der Memory Block kann daher stets verwendet werden, um einen algebraische Schlei-fe zu unterbrechen, allerdings kann die mit dem Einfugen des Memory Blocks verbundeneVerzogerung zu einer Reduktion der Genauigkeit fuhren.

4. Februar 2008 c© M.-B. Kallenrode

Page 152: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 141

Abbildung 4.48: Bewegung zwei-er Wagen Huckepack

§ 514 An dieser Stelle mochte ich die Warnung aus der MatLab-Hilfe weiter geben: ‘Avoidusing the Memory block when integrating with ode15s or ode113, unless the input to theblock does not change.’

§ 515 Sind beide Verfahren, umformulieren des Modells und Einfugen des memory Blocksnicht sinnvoll, so lasst sich auch eine MatLab Function Block einfugen, in dem das algebrai-sche Problem direkt gelost wird. Das setzt das Erstellen des entsprechenden MatLab Codesvoraus.

Ein Beispiel mit Memory Block: zwei Wagen Huckepack

§ 516 Dabney und Harman [17] illustrieren das mit dem Memory Block verbundene Problemder Verzogerung am Beispiel zweier Wagelchen. Abbildung 4.48 zeigt die Situation: Wagen1 bewegt sich auf dem Boden, Wagen 2 bewegt sich relativ zu Wagen 1 (und naturlich auchrelativ zum Boden). Die Variablen x1 und x2 sind die Positionen der beiden Wagen imInertialsystem; die Winkelverschiebungen der Wagen sind θ1 und θ2, die wirkenden Drehmo-ment τ1 und τ2. Die Drehung eines Rades ist mit der Position des Wagens im Inertialsystemverbunden uber

x1 = r1θ1 und x2 = x1 − r2θ2 .

§ 517 Die kinetische Energie des Systems lasst sich mit Hilfe der Winkelgeschwindigkeitender Rader ausdrucken als

T =12m1(−r1θ1)2 +

12m2(−r1θ1 − r2θ2)2 .

Mit einer Lagrange Formulierung erhalten wir fur die auf die Rader wirkenden Drehmomente

τ1 = m1r1θ1 + m2r21 θ1 + m2r1r2θ2

τ2 = m2r1θ1 + m2r22 θ2 .

Auflosen nach den Winkelbeschleunigungen liefert ein System gekoppelter Differentialglei-chungen

θ1 = K11(τ1 −K21θ2) undθ2 = K22(τ2 −K12θ1)

mit

k11 =1

(m1 + m2)r21

, K12 = m2r1r2 = K21 und K22 =1

m2r22

. (4.5)

§ 518 Abbildung 4.49 zeigt im linken Teil ein Modell zur Beschreibung dieses Systems. Furdie im rechten Teil des Bildes gezeigt Losung (Dauer der Simulation 500 Zeiteinheiten)wurden die Parameter mittels eines m-Files gesetzt als

m1 = 10 , m2 = 5 , r1 = 2 und r2 = 1.5 .

Außerdem wurden die Parameter Kij gemaß (4.5) vereinbart. Die Drehmomente als Ein-gangsgroßen wurden vereinbart als

τ1 = sin(0.1t) und τ2 = sin(0.2t− 1) .

c© M.-B. Kallenrode 4. Februar 2008

Page 153: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

142 KAPITEL 4. SIMULINK – DIE GRUNDLAGEN

Abbildung 4.49: Algebraische Schleife im Modell zweier gekoppelter Wagen aus Abb. 4.48;die Uhr erlaubt auf langsamen Rechnern ein Abschatzen der Simulationsgeschwindigkeit

Abbildung 4.50: Wie Abb. 4.49 aber mit Memory Block zum Aufbrechen der algebraischenSchleife

§ 519 Die Ausfuhrung der Simulation liefert eine Warnung vor einer algebraischen schleifeim MatLab Workspace. Das Simulationsergebnis ist korrekt, auch wenn die Simulation aufGrund der algebraischen Schleife etwas langsam lauft.

§ 520 Abbildung 4.50 zeigt das gleiche Modell, jedoch mit einem Memory Block zum Auf-brechen der algebraischen Schleife. Die Ausfuhrung des Modells ist wesentlich schneller, al-lerdings entsprechen die Ergebnisse im rechten Teil von Abb. 4.50 nicht denen in Abb. 4.49:das Einfugen desMemory Blocks verfalscht die Simulation so weit, dass qualitativ andere Er-gebnisse entstehen. Das bedeutet, dass die durch den Memory Block eingefuhrte Verzogerungzu lang ist im Vergleich zu den Zeitskalen des Systems. Der Takt des Memory Blocks wirddurch die Zeitauflosung der Simulation gegeben: eine Reduktion der maximalen Schrittweiteder Simulation auf 0.1 fuhrt wieder zu korrekten Resultaten. Allerdings geht damit der Vor-teil des Aufbrechens der algebraischen Schleife verloren: zwar spart die fehlende algebraischeSchleife Zeit, allerdings benotigt die deutlich reduzierte zeitliche Schrittweite Zeit.

§ 521 Das Aufbrechen der algebraischen Schleife in diesem Modell ist daher mit einem ge-wissen Risiko verbunden: wird nur die Schleife erkannt, nicht aber der mit dem Aufbrechender Schleife eingefuhrte Fehler, so liefert die Simulation zwar Resultate, aber leider volligenBlodsinn.

Literaturhinweise

§ 522 Wie bereits in der Einleitung benannt, ist [17] die fur dieses Kapitel am besten geeig-nete Literaturempfehlung. Weiteregehende Details finden sich in der MatLab-Hilfe. Fur ein

4. Februar 2008 c© M.-B. Kallenrode

Page 154: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

4.7. SIMULATIONSKONTROLLE 143

schnelles Einlesen zum Uberblick ist auch der Abschnitt in [42] geeignet. Eine sehr umfang-reiche Quelle ist das Handbuch von Mathworks [71].

Fragen

Aufgaben

Aufgabe 13 Betrachten Sie statt des Federpendels ein Fadenpendel der Masse m und derLange l – und zwar nicht in der Naherung der Auslenkung fur kleine Winkel. Dann ist dieBewegungsgleichung mlϕ+clϕ+mg sinϕ = 0. Losen Sie das Problem (wenn moglich) in alleVarianten: explizites Modell, Ubertragungsfunktion und State Space. Besteht mathematischein Unterschied zum Federpendel?

Aufgabe 14 Betrachten Sie statt der gekoppelten Federpendel in Abschn. 4.4 zwei Faden-pendel, die durch eine Feder gekoppelt sind (klassischer Versuchsaufbau aus dem Anfanger-praktikum). Stellen Sie die Bewegungsgleichung auf, bestimmen Sie eine analytische Losungund modifizieren Sie die Simulation in SimuLink fur dieses Problem. Unterscheiden sich dieLosungen von gekoppelten Faden- und gekoppelten Federpendeln? Begrunden Sie! Diskutie-ren Sie sowohl kleine als auch große Auslenkungen des Pendels.

Aufgabe 15 Modifizieren Sie das Szenario der gekoppelten Federpendel aus Abschn. 4.4derart, dass Sie eine der Randfedern weglassen. Stellen Sie die Bewegungsgleichungen auf undlosen Sie das Problem analytisch und in SimuLink. Diskutieren Sie die Losung physikalisch.

Aufgabe 16 Zwei Massen sind durch eine Feder gekoppelt (reibungsfreie Bewegung aufeiner Luftkissenbahn ist moglich). Welche Bewegung ergibt sich bei Auslenkung einer derMassen. Stellen Sie wieder die Bewegungsgleichung auf und losen Sie diese analytisch undin SimuLink. Das Beispiel ist mit Animation in MatLab als Double Spring Mass Systementhalten.

Aufgabe 17 Verwenden Sie das Fadenpendel aus Aufg. 13, erlauben Sie jedoch eine Veran-derung der Lange des Fadens, z.B. als l(t) = l0 +vt mit v = const oder l(t) = l0(1+0.5 sin t).

c© M.-B. Kallenrode 4. Februar 2008

Page 155: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 5Ubertragungsfunktion vertieft: Filter

Where is the wisdom we have lost in knowledge? Where is the knowledge we havelost in information?

T.S. Eliot, The rock, 1934

§ 523 Ein Filter ist ein einfaches Beispiel fur ein ein statisches System. Daher sind Filtergeeignete Beispiele zur genaueren Untersuchung von Ubertragungsfunktion. Vom Gesichts-punkt eines Systems her sind Filter langweilig – se erfullen zwar eine Aufgabe, entwickelnsich jedoch nicht weiter.

§ 524 Anderseits sind Filter (aufgebaut in analoger Form oder eingesetzt als digitale Werk-zeuge) die wichtigsten Werkzeuge der Signalanalyse – und werden damit haufig auch in derAnalyse des Verhaltens dynamischer Systeme eingesetzt. Dabei ist zwischen analogen unddigitalen Filtern zu unterscheiden. Da erstere in der Regel verzogernde Elemente enthalten,haben sie eine Art Gedachtnis: ein analoger Filter ist nicht symmetrisch in dem Sinne, dasseine Zeitumkehr moglich ist. Digitale Filter dagegen sind als mathematische Konstrukte vondieser Einschrankung befreit.

§ 525 In diesem Kapitel werden wir im wesentlichen FIR (finite impulse response) Filterbetrachten: in diesen Systemen ist jedes Element des Ausgangssignal die Summe einer endli-chen Zahl gewichteter Elemente des Eingangssignals. Das einfachste Beispiel ist das gleitendeMittel. FIR Filter konnen auf zeit-kontinuierliche ebenso wie auf diskrete Signale angewendetwerden.

§ 526 Filter in SimuLink sind gleichbedeutend mit einer intensiven Nutzung der Ubertra-gungsfunktion. Die Koeffizienten von Zahler- und Nennerpolynom konnen dabei extern be-stimmt und eingegeben werden. Alternativ konnen wir fur viele gangige Filter auch aufdie sc MatLab-Funktion filter fur eindimensionale bzw. filter2 fur zweidimensionale Da-tensatze. Auch Simulink halt in der Blockgruppe Discrete verschiedene Formen von Filternvor und insbesondere eine Ubertragungsfunktion fur diskrete Signale.

Lernziele: nach Durcharbeiten dieses Kapitels sollten Sie in der Lage sein,

• die grundlegenden Unterschiede zwischen analogen und digitalen Filtern darzustellen,• den Begriff des FIR-Filters zu erlautern,• einige grundlegende Filter in ihrer Funktion (und einer moglichen physikalischen Realisie-

rung) zu beschreiben.• die Ubertragungsfunktion fur einfache Falle aus der Differentialgleichung herzuleiten.• diskrete Systeme in SimuLink zu simulieren• Datensatze (Zeitreihen ebenso wie Bild- oder Audiodateien in gangigen Formaten) in Mat-

Lab bzw. SimuLink einzulesen und weiter zu bearbeiten.

144

Page 156: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.1. FILTER 145

Abbildung 5.1: Analoge Re-prasentation (unten) einesdigitalen Signals (oben)

5.1 Filter

Definition 7 Ein Filter ist ein speziell angepasstes System, dass aus einem Signal einebestimmte Komponente entfernen soll oder die Charakteristik eines Signals modifizieren soll.

§ 527 Informationstheoretisch ist ein Signal die physikalische Reprasentation einer Nachricht(z.B. [32, 33, 60, 112, 113]); das kann z.B. die Farbe einer Verkehrsampel sein, die Intensitatoder Frequenz einer Licht- oder Schallquelle oder der zeitliche Verlauf einer Spannung. DieseKopplung zwischen Information und Signal als physikalischer Reprasentation der Informati-on hat eine fur einen Physiker auf den ersten Blick befremdliche, dem KI-ler oder Robobauerdagegen wohl vertraute Konsequenz: kleine Variationen eines Signals andern nicht notwen-digerweise auch dessen Bedeutung. Eine der roten Ampel werden wir auch bei von der DINabweichendem RGB-Wert als solche erkennen; die akustischen Signale der Sprache werdengleichermaßen verstanden, wenn ein Kind in heller Stimmlage oder ein Erwachsener in einerganz anderen Stimmlage spricht. Auch Handschriften ergeben vollig unterschiedliche Signale,selbst wenn sie denselben Text darstellen.

§ 528 Bei genauerem Hinsehen ist uns dieses ‘Ubersehen’ von Variationen aber auch in elek-tronischen Systemen (und insbesondere in unserem Rechner) gelaufig: ein digitales Signal wirddurch zwei Spannungspegel, High oder Low, gebildet. Die realen Spannungen, z.B. das bei derNASA auf gefangene Signal einer Raumsonde, dagegen bilden diese beiden Pegel nur rechtungenau ab (vgl. Abb. 5.1). Aber selbst ohne einen langen und gestorten Ubertragungswegwerden die Pegel durch Verluste in den einzelnen Gattern nicht punktgenau weiter gegeben.Daher wird z.B. in der TTL-Logik jedes Signal unterhalb 0.8 V in eine Signalklasse 0 oderLow eingeordnet; jedes Signal oberhalb 2 V dagegen wird in die Signalklasse 1 oder Higheingeordnet.1

§ 529 Signalverarbeitung bedeutet letztendlich, Information aus einer Zeichenkette zu extra-hieren. Dabei kann die Zielsetzung von ‘extrahiere alle im Signal enthaltene Information’ bishin zu ‘Uberprufe, ob und in welchen Anteilen, im Signal eine bestimmte Frequenz enthaltenist’. Die erste Frage wurden wir eher einem unbekannten System stellen, um moglichst vieluber dieses System zu erfahren. In diesem Fall sollte die Datenaufbereitung ohne Filterungerfolgen; bei der Analyse konnen selbstverstandlich Filter eingesetzt werden. Die zweite Fra-ge dagegen stellen wir eher an ein System, dessen allgemeines Verhalten wir gut verstandenhaben, und von dem wir ein spezielles Detail naher untersuchen wollen. Hier konnen bereitsfruh Filter verwendet werden, um die nicht interessierende Information (z.B. bestimmte Fre-quenzbereiche) zu entfernen. Damit sinkt der Informationsgehalt im Signal, so dass es (a)leichter zu bearbeiten und (b) knapper zu codieren ist – und damit schneller zu ubertragenund kompakter zu speichern ist.

§ 530 Da die eigentliche Informationsextraktion auch aus einem analogen Signal in der Regeldigital erfolgt, werden in einer Signalverarbeitungskette Filter in der Regel an zwei Stellenangewendet, vgl. Abb. 5.2. Das analoge Signal wird vor dem AD-Wandler gefiltert, um ins-besondere die hochfrequenten, auf Grund der endlichen Sampling Rate des AD-Wandlersohnehin nicht mehr erfassbaren Anteile zu entfernen. Hierfur verwendet man analoge Filter(Abschn. 5.2) zur Bandbegrenzung.

1Eine derartige Signalklasse bezeichnet man auch als Zeichen. Weitere Beispiele fur Zeichen sind dieBuchstaben des Alphabets, die Ziffern und die Satzzeichen. Diese Zeichen lassen sich ihrerseits wieder zuZeichenketten (Hyperzeichen) kombinieren, so dass einen Zeichenhierarchie entsteht; in einem Text warediese Hierarchie egegeben durch Buchstaben – Worter – Satze – Paragraphen usw.

c© M.-B. Kallenrode 4. Februar 2008

Page 157: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

146 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.2: Signalkette: das analoge Signal wird mit einem analogen Filter fur die Digitali-sierung im AD-Wandler aufbereitet und anschließend mit digitalen Filtern weiter aufbereitetoder analysiert

Abbildung 5.3: Unterabtastung: ist die Ab-tastfrequenz (rote Punkte) deutlich kleinerals die Frequenz des Signals (schwarze Kur-ve), so kann falschlicherweise eine viel zugeringe Frequenz rekonstruiert werden

§ 531 Die nicht-Verwertbarkeit der hochfrequenten Anteile durch den AD-Wandler ist ei-gentlich nicht das korrekte Argument fur die Verwendung des Tiefpass. In Abschn. 2.2.4haben wir die Verbreiterung der Frequenzpeaks und das Auftreten nicht vorhandener hoch-frequenter Anteile durch das Vervielfachen des Signals erwahnt. Ein Fehlen des Tiefpasswurde zusatzlich niederfrequente Anteile in das Frequenzspektrum einfuhren – nicht bedingtdurch die Eigenschaften der FFT sondern bedingt durch die endliche Abtastrate des AD-Wandlers. Ist die Frequenz des Signals so viel großer als die Abtastfrequenz, dass maximaleinmal wahrend einer Periode des Signals abgetastet wird (siehe auch Abb. 5.3), so kannauf Grund der Unterabtastung gegebenenfalls ein nicht vorhandenes niederfrequentes Signalerzeugt werden. Um derartige Storeinflusse abzuschneiden ohne gleichzeitig bereits die nochvom AD-Wandler korrekt erfassbaren Frequenzen zu dampfen, wird ein Tiefpass mit steilerFlanke benotigt.

§ 532 Hinter dem AD-Wandler liegt das Signal in digitaler Form vor, d.h. hier werden digitaleFilter verwendet. Diese konnen ebenso wie analoge Filter im Zeitbereich eingesetzt werden,ebenso jedoch auch im Orts- oder Frequenzbereich.

Verstandnisfrage 50 Und analoge Filter? Gibt es dort im Ortsbereich Moglichkeiten? Undim Frequenzbereich?

§ 533 Wir werden in diesem Kapitel einige haufig verwendete Filter wie Tief-, Band- undHochpasse verschiedener Ordnung ebenso kennen lernen wie komplexere Filter wie z.B. denButterworth Filter. Insbesondere bei den Passen lasst sich die Funktion ebenso wie die Be-stimmung der Ubertragungsfunktion auf einfache Weise aus den analogen Aufbauten herlei-ten. Darauf aufbauend lasst sich die allgemeine Struktur einer Ubertragungsfunktion auchfur komplexere Filter einfach herleiten.

§ 534 Die Idee dazu haben wir im Vorbeigehen schon in § 402 kennen gelernt: haben wireine den Filter beschreibende DGL so ist eine Laplace Transformation ausreichend, um seineUbertragungsfunktion zu bestimmen. Damit erklart sich auch die Ordnung eines Filters:diese ist bestimmt durch die Ordnung der ihn beschreibenden DGL und gibt damit auchdie hochste Potenz mit der die komplexe Frequenz s in der Ubertragungsfunktion auftritt.LTI Systeme konnen mit linearen DGLs mit konstanten Koeffizienten A und B beschriebenwerden:[

Andn

dtn+ . . . + A1

ddt

+ A0

]uout =

[Bn

dn

dtn+ . . . + B1

ddt

+ B0

]uin .

4. Februar 2008 c© M.-B. Kallenrode

Page 158: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.2. ANALOGE FILTER IM ZEITBEREICH 147

Abbildung 5.4: Betrage idealerUbertragungsfunktionen von vier typischenFiltern

Da im Frequenzbereich jede Differentiation ein iω (Fourier) bzw. ein s (Laplace) als Faktorbetragt, ergibt sich eine Ubertragungsfunktion

G(s) =Uout(s)Uin(s)

=

m∑k=0

Bk sk

n∑k=0

Ak sk

wie bereits in § 292 in anderem Zusammenhang gegeben. Die Herleitung der entsprechendenUbertragungsfunktion und ihre Interpretation werden in diesem Kapitel fur verschiedeneFilter durchgefuhrt.

5.2 Analoge Filter im Zeitbereich

§ 535 Signalfilterung in der Analogtechnik hat vielfaltige Anwendungen, wie z.B. Rausch-unterdruckung, Bandbreitenbegrenzung, Eliminierung storender Frequenzen, Glattung vonMesswerten oder das Hervorheben von Trends im Signal.2 Auch wenn die Anwendung vielfaltigsind, sind die Verfahren einfach. Letztendlich ist die Analogfilterung eine frequenzabhangigeBewertung von Amplitude und Phase des Signals. Diese wird durch die Ubertragungsfunktiondargestellt, vgl. unteres Teilbild in Abb. 3.3. Die Wirkung eines analogen Filters lasst sichdaher in der spektralen Darstellung des zu filternden Signals am einfachsten beschreiben.

§ 536 Die Ordnung der Ubertragungsfunktion und damit die des Filters hangt von der Ord-nung der den Filter beschreibenden Differentialgleichung ab. Mit zunehmender Ordnung las-sen sich immer komplexere Ubertragungsfunktionen und damit auch immer komplexere Ma-nipulation des Eingangssignals realisieren.

§ 537 So werden der einfache Hoch- und Tiefpass jeweils durch DGLs erster Ordnung be-schrieben. Damit ist ihr Funktionsumfang eingeschrankt: in einem gewissen Frequenzbereichist ihre Verstarkung idealerweise 1, oberhalb beim Tiefpass bzw. unterhalb beim Hochpasseiner Grenzfrequenz sollte die Verstarkung moglichst schnell gegen Null gehen. Das Bode-Diagramm in Abb. 3.3 zeigt, dass der Frequenzgang eines als Filter 1. Ordnung realisiertenTief- bzw. Hochpass weit vom Idealbild entfernt ist.

§ 538 Geschickte Kombination von Hoch- und Tief liefert einen Bandpass. Realisiert mandiesen nicht mit zwei Filtern erster Ordnung sondern einem Filter zweiter Ordnung (Schwing-kreis), so kann auf Grund der auftretenden Resonanz die Verstarkung im Durchlassbereicheine Verstarkung großer 1 auftreten – die Filterfunktion ist nicht auf die Unterdruckungeinzelner Frequenzen beschrankt sondern es konnen Frequenzen selektiv verstarkt werden.

2Diese Anwendungen sind naturlich nicht auf analoge Filter beschrankt. Auch digitale Filter konnen dieseAufgaben erfullen.

c© M.-B. Kallenrode 4. Februar 2008

Page 159: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

148 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Verstandnisfrage 51 Wie sieht es dabei mit der Energiebilanz aus? Wird die Energie in-nerhalb des Signals von einem Frequenzbereich in einen anderen verschoben oder von außenzugefuhrt?

§ 539 Aber selbst der konventionelle Hoch- oder Tiefpass kann durch ein Filter hohererOrdnung naher an den Verlauf eines idealen Tiefpass gebracht werden – so wird beim But-terworth Filter der Ubergang zwischen Transmission und Sperrbereich steiler, so dass dieserz.B. vor dem AD-Wandler wesentlich effizienter die hoherfrequenten Anteile entfernt als esein konventioneller Tiefpass erster Ordnung machen wurde.

§ 540 Die einen Filter fur den praktischen Einsatz charakterisierenden Großen sind dieGrenzfrequenz ωg, die Sperrfrequenz ωs sowie die Parameter ε und λ, die bestimmen, wiestark die Amplitude bei diesen Frequenzen reduziert ist. Beim Tief bzw. Hochpass 1. Ord-nung ist z.B. die Amplitude des Eingangssignals bei der Grenzfrequenz auf 1/

√2 abgesun-

ken, d.h. der Betrag der Ubertragungsfunktion ist |G(ω)| = 1/√

2. Allgemeiner definiertman die Anderung der Amplitude bei der Grenzfrequenz mit Hilfe des Betragsquadrats derUbertragungsfunktion und eines Parameters ε als

|G(ωg)|2 =1

1 + ε2.

Beim Tiefpass wird der Durchlassbereich definiert fur ω < ωg und damit |G(ωg)|2 = 1/(1+ε2).

§ 541 Entsprechend wird ein Sperrbereich definiert uber eine Sperrfrequenz ωs. Im Sperrbe-reich ist das Betragsquadrat der Amplitudenfunktion unter eine bestimmten Wert, definiertmit Hilfe eines Parameters λ:

|G(ωs)|2 =1

1 + λ2.

§ 542 Ein idealer Tiefpass wie in Abb. 5.4 ergibt sich fur ε = 0 und λ→∞.

5.2.1 Filter 1. Ordnung

§ 543 Hoch- und Tiefpass erster Ordnung leiten sich von der gleichen elementaren Serien-schaltung aus Widerstand und Kondensator ab; lediglich wird beim Tiefpass der Spannungs-abfall uber dem Kondensator, beim Hochpass dagegen der uber dem Widerstand betrachtet.Die Summe aus beiden Spannungsabfallen entspricht der Eingangsspannung. Damit ist aberauch die Summe aus dem Hoch- und dem Tiefpass gefilterten Signal gleich dem Eingangssi-gnal: Hoch- und Tiefpass sind also komplementar zu einander.

§ 544 Die DGL fur den Tiefpass wie im linken Teil von Abb. 3.1 lasst sich auf der Basis derMaschenregel schreiben als

u = uR + uC = iR + uC = CRuC + uC .

Laplace Transformation liefert (wieder unter Vernachlassigung der Anfangswerte)

U(s) = (sCR + 1)UC(s) ⇒ Uc(s) =1

RC s + 1U(s)

und damit die fur SimuLink brauchbaren Ubertragungsfunktionen

GTP(s) =1

RC s + 1.

Alternativ liefert die Fourier Transformation U(ω) = (iω CR + 1)UC(ω) und damit die viel-leicht bekannteren Ubertragungsfunktionen

G(ω) =1

1 + iωCR=

11 + iω/ωg

mit der Grenzfrequenz ωg = (RC)−1 und dem Bode Diagramm wie im unteren Teil vonAbb. 3.3.

4. Februar 2008 c© M.-B. Kallenrode

Page 160: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.2. ANALOGE FILTER IM ZEITBEREICH 149

Abbildung 5.5: Hoch- und Tiefpass: aus dem Eingangssignal (cyan) filtert der Tiefpass dieschnellen Fluktuationen heraus (gelb), der Hochpass dagegen lasst die Fluktuationen passie-ren und filtert den langsamen Trend heraus

Verstandnisfrage 52 Die aus der Fourier Transformation bestimmte Ubertragungsfunktionist identisch mit der in § 264ff fur ein harmonisches Eingangssignal gefundenen. Gilt die ausder Fourier Transformation bestimmte Ubertragungsfunktion nun fur allgemeine Eingangs-großen oder doch wieder nur fur harmonische?

Verstandnisfrage 53 Bei der Laplace Transformation zur Herleitung der Ubertragungs-funktion haben wir den Anfangswert vernachlassigt – machen wir damit eine unzulassigeVereinfachung oder nicht?

§ 545 Da beide komplementar sind, ergibt sich die Ubertragungsfunktion des Hochpass di-rekt aus der des Tiefpass. Wegen u = uR + uC ist ur = u − uC und damit nach LaplaceTransformation

UR(s) = U(s)− UC(s) = U(s)− 1RC s + 1

U(s) =RC s

RC s + 1U(s) .

Daraus ergibt sich unmittelbar die Ubertragungsfunktion

GHP(s) =RC s

RC s + 1.

Entsprechend lasst sich die Ubertragungsfunktion in der imaginaren Frequenz wieder durchFourier Transformation oder durch Differenzbildung mit der des Tiefpass bestimmen:

GHP(ω) =1

1 + 1iωRC

.

§ 546 Hoch- und Tiefpass werden beide durch Differentialgleichungen erster Ordnung be-schrieben, ihre Ubertragungsfunktionen sind daher Bruche aus Polynomen maximal ersterOrdnung.

§ 547 Aus der Abb. 5.5 lasst sich die Auswirkung der Filter auf ein Signal beschreiben. DasEingangssignal (cyan) besteht aus einer schnellen Fluktuation, die sich auf einen langsamenTrend aufsetzt: u(t) = a1 sin(ω1t) + a2 sin(ω2t) mit a1 = 1, a2 = 0.2, ω1 = 1 und ω2 = 20.Die Grenzfrequenzen der beiden Passe sind ωg,TP = 2 und ωg,HP = 10. Der Tiefpass filtertdie schnellen Fluktuationen und lasst den Trend (gelb) ubrig, der Hochpass dagegen entferntden Trend und lasst die schnellen Fluktuationen ubrig (magenta).

§ 548 Damit lasst sich die Anwendbarkeit von Hoch- und Tiefpass auch von den klassischenAnwendungen auf elektrische Signale abstrahieren: ein Tiefpass glattet wahrend ein Hoch-pass einen Trend entfernt. Eine typische nicht elektrische Anwendung ware ein Datensatzmit den Tagestemperaturen (Mittelwert, Minimum, oder Maximum) uber einen Zeitraumvon etlichen Jahrzehnten. Hier sind kurzzeitige Fluktuationen (Witterung) einem mittelfris-tigen Zyklus (Jahresgang) uberlagert, der sich wiederum auf eine noch langerfristigen Trend(Klimaveranderung) aufsetzt. Ein Tiefpass geeigneter Frequenz entfernt den Jahresgang, esverbleibt der Trend. Aus diesem lasst sich die Klimaanderung abschatzen. Ein Hochpass ge-eigneter Frequenz entfernt diesen Trend und es verbleiben die Jahresgange, aus denen sich

c© M.-B. Kallenrode 4. Februar 2008

Page 161: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

150 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.6: Serienschwingkreis als Bandpass: die tiefere Frequenz kann passieren, so dassdie Kurve (cyan, wie in Abb. 5.5 erzeugt)geglattet wird. Der Betrag der Ubetragungsfunktionkann großer 1 werden (gelb, Resonanz), muss aber nicht (magenta)

dann einfacher abschatzen lasst, ob sich die Amplitude im Jahresgang andert, d.h. ob die Jah-reszeiten deutlicher oder weniger ausgepragt werden. Und trend plus Fluktuationen ergibtdas Gesamtsignal, wie auch von Hoch- und Tiefpass als komplementaren Filtern erwartet.

§ 549 Auch wenn eine derartige Anwendung naturlich nicht auf die technische Realisierungaus Widerstand und Kondensator zuruck greift, werden die Bezeichnungen Tief- und Hoch-pass fur diese Form der Glattung (Tiefpass) bzw. der Entfernung eines Trends (Hochpass)auch hier verwendet. Auch wenn die Begriffe verwendet werden, so besteht doch ein wesent-licher Unterschied: bei der Glattung bzw. bei der Entfernung eines Trends ist die mit demkonventionellen Hoch- oder Tiefpass verbundene Phasenverschiebung ein unerwunschter Ef-fekt.

§ 550 Der Bandpass als Serienschaltung aus einem Tiefpass mit RT und CT und einem Hoch-pass mit RH und CH wird dann wie in Abb. 3.4 angedeutet durch eine Ubertragungsfunktionbeschrieben, die sich als Produkt der Ubertragungsfunktion von Hoch- und Tiefpass darstel-len lasst:

GBP(s) = GHP(s)GTP(s) =1

RTCT s + 1RC s

RHCH s + 1.

Verstandnisfrage 54 Ist der Bandpass nun ein Filter erster oder zweiter Ordnung? Argu-mentieren Sie physikalisch und formal.

5.2.2 Filter 2. Ordnung

§ 551 Als einfachsten Filter zweiter Ordnung konnen wir den Serienschwingkreis aus Spule,Widerstand und Kondensator verwenden, vgl. Abb. 3.2. Aus der Maschenregel ergibt sich

uin = uL + uC + uR und uin = LCuC + RCuC + uC ,

Hierbei ist als Ausgangssignal der Spannungsabfall uber dem Kondensator gewahlt.

Verstandnisfrage 55 Was wurde sich ergeben, wenn statt des Spannungsabfalls uber demKondensator der uber dem Widerstand oder uber der Spule als Ausgangsgroße verwendetwird? Begrunden Sie physikalisch und formal.

§ 552 Laplace Transformation der Differentialgleichung liefert

Uin(s) = s2LCUC(s) + sRCUC(s) + UC(s) =(LCs2 + RCs + 1

)UC(s) .

4. Februar 2008 c© M.-B. Kallenrode

Page 162: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.2. ANALOGE FILTER IM ZEITBEREICH 151

Abbildung 5.7: Serienschwingkreis in LTSpice: Ubertragungsfunktion (oben), Spannungsabfalluber dem Kondensator als Ausgangssignal (unten links) und Schaltbild mit Bauteilparame-tern (unten rechts)

Damit ergibt sich die Ubertragungsfunktion in der komplexen Frequenz s (und damit in derSimuLink kompatiblen Form) zu

G(s) =UC(s)Uin(s)

=1

LCs2 + RCs + 1.

§ 553 Aus der Ubertragungsfunktion in der komplexen Frequenz s lasst sich die Form derallgemeinen Ubertragungsfunktion eines Tiefpass zweiter Ordnung ablesen als

G(s)TP2 =1

a(s/ωg)2 + bs/ωg+ 1 .

§ 554 Fur die gebrauchlichere Darstellung der Ubertragungsfunktion im Frequenzbereichliefert die Fourier Transformation

Uin(ω) = (iω)2LCUC(ω) + iωRCUC(ω) + UC(ω) =(−ω2LC + RCiω + 1

)UC(ω) .

ebenfalls eine Ubertragungsfunktion zweiter Ordnung

G(ω) =UC(ω)Uin(ω)

=1

−ω2LC + RCiω + 1.

§ 555 Der Serienschwingkreis wirkt als Bandpass, d.h. es lasst sich ein Frequenzbereichauswahlen. Wie bei Hoch- und Tiefpass erfolgt eine Phasenverschiebung des Signals. Dader Schwingkreis bei entsprechender Kombination von Eingangs- und Eigenfrequenz in Re-sonanz gerat, kann der Betrag der Ubertragungsfunktion großer 1 werden. Die gelbe Kurvein Abb. 5.6 illustriert dies. Am Anfang ist das Einschwingen zu erkennen, nach zwei Schwin-gungen hat das geglattete Ausgangssignal konstante Amplitude.

Verstandnisfrage 56 Der Serienschwingkreis ist hier als Bandpass bezeichnet. In einigenanderen Darstellungen wird er in gleicher Schaltungsvariante und wieder mit dem Spannungs-abfall uber dem Kondensator als Ausgangssignal als Tiefpass bezeichnet. Was ist korrekt?Oder gibt es Bedingungen, in denen die eine Bezeichnung passender ist als die andere?

§ 556 Und wie sieht es in einem realen Serienschwingkreis aus? Kann der Spannungsab-fall uber einem Bauteil, in diesem Fall dem Kondensator, uberhaupt großer werden als dieanliegende Spannung? Das SimuLink Ergebnis ist zumindest in Ubereinstimmung mit derin Abb. 5.7 gegebenen Simulation in LTSpice (letztere fur etwas andere Parameter). Undgroßer als das Eingangssignal werden kann der Spannungsabfall uber einem Bauteil ohne

c© M.-B. Kallenrode 4. Februar 2008

Page 163: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

152 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.8: Ein Butterworth Fil-ter nter Ordnung lasst sich durch ei-ne Kettenschaltung von n Tiefpassenerster Ordnung realisieren

mit der Maschenregel (und damit der Energieerhaltung) in Konflikt zu geraten: die Summeder spannungsabfalle uber den einzelnen Bauteilen muss gleich der Eingangsspannung sein.Kondensator und Spule sind bei verschwindender Dampfung jeweils mit einer Phasenverschie-bung um π/2 bzw. −π/2 gegenuber der anliegenden Spannung verbunden. Damit ist aber derSpannungsabfall am Kondensator dem der Spule gegenuber um π verschoben: beide konnenbei verschwindender Dampfung beliebig groß werden und sich trotzdem aufheben. Daher wirdder Betrag der Ubetragungsfunktion auch nicht durch irgendwelche anliegenden Spannungenbegrenzt sondern lediglich durch die Dampfung, in diesem Fall also den Widerstand.

§ 557 Ein Tiefpass zweiter Ordnung lasst sich auch durch eine Kettenschaltung zweierTiefpasse wie im rechten Teil von Abb. 3.1 angedeutet erzeugen. In diesem Fall ergibt sich imGegensatz zum Serienschwingkreis keine Resonanz sondern eine im Durchlassbereich flacheUbertragungsfunktion, die jedoch steiler abknickt als beim Tiefpass erster Ordnung.

5.2.3 Filter hoherer Ordnung

§ 558 Haufige verwendete Filter hoherer Ordnung sind der Butterworth und der Tsche-byscheff Filter. Beide sorgen je nach Ordnung fur mehr oder weniger steilere Flanken derUbertragungsfunktion und damit eine bessere Annaherung an die ideale Ubertragunsfunktionaus Abb. 5.4 – der Tschebyscheff Filter ist die einfachere Realisierung, allerdings um den Preiseiner geringen Welligkeit im Sperr- oder Durchlassbereich.

Butterworth Filter

§ 559 Der Butterworth Filter hat je nach Ordnung eine mehr oder weniger steile Flanke derUbertragungsfunktion. Dadurch ergibt sich eine scharfe Begrenzung des Sperr- und Durch-lassbereichs sowie ein flacher Verlauf der Ubertragungsfunktion in diesen Bereichen.

§ 560 Technisch lasst sich ein Butterworth Filter durch eine Kettenschaltung von Spulenund Kondensatoren (Cauer Topologie) realisieren, vgl. Abb. 5.8. Fur diese Topologie sind dieAlgorithmen zur Berechnung der Kapazitaten und induktivitaten dokumentiert.

§ 561 Fur die Bestimmung der Ubertragungsfunktion in der komplexen Frequenz s benotigenwir die Differentialgleichungen fur die verschiedenen Ordnungen des Filters. Alternativ ....

§ 562 Fur das Betragsquadrat der Ubetragungsfunktion eines Butterworth Filters im Fre-quenzbereich gilt

|G(ω)|2 =1

1 + ε2(

ωωg

)2n n ∈ N .

Darin gibt n die Ordnung des Filters. In dieser Darstellung ist die Ubertragungsfunktionalleine durch die Wahl von ε und der Grenzfrequenz festgelegt.

§ 563 Bezieht man auch die Sperrfrequenz explizit mit ein, so lasst sich die fur diese Fre-quenzkombination erforderliche Ordnung des Butterworth Filters aus den Definitionen vonSperr- und Grenzfrequenz mit Hilfe der Parameter ε und λ bestimmen zu

n ≥log(

λε

)log(

ωsωg

) .

4. Februar 2008 c© M.-B. Kallenrode

Page 164: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.2. ANALOGE FILTER IM ZEITBEREICH 153

Abbildung 5.9: Betragsquadrat derUbertragungsfunktion von Butterworth-filtern verschiedener Ordnung n

Abbildung 5.10: Tschebyscheff Polynome derOrdnungen 0 bis 4

Bei der Auswahl der Ordnung des Filters muss man einen Kompromiss zwischen Steilheit(ωg → ωs) und dem Aufwand gefunden werden. Beispiele fur die Ubertragungsfunktion furε = 1 und ε = 0.2 sowie fur verschiedene Ordnungen des Filters sind in Abb. 5.9 gegeben. jehoher die Ordnung ist, um so steiler wird die Flanke des Filters (und um so weniger wichtigist die Wahl von ε).

Verstandnisfrage 57 Ist der normale Tiefpass im Butterworth Filter enthalten und wennja, wo?

Tschebyscheff Filter

§ 564 Der Tschebyscheff Filter erlaubt einen Kompromiss zwischen einer scharfen Trennungvon Durchlass- und Sperrbereich un der Ordnung des Filters. Dafur muss jedoch eine geringeWelligkeit der Ubertragungsfunktion im Durchlass- oder Sperrbereich zugelassen werden.

§ 565 Die Realisierung erfolgt wieder mit Hilfe einer Cauer Topologie wie in Abb. 5.8, jedochmit einer anderen Dimensionierung der Bauteile.

§ 566 Die Ubertragungsfunktion eines Tschebyscheff Filter wird durch die gleichnamigenPolynome angenahert. Diese zeichnen sich durch folgende Eigenschaft aus:

Definition 8 Von allen Polynomen des Grades n, deren 0. Koeffizient stets den Wert 1hat, besitzen die normierten Tschebyscheff Polynome Tx(n)/(2n−1) im Intervall [−1; 1] diekleinste maximale Amplitude.

Fur alle n ≥ 0 sind diese gegeben als

Tn(x) =

cos(n arccos(x)) fur |x| ≤ 1cosh(n acrcosh(x)) fur |x| > 1

c© M.-B. Kallenrode 4. Februar 2008

Page 165: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

154 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.11: Betragsquadrate derUbertragungsfunktion fur TschebyscheffFilter vom Typ 1 (durchgezogene Linien)und Butterworth Filter (gestrichelte Linien)gleicher Ordnung fur ε = 0.2.

oder explizit3 fur |x| ≤ 1

T0(x) = cos(0) = 1 ,T1(x) = cos(arccos(x)) = x ,T2(x) = 2x2 − 1 ,T3(x) = 4x3 − 3x ,T4(x) = 8x4 − 8x2 + 1 ,

... = . . . ,Tn(x) = 2xTn−1(x)− Tn−2(x) .

Der Verlauf dieser Polynome im Intervall [−1, 1] ist fur die ersten funf Ordnungen in Abb. 5.10gegeben.

§ 567 Den Tschebyscheff Filter gibt es in zwei Varianten: Typ 1 hat eine Welligkeit imDurchlassbereich, Typ 2 eine im Sperrbereich. Das Betragsquadrat der Ubertragungsfunktionfur den Tschebyscheff Filter vom Typ 1 ist

|GT1(ω)|2 =1

1 + ε2T 2n

(ωωg

) ,

das Betragsquadrat der Ubertragungsfunktion fur den Tschebyscheff Filter vom Typ 2 ist

|GT2(ω)|2 =1

1 + ε2T 2

n

ωsωg

T 2n(ωs

ω )

,

§ 568 Die Betrage fur einen Tschebyscheff Filter vom Typ 1 fur verschiedenen Ordnungensind im Vergleich zu Butterworth Filtern gleicher Ordnung in Abb. 5.11 dargestellt; fur beidewurde ε = 0.2 angenommen. Der Tschebyscheff Filter zeigt eine steilere Flanke, aber ebenum den Preis der Welligkeit im Durchlassbereich. Die Amplitude der Welligkeit ist durch εbestimmt – der Betrag der Ubetragungsfunktion im Durchlassbereich schwankt zwischen 1und ihrem Betrag bei der Grenzfrequenz.

5.2.4 Analoge Filter in SimuLink

§ 569 Analoge Filter konnen in SimuLink am einfachsten mit Hilfe der kontinuierlichenUbertragungsfunktion realisiert werden. Diesen Ansatz haben wir in den bisher betrachtetenBeispielen verfolgt. Er ist immer dann sinnvoll, wenn wir die Ubertragungsfunktion kennen(Tabellen) oder die Differentialgleichung kennen bzw. leicht aufstellen konnen.

3Die explizite Darstellung lasst sich leiht bestimmen mit der Substitution x = cos α und anschließenderVerwendung der Additionstheoreme fur den Kosinus fur Vielfache des Winkels, z.B. cos(2α) = 2 cos2 α − 1usw.

4. Februar 2008 c© M.-B. Kallenrode

Page 166: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.3. DIGITALE FILTER IM ZEITBEREICH 155

§ 570 Ist die Differentialgleichung bzw. das Differentialgleichungssystem des Systems be-kannt, so konnen wir auch die Beschreibung uber den Zustandsraum State Space wahlen.In Abb. 4.18 haben wir dies am Beispiel der erzwungenen Schwingung betrachtet – die DGLentspricht der des Serienschwingkreis, d.h. fur letzteren haben wir die Formulierung mit Hilfedes Zustandsraums bereits durchgefuhrt.

Zwischenrechnung 27 Damit sich die Filter erster Ordnung nicht benachteiligt fuhlen,sollten Sie die Beschreibung mit Hilfe des State Space auch fur einen Tief- oder Hochpassdurchfuhren.

§ 571 Und wenn wir den Serienschwingkreis als Filter zweiter Ordnung ohnehin schon aufdas Federpendel reduziert haben, konnen wir bei dem auch die dritte Moglichkeit der Simula-tion in SimuLink ausleihen: die anschauliche Abbildung des Physik mit den entsprechendenBlocken.

Zwischenrechnung 28 Konnen Sie dem Tief- oder Hochpass auch diese Realisierungsmog-lichkeit.

5.3 Digitale Filter im Zeitbereich

§ 572 Analoge Filter arbeiten das Zeitsignal sequentiell ab: die ‘Geschichte’ des analogenSignals ist z.B. in der Ladung auf einem Kondensator enthalten. Aber der Blick geht nur indie Vergangenheit, nicht in die Zukunft. Daher sind analoge Filter stets asymmetrisch undnicht umkehrbar. Ein digitaler Filter wird dagegen auf den bereits digitalisierten, vollstandigvorliegenden Datensatz angewendet. Daher lassen sich auch symmetrische digitale Filter rea-lisieren.

§ 573 Ein einfaches Beispiel ist die Glattung von Daten. Im analogen Bereich wurde maneinen Tiefpass verwenden, um dem Signal uberlagerte hochfrequente Storungen heraus zufiltern. Selbstverstandlich lasst sich dessen Arbeitsweise auch als digitales Filter emulieren.Allerdings wurde man zur Glattung digitaler Daten eher auf einen wesentlich einfacherenFilter zuruck greifen: das gleitende Mittel.

5.3.1 FIR-Filter

§ 574 Im Rahmen des Skriptes und der Vorlesung werden wir uns auf FIR (Finite ImpulseResponse) Filter beschranken: jeder Ausgangswert ist gegeben als die Summe einer endlichenZahl gewichteter Eingangsgroßen.

§ 575 Dieser Ansatz ist ahnlich dem bei analogen Filtern verwendeten: beim Tiefpass wirktder Kondensator als Verzogerungsglied, da sein Auf- und Entladen Zeit benotigt. Daher ist diemomentan auf ihm befindliche Ladung, und damit auch der Spannungsabfall uber ihm, nichtnur vom momentan anliegenden Eingangssignal sondern auch von fruheren Eingangssignalenabhangig – wobei mit zunehmendem zeitlichen Abstand das Gewicht des Eingangssignalsebenfalls abnimmt. Formal fuhrt dies auf ein Faltungsintegral: die uber dem Kondensatorabfallenden Spannung zu jedem Zeitpunkt ergibt sich aus dem Momentanwert der anliegendenSpannung und den geeignet gewichteten fruheren Werten der Eingangsgroße.

Verstandnisfrage 58 Wie lange reicht das Gedachtnis eines Tiefpass wirklich zuruck? Biszum Einschalten? Oder wird der Tiefpass irgendwann ‘vergesslich’?

§ 576 Beim digitalen Filter arbeiten wir mit diskreten Signalen. Daher wird das Integralersetzt durch eine gewichtete Summe uber eine endliche Zahl von Eingangswerten, z.B.

uout(?) = a4u(n− 4) + a3u(n− 3) + a2u(n− 2) + a1u(n− 1) + a0u(n) =∑

k

aku(n− k) .

c© M.-B. Kallenrode 4. Februar 2008

Page 167: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

156 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Außer in der Verwendung einer Summe statt eines Integrals unterscheidet sich der digitaleFilter in einem weiteren Punkt wesentlich vom analogen Filter: bei einem analogen Filtermusste diese Ausgangsgroße uout an der Stelle n, also am Ende des bei der Integrationrelevanten Zeitintervalls gesetzt werden: uout(n) . Bei digitalen Filter dagegen kann dieserAusgabewert jedoch auch z.B. in die Mitte des Summationsintervalls gesetzt werden: digitaleFilter konnen symmetrisch sein wahrend analoge Filter stets asymmetrisch sind.

§ 577 Oder anders formuliert: analoge Filter konnen nur die Vergangenheit bis einschließlichdes gegenwartigen Zeitpunktes berucksichtigen. Digitale Filter dagegen greifen auch odersogar ausschließlich (wenn wir den Ausgangwert an den Anfang des Summationsintervallslegen) auf die Zukunft zu.

§ 578 Greift ein Filter ausschließlich auf den aktuellen Wert und in der Vergangenheit lie-gende Werte zuruck, so wird er als kausal bezeichnet: sein Output ist die Folge der fruherenInputs. Analoge Filter und damit alle Filter in Echtzeit-Anwendungen sind stets kausale Fil-ter (außer der Tiefpass hat eine erfolgreiche parapsychologische Ausbildung absolviert und istvon Herrn von Daniken geschult worden). Filter, die auf zukunftige Werte zugreifen, werdenentsprechend als nicht-kausale Filter bezeichnet.

§ 579 Im Bezug auf das mathematische Handwerkszeug haben wir es jetzt nicht mehr mitFunktionen sondern Folgen als Signal zu tun. Entsprechend werden die Eigenschaften desFilters nicht mehr uber ein Faltungsintegral sondern uber eine Differenzgleichung beschrieben.Der Ubergang zwischen der Folge y[n] der Ausgangsgroßen und der der Eingangsgroßen x[n]lasst sich aber weiterhin mit Hilfe eines Operators T beschreiben:

y[n] = T (x[n]) .

Der Operator T kann sehr unterschiedliche Formen annehmen: von elementweisen Opera-tionen uber beliebige mathematische Verknupfungen mehrerer Element bis hin zu einfachenvergleichen wie z.B. yn = maxxn, xn−1, xn−2.

5.3.2 IIR-Filter

§ 580 Durch Ruckkopplung des Filterausgangs y[k] entstehen rekursive Filter. Diese konneneine unendliche Impulsantwort haben und werden daher als IIR Filter (Infinite Impulse Re-sponse) bezeichnet:

y[n] =m∑

k=0

bk x[n− k] +l∑

j=1

aj y[n− j] .

Darin sind die bk die bereits bekannten nicht-rekursiven (transversalen) und aj die rekursivenKoeffizienten. Der rekursive Zweig des Filters hat die Ordnung m − 1, der rekursive Zweigdie Ordnung l − 1. Auch rekursive Filter konnen eine endliche Impulsantwort haben!

5.3.3 Gleitendes Mittel

§ 581 Der einfachste digitale Filter ist das gleitende Mittel: in einem Datensatz wird jeweilsuber eine Zahl von m aufeinander folgenden Punkten gemittelt. Der Mittelwert wird in derRegel in die Mitte des Intervalls gesetzt, d.h. m sollte ungerade sein: m = 2k+1. Dann ergibtsich fur die Ausgangsgroße y(n) in Abhangigkeit von den Eingangsgroßen xn−k bis xn+k:

y(n) =1

(2k + 1)

j=+k∑j=−k

x(n + j) .

Diese Differenzengleichung definiert die Eigenschaften des digitalen Filters vollstandig. DieOrdnung des digitalen Filters ist in diesem fall m − 1 = 2k: sie entspricht der Zahl derzusatzlich zum aktuellen Eingangswert einbezogenen Datenpunkte.

4. Februar 2008 c© M.-B. Kallenrode

Page 168: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.3. DIGITALE FILTER IM ZEITBEREICH 157

Abbildung 5.12: Auf den linken Satz diskreter Werte wurde ein gleitendes Mittel uber drei(rot), funf (grun) und neun (blau) Datenpunkte angewandt. Das gleitende Mittel wirkt wieein Tiefpass: zumindest bei den langeren Mittelungsperioden wird der unterliegende Trendsichtbar

§ 582 Das gleitende Mittel wirkt wie ein Tiefpass: es glattet die schnellen Fluktuationen undmacht einen moglichen Trend in den Daten sichtbar. Abbildung 5.12 zeigt im linken oberenTeil ein diskretes Zeitsignal, das idealisiert aus der Funktion im unteren Teilbild gewonnenwurde. Aus dem diskreten Datensatz lasst sich weder ein Trend noch eine Periodizitat er-kennen – aber auch nicht ausschließen. Ein gleitendes Mittel uber drei Punkte (rote Kurve)im rechten oberen Teilbild lasst die langere Periode ω = 1 bereits deutlich hervortreten.Gleitende Mittel uber funf (grun) bzw. neun (blau) Punkte dampfen diese Periode bereits,so dass der unter liegende Trend deutlich wird.

Verstandnisfrage 59 Lasst sich das im unteren Teil von Abb. 5.12 gegebene diskrete Signal(schwarz) eigentlich wirklich auf analoge Wiese aus dem zeitkontinuierlichen Signal (rot)erzeugen?

§ 583 Filter werden auf einen endlichen Datensatz angewendet. Die Zahl der zum Datensatzgehorigen Punkte wird als Basis oder Support bezeichnet. Fur den Datensatz linken oberenTeilbild von Abb. 5.13 erstreckt sich der Datensatz uber den Bereich x ∈ [5, 12], die Randersind mit Nullen aufgefullt. Das gleitende Mittel, wie auch fast alle anderen Filter, ist einVerfahren, das zusatzlich zu dem Punkt an der Zielstutzstelle auch benachbarte Punkteeinbezieht. Fur die Punkte an den Randern des Datensatzes sind aber nicht immer alleim Algorithmus geforderten Nachbarn auch noch im Datensatz vorhanden. Verwendet mandie benachbarten Nullen mit, so fuhrt dies zu einer Aufweitung des Datensatzes: bei einemzentrierten gleitenden Mittel uber drei Punkte (rot im rechten oberen Teilbild in Abb. 5.13)wird auf jeder Seite ein benachbarter Punkt einbezogen, beim zentrierten gleitenden Mittel

c© M.-B. Kallenrode 4. Februar 2008

Page 169: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

158 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.13: GleitendesMittel: der Datensatz istvon Null verschieden im Be-reich x ∈ [5, 12] (oben links).Gleitende Mittel (zentriert)uber 3 (rot) bzw. 5 (grun)Punkte erzeugen auch indem Bereich Werte, in demder Originaldatensatz Nullist (oben rechts). Vorwarts(unten rechts) oder ruckwarts(unten links) gerichtete Mittelstatt des zentrierten Mittelsverschieben dieses nur

uber funf Punkte (grun) wird der Datensatz auf jeweils zwei benachbarte Punkte ausgedehnt.Bei der kausalen Variante des gleitenden Mittels (rechts unten in Abb. 5.13) werden dieDatenpunkte aus der Vergangenheit bezogen – entsprechend beginnt der gefilterte Datensatzgleichzeitig mit dem echten Datensatz, endet aber erst spater. Beim nicht-kausalen Filter(links unten) endet der gefilterte Datensatz gleichzeitig mit dem Originaldatensatz, beginntaber entsprechend fruher.

§ 584 Der Umgang mit diesen Datenpunkten ist eine Frage der eigenen Auffassung vonInformation. Das Erganzen der Nullen um den Datensatz ist uns als Zero Padding im Zu-sammenhang mit der DFT z.B. in § 166 begegnet.4 Unsere Entscheidung ist die Bewertungder Randpunkte: bei einem Filter m =ter Ordnung gibt es entsprechen m Punkte, die inirgendeiner Form von den erganzten Nullen bestimmt sind. Bei einem kausalen Filter liegenalle diese Punkte am Anfang des Originaldatensatzes. Erst beim m+1ten Punkt wird bei derMittelbildung nicht auf eine erganzte Null zuruck gegriffen. Beim nur ZukunftsorientiertenFilter sind die gefilterten Daten bereits ab dem ersten Datenpunkt des Originaldatensatzeskorrekt, allerdings werden die letzten m Punkte durch das Einbeziehen der Nullen hinter demSignal verfalscht. Beim zentrierten gleitenden Mittel sind die ersten und letzten m/2 Punkteverfalscht. Alle zusatzlichen, außerhalb des Originaldatensatzes erzeugten, von Null verschie-denen Punkte sind ohnehin verfalscht, da ja dort bereits der aktuelle Wert eine erganzte Nullist.

§ 585 Bei einem kausalen Filter wurde man den am Anfang des Datensatzes entstehendenFehler auch bei einem analogen Filter finden: die Losung der Systemgleichungen enthalt stetsauch die Losung der homogenen Gleichung und damit die Anfangsbedingungen. Diese werdengedampft und sind daher nach einiger Zeit fur das Systemverhalten nicht mehr von Bedeu-tung. Die erganzten Nullen an den Kanten sind eine andere Variante von Anfangsbedingungen– im Prinzip hatten wir ja auch andere Zahlen willkurlich erganzen konnen.

§ 586 Auch wenn in einigen Algorithmen die am Rand uberlaufenden Werte und die feh-lerhaften Werte mit genommen werden, bevorzuge ich die saubere Variante: nur die gefilter-ten Werte, die ausschließlich auf Werten aus dem ungefilterten Datensatz basieren, werdenweiter berucksichtigt. Alle anderen werden verworfen. Auf diese Weise wird keine Pseudo-Information erzeugt und alle Datenpunkte im gefilterten Datensatz sind gleich behandelt. Der

4Da uns das Zero Padding dort im Zusammenhang mit der Faltung begegnet ist und ein (anloger) Filterdurch den Faltungskern im Faltungsintegral klassifiziert wird, machen wir an dieser Stelle durch das Erganzender Nullen auch nichts anderes als ein Zero Padding.

4. Februar 2008 c© M.-B. Kallenrode

Page 170: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.3. DIGITALE FILTER IM ZEITBEREICH 159

Abbildung 5.14: GleitendesMittel: der Datensatz ist furx ∈ [1, 49] gegeben, die Nullenan den Randern sind erganzt(oben). Ein zentriertes gleiten-des Mittel 6. Ordnung (Mitte)uber alle Punkte (schwarz)enthalt aber nur im Bereich[4, 46] korrekte Werte; einkausales gleitendes Mittel 6.Ordnung (unten) vergroßertden zuverlassigen Bereichnicht sondern schiebt ihn nachhinten

Nachteil besteht darin, dass sich der Datensatz verkurzt, siehe Abb. 5.14. Bei mehrfachererFilterung eines Datensatzes, wie z.B. bei den 2D Datensatzen in Abschn. 5.5.1 beschrieben,kann dieser dann recht klein werden.

§ 587 Um ein zu starkes Schrumpfen des Datensatzes zu vermeiden, kann man statt der dieerganzten Nullen enthaltenden Datenpunkte innerhalb des Datensatzes mit einem entspre-chenden reduzierten Filter Kernel arbeiten. Dieser berucksichtigt nur die wirklich vorhande-nen Eingangsgroßen und passt die Gewichtsfaktoren entsprechend an. Bei einem zentriertengleitenden Mittel uber sieben Punkte wurde dann der erste Punkt als Mittel der ersten vierDatenpunkte gebildet (die anderen drei werden gar nicht berucksichigt), der zweite als Mitteluber die ersten funf Datenpunkte, der dritte entsprechend uber sechs und ab dem viertenstehen alle benotigten Eingangsgroßen zur Verfugung. Entsprechend wird am Ende verfah-ren. Der viertletzte Punkt ist noch mit dem vollstandigen Kernel bestimmt, beim drittletztenwird nur uber sechs, beim vorletzten uber funf und beim letzten uber vier Eingangsgroßengemittelt.

§ 588 Gegenuber der Berucksichtigung der erganzten Nullen hat das Verfahren bei allenDatensatzen, die nur Großen eines Vorzeichens enthalten, einen Vorteil. Betrachten wir z.B.die helligkeitswerte eines Bildes. Diese sind stets positiv. Die Berucksichtigung der Nullen amRand verringert diese Werte systematisch, wie auch in den Daten in Abb. 5.14 zu erkennen.Bei einem Bild kommt es damit zu einer Art Randverdunklung. Reduziert man dagegenden Kernel, so werden zwar weniger Punkte in die Mittelung einbezogen und das Mitteldamit ungenauer; sein Wert liegt aber in einem angemesseneren Bereich und fuhrt zu einersystematischen Randverdunklung.

§ 589 MatLab erzeugt ein gleitendes Mittel mit Hilfe der Funktion filter. Der gefilterteDatensatz hat die gleiche Lange wie der Eingangsdatensatz, die Randpunkte werden nachdem allgemeinen Algorithmus durch Erganzen der Nullen erzeugt.

5.3.4 Der Filter-Kern

§ 590 Die gewichtete Summe definiert die Eigenschaften des Filters vollstandig. Die Diffe-renzengleichung lasst sich allgemein schreiben als

y[n− l] =m∑

k=0

bk x[n− k] = b[k] ∗ x[k] , (5.1)

c© M.-B. Kallenrode 4. Februar 2008

Page 171: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

160 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

der letzte Term beschreibt die Filterung als Faltung der Eingangsgroße mit dem Filterkernel.Sie bildet den Filter-Kern oder Kernel. Die Struktur bestimmt die Lange m + 1 des Filters(und damit seine Ordnung m). Die Lage des Ausgabepunktes bestimmt, ob es sich um einenkausalen (l = 0), zentrierten (l = m/2) oder nicht-kausalen (l < m)Filter handelt, dieGewichtsfaktoren bk definieren die Form des Filters. In vielen Darstellungen digitaler Filterwird nur die Variante fur den kausalen Filter verwendet, d.h. der Kernel wird angegeben als

y[n] =m∑

k=0

bk x[n− k] = b[k] ∗ x[k] , (5.2)

§ 591 Ein zentriertes gleitendes Mittel uber neun Datenpunkte mit gleicher Gewichtungergibt sich damit fur m = 8 (Ordnung des Filters als Lange l = 9 des Kernels minus 1), l = 4und bk = 1/9.

§ 592 Verschiedene Gewichtungen der einzelnen Datenpunkte drucken sich in unterschied-lichen bk aus. Sind alle bk identisch, so werden die Datenpunkte gleichberechtigt behan-delt (lineare Filterung). Vielleicht gibt es Grunde, dem zentralen Datenpunkt ein großeresGewicht zuzuschreiben. Dann werden die benachbarten Punkte als kleine Korrekturen auf-gefasst und erhalten einen entsprechenden kleineren Gewichtsfaktor. Der Gauß’sche Filterals ein Beispiel fur eine derartige Gewichtung wird in § 638 als Beispiel fur ein Filter zurRauschunterdruckung beschrieben.

5.3.5 Die Impulsantwort

§ 593 Der Filter-Kernel ist eine Moglichkeit, die Eigenschaften eines Filters zu beschrei-ben; die Impulsantwort ist eine andere. Letztere ist die Antwort des Filters auf eine δ-Eingangsgroße mit

δ[n] = 1 fur n = 0

0 sonst.

Der Filter Kernel (5.1) lasst sich damit umschreiben als

y[n + l] =m∑

k=0

bk x[k]δ[n− k] .

Oder verbal: das Ausgangssignal wird dadurch erzeugt, dass man skalierte verschobene Im-pulse aufsummiert.

§ 594 Beide Darstellungen sind aquivalent. Die Darstellung mit Hilfe der Impulsantwort hatden Vorteil, dass sich eine Verschiebung oder Verzogerung um n0 Samples einbauen lasst:y[n] = x[n−n0]. Mit n0 = 1 ergibt sich die Einheitsverzogerung; den als Unit Delay bezeich-neten Block findet man in SimuLink in der Bibliothek Discrete. Dieses Verzogerungssystemlasst sich, hier fur das Beispiel n0 = 2 auch mit Hilfe eines normalen Kernels fur einen kau-salen Filter (5.2) durch die Angabe der Filterkoeffizienten bk = 0, 0, 1 erreichen:

y[n] = b0 x[n] + b1 x[n− 1] + b2 x[n− 2] = x[n− 2] .

In kurzer Form lasst sich dieses Filter durch h[n] = δ[n− 2] beschrieben mit h[n] als Impul-santwort.

5.3.6 Block Diagramm

§ 595 Ein digitaler Filter lasst sich auch mit Hilfe eines Blockdiagramms darstellen. Dazuwerden die folgenden Blocke benotigt: der Multiplizierer, der Addierer und die Einheits-verzogerung. Oder in den Begriffen von SimuLink: der Gain, der Sum-Block und der UnitDelay.

4. Februar 2008 c© M.-B. Kallenrode

Page 172: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.3. DIGITALE FILTER IM ZEITBEREICH 161

Abbildung 5.15: Darstellungeines digitalen Filters mitHilfe eines Blockdiagramms,in diesem Fall kausales glei-tendes Mittel 4. Ordnung. DieDarstellung mit Hilfe einesBlockdiagramms gilt allgemeinauch wenn es hier aus demSimuLink Modell genommenwurde. Beim allgemeinenBlockdiagramm fallen Quelle,Multiplexer und Senke weg

§ 596 Betrachten wir dazu ein kausales Filter 4. Ordnung. Allgemein gilt dann

y[n] = b0x[n] + b1x[n− 1] + b2x[n− 2] + b3x[n− 3] + b4x[n− 4] .

Fur eine ungewichtete Mittelung ist bi = 0.2. Die zugehorige Darstellung in einem Block-diagramm ist, gleich als SimuLink Modell, im oberen Teil von Abb. 5.15 gegeben. Beimeigentlichen Blockdiagramm gehoren Quelle, Multiplexer und Scope nicht dazu. Das Ein-gangssigan wird in diesem Fall als sich wiederholende Stufenfunktion realisiert (ein diskreterSinus wurde es auch tun). Das Signal wird von oben rechts elementweise gelesen. Das erseElement des Signals ist x[1], die anderen Felder rechts davon enthalten jeweils den Anfangs-wert, in der Regel Null. Mit jedem neuen aus dem Eingangssignal gelesenen Element werdendie bereits vorhandenen Elemente um einen Block nach links verschoben. Diese werden mitden Gewichtsfaktoren multipliziert und anschließend addiert.

§ 597 Das untere Teilbild in Abb. 5.15 zeigt das Eingangssignal (gelb) sowie das gefilterteSignal (magenta). Der Filter ist kausal, d.h. die fehlerhaften Werte (durch Erganzung derNull) treten nur am Anfang auf – und sind dort mit etwas Kopfrechnen auch zu identifizieren.Da wir ein periodisches Eingangssignal gewahlt haben, ist die durch das gleitende Mittelbewirkte Glattung gut zu erkennen.

§ 598 Auch rekursive Filter (IIR Filter) lassen sich im Blockdiagramm darstellen. Dazu mussdie Ausgangsgroße nochmals auf den Filter zuruck gegeben werden. Abbildung 5.16 gibt einauf dem gleitenden Mittel aus Abb. 5.15 aufbauendes rekursives Filter. Mit ai = 1 ergibt sichein stabiles Ausgangssignal, das den Eingang effizient dampft. Mit ai = 2 dagegen wird derFilter instabil – der Filter hatte keine endliche Impulsantwort.

5.3.7 Digitale Filter in SimuLink

§ 599 Zur Simulation digitaler Filter stehen in SimuLink die gleichen Verfahren zu Verfugungwie in Abschn. 5.2.4 im Zusammenhang mit analogen Filtern genannt: Ubertragungsfunktion,Zustandsraum oder Blockdiagramm. Der einzige Unterschied besteht in der Verwendung vonBlocken fur diskrete anstelle kontinuierlicher Variablen. Die Variante mit dem Blockdiagrammhaben wir in Abschn. 5.3.6 und insbesondere Abb. 5.15 und 5.16 bereits kennen gelernt. DieVerwendung der diskreten Ubertragungsfunktion betrachten wir am Beispiel eines Butter-worth Filters.

c© M.-B. Kallenrode 4. Februar 2008

Page 173: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

162 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.16:Blockdiagramm fur ein re-kursives Filter, aufbauend aufdem FIR Filter gleitendenMittel in Abb. 5.15

§ 600 Abbildung 5.17 zeigt die Realisierung eines digitalen Butterworth Filters vierter Ord-nung in SimuLink. Der Filter entfernt das uberlagerte hochfrequente Signal effizient undbewirkt, im Gegensatz zum Tiefpass in Abb. 5.5 keine Phasenverschiebung.

§ 601 Da wir ein digitales Filter betrachten, haben wir es nicht mit zeitkontinuierlichen son-dern diskreten Signalen zu tun. Der Aufbau der Simulation entspricht dem auch in Abb. 5.5fur eine zeitkontinuierliche Simulation verwendeten; der einzige Unterschied ist die Verwen-dung des Blocks Discrete Transfer Function anstelle des Blockes Transfer Function furzeitkontinuierliche Signale. Die beiden Signalquellen links sind die normalen Sinus-Blocke; je-doch ist auf der Parameterkarte des Sinus der Sine Type nicht als Time Based angegebensondern als Sample Based. Dann mussen wir auch eine Sample Time (in diesem Beispiel0.1) angeben sowie die Zahl der Samples pro Period (hier 150 bei einer Amplitude von 1 imoberen Sinus Generator und 5 bei einer Amplitude von 0.4 im unteren). Alle anderen Blockebeziehen ihre Sample Time von diesen Signalgebern, d.h. dort muss die Sample Time nichteingestellt werden sondern kann auf -1 stehen bleiben. In der Simulationskontrolle konnen wiruns fur einen normalen Solver entscheiden oder fur einen diskreten: ein diskreter Solver kannnicht auf ein System angewendet werden, in dem es zeitkontinuierliche Zustande gibt. Einzeitkontinuierlicher Solver dagegen kann auch auf ein diskretes System angewendet werden.

§ 602 Und wo kriegt man die Koeffizienten fur die Ubertragungsfunktion her? In Abb. 5.17ist die Ubertragungsfunktion so gewahlt, dass die Ordnung des Filters 4 betragt und dieSperrfrequenz ωs = 0.2. Ist man glucklicher Besitzer der MatLab Signal Processing Toolbox,so lassen sich die Koeffizienten des Zahler- und Nennerpolynoms der Ubertragungsfunktionmit dem Befehl butter bestimmen. Daher ist es sinnvoll, diese Simulation aus einem m-Fileaufzurufen, in dem man vorher die entsprechenden Parameter bestimmen lasst.

5.4 Filter im Spektralbereich

§ 603 Filter im Spektralbereich basieren auf einer Verwendung des Faltungsprodukts an-stelle des Faltungsintegrals: Funktion und Filter Kernel werden bei einem kontinuierlichen

4. Februar 2008 c© M.-B. Kallenrode

Page 174: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.4. FILTER IM SPEKTRALBEREICH 163

Abbildung 5.17: ButterworthFilter vierter Ordnungals Beispiel fur die Ver-wendung einer diskretenUbertragungsfunktion

Signal Fourier transformiert und multipliziert; das sich ergebende Produkt wird zuruck trans-formiert. Dieses Verfahren liegt der Angabe der Ubetragungsfunktion in s zu Grunde – wirhaben es also bereits die ganze Zeit mehr oder weniger bewusst verwendet.

5.4.1 z-Transformation

§ 604 Bei einem digitalen Filter gibt es ein entsprechendes Verfahren. Die z-Transformationist eine allgemeine Form der diskretenFourier Transformation!diskret Fourier Transforma-tion DFT. Fur unsere Zwecke konnen wir die z-Transformation als eine diskrete LaplaceTransformation auffassen.

§ 605 Betrachten wir dazu ein Signal x[n] endlicher Lange:

x[n] =N∑

k=0

x[k]δ[n− k] .

Dieses wird aus der n-Domane, die ja letztendlich nach Multiplikation mit der Sampling Zeitauch nur eine, wenn auch diskrete Zeitdomane ist, in die z-Domane. Dabei ist z eine komplexeGroße, manchmal auch als Frequenz bezeichnet. Das transformierte Signal ist

X(z) =N∑

k=0

x[k] z−k =N∑

k=0

x[k] (z−1)k .

Die letzte Umformung weist nur noch einmal darauf hin, dass X(z) letztendlich ein PolynomNter Ordnung in z−1 ist.

§ 606 Die z-Tranformation hat als wichtigste Eigenschaften mit der Fourier und der La-place Transformation die Faltung gemeinsam – also jenes mathematische Konstrukt, dasuns den Umgang mit der Ubetragungsfunktion so einfach macht. Die Verwendung der z-Transformation bei diskreten Signalen wird auch in den SimuLink Blocken deutlich: dieUbertragungsfunktion fur zeitkontinuierliche Signale ist in s formuliert, die fur diskrete Si-gnale in z.

§ 607 Fur die Eigenschaften des Filters sind, wie bereits in Abschn. 3.3.1 angesprochen,die Pole und die Nullstellen. Deren Angabe ist zur Charakterisierung der Filtereigenschaftenvollig ausreichend.

c© M.-B. Kallenrode 4. Februar 2008

Page 175: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

164 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

5.4.2 Und in SimuLink?

§ 608 In SimuLink konnen wir die Ubertragungsfunktionen sowohl fur den zeitkontinuier-lichen wie fur den diskreten Fall direkt eingeben, d.h. die Filterung erfolgt automatisch imSpektralbereich.

§ 609 Dabei baut SimuLink auf den bereits aus MatLab bekannten Funktionen conv fureindimensionale und conv2 fur zweidimensionale Daten auf – conv als Abkurzung fur Con-volution oder Faltung. Auf diese MatLab Funktionen konnen wir aus SimuLink direktzugreifen.

§ 610 Betrachten wir als Beispiel ein gleitendes Mittel ohne relative Gewichte, d.h. ein Filterder Lange l mit l identischen Koeffizienten ai = 1/l. Den Filter Kernel konnen wir in MatLaberzeugen (hier fur l = 9) als

bb = ones(9,1)/11

Dieser Kern ist mit den Daten xx zu falten:

yy=conv(bb,xx)

Die MatLab-Funktion filter kennt eine abkurzende Schreibweise dafur:

filter(ones(1,9)/9,1,xx

Und ein Blick in die MatLab Hilfe zeigt uns, wie MatLab dieses Problem lost: MatLabhalt sich an das Blockdiagramm, das wir bereits in Abb. 5.15 und 5.16 kennen gelernt haben.

5.5 Filter im Raum- statt Zeitbereich

§ 611 Bisher haben wir alle Filtertechniken auf von der Zeit abhangige Signale angewendet.Wie sieht es mit zeitlich konstante, aber vom Raum abhangigen Signalen aus? Genauso, wiemit den zeitlichen Signalen, lediglich Zeit wird durch Raum ersetzt und damit Frequenz durchWellenzahl. Die Fourier Transformation wird damit F(f(t)) → F (ω) zu F(f(x))) → F (k).Letzteres haben wir bei der Definition der raumlichen Ableitung in (2.13) verwendet.

§ 612 Zwischen zeitlich und raumlich organisierten Daten besteht jedoch in der Regel einUnterschied: Zeitlich organisierte Daten sind eindimensional, raumlich organisierte Daten da-gegen dreidimensional oder, z.B. bei einem Bild, zweidimensional. Damit drangt sich die Fragenach der Moglichkeit einer Erweiterung einer Fourier Transformation in hohere Dimensionenauf.

5.5.1 FIR Filter im Raumbereich

§ 613 FIR Filter im Raumbereich dienen den gleichen Zwecken wie im Zeitbereich, allerdingsnicht auf einem ein- sondern einem zweidimensionalen Datensatz definiert. Auch hier wirdein gefilterter Datenwert, in diesem Fall eher ein Pixel als ein Sample, aus der Summe einerendlichen Anzahl geeignet gewichteter Eingangsgroßen erzeugt.

§ 614 FIR Filter im Raumbereich werden in der Bildbearbeitung eingesetzt von der Behe-bung von Fehlern in den Datensatzen uber Glattung bzw. Rauschunterdruckung bis hin zurMustererkennung. Neben den hauslichen Anwendungen wie GIMP, Photoshop oder wie sieauch alle heißen, finden raumliche Filter z.B. in der Erdfernerkundung (im wesentlichen Feh-lerbehebung, Objektidentifikation und Mustererkennung), in der Medizin (dort sogar im 3D,im wesentlichen zur Objektidentifikation) oder in der Kunstlichen Intelligenz (Mustererken-nung).

4. Februar 2008 c© M.-B. Kallenrode

Page 176: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 165

Abbildung 5.18: Korrektur fehlender Pixel: in der oberen Reihe links das vollstandige Bild,in der Mitte ein Ausschnitt und links ein Bild, in dem einige Pixel nach Zufallsprinzip ent-fernt wurden. Die Zeilen darunter geben jeweils links ein korrigiertes Bild, in der Mitte dieAbweichung zwischen korrigiertem Bild und Original und rechts die um einen Faktor 100uberhoht dargestellte Abweichung fur einen 3× 3-Kernel in der mittleren Zeile und fur einen5× 5-Kernel in der unteren

§ 615 Korrekturverfahren zerfallen in zwei Teile: die Fehlererkennung und die eigentlicheFehlerkorrektur. Einige Fehler sind einfach zu erkennen, insbesondere Pixel mit dem Wert 0oder gar fehlende oder durch einen Fullwert ersetzte Zeilen. Diese Fehler betreffen nicht dasgesamte Bild sondern einzelne Pixel. Andere Fehler, insbesondere verrauschte Pixel, dagegensind nicht unbedingt so einfach zu erkennen – betreffen jedoch in der Regel, z.B. wegenungunstiger Belichtungsverhaltnisse das ganze Bild.

.

§ 616 Eine echte Korrektur der fehlerhaften Pixel ist nicht moglich. Stattdessen werdenfehlerhafte Pixel durch den (gewichteten) Mittelwert der sie umgebenden Pixel ersetzt, daman davon ausgeht, dass zwischen benachbarten Bildpunkten ein gewisser Zusammenhangbesteht (Kontext bezogene Korrektur).

Fehlende Pixel

§ 617 Als erstes wollen wir den Fall betrachten, dass fur einzelne Bildpunkte der Inten-sitatswert als Null oder als Fullwert gegeben ist. Befinden sich diese Pixel nicht gerade ineiner sehr dunklen Szene, so sind sie leicht zu erkennen.

c© M.-B. Kallenrode 4. Februar 2008

Page 177: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

166 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.19: Kernel verschie-dener Große zur Korrektur feh-lerhafter Pixel

§ 618 Abbildung 5.18 gibt ein Beispiel fur in einem Bild fehlende Pixel (rechts oben). DieFehlstellen wurden aus dem Original (Mitte oben) durch Nullsetzen zufallig ausgewahlterPixel erzeugt.

§ 619 Fur die Korrektur derartiger einzelner Fehlstellen ersetzt man den fehlenden Wertdurch den Mittelwert der umgebenden Pixel. Fur die Bestimmung dieses Mittelwerts kannman einen 3× 3-Kernel verwenden oder einen 5× 5-Kernel, vgl. Abb. 5.19.

§ 620 Bei einem 3 × 3-Kernel werden alle direkt benachbarten Bildpunkte berucksichtigt,vgl. linken Teil von Abb. 5.19. Ist p(i, j) der fehlerhafte Bildpunkt, so wird er ersetzt durchden Mittelwert

p(i, j) =18

j+1∑j′=j−1

i+1∑i′=i−1

p(i′, j′)− p(i, j)

.

Im Beispiel in Abb. 5.19 erhalten wir damit p = 42.4.

§ 621 Mit diesem Verfahren konnen keine Pixel korrigiert werden, die sich am Rand einerSzene befinden, da diese nicht von der notwendigen Zahl anderer Pixel umgeben sind. Obdie Anwendung eines entsprechend verkleinerten Kernels eine sinnvolle Option ist, hangt vonden Daten und den Anspruchen des Anwenders ab.

§ 622 In der mittleren Zeile von Abb. 5.18 ist ein 3×3-Kernel zur Korrektur der fehlerhaftenPixel verwendet. Das Bild links ist das korrigierte Bild, in der Mitte ist die Differenz zwischenkorrigiertem Bild und Original gezeigt, rechts die um einen Faktor 100 uberhohte Differenz.Die Korrektur liefert bei rein visueller Inspektion bereits recht gute Ergebnisse (insbesonderelenken die fehlenden Pixel nicht mehr die Aufmerksamkeit auf sich), das Differenzbild zeigtnur marginale Abweichungen zum Original.

§ 623 Eine Erweiterung des Verfahrens ist die Verwendung eines 5× 5-Kernels, vgl. rechtesTeilbild in Abb. 5.19. Auch hier wird der fehlende Pixel durch den Mittelwert der umgebendenPixel ersetzt:

p(i, j) =124

j+2∑j′=j−2

i+2∑i′=i−2

p(i′, j′)− p(i, j)

.

In diesem Beispiel betragt das Ergebnis p = 43.0.

§ 624 Die Anwendung auf die Daten ist in der unteren Zeile von Abb. 5.18 gezeigt. Reinoptisch bringt das Verfahren gegenuber dem kleineren Kernel keine Verbesserung, lediglichim hundertfach uberhohten Differenzbild erkennt man, dass einige weitere Pixel keine Ab-weichung vom Original mehr zeigen.

§ 625 Beide Kernel haben ihre Vor- und Nachteile: bei stark verrauschten Daten aus einerrelativ homogenen Szene ist der großere Kernel geeigneter, da er auf Grund der Mittelunguber die große Pixelzahl das Rauschen besser unterdruckt. Allerdings hat der große Kernelden Nachteil einer hoheren Rechenzeit und den Verlust einer weiteren Pixelreihe am Rand,die nicht mehr korrigierbar ist. Außerdem ist ein großer Kernel in einer stark variablen Szeneund insbesondere in der Nahe einer Grenze ungunstig, da Pixel von verschiedenen Objektengemittelt werden. Mit der zunehmenden Auflosung der CCDs wird die Zahl der benachbartenahnlichen Pixel immer großer, so dass auch großere Kernel sinnvoll sein konnen.

4. Februar 2008 c© M.-B. Kallenrode

Page 178: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 167

Abbildung 5.20: Fehlende Zeilen und deren Korrektur. Aufbau wie Abb. 5.18, das Differenz-bild jedoch nur um einen Faktor 10 erhoht

Periodisch fehlende Streifen

§ 626 Wahrend fehlende Pixel meistens durch stochastische Einflusse entstehen, sind peri-odisch fehlende Streifen ein bei scannenden Instrumenten (Fernerkundung, Medizin) auftre-tendes instrumentelles Problem. Fur ihre Korrektur werden ebenfalls die Kernel aus Abb. 5.19verwendet, allerdings werden jetzt naturlich die Bildpunkte in der fehlenden Zeile nicht mehrberucksichtigt. Fur den 3× 3-Kernel ergibt sich damit

p(i, j) =16

j+1∑j′=j−1

p(i− 1, j′) +j+1∑

j′=j−1

p(i + 1, j′)

,

fur den 5× 5-Kernel

p(i, j) =120

j+2∑j′=j−2

i+2∑i′=i−2

p(i′, j′)−j+2∑

j′=j−2

p(i, j′)

.

§ 627 Abbildung 5.20 zeigt, in einer Struktur ahnlich Abb. 5.18, ein Beispiel fur eine Szenemit periodisch fehlenden Streifen. Die Korrektur erfolgt mit dem 3×3-Kernel (mittlere Zeile)und dem 5× 5-Kernel (untere Zeile). Die Differenz in der rechten Spalte ist jeweils um einenFaktor 10 uberhoht.

§ 628 Bei der visuellen Inspektion sind keine Relikte der Streifen zu erkennen (bei einergenauen Inspektion fallt naturlich auf, dass die Randpunkte einer Zeile nicht korrigierbarsind). Auch die Differenzbilder zeigen selbst in der zehnfachen Uberhohung (rechts) eine

c© M.-B. Kallenrode 4. Februar 2008

Page 179: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

168 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

recht gut gelungene Korrektur – da die Linien nicht durchgangig sind, sind etliche Pixelvollstandig korrigiert.

§ 629 Die Verwendung des 5× 5-Kernels (untere Zeile von Abb. 5.20) liefert im uberhohtenDifferenzbild sogar noch etwas großere Abweichungen – da die Szene sehr stark wechselndePixelwerte hat, erweist sich die Mittelung uber den großen Bereich als Nachteil. Außerdemist der untere Streifen fehlender Pixel nicht korrigierbar, da er nur einen Streifen Abstandvom Rand hat und damit fur einen 5 × 5-Kernel nicht genug benachbarte Pixel vorhandensind.

§ 630 Das Verfahren wurde hier fur periodische Streifen demonstriert. Diese entstehen haufigdurch nicht korrekt synchronisierte Abtastung. Einzelne fehlende Streifen konnen ebenfallsauftreten: erkennt man z.B. innerhalb einer Zeile eine mangelhafte Synchronisation der Spal-ten, so wird die Zeile durch Fullwerte ersetzt. Die Korrektur einzelner fehlender Zeilen folgtdem gleichen Verfahren wie die periodisch fehlender Zeilen.

§ 631 Periodische Streifen sind den periodisch fehlenden Zeilen aquivalent – der einzige Un-terschied besteht darin, dass der Wert des Pixels nicht Null ist sondern in der ganzen Zeileeine Konstante ist. Dies macht einzelne fehlerhafte Zeilen vielleicht nicht unbedingt visu-ell aber zumindest fur den Rechner leicht erkennbar – schon auf Grund des statistischenRauschens kann selbst eine vollstandig homogene Szene nie einen Streifen mit konstantenPixelwerten liefern. Das Korrekturverfahren entspricht dem fur fehlende Streifen.

Random Noise

§ 632 Wahrend fehlerhafte Streifen aus ihrer Anordnung einfach zu erkennen sind, sindfehlerhafte Pixel wesentlich schwieriger zu identifizieren. Ihre Behandlung ist eng verbundenmit der Behandlung des Rauschens der Bildpunkte.

§ 633 Die Aufnahme eines Bildes, sei es mit einer konventionellen photographischen Emul-sion oder mit einer CCD, basiert auf der Wechselwirkung der von der Szene emittierten oderreflektierten Photonen mit dem Detektor: je großer die Zahl der auftreffenden Photonen, umso großer die Intensitat und damit der Helligkeitswert. Vom Messprinzip her basieren bild-gebende Verfahren also auf der Zahlung von Photonen in diskreten raumlichen Intervallen(Pixel) und diskreten Energiebandern (Spektralbereich, Kanal).

§ 634 Daten, die zahlend erhoben werden, gehorchen der Poisson-Statistik:

f(x) =µx

x!e−µ

mit µ als dem Erwartungs- oder Mittelwert. Die Standardabweichung σ ist gleich der Wurzelaus dem Mittelwert

σ =√

m .

Der relative Fehler ist damit σ/µ = 1/√

µ, d.h. bei kleinen Zahlraten ist der relative Fehlersehr groß, mit zunehmender Zahlrate nimmt er ab.

§ 635 Fur große Zahlraten geht die Poisson-Verteilung uber in die Gauß-Verteilung

f(x) =1

σ√

2πexp

−1

2

(x− µ

σ

)2

.

§ 636 Abbildung 5.21 zeigt ein Beispiel fur ein simuliertes Poisson-Rauschen. Die Einzel-bilder entsprechen einer Maximalzahl von Photonen, die wahrend der Belichtung auf einPixel fallen konnten von 3, 10, 100 bzw. 1000. Am unteren Bildrand ist jeweils ein linearerGraukeil angegeben. Im oberen linken Teilbild sind nur die Bereiche mit großem Kontrastunterscheidbar, Bereiche mit geringem Kontrast (linker unterer Bildteil) dagegen erschei-nen homogen. Der schlechte radiometrische Kontrast reduziert damit auch das raumliche

4. Februar 2008 c© M.-B. Kallenrode

Page 180: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 169

Abbildung 5.21: Simulation desPoisson-Rauschens [48]

Auflosungsvermogen. Da benachbarte Pixel selbst bei homogener Szene auf Grund des Rau-schens sehr unterschiedliche Werte annehmen konnen (

√3 ist nahezu 2, d.h. der relative

Fehler ist ca. 60%), erscheint das Bild sehr kornig. Im rechten unteren Teilbild dagegen istder relative Fehler wesentlich geringer (

√1000 ≈ 32), so dass bei homogener Szene benachbar-

te Pixel auf der Grauskala auch ahnliche Werte annehmen und damit bei einfacher visuellerInspektion nicht unterschieden werden.

§ 637 Rauschen sorgt also fur Variationen der Helligkeitswerte benachbarter Pixel selbstwenn diese eine homogene Szene betrachten. Umgekehrt konnen fehlerhafte Pixel leicht imRauschen untergehen. Zu ihrer Identifikation kann man einen Filter auf der Basis der inAbb. 5.19 gezeigten Kernel verwenden: aus allen Punkten des Kernels wird der Mittelwertgebildet und mit dem Wert des zentralen Punktes verglichen. Liegt dieser mehr als ein vor-gegebener Wert, z.B. das Dreifache der Standardabweichung, vom Mittelwert entfernt, sowird der Pixel als fehlerhaft identifiziert. Die Korrektur dieses Pixels erfolgt wie oben furfehlerhafte Pixel beschrieben unter Verwendung des gleichen Kernels.

§ 638 Ein Glattungsfilter zur Reduktion des Rauschens funktioniert ahnlich. Bei einem li-nearen Glattungsfilter wird der 3 × 3-Kernel (bzw. bei Bedarf der 5 × 5-Kernel) uber diegesamte Szene geschoben und jeweils das zentrale Pixel durch den Mittelwert des Kernelsersetzt. Statt eines linearen Filters kann man auch einen Gauß-Filter verwenden, bei dementsprechend der zwei-dimensionalen Normalverteilung

f(x, y) =1

2πσ2exp

(−x2 + y2

2σ2

)gefiltert wird. Als Filtermatrizen ergeben sich fur den 3× 3 bzw. 5× 5-Kernel

G3 =116

∣∣∣∣∣∣1 2 12 4 21 2 1

∣∣∣∣∣∣ bzw. G5 =1

256

∣∣∣∣∣∣∣∣∣1 4 6 4 14 16 24 16 46 24 36 24 64 16 24 16 41 4 6 4 1

∣∣∣∣∣∣∣∣∣ . (5.3)

Im Gegensatz zum Mittelwertfilter wichtet der Gauß’sche Filter die einzelnen Pixel in Abhan-gigkeit von ihrem Abstand zum Mittelwert. Wir konnen an Stelle eines linearen Filters aucheinen Gauß-Filter bei der Korrektur fehlender oder verrauschter Bildpunkte verwenden, derKernel ist entsprechend dem in (5.3).

Kontrastanreicherung

§ 639 Die Originalaufnahmen der Satelliten sind haufig schwer zu interpretieren, das Haupt-problem ist der geringe Kontrast. Ein wichtiges Verfahren zu Verbesserung der Bildqualitat

c© M.-B. Kallenrode 4. Februar 2008

Page 181: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

170 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.22:Dehnungsverfahren zurKontrastanreicherung[65]

ist die Kontrastanreicherung. Kontrastanreicherung kann z.B. dadurch erfolgen, dass man denTeil der Grauskala, in dem der großte oder interessanteste Teil des Bildes liegt, heraus nimmtund auf die gesamte Grauskala abbildet, d.h. unmittelbar benachbarte Grauwerte werdenetwas auseinander gezogen, so dass sie fur das Auge leichter zu unterscheiden sind. Fur dieseAbbildung gibt es verschiedene Verfahren, die in Abb. 5.22 zusammengefaßt sind. Im oberenTeil der Abbildung sind jeweils Histogramme angegeben, die das Auftreten der verschiedenenGrauwerte in einem Bild beschreiben. Von der gesamten Skala treten nur Grauwerte im Be-reich von 30 bis 90 auf, d.h. wir konnen diesen Bereich der Grauskala auf die komplette Skalaabbilden. Die lineare Abbildung ist dabei der einfachste Fall. Sie berucksichtigt jedoch nicht,dass die Grauwerte nicht gleich verteilt sind, sondern dass der großte Teil der Grauwertein diesem Beispiel im Bereich zwischen 54 und 76 liegt. Daher kann man auch versuchen,diesen Bereich besonders stark zu dehnen (Histogramm angeglichene Dehnung) oder nurdiesen Bereich zu dehnen und die anderen (wenigen) Werte zu vernachlassigen (besondereDehnung).

§ 640 Der Algorithmus fur die lineare Dehnung ist

p′ = (p− lb) · ub− lb

w

mit lb und ub als der unteren bzw. oberen Grenze des ausgewahlten Bereichs und w alsder Bandbreite des ursprunglichen Bereichs. Negative Werte von p′ werden auf Null gesetzt,Werte großer W auf w.

§ 641 Um ein Gefuhl fur die Histogramme der Helligkeitswerte zu erhalten, betrachten wirnochmals die Szene aus Abb. 5.20. Abbildung 5.23 zeigt links oben die Szene, in der Mitte diedrei Spektralbander, aus denen die Szene zusammen gesetzt ist, und rechts die Histogrammefur die einzelnen Kanale. Helligkeitswerte liegen im Bereich zwischen 0 und 255, in allendrei Kanalen wird praktisch nur die untere Halfte der Helligkeitswerte ausgenutzt, im oberenBereich liegen nur noch wenige Werte. Wahrend die Verteilungen im roten und grunen Bereicheine ahnliche Struktur mit einem Doppelpeak haben, ist die Verteilung im blauen Bereichum einen dominanten Einzelpeak konzentriert.

§ 642 Da die Verarbeitung der Bilder kanalweise erfolgt, kann fur jeden Kanal eine eigeneKontrastdehnung vorgenommen werden. Die Kanale konnen dann anschließend zur Szenekombiniert werden.

4. Februar 2008 c© M.-B. Kallenrode

Page 182: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 171

Abbildung 5.23: Die Szene oben links ist aus drei Teilbildern (rot, grun, blau, Mitte) zusam-mengesetzt, die Histogramme fur die Pixelwerte sind jeweils in der rechten Zeile gegeben

§ 643 In Abb. 5.24 wird nur die Dehnung des blauen Kanals aus Abb. 5.23 betrachtet. In deroberen Zeile sind die Originaldaten gegeben, in der zweiten Zeile wurden die Helligkeitswerteim blauen Kanal linear auf den Bereich zwischen 20 und 210 abgebildet, d.h. es wurde nurder Bereich weg geschnitten, in dem sich ohnehin kaum Helligkeitswerte befinden. Das sichergebende Histogramm ist im rechten Teil gezeigt, das sich ergebende Bild des blauen Kanalsin der Mitte. Die Erhohung des Kontrastes und damit die Erkennbarkeit von Strukturenwird deutlich. Bei Kombination mit den beiden (unbehandelten) Kanalen ergibt sich die linksgezeigt Szene. Eine weitere lineare Streckung des Histogramms auf den Bereich zwischen 50und 180 (der Originaldaten) ist in der unteren Zeile gezeigt.

§ 644 Fur eine allgemeine Bildverbesserung ist bereits die relativ moderate Kontrastan-reicherung in der mittleren Zeile ausreichend, bei der nur die extremen Pixel unterdrucktwurden. Fur spezielle Fragestellung (z.B. Identifikation bestimmter Objekte, Rauschunter-druckung) kann eine weitere Kontrastanreicherung auch auf relativ enge Bereiche der Vertei-lung sinnvoll sein.

§ 645 Eine andere Situation entsteht in einer Szene mit starkem Kontrast, z.B. bei derAufnahme eines Gletschers und des umgebenden Felsens. Abbildung 5.25 zeigt ein Beispiel,wieder die Gesamtszene links oben, die einzelnen Teilbilder in der mittleren Spalte und diedazu gehorigen Histogramme rechts. In allen drei Teilbildern sind die Histogramme ahnlich:eine bimodale Verteilung mit einem Maximum bei niedrigen Intensitatswerten (Fels) undeinem zweiten Maximum bei hohen Werten (Eis).

c© M.-B. Kallenrode 4. Februar 2008

Page 183: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

172 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.24: Fur den blauen Kanal der Szene aus Abb. 5.23 wurde eine lineare Kon-trastanreicherung vorgenommen: obere Zeile Originaldaten, mittlere Zeile Dehnung auf denBereich von 20 bis 210, untere von 50 bis 180. In der linken Spalte wurde das gedehnte Bildim Blauen mit den ungedehnten Bildern in Rot und Grun uberlagert

§ 646 Eine Kontrastanreicherung ahnlich der in Abb. 5.24, bei der nur die nicht auftretendenHelligkeitswerte abgeschnitten werden, verandert zwar das Bild, liefert aber keine zusatzlicheInformation: die Unterscheidnung zwischen Eis und Gletscher ist auf Grund der bimodalenVerteilungen auch im unbearbeiteten Bild bereits eindeutig. Die Erkennung von Details imFels und/oder auf dem Gletscher dagegen verbessert sich kaum, da die beiden Peaks aufGrund ihrer geringen Breite kaum gestreckt werden.

§ 647 Abbildung 5.26 gibt in der oberen Zeile noch einmal die Originalszene, den blauenKanal sowie das Histogramm des blauen Kanals. Die beiden unteren Zeilen enthalten einelineare Dehnung: in der Gesamtszene (links) wurden alle Kanale identisch gedehnt, in derMitte ist das Ergebnis dieser Dehnung fur den blauen Kanal gezeigt, rechts das sich fur diesenKanal ergebende Histogramm.

§ 648 In der mittleren Zeile wurde der Bereich von Helligkeitswerten zwischen 140 und215 linear auf den Gesamtbereich gedehnt. Dadurch verringern sich die Kontraste in dendunklen Bildpartien wahrend die Kontraste im hellen Bereich erhoht werden. Insbesonderetritt das Hohenprofil des Gletschers deutlicher hervor: die unterschiedlichen Neigungen derBildelemente fuhren dazu, dass das reflektierte Licht mit unterschiedlicher Intensitat auf denDetektor trifft – allerdings immer mit großer Intensitat. Durch die Dehnung werden dieseKontraste hervorgehoben und damit auch die Struktur.

4. Februar 2008 c© M.-B. Kallenrode

Page 184: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 173

Abbildung 5.25: Teilbilder und Histogramme fur eine Szene mit Gletscher und Fels, d.h.starkem Kontrast

§ 649 In der unteren Zeile wurde der Bereich zwischen 10 und 100 auf den gesamten Hellig-keitsbereich gedehnt. Daher verschwinden die Kontraste im Bereich des Gletschers wahrendsie im Bereich der Felsen deutlicher hervortreten und die Unterkante des Bildes als Grasbe-wuchs statt Fels kenntlich wird.

§ 650 Je nach Fragestellung an das Bild kann sich eine andere Form der Kontrastdehnung alssinnvoll erweisen: ein Glaziologe wird mit dem unteren Verfahren vielleicht nicht so zufriedensein wie mit dem mittleren, ein Geookologe dagegen bevorzugt vielleicht eher das untereVerfahren.

5.5.2 Kantenanreicherung

§ 651 Ein weiteres Verfahren ist die Kantenanreicherung (‘edge enhancement’). Hat maneinen weißen und einen schwarzen Streifen direkt nebeneinander (wie in dem Teststreifensys-tem zur Bestimmung des Bodenauflosungsvermogens), so kann man die Lichtintensitat alseine Stufenfunktion darstellen. Auf dem Film wird diese Stufe jedoch in einen kontinuierlichenUbergang transformiert, d.h. die ursprunglich scharfe Begrenzung zwischen den beiden Strei-fen verwischt etwas. Da aber fur jeden Film diese Ubertragungsfunktion bekannt ist, kannman eine Rucktransformation vornehmen, die die verwischte Kante wieder in eine scharfeBegrenzung uberfuhrt. Ein gutes Beispiel ist in Abbildung 9-13 in Cracknell und Hayes [16]gegeben.

§ 652 Fur digitalisierte Aufnahmen gibt es einige einfache Verfahren zur Kantenanreiche-rung, die ebenfalls mit Hilfe der in Abb. 5.19 durchgefuhrt werden kann. Die formale Grund-

c© M.-B. Kallenrode 4. Februar 2008

Page 185: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

174 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.26: Lineare Kontrastanreicherung fur Abb. 5.25; in der mittleren Zeile wurdeder rechte Peak gedehnt, in der unteren der linke

lage zur Kantenanreicherung ist eine Laplace Transformation [16, 48].

§ 653 Bei der technischen Realisierung der Kantenanreicherung sind zwei Verfahren zu un-terscheiden: gerichtete und nicht-gerichtete. Gerichtete Kantenanreicherung kann verwendetwerden, um z.B. in Nord-Sud-Richtung verlaufende Strukturen zu erkennen. UngerichteteKantenanreicherung dagegen ist in allen Bereichen sinnvoll, in denen keine Vorinformationenuber die Richtung einer moglichen Kante vorhanden sind oder diese sehr variable Richtunghaben (z.B. Verkehrsstrukturen).

§ 654 Ein ungerichteter Filter ist im linken oberen Teil von Abb. 5.27 gegeben: der Hel-ligkeitswert des zentralen Pixels wird vierfach gewichtet, die Helligkeitswerte der direkt be-nachbarten Pixel jeweils einfach gewichtet abgezogen. Der so gewonnene Filterwert wird zumzentralen Pixel addiert. Die obere Zeile von Abb. 5.27 zeigt einen Testdatensatz, die Zeiledarunter gibt das Profil der Helligkeitswerte des originaldatensatzes entlang einer horizon-talen Linie. Die folgende Zeile gibt das Profil nach der Kantenanreicherung, darunter derDatensatz nach Kantenanreicherung. In den Originaldaten betragt der Kontrastunterschiedan der linken Kante 80/60 = 1.33; nach der kantenanreicherung ist dieses Verhaltnis auf100/40 = 2.5 erhoht, d.h. nahezu verdoppelt.

§ 655 Abbildung 5.28 gibt ein Beispiel fur eine Kantenanreicherung mit dem Kernel ausAbb. 5.27. Die Kontrasterhohung an Kanten ist insbesondere im Bereich des Bahnhofs (linksunten) und am Flusslauf zu erkennen. An letzterem wird auch deutlich, dass der Kernel eineungerichtete Kantenanreicherung bewirkt.

4. Februar 2008 c© M.-B. Kallenrode

Page 186: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 175

Abbildung 5.27: UngerichteteKantenanreicherung: Kernel;Originaldaten, Profil der Ori-ginaldaten und der gefiltertenDaten und gefilterte Daten

Abbildung 5.28: Szene aus Abb. 5.20 ohne (oben links) und mit (unten links) Kantenanrei-cherung mit dem Kernel aus Abb. 5.27. Die mittlere Spalte gibt die einzelnen Kanale imOriginal, die rechte nach Kantenanreicherung, jeweils oben Rot, Mitte Grun und unten Blau

c© M.-B. Kallenrode 4. Februar 2008

Page 187: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

176 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

§ 656 Die Kantenanreicherung fur Kanten unter einem beliebigen Winkel α beruht ebenfallsauf der Verwendung von zwei 3× 3-Kerneln. Der erste Kernel

Py =

∣∣∣∣∣∣1 1 10 0 0−1 −1 −1

∣∣∣∣∣∣hilft bei der Identifikation horizontaler Strukturen, Kernel

Px =

∣∣∣∣∣∣−1 0 1−1 0 1−1 0 1

∣∣∣∣∣∣bei der Identifikation vertikaler Strukturen. Strukturen unter beliebigen Winkeln α werdenangereichert mit einem Filter

P = cos α P1 + sinα P2 = cos α

∣∣∣∣∣∣−1 0 1−1 0 1−1 0 1

∣∣∣∣∣∣+ sinα

∣∣∣∣∣∣1 1 10 0 0−1 −1 −1

∣∣∣∣∣∣ .

Eine diagonal verlaufende Struktur wird entsprechend durch die Kernel

P45 =

∣∣∣∣∣∣0 −1 −11 0 −11 1 0

∣∣∣∣∣∣ bzw. P−45 =

∣∣∣∣∣∣−1 −1 0−1 0 10 1 1

∣∣∣∣∣∣Auch hier wird der Filterwert zum Originalpixel addiert.

§ 657 Die Operatoren P werden als Prewitt-Operatoren bezeichnet. Da sie nicht nur diebeiden direkt der Kante benachbarten Pixel in einer Linie senkrecht zur Kante berucksichtigensondern auch die jeweils parallelen Linien, bewirken sie nicht nur eine Kantenanreicherungsondern gleichzeitig auch eine Glattung. Beim Prewitt-Operator ist diese Glattung linear,beim Sobel-Operator wird eine Gauß-Wichtung vorgenommen:

Sx =

∣∣∣∣∣∣−1 0 1−2 0 2−1 0 1

∣∣∣∣∣∣ , Sy =

∣∣∣∣∣∣1 2 10 0 0−1 −2 −1

∣∣∣∣∣∣ ,

S45 =

∣∣∣∣∣∣0 −1 −21 0 −12 1 0

∣∣∣∣∣∣ bzw. S−45 =

∣∣∣∣∣∣−2 −1 0−1 0 10 1 2

∣∣∣∣∣∣ .

§ 658 Derartige Filter konnen z.B. zur Identifikation linearer Strukturen verwendet werden,wie auch im Zusammenhang mit Abb. ?? diskutiert.

5.5.3 Filter im Frequenzbereich: Fourier Transformation in mehre-ren Dimensionen

§ 659 Eine Moglichkeit, ein Bild einer Fourier Transformation zu unterziehen konnte, zumin-dest im Prinzip, die Anwendung der konventionellen eindimensionalen Fourier Transforma-tion auf jede Zeile des Bildes sein. Was bei zweidimensionalen raumlich organisierten Datenvielleicht noch als Moglichkeit erscheint, wird spatestens in der dritten Dimension aufwendig– und fuhrt zu einer unubersichtlich großen Zahl von Fourier Transformationen. Außerdemhat ein derartiges scannendes Verfahren den Nachteil, dass es den Zusammenhang zwischenDatenpunkten nur entlang einer Dimension berucksichtigt, nicht jedoch entlang der anderen.Betrachten wir ein Dunenfeld oder ein Wellenfeld auf dem Ozean, so konnten eine derar-tige Fourier Analyse im Extremfall zu verschwindenden Dunen/Wellen fuhren: scannen wirparallel zum Dunenrucken, so ist die Intensitat entlang jeder einzelnen Linie konstant – esgibt keine Hinweise auf periodische Strukturen. Drehen wir dagegen unser Koordinatensys-tem und scannen senkrecht zum Wellen- bzw. Dunenrucken, so wird das periodische Muster

4. Februar 2008 c© M.-B. Kallenrode

Page 188: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 177

deutlich. Das Ergebnis einer wiederholten eindimensionalen Fourier Analyse ware also hoch-gradig von der Orientierung des Koordinatensystems abhangig – keine gute Voraussetzungfur eine globale Beschreibung.

§ 660 Fur die zweidimensionale Fourier Transformation konnen wir entsprechend dem Vor-gehen bei der eindimensionalen Transformation wieder auf eine Reihe zuruck greifen: statt derschwingenden Seite betrachten wir eine schwingende Rechteck-Membran, beschrieben durchdie zweidimensionale Wellengleichung

∂2A

∂x2+

∂2A

∂y2= −1

c

∂2A

∂t2.

Diese PDGL losen wir durch einen zweimaligen Separationsansatz. Im ersten Schritt, A(x, y, T ) =R(x, y) T (t) werden wie bei der eindimensionalen Version raumlicher und zeitlicher Anteilgetrennt, im zweiten Schritt R(x, y) = X(x)Y (y) werden die beiden raumlichen Komponen-ten separiert.5 Mit den Separationskonstanten −β2 aus der Separation von raumlichem undzeitlichem Anteil sowie den Separationskonstanten p2 + q2 = β2 fur die beiden raumlichenKomponenten ergeben sich die drei gewohnlichen Differentialgleichungen

0 = T ′′(t) + c2β2T (t) ,0 = X ′′(x) + p2X(x) und0 = Y ′′(y) + q2Y (y) .

Alle drei DGLs sind vom Typ einer Schwingungsgleichung, ihre Losungen sind

X(x) = γ1 cos(px) + γ2 sin(px) ,Y (y) = γ3 cos(px) + γ4 sin(px) undT (t) = γ5 cos(βct) + γ6 sin(βct) .

Ist die Membran an allen Seiten eingespannt, so wallen wieder die Kosinus-Terme weg – inder allgemeinen Losungen bleiben diese erst einmal stehen.

§ 661 Wie bei der schwingenden Saite konnen sich auf der Membran nur die Schwingungenausbilden, deren Wellenlange ein ganzzahliger Teiler der doppelten Kantenlange a ist, d.h. esmuss gelten

pn =πn

aund pm =

amitn, m = 1, 2, 3, . . .

und damit

ωmn = βmnc = cπ

√n2

a2+

m2

b2mitn, m = 1, 2, 3, . . . .

Fur eine einzelne Schwingungsmode gilt damit

....

5.5.4 Ein alltagliches Beispiel: JPEG

§ 662 JPEG (die Joint Photographic Experts Group hat diesen Standard 1992 definiertund fungiert auch als Namensgeber) ist Ihnen eigentlich als verlustbehaftetes Verfahren derBildkompression bekannt. Verlustbehaftet bedeutet, dass sich das original aus den kompri-mierten Daten nicht vollstandig rekonstruieren lasst sondern eben nur mit Verlusten an erursprunglich im Bild enthaltenen Information. Nur was hat diese Kompression mit Filter-techniken zu tun?

§ 663 Im wesentlichen begegnen wir bei JPEG dem Problem, eine Sprungfunktion durcheine Summation harmonischer Funktionen anzunahern: ein Bild ist ....

5Im Prinzip kann die Separation in einem einzigen Schritt erfolgen: A(x, y, t) = X(x) Y (y) T (t). Mathema-tisch ist das ok, praktisch jedoch ist die Abspaltung des zeitlichen Anteils in einem ersten Schritt sinnvoll, dasich fur der raumlichen Anteil je nach Geometrie (z.B. Kreismembran vs. Rechteckmembran) unterschiedlicheSeparationen anbieten.

c© M.-B. Kallenrode 4. Februar 2008

Page 189: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

178 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Exkursion JPEG: Fourier Transformation zur Datenkompression

§ 664 Sie gehen, ohne sich dessen bewusst zu sein, nahezu taglich mit einer speziellen, aufder Fourier Analyse basierenden Filtertechnik um, insbesondere wenn Sie sich mit digitalenoder digitalisierten Bildern beschaftigen, z.B. im Internet oder auf Ihrem Handy. Ein Farb-bild besteht, entsprechend seinem Aufbau in der analogen Photographie aus drei Schichten:rot, grun und blau. Daher werden Farben meist im RGB-Format angegeben: die drei Zahlenfur RGB geben die Helligkeitswerte der entsprechenden Farben an und sind so in der Lage,die vollstandige Farbpalette zu produzieren. Entsprechend werden bei einem Digitalbild furjeden Pixel des Photos die entsprechenden Helligkeitswerte ubergeben. Gehen wir von einermodernen 10 Mega-Pixel Kamera aus (Mittelwertfomatkameras wurden uns sogar mit 39 Me-gaPixeln konfrontieren). Zu jedem Pixel mussen drei Helligkeitswerte ubertragen werden –bei einer Tiefe von 256 Helligkeitswerten pro Schicht6 entspricht das 8 Bit oder einem Bytepro Schicht. Oder insgesamt 3 Byte pro Pixel oder 30 MB pro Bild (bzw. lacherliche 120 MBbei einer Mittelformatkamera).

§ 665 Meine etwas altere 5 Megapixel Kamera wurde serienmaßig mit einer 16 MB Spei-cherkarte ausgeliefert – das war damals sehr viel, wurde aber nur zum Abspeichern eineseinzigen Bildes in einem entsprechenden Bitmap oder im RAW-Format reichen. Zu der Zeitdiskutierte man allerdings noch nicht uber RAW sondern machte das, was man heute auchnoch tut: die Daten komprimieren.

§ 666 JPEG (Joint Photographic Experts Group) ist ein weit verbreiteter Standard derBildkomprimierung – allerdings ist JPEG ein Verlust behaftetes Verfahren zur Datenkom-pression. Zumindest bei alteren Programmen zur Bildverarbeitung und Kameras werden Sieim Zusammenhang mit JPEG stets auch nach der Qualitat der Abbildung gefragt: wahlenSie eine geringe Qualitat, so wird die Datei klein, bei hoher Qualitat ergibt sich eine relativgroße, aber immer noch komprimierte Datei. Die Datenreduktion erfolgt dabei nicht so, dasseinfache Pixel nach einem bestimmten Muster ausgelassen werden oder z.B. immer uber 2×2-Quadrate gemittelt wird. In letzterem Fall hatte man gleich einen Sensor mit entsprechenweniger Pixeln verwenden konnen.

§ 667 Stattdessen ist JPEG ein Transformations-Codierungsverfahren, d.h. zuerst wird dasBild transformiert, anschließend wird die Transformation codiert. Die Decodierung erfolgtentsprechend: die eigentliche Decodierung liefert die Transformation des Bildes, dieses wirdanschließend rucktransformiert. Die Codierung/decodierung wird uns hier nicht beschaftigen,wir beschranken uns auf die Transformation, da diese den großten Anteil an der Kompressionhat.7

§ 668 Als Transformation wird bei JPEG eine diskrete Kosinustransformation DCT,8 d.h.eine 2D-Fourier Transformation DFT mit Beschrankung auf die Kosinus Terme, auf ein N ×

6256 Helligkeitswerte pro Schicht erscheinen nicht einmal viel. Damit lassen sich allerdings insgesamt2563 = 16 777 216 Farbtone erzeugen – stellen Sie sich vor, sie wurden fast 17 Mio kleine Kartchen mit diesenunterschiedlichen Farben erhalten und sollten Sie in irgendeiner Form ordnen. Wahrscheinlich waren Sieselbst bei direktem nebeneinander legen verschiedener Karten nicht in der Lage, die entsprechenden Farbenuberhaupt auseinander zu halten. Daher sind 8 bit Farbtiefe pro Schicht bzw. 24 bit insgesamt fur normalephotographische Anspruche ausreichend.

7Die Aussage ist nicht ganz korrekt: bei JPEG wird eine eher einfache Codierung verwendet, da die Kom-pression in die Transformation ausgelagert wurde. Im Prinzip kann man, wie z.B. bei PNG den Lempel–Ziv–Storer–Szymanski-Algorithmus, auch einen effizienten Codierungs-Algorithmus verwenden. Diese Codierungist verlustfrei und basiert in der Regel (hier am Beispiel von PNG) auf drei Stufen: (1) die reale Folge derHelligkeitswerte wird gefiltert; in der Regel derart, dass die Differenz zum benachbarten helligkeitswert gebil-det wird. Da in den meisten Bildern benachbarte Pixel relativ ahnliche Hellikgkeitswerte haben, treten kleineDifferenzen wesentlich haufiger auf als Große. (2) Mit Hilfe des Lempel–Ziv–Storer–Szymanski-Algorithmuswird diese Zeichenkette in Datenfenster unterteilt, in denen nach wiederkehrenden Zeichensequenzen ge-sucht wird. Diese liefern die Basis fur die Codierung. (3) Die Zeichenketten werden gemaß ihrer Haufigkeitcodiert (Hufmann-Codierung): eine haufig auftretende Zeichenkette wird mit einem kurzen Codewort ver-sehen, eine seltene mit einem langen. Der Morse-Code ist ein ganz einfaches Beispiel fur eine derartigeHaufigkeitscodierung. Insgesamt entsteht auf diese Weise eine kleine Datei, in der alle Information erhaltenbleibt.

8Die diskrete Kosinustransformation (siehe z.B. http://de.wikipedia.org/wiki/Diskrete

4. Februar 2008 c© M.-B. Kallenrode

Page 190: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 179

N -Pixel großes Bild mit den Helligkeitswerten x angewandt:

X(0, 0) =1N

N∑i=0

N∑j=0

x(i, j)

X(u, v) =2N

N∑i=0

N∑j=0

x(i, j) cos(

2(i + 1)uπ

2N

)cos(

2(j + 1)vπ

2N

)

Darin wird, wie auch bei der 1D-Fourier Transformation, X(0, 0) als Gleichstromanteil be-zeichnet, entsprechend einem mittleren Helligkeitsniveau des Bildes. Die Terme X(u, v) mitu, v 6= 0 werden als Wechselstromanteil bezeichnet. Sie beschreiben fur jeden Punkt des Bil-des die Abweichungen vom Mittelwert und beinhalten damit die Information uber die Detailsdes Bildes.

Verstandnisfrage 60 Wie stellen Sie sich eine 2D-Fourier Reihe/Fourierzerlegung anschau-lich vor?

§ 669 Ein reales Bild wird zuerst in 8 × 8 Pixel große Untermatrizen zerlegt.9 Auf dieseUntermatrix wird die Kosinustransformation angewandt, so dass sich fur jede Untermatrix64 Koeffizienten X(0, 0) bis X(7, 7) ergeben. Da JPEG komprimieren soll, wird nur denniederfrequenten Anteilen der Transformation eine Bedeutung beigemessen. Bis zu welcherOrdnung diese Anteile berucksichtigt werden sollen, bestimmt einerseits die Bildqualitat undandererseits den Grad der Komprimierung: werden alle Koeffizienten berucksichtigt, so istdie Information uber das Originalbild am großten und damit die Bildqualitat am besten.Umgekehrt bedeutet ein Abbrechen nach wenigen Koeffizienten eine kleine Datei, erkauftmit dem Verlust von Details.

§ 670 Abbildung 5.29 zeigt die Abhangigkeit des reproduzierten JPEG-Bildes von der Zahlder berucksichtigten Koeffizieten. Dazu wurde ein 512 × 512-Pixel großes Bild in ein 8 × 8-Raster von 64 × 64-Pixel großen Untermatrizen zerlegt. Diese relativ großen Untermatrizenwurden gewahlt, da sich mit ihnen die Abweichungen vom Original besser verdeutlichenlassen.

§ 671 Aus dem Vergleich der Teilbilder wird deutlich, dass der Großteil der Information inden untersten Koeffizienten steckt – bereits mit 20 der 4096-Koeffizienten lasst sich ein Bilderzeugen (links unten), das die relevante Struktur des Originalbildes wieder gibt. Die hoherenKoeffizienten verbessern nur noch den Detailreichtum.

§ 672 Wahrend die Helligkeitswerte im Originalbild mit mindestens 8 bit/Pixel und Kanalcodiert sind, lassen sich bei einer JPEG-Codierung mit Raten von 0.2–0.5 Bit/Pixel bereitsmaßige bis gute Bildqualitatten erreichen. Bei einer Codierung mit 0.5–0.75 Bit/Pixel ist dieBildqualitat bereits gut bis sehr gut, bei 1.5–2 Bit/Pixel unterscheidet sich das Bild nichtmehr vom Original.

Verstandnisfrage 61 Ist eine 2D-Fourier Transformation wirklich erforderlich? Man konntedoch auch das Bild zeilenweise abtasten und jeder einzelne Zeile transformieren. Was sinddie Vor- und Nachteile eines 1D-Verfahrens?

Kosinustransformation) wurde 1974 von Ahmed, Natarjan und Rao [1] eingefuhrt, um ein diskretesZeitsignal in ein Frequenzsignal zu uberfuhren. Sie unterscheidet sich von der diskreten Fourier Transformati-on durch die Beschrankung auf reelle Terme – daher verschwindet der Sinus aus der Fourier Transformation;fur die Anwendung der DCT auf die Codierung von JPEG siehe auch http://de.wikipedia.org/wiki/JPEG.

9Ist die Kantenlange kein Vielfaches von 8, so wird zum Auffullen der fehlenden Zeilen bzw. Spalten diejeweils letzte Zeile oder Spalte wiederholt.

c© M.-B. Kallenrode 4. Februar 2008

Page 191: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

180 KAPITEL 5. UBERTRAGUNGSFUNKTION VERTIEFT: FILTER

Abbildung 5.29: JPEG-Codierungund Decodierung fur unterschied-liche Zahl der berucksichtigtenKoeffizienten [140]

4. Februar 2008 c© M.-B. Kallenrode

Page 192: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

5.5. FILTER IM RAUM- STATT ZEITBEREICH 181

Literaturhinweise

§ 673 Filterung von Signalen, gal ob mit SimuLink oder einem anderen Tool, ist Themader Signalanalyse und -verarbeitung. Da die Implementation einer Ubertragungsfunktion inSimuLink nach den Ubungen aus den voran gegangenen Kapiteln keine Probleme aufwerfensollte, beschranken sich die Literaturangaben auf die Inhalte. Einfach zu lesen, aber dennochrecht weit gehend und mit vielen Beispielen versehen, ist ‘Signal Processing First’ von .... .Eine deutschsprachige Alternative ist ‘Werkzeuge der Signalverarbeitung’ von Meffert undHochmuth [73]. Eine gute Einfuhrung in die digitale Bildverarbeitung gibt Jahne [48], furdie Anwendungen in der Erdfernerkundung siehe auch Sabins [104], fur medizinische Anwen-dungen [26] und mit sehr viel mathematischem Background in [20].

Fragen

Aufgaben

c© M.-B. Kallenrode 4. Februar 2008

Page 193: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Teil III

Nicht-Lineare und/oderkomplexere Systeme

182

Page 194: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 6Nicht-lineare Systeme

Nonlinear science gives us the insight to accept things we cannot calculate, theability to calculate things we can and the wisdom to know the difference.

Scott [109]

§ 674 Nicht-lineare Systeme lassen sich auf unterschiedliche Weise klassifizieren oder cha-rakterisieren. ....

§ 675 Dieses Kapitel enthalt keine systematische Einfuhrung in lineare Systeme; letzterefinden Sie in einfacher Darstellung in Scott [109], in etwas anspruchsvollerer Darstellungebenfalls bei Scott [108]. Im Rahmen dieses Kapitels werden wir uns langsam voran tasten.

§ 676 Nicht-lineare Systeme sind zeitvariante Systeme: nicht nur die Zustandsgroßen desSystems verandern sich sondern auch Systemparameter. Die einfachsten zeitvarianten Syste-me in der Mechanik (und damit auf Basis der Bewegungsgleichung) sind die startende Rakete(zeitlich veranderliche Masse) und das Fadenpendel mit veranderlicher Fadenlange. Erstereswerden wir als ein einfaches SimuLink-Beispiel in Abschn. 6.1 betrachten.

§ 677 Diese einfachen Systeme sind zwar nicht-lineare Systeme in dem Sinne, dass die Dif-ferentialgleichung einen nichtlinearen Term enthalt – die besonderen Eigenschaften nichtli-nearer Systeme wie Chaos, Synchronizitat, Emergenz oder Selbstorganisation werden damitjedoch nicht erfasst. Mit diesen Begriffen werden wir in Abschn. 6.2 bei der Untersuchunggekoppelter Pendel auf anschauliche Weise in Beruhrung kommen.

§ 678 Zur vollen Entfaltung kommen diese Konzepte in Abschn. 6.3. Dort werden wir ver-schiedenen Beispiele von Selbstorganisation betrachten, die alle im Rahmen von Diffusions–Reaktions Modellen beschrieben werden konnen – z.B. Hirnareale, Jager–beute Modelle, dieAnlagerung auf Oberflachen und die Muster auf Tierhauten.

§ 679 Im letzten Abschnitt ....

Lernziele: nach Durcharbeiten dieses Kapitels (und eventuell der Begriffsliste in Anhang A)sollen Sie in der Lage sein,

• einige grundlegende, im Zusammenhang mit nichtlinearen Systemen verwendete Begriffewie .... qualifiziert zu erlautern und Beispiele zu ihrer Illustration anzugeben.

••• nichtlineare Modelle in SimuLink zu behandeln.

183

Page 195: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

184 KAPITEL 6. NICHT-LINEARE SYSTEME

• komplexere Modelle in SimuLink auch unter Verwendung mehrerer, gegebenenfalls um-fangreicher und verschachtelter Untersysteme zu entwerfen und zu kontrollieren.• die Fahigkeiten von SimuLink mit Hilfe von selbst gestrickten Funktionen (m-Files und

s-Files) zu erweitern.• partielle Differentialgleichungen in SimuLink hinein zu mogeln.

6.1 Einfache zeitvariante Systeme

§ 680 Eine startende Rakete ist ein einfaches mechanisches Beispiel fur ein dynamisches, d.h.sich mit der Zeit entwickelndes System. Die zeitliche Abhangigkeit von Eingangs-, Ausgangs-und Zustandsgroßen ist auch in zeitinvarianten Systemen gegeben; die Systemgleichungendagegen hangen in einem zeitinvarianten System nicht von der Zeit ab.

§ 681 In einem dynamischen oder zeitvarianten System dagegen hangen die Systemgleichun-gen von der Zeit ab. Bei der startenden Rakete ist dies offensichtlich: ihre Bewegungsgleichungenthalt die Masse und diese ist eine Funktion der Zeit: m = m(t). Wahrend die Rakete ein dy-namisch recht langweiliges System ist, werden wir an Hand des Feder-Fadenpendels und desPendels an einer Rolle sehr einfache zeitvariante Systeme kennen lernen, die den Ubergangzum Chaos erlauben.

6.1.1 Startende Rakete

§ 682 Als Beispiel folgen wir Lutz und Wendt [68] und betrachten eine Stufe einer Saturn-V-Rakete. Um das System etwas realistischer zu gestalten (und die Verwendung eines Unter-systems zu motivieren) berucksichtigen wir eine von der Hohe abhangige Erdbeschleunigungsowie Reibung.

Die Bewegungsgleichung

§ 683 Da sich die Masse der Rakete wahrend der Beschleunigung andert, ist die Bewegungs-gleichung gegeben zu

mx =∑

Fi ⇒ x =1m

∑Fi .

Als Krafte sind auf der rechten Seite die Schubkraft, die Reibung und die Gravitation einzu-setzen.

§ 684 Die von der Hohe (und der zeitlich veranderlichen Masse) abhangige Gravitationskraftist

Fg = −m(t)g(x(t)) = −m(t) g0R

R + x

mit g0 als der Gravitationsbeschleunigung am Erdboden, R als dem Erdradius und x als derHohe (und damit gleichzeitig als der Ortskoordinate der Rakete).

§ 685 Die Schubkraft hangt von der Ausstromgeschwindigkeit vrel der Verbrennungsgase unddem Massenstrom m ab:

FSchub(t) = −m(t) vrel(t) = −mleer −m0

tBvrel .

Dabei wird die Ausstromgeschwindigkeit vrel als konstant angenommen. Der Massenstromergibt sich bei konstanter Verbrennungsrate zu

m =mleer −m0

tB

4. Februar 2008 c© M.-B. Kallenrode

Page 196: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.1. EINFACHE ZEITVARIANTE SYSTEME 185

Abbildung 6.1: RaketenstartHauptsystem: da das Modellauf der Bewegungsgleichungbasiert, muss letztendlich nurdie Beschleunigung zwei malintegriert werden

mit m0 als der Startmasse der vollbetankten Rakete, mleer als der Masse der leeren Raketebei Brennschluss und tB als der Brenndauer. Aus dem Massenstrom lasst sich auch direktdie Abhangigkeit der Raketenmasse von der Zeit bestimmen als

m(t) = m0 −m0 −mleer

tBt .

§ 686 Die Reibungskraft ist bestimmt durch den Widerstandsbeiwert cw, die angestromteFlache A, die von der Hohe abhangige Dichte %(x) der Luft sowie der Geschwindigkeit v:

FReib = −12cwA%(x)x2 .

Die Hohenabhangigkeit der Dichte lasst sich abschatzen zu

%(x) = %0

(1− 22.6 · 10−6 x

1 m

)4.255

mit %0 als der Dichte am Erdboden.

§ 687 Kombination dieser Krafte liefert fur die Beschleunigung in Abhangigkeit von Zeit t,Ort x und Geschwindigkeit x

x(t, x, x) =1

m0 − m0−mleertB

t

(m0 −mleer

tBvrel −

12cwA%0

(1− 22.6 · 10−6 x

1 m

)4.255

x2

)−g0

R

R + x

Das Modell

§ 688 Das Modell zerfallt in zwei wesentliche Bestandteile: die Berechnung der zeitabghangigenBeschleunigung aus der ortsabhangigen Gravitationskraft, der zeitabhangigen Masse und dergeschwindigkeitsabhangigen Reibungskraft sowie die zweimalige Integration dieser Beschleu-nigung, da wir wieder von der Bewegungsgleichung und damit einer DGL zweiter Ordnungausgehen. Den letzten Teil erledigt das eigentliche System wie in Abb. 6.1 gezeigt. Da die dreiinteressierenden Großen x(t), x(t) und x(t) einen sehr unterschiedlichen Dynamik-Bereich ha-ben, macht es keinen Sinn, sie auf ein Oszilloskop zu geben. Da drei Oszilloskope nicht geradeubersichtlich sind, erfolgt die Ausgabe stattdessen als strukturiertes Element mit dem Namenrocket in den Workspace.

§ 689 Bei der erzwungenen Schwingung haben wir die Beschleunigung jeweils mit Hilfe vonGain und Summationsblocken im Hauptmodell bestimmt. Hier ist die Beschleunigung sokomplex, dass das Modell dadurch unubersichtlich wurde. Daher lagern wir sie in ein Unter-system aus wie in Abb. 6.2 gegeben. Dieses hat insgesamt drei Eingange, entsprechend derZahl der Variablen, von denen die Beschleunigung abhangt. Dabei werden x und x aus demHauptmodell bezogen (entsprechend den sichtbaren Eingangen des Untersystems), die Zeitdagegen wird von der Uhr Clock bezogen.

c© M.-B. Kallenrode 4. Februar 2008

Page 197: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

186 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.2: Rake-tenstart Subsystem:die zeitabghangigeBeschleunigung wirdbestimmt aus derortsabhangigen Gra-vitationskraft, derzeitabhangigen Masseund der geschwin-digkeitsabhangigenReibungskraft

§ 690 Das Untersystem besteht im wesentlichen aus Blocken fur mathematische Funktionen(haben links einen Eingang) und Blocken fur Konstanten (haben keinen Eingang). Da dieFunktionen nicht immer so einfach wie ‘quadrieren’ sind, wird nicht der der Block MathFunctions aus der Blockgruppe Math Operations verwendet sondern der Block Fcn aus derGruppe User-Defined Functions. In allen Blocken sind die Parameter uber Variablennamengegeben, die aus dem Workspace oder uber ein m-File ubergeben werden.

§ 691 Die obere Funktion berechnet die zeitabhangige Masse m(t) bzw. genauer deren Kehr-wert. Der zweite Block bestimmt die Schubbeschleunigung. Da diese konstant ist, wird derBlock als Konstante und nicht als Funktion vereinbart. Die folgenden drei Blocke sind dieverschiedenen Faktoren der Reibungsbeschleunigung: der obere Block enthalt die konstantenFaktoren wie Flache und Widerstandsbeiwert, der mittlere Block ist eine Funktion, die dasQuadrat der Geschwindigkeit bildet; der untere Block berechnet die Dichte in Abhangigkeitvom Ort, ist also ebenfalls eine Funktion. Die unterste Funktion bestimmt die Gravitations-beschleunigung in Abhangigkeit von der Hohe.

§ 692 Die Parameter werden angepasst an eine Saturn-V gewahlt und in einem m-File defi-niert. Da auch die Ausgabe in den Workspace erfolgt, verwenden wir den m-File gleich zurSteuerung von Simulation und Ausgabe: mit dem sim Befehl wird die Simulation gestar-tet. Die folgenden Zeilen lesen aus dem an den Workspace zuruck gegebenen strukturiertenElement die einzelnen Variablen aus und stellen sie mit den ublichen MatLab-Befehlen gra-phisch dar.

%Parameter fur Modell zum Raketenstart

m0=2.95*10∧6; %Masse Anfangswert [kg]

mleer=10∧6; %Masse nach Brennschluss (Leermasse) [kg]

tB=130; %Brennschluss [s]

vrel=2220; %Ausstromgeschwindigkeit [m/s]

cw=0.34; %Luftwiderstandsbeiwert

rho0=1.2255; %Luftdichte am Erdboden [kg/m∧3]

A=132; %angestromte Flache [m∧2]

R=6378163; %Erdradius [m]

g0=9.81; %Gravitationsbeschleunigung am Erdboden [m/s∧2]

sim(’raketenstart’,[0,tB])

subplot(3,1,1);plot(tout,rocket.signals.values(:,1)’,’k’)

ylabel(’a(t) [m/s∧2]’);axis([0 tB 0 25])

subplot(3,1,2);plot(tout,rocket.signals.values(:,2)’/3.6,’k’)

4. Februar 2008 c© M.-B. Kallenrode

Page 198: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.1. EINFACHE ZEITVARIANTE SYSTEME 187

Abbildung 6.3: RaketenstartErgebnisse: Beschleunigung,Geschwindigkeit und Flughohein Abhangigkeit von der Zeit

ylabel(’v(t) [km/h]’);axis([0 tB 0 350])

subplot(3,1,3);plot(tout,rocket.signals.values(:,3)’/1000,’k’)

xlabel(’Time [s]’);ylabel(’h(t) [km]’);axis([0 tB 0 50])

§ 693 Die Option, statt der Ausgabe in das strukturierte Element rocket lieber beim Aufrufder Simulation die Variablen in den Workspace zu holen als [t,x]=sim(’raketenstart’,[0,tB]),hatte nur zu einer Ubergabe der Großen jeweils am Ausgang der Integratoren, d.h. von Ortund Zeit gefuhrt. Die Beschleunigung hatten wir auf diese Weise nicht in den Workspace ein-lesen konnen. Um auch diese zu berucksichtigen (insbesondere, da sie als Testgroße geeignetist), wurde der Weg uber das explizite rausschreiben gewahlt.

§ 694 Abbildung 6.3 zeigt die Zeitverlaufe von Beschleunigung (oben), Geschwindigkeit(Mitte) und Flughohe (unten) in Abhangigkeit von der Zeit bis zum Brennschluss der Ra-ketenstufe. Wie zu erwarten steigen alle drei Großen zuerst langsam, mit zunehmender Zeitimmer schneller an: da die Schubkraft konstant ist, wird die Beschleunigung mit abnehmenderMasse und damit mit zunehmender Zeit großer. Zusatzlich wachst die Beschleunigung auchmit zunehmender Flughohe, da die Gravitationskonstante abnimmt – wobei die mit quadra-tisch mit der Geschwindigkeit zunehmende Reibungskraft das Wachstum der Beschleunigungbegrenzt.

Zwischenrechnung 29 Strukturieren Sie die Simulation so um, dass auch nach Brenn-schluss noch korrekt weiter gerechnet wird. Wo muss der Switch gesetzt werden?

§ 695 Auf der Basis der Bewegungsgleichung lassen sich etliche ahnliche zeitvariante Systemekonstruieren: (a) ein Guterwagen wird von oben befullt wahrend er unter einem Silo hindurchrollt (wieder veranderliche Masse); (b) der Streuwagen vom Winterdienst ist die Umkehrungdes Guterwagens und der Rakete recht ahnlich; (c) ein Fadenpendel mit veranderlicher Fa-denlange; (d) ein Fadenpendel, bei dem der Faden durch eine Feder ersetzt ist (Absch. 6.1.2);(e) ein Fadenpendel an einem rotierenden Galgen; (f) ein Federpendel, dass horizontal umdie Aufhangung rotiert; .... lassen Sie sich weitere, vielleicht nicht nur auf die Mechanikbeschrankte Beispiele einfallen.

Verstandnisfrage 62 Ist das Fadenpendel mit veranderlicher Masse (die Pendelmasse isteine Eiskugel, die langsam sublimiert) ein vergleichbares Problem?

c© M.-B. Kallenrode 4. Februar 2008

Page 199: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

188 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.4: Fadenpendel nichtlinear (große Winkel). Links: Modell; rechts: Auslenkungund Winkelgeschwindigkeit fur verschiedene Anfangsbedingungen (jeweils mit ϕ0 = 0). DieFrequenz des linearen Pendels ist

√g/l = 2π

6.1.2 Das Feder-Fadenpendel

§ 696 Das Feder-Fadenpendel ist eine Variante des Fadenpendels mit veranderlicher Fa-denlange fur beliebige Auslenkungen (also der nichtlinearen Bewegungsgleichung). Hier istder Faden durch eine Feder ersetzt. Im Gegensatz zur vorgegebenen Anderung der Fadenlangeals l(t) andert sich hier die Federlange in Abhangigkeit von der Auslenkung, d.h. vom Ort,an dem sich die masse befindet.

§ 697 Zur Wiederholung der Darstellung von Bewegungen im Phasenraum und als kurzeEinfuhrung in den Ubergang von regularer zu chaotischer Bewegung wiederholen wir kurzdas Fadenpendel in der nicht-linearisierten Form.

Ruckblick: Fadenpendel nicht disspativ

§ 698 Das Fadenpendel lernen wir meist in der linearisierten Variante, d.h. fur kleine Aus-lenkungen, kennen:

ϕ +g

lϕ = 0 ⇒ ω0 =

√g

l.

Fur beliebige Auslenkungen ist die Bewegungsgleichung nicht-linear

ϕ +g

lsinϕ = 0 .

Aus Grunden der Arbeitssicherheit ersetzen wir den Faden durch eine masselose Stange: danngibt es keine Probleme, falls die Auslenkung mal großer als π/2 wird.

Zwischenrechnung 30 Wie ließe sich die nichtlineare Differentialgleichung analytisch losen?

§ 699 In SimuLink lasst sich das Modell analog zum Federpendel in Abschn. 1.1 konstruie-ren; der einzige Unterschied ist der zusatzliche trigonometrische Block und den Sinus von ϕzu bestimmen, vgl. linkes Teilbild in Abb. 6.4. Im rechten Teilbild sind Auslenkung ϕ (oben)und Winkelgeschwindigkeit ω fur verschiedenen Anfangsauslenkungen ϕ0 bei verschwinden-der Anfangsgeschwindigkeit, ϕ0 = 0, gezeigt.

§ 700 Fur kleine Auslenkungen (schwarze Kurve, ϕ0 = π/20) ergibt sich die gleiche harmoni-sche Schwingung wie im linearen Fall. Mit zunehmender Auslenkung wird die Schwingungs-periode langer und die Amplitude weicht von einer harmonischen Funktion ab. Dies wirdbesonders deutlich in der roten Kurve, bei der das Pendel fast aus dem ‘Kopfstand’ gestartetwird. alle Kurven sind jedoch periodisch, d.h. der Zustand des Pendels ist bei Kenntnis derAnfangsbedingung problemlos vorherzusagen.

4. Februar 2008 c© M.-B. Kallenrode

Page 200: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.1. EINFACHE ZEITVARIANTE SYSTEME 189

Abbildung 6.5: Fadenpendel im Phasenraum: links wurden die Ergebnisse aus Abb. 6.4 ver-wendet, rechts wurde mit den gleichen Anfangsauslenkungen und zusatzlich Anfangsgeschwin-digkeiten ϕ = 1 fur die beiden großen Auslenkungen und ϕ = 2 fur die kleinen Auslenkungenverwendet (Anfangswerte jeweils als Punkte)

§ 701 Chaos (vgl. Abschn. A.2) ist dadurch charakterisiert, das eine kleine Abweichung inden Anfangsbedingungen zu großen Abweichungen in der Ausgangsgroße fuhren kann. Dasist bei der nichtlinearen Variante des Fadenpendels offensichtlich nicht der Fall – außer, wirstarten das Fadenpendel wirklich aus der ‘Uberkopf’-Position. Diese entspricht einem insta-bilen Gleichgewicht, d.h. jede kleine Storung setzt das Pendel zur einen oder anderen Seite inBewegung. In der Umgebung eines bestimmten Anfangswerts wird das System also chaotisch.Fur andere Anfangswerte dagegen ist die Bewegung nicht chaotisch. Das gilt auch solche An-fangsgeschwindigkeiten, die eindeutig einen Uberschlag und damit eine nicht-gleichformigeKreisbewegung bewirken – letztere sind in den Ergebnissen daran zu erkennen, dass derWinkel ϕ ≥ π wird.

§ 702 Um zu klassifizieren,fur welchen Satz von Anfangsbedingungen ein chaotisches oderein nicht-chaotisches Verhalten zu erwarten ist, bildet man die Trajektorie des Systems imPhasenraum. Fur die in Abb. 6.4 verwendeten Anfangsbedingungen ergeben sich geschlosseneTrajektorien (siehe linken Teil von Abb. 6.5), d.h. die Bahnen sind periodisch. Zwar ist nurdie Trajektorie fur ϕ0 = π/20 elliptisch (bzw. kreisformig) und damit die Konsequenz einerharmonischen Bewegung, geschlossen sind die anderen Bahnen aber dennoch. Außerdem zeigtsich eine systematische Verformung, mit zunehmender Anfangsauslenkung: solange die Bahnperiodisch ist, bleibt |ϕ| stets kleiner als π. Auch wenn die Werte fur ϕ konnen nicht beliebigansteigen: sonst geht die Schwingung in eine Kreisbewegung uber. Die Anfangsbedingungender einzelnen Bahnen sind jeweils durch den Schnitt mit der positiven ϕ-Achse gegeben,angedeutet durch die schwarzen Punkte.

§ 703 Geben wir dem System bei gleichen Anfangsauslenkungen jeweils ausreichend großeAnfangsgeschwindigkeiten mit, so bewegt sich das Pendel auf einer Kreisbahn. Im Phasen-raum ist diese Bahn nicht geschlossen, da der Winkel immer weiter zunimmt, vgl. rechtesTeilbild in Abb. 6.5. Fur diese Anfangsbedingungen entweicht das Pendel aus dem Bereichdes Phasenraums, der eine Schwingung beschreiben wurde. Aber egal, welchen Anfangswertwir nehmen: die Trajektorien liegen stets relativ dicht beieinander und die Vorhersagbarkeitdes Ausgangszustands bei kleinen Abweichungen von den Anfangsbedingungen ist gegeben.

§ 704 Die in Abb. 6.6 gezeigten Trajektorien im Phasenraum unterscheiden sich in der An-fangsgeschwindigkeit ϕ lediglich um 10−7; die sich ergebenden Bewegungen sind jedoch qua-litativ vollig unterschiedlich: fur den kleineren der beiden Werte ergibt sich eine Schwingung(und damit eine geschlossene Bahn im Phasenraum); fur den großeren der Werte dagegenergibt sich eine Rotation und damit eine Bahn im Phasenraum, die sich immer weiter vomUrsprung entfernt.

c© M.-B. Kallenrode 4. Februar 2008

Page 201: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

190 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.6: Eine kleine Abwei-chung in den Anfangsbedingungen(10−7 in ϕ) fuhren zu unterschiedli-chen Bewegungen: Schwingung (rot)oder Rotation (schwarz)

Abbildung 6.7:Fadenpendel mitFeder statt Faden

§ 705 Kombinieren wir die beiden Teilabbildungen aus 6.5, so ergibt sich ein dunner Ringzwischen den beiden Modi, in dem das Ergebnis kritisch von den Anfangsbedingungen abhangt:dort ist eine Vorhersagbarkeit realistischerweise nicht mehr gegeben.

Verstandnisfrage 63 Reale Systeme sind nicht Reibungsfrei wie in diesem Modell sonderndissipativ. Wie andert sich die Vorhersagbarkeit in diesem Fall? Ergeben sich wieder zweiBereiche, in denen Vorhersagbarkeit gegeben ist oder verschwindet die Vorhersagbarkeit fureinen oder beide der im reibungsfreien Fall beobachteten vorhersagbaren Bereiche?

Feder statt Faden

§ 706 Betrachten wir nun ein Fadenpendel, dessen Faden durch eine Feder mit der Ruhelangel0 und einer Federkonstante k0 entsprechend einer Frequenz der freien Schwingung von ω0

fur die gegebene Pendelmasse m. Die Geometrie kann auch als Naherung fur eine Massean einem Gummiband dienen. Wie beim normalen nicht-linearen Fadenpendel erlauben wirUberschlage.

§ 707 Der Ursprung des Koordinatensystems liegt in der Aufhangung des Pendels, vgl.Abb. 6.7. Die momentane Lange l(t) der Feder ist durch den Ort (x(t), y(t)) des Massen-punktes gegeben: l =

√x2 + y2. Dammit wird von der Feder eine Kraft F = k0(l − l0) =

k0(√

x2 + y2 − l0) auf die Masse ausgeubt mit den Kraftkomponenten −Fx/l und −yF/lin kartesischen Koordinaten. Da die Gravitationskraft nur entlang der y-Achse wirkt, ergibtsich fur die Bewegungsgleichung in kartesischen Koordinaten:

x + ω20x

(1− l0√

x2 + y2

)= 0 und y + ω2

0y

(1− l0√

x2 + y2

)− g = 0 .

Alternativ lasst sich die Bewegung in Polarkoordinaten mit der Auslenkung ϕ und der Pen-dellange l schreiben als

l = lϕ2 − ω20(l − l0) + g cos ϕ und lϕ = −2lϕ− g sinϕ .

4. Februar 2008 c© M.-B. Kallenrode

Page 202: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.1. EINFACHE ZEITVARIANTE SYSTEME 191

Abbildung 6.8: Die Bewegung desFeder-Fadenpendels aus Abb. 6.7lasst sich mit Hilfe des dimensionslo-sen Parameters q charakterisieren: furkleine q ist die Losung vom Fadenpen-del dominiert, fur große q vom Feder-pendel. In der Nahe von q = 1 wirddie Bewegung chaotisch. Anfangsbe-dingungen x = y = 0 und x = 0.1,y0− 1

§ 708 Drucken wir die Lange in Einheiten der Ruhelange l0 der unausgelenkten Feder unddie Zeit in Einheiten von 1ω0 aus, so ergibt sich als dimensionslose Gleichung in kartesischenKoordinaten

x + x

(1− 1√

x2 + y2

)= 0 und y + y

(1− 1√

x2 + y2

)− q = 0

bzw. in Polarkoordinaten

l = lϕ2 − (l − 1) + q cos ϕ und lϕ = −2lϕ− q sinϕ .

§ 709 Darin ist

q =g

ω20l

der einzige dimensionslose Parameter des Systems.1 Diese Große beschreibt das Verhaltnis derQuadrate der Frequenzen des Faden- und des Federpendels. Fur ein Verhaltnis in der Nahevon 1 sind im Gesamtsystem die Eigenschaften von Feder- und Fadenpendel zu ungefahrgleichen Anteilen vertreten – das Chaos sollte in diesem Bereich am großten werden. Istdagegen q sehr klein oder sehr groß, so betrachten wir im wesentlichen das Federpendel miteiner kleinen uberlagerten Storung durch das Fadenpendel bzw. umgekehrt, vgl. Abb. 6.8.

§ 710 Die beiden Differentialgleichungen fur x und y (bzw. fur l und ϕ) sind gekoppelt,eine einfache vektorielle Schreibweise bietet sich jedoch nicht offensichtlich an. Wir konnendas Modell in SimuLink aber dennoch vektoriell aufbauen, vgl. Abb. 6.9. Lediglich in der

1Dimensionslose Großen und Gleichungen sind ein einfaches Verfahren, die Menge von Losungen zu ord-nen. Bereits im ersten Semester begegnen Sie Ihnen: in Abb. 1.2 betrachten wir das Resonanzverhalten beieiner erzwungenen Schwingung nicht in Abhangigkeit von der Frequenz der anregenden Schwingung son-dern in Abhangigkeit von deren Frequenz in Einheiten der Frequenz der freien Schwingung. Damit ergibtsich Resonanz immer in der Nahe von Eins und fur Werte kleiner/großer Eins kann man die Frequenz derAnregung beliebig kleiner/großer machen, ohne in das Risiko einer Resonanz zu laufen. Um eine Gleichungdimensionslos zu machen, dividiert man durch die charakteristischen Skalen: bei der Zeit sind dies in derRegel Schwingungsdauern (und damit Frequenzen) oder sonstige charakteristische Zeiten des Systems (z.B.Zerfallskonstanten); bei der Lange dividiert man durch die charakteristische raumliche Skala, z.B. eine mitt-lere freie Weglange oder die Wellenlange/Wellenzahl.In der Hydrodynamik begegnet und recht fruh die Reynolds-Zahl als eine dimensionslose Große. Wir verwen-den sie, um zu entscheiden, ob eine Stromung laminar ist oder turbulent. Physikalisch ist die Reynolds-Zahldas Verhaltnis aus Tragheits- und Reibungskraft: deutlich unterhalb einer kritischen Reynoldszahl gilt dieStromung als laminar, deutlich daruber als turbulent. Das hier definierte Verhaltnis q hat eine ahnliche Be-deutung als kritische Große.Dimensionslose Gleichungen, kritische Großen und Ahnlichkeitszahlen wie die Reynoldszahl sind zwar ins-besondere in der Hydromechanik gebrauchlich; es handelt sich aber um allgemeine Verfahren zur Charakte-risierung von Systemen und zur Loslosung von der Betrachtung einzelner Losungen individueller Systeme.Stattdessen werden allgemeine Losungen in Einheiten der das System charakterisierenden Parameter gesucht.

c© M.-B. Kallenrode 4. Februar 2008

Page 203: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

192 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.9: Modell des Feder-Fadenpendels in SimuLink

Abbildung 6.10: Wie Abb. 6.8 jedochmit Anfangsbedingungen x = 1, y =2, x = 0.1 und y = −1

Funktion f(u) werden die beiden Komponenten ‘gemischt’ durch explizite Vereinbarung derFunktion als 1/sqrt(u(1)*u(1)+u(2)*u(2))-1. Dieser Faktor wird dann im Block Produktmit jeder Komponente des Vektors [x,y] multipliziert; der Parameter q wird als Vektordefiniert, da er nur zu y-Komponente zu addieren ist.

§ 711 Fur q in der Nahe von 1 sind beide Schwingungsformen ungefahr gleichberechtigt. Dassdort chaotische Bewegungen vorherrschen, ist nicht verwunderlich und bereits in Abb. 6.8angedeutet. Mit zunehmender Gesamtenergie werden die Bewegungen noch komplexer, vgl.Abb. 6.10. In der Abbildung ist auch zu erkennen, dass chaotische Bewegungen keinesfallsauf q ∼ 1 beschrankt sind sondern auch bei kleineren und großeren Werten auftreten.

Abbildung 6.11: Poincare Portraitmit xn = ϕn und vn = ϕn fur einFeder-Fadenpendel fur 11 verschiede-ne Anfangsbedingungen unter der An-nahme einer konstanten (dimensions-losen) Gesamtenergie ε = l2/2 +l2ϕ2/2− ql cos ϕ + (l − 1)2/2 = 0.195fur q = 0.07 [126]

4. Februar 2008 c© M.-B. Kallenrode

Page 204: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.1. EINFACHE ZEITVARIANTE SYSTEME 193

Abbildung 6.12: Wie Abb. 6.11 je-doch Schnitt fur xn = l und vn =ln. Die Domanen fur unterschiedli-che Anfangsbedingungen treten hierin einer anderen Reihenfolge als inAbb. 6.11 auf [126]

Abbildung 6.13:Fadenpendel aneiner Rolle mitGegenmasse.Das Fadenpendelpendelt, die Gegen-masse kann sich nurin der Vertikalenbewegen

§ 712 Abbildung 6.11 zeigt einen Poincare Schnitt (→ Abschn. A.1.2) fur q = 0.07, d.h. denBereich, in dem die Eigenschaften des Fadenpendels dominieren. Dargestellt ist die Winkel-geschwindigkeit vn = ϕn gegen die Auslenkung im Winkel, xn = ϕn; jedoch nicht, wie in derkonventionellen Bahn im Phasenraum fur alle Punkte der Trajektorie sondern nur fur die, beidenen die Lange des Pendels gleich der Ruhelange ist, l = l0. Daher die Bezeichnung Poin-care Schnitt: aus der Bewegung im vierdiemensionalen Phasenraum werden nur die Punkteverwendet, die in der Ebene mit l = l0 liegen, d.h. die Punkte, in denen die Trajektorie dieseEbene schneidet.

§ 713 Der Poincare Schnitt in Abb. 6.11 ist fur elf verschiedene Anfangsbedingungen be-stimmt, fur die alle jeweils die (dimensionslose) Gesamtenergie

ε =l2

2+

l2ϕ2

2− ql cos ϕ +

(l − 1)2

2eine Konstante, hier Eges = 0.195, ist.

§ 714 Abbildung 6.12 zeigt Poincare Schnitte fur die gleichen Trajektorien wie in Abb. 6.11jedoch fur ϕ = 0: daher ist xn = ln und vn = ln. Beide Abbildungen zeigen, dass elliptischeDomanen (d.h. periodische Bewegungen) und chaotische Domanen ineinander eingelagertsind.

Zwischenrechnung 31 Erweitern Sie das Modell aus Abb. 6.9 derart, dass Sie PoincareDiagramme fur andere Werte von q erstellen konnen ebenso wie fur andere Gesamtenergien.Ergeben sich qualitative Unterschiede, fur die Falle, in denen die Gesamtenergie fur einenUberschlag zu gering ist und denen, in denen ein Uberschlag erfolgen kann?

Fadenpendel an Rolle

§ 715 Betrachten wir ein System aus zwei Massen m1 und m2, die uber einen Faden derLange L verbunden sind. Der Faden ist uber eine feste Rolle (vernachlassigbarer Radius und

c© M.-B. Kallenrode 4. Februar 2008

Page 205: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

194 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.14: Poincare Schnitt furdas Pendel mit Rolle aus Abb. 6.13mit xn = ln und vn = ln fur µ = 0.3und eine dimensionslose Gesamtener-gie ε = −0.3 [126]

vernachlassigbare Masse) gefuhrt. Die Masse m2 kann nur in der vertikalen bewegt werden,m1 dagegen kann auch in einer vertikalen Ebene schwingen, vgl. Abb. 6.13. Die Positiondieser schwingenden Masse ist durch die momentane Auslenkung ϕ und die momentaneLange l gemessen von der Rolle zur Masse gegeben. Da der Faden eine konstante Lange hat,ist die Lage der zweiten Masse damit eindeutig bestimmt.

§ 716 Dieses System lasst sich am einfachsten in einem mit der Masse m1 korotierenden Be-zugssystem betrachten. Dessen momentane Winkelgeschwindigkeit ist ϕ; daher wirken auchTragheitskrafte auf die Masse. Die Zentrifugalkraft m1lϕ

2 weist radial entlang des Fadensnach außen, ebenso wie die Komponente m1g cos ϕ der Gewichtskraft. Die Bewegungsglei-chung entlang des Fadens wird damit

m1 l = m1g cos ϕ + m1lϕ2 −K (6.1)

mit K als der Seilspannung. Die Bewegung senkrecht zum Faden ist bestimmt durch diezweite Tragheitskraft, die Corioliskraft 2m1 l ˙varphi, sowie die Komponente −m1g sinϕ derGewichtskraft:

m1lϕ = −m1g sinϕ− 2m1 lϕ .

§ 717 Die Bewegung der zweiten Masse ist bestimmt durch die Gravitationskraft und dieSeilspannung, die gleichzeitig die Kopplung mit der Bewegung der ersten Masse bildet:

m2 l = K −m2g .

Einsetzen in (6.1) vereinfacht letztere Gleichung zu

m1 l = m1g cos ϕ + m1lϕ2 −m2 l −m2g .

§ 718 Division durch die Gesamtmasse liefert fur die Bewegungsgleichungen entlang des undsenkrecht zum Faden

l = µg cos ϕ + µlϕ2 − (1− µ)g und lϕ = −g sinϕ− 2lϕ

mit der relativen Masse

µ =m1

m1 + m2.

§ 719 Mit der Fadenlange L als Langenskala und der Periode√

L/g als Zeitskala ergebensich die dimensionslosen Gleichungen

l = µg cos ϕ + µl cot ϕ2 − (1− µ)g und lϕ = − sinϕ− 2lϕ .

Die relative Masse bildet den dimensionslosen Parameter.

4. Februar 2008 c© M.-B. Kallenrode

Page 206: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.2. GEKOPPELTE FEDERPENDEL 195

Abbildung 6.15: LineareAnordnung gekoppelterPendel

§ 720 Fur eine relative Masse µ = 0.3 ist in Abb. 6.14 ein Poincare Schnitt mit xn = ln undvn = ln fur eine dimensionslose Gesamtenergie

ε =l2

2+

µl2ϕ2

2− µl cos ϕ− (1− µ)(1− l)

mit ε = −0.3 Auch in diesem Beispiel sind elleiptische un chaotische Regionen ineinandereingelagert.

Zwischenrechnung 32 Erstellen Sie das entsprechende Modell in SimuLink und untersu-chen Sie die Bewegung fur verschiedene relative Massen µ. Charakterisieren Sie die typischenBewegungen (und begrunden Sie diese anschaulich und formal aus den Bewegungsgleichun-gen). Konstruieren Sie auch dieses Modell so, dass Sie Poincare Schnitte erstellen konnen.

6.2 Gekoppelte Federpendel

§ 721 Wenn ein einzelnes Pendel, zumindest wenn es sich um ein Fadenpendel handeltund/oder die Geometrie etwas anspruchsvoller wird, bereits in Chaos fuhren kann, solltedies fur gekoppelte Pendel noch einfacher sein. Um die Situation einfach zu halten, betrach-ten wir Federpendel. Sind diese mit linearen Federn gekoppelt, so passiert nichts besonderes(Abschn. 6.2.1). Fuhren wir statt der linearen Kopplung jedoch eine nichtlineare ein, so ent-steht ein neues Phanomen, ein Soliton (Abschn. 6.2.2). Und die Kopplung von Federpendelndurch Federn fuhrt zum Fermi–Pasta–Ulam (FPU) Problem (Abschn. 6.2.3).

6.2.1 Lineare Geometrie linearer Pendel

§ 722 Wenn der Ubergang von einem Pendel auf zwei gekoppelte Pendel in SimuLink ge-meistert ist, ist die Erweiterung auf ein System von Pendeln nicht mehr schwierig: entspre-chend der Zahl der Pendel wird dazu nur der Vektor der Orte und Geschwindigkeiten unddie den Gain enthaltende Matrix vergroßert. Damit haben wir ein einfaches Beispiel, an demwir das Verhalten eines komplexen Systems studieren konnen.

§ 723 Betrachten wir den allgemeinsten Fall mit n Massen mi, gekoppelt durch n+1 Federnmit den Federkonstanten ki, siehe Abb. 6.15. Auf eine einzelne Masse mi wirken die vonden Federn ki und ki+1 ausgeubten Krafte, jeweils bestimmt durch die Federkonstante unddie Langenanderungen dieser Federn; letztere bestimmt durch die Auslenkungen ∆xi−1, ∆xi

und ∆xi+1 der Massen mi−1, mi und mi+1 aus der jeweiligen Ruhelage:

Flinks = ki(xi−1 − xi) und Frechts = ki+1(xi+1 − xi) .

Am linken bzw. rechten Rand reduzieren sich die Krafte auf Flinks,R = −k1x1 und Frechts,R =−kn+1xn. Die Gesamtkraft auf die xi-te Masse und damit die Bewegungsgleichung ist

mixi = kixi−1 − (ki+1 − ki)xi + ki+1xi+1 ∀ i ∈ [2, n− 1]

oder

xi =ki

mixi−1 −

(ki+1 − ki)mi

xi +ki+1

mixi+1 ∀ i ∈ [2, n− 1] .

c© M.-B. Kallenrode 4. Februar 2008

Page 207: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

196 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.16: Weg–Zeit- (links) und Ge-schwindigkeits–Zeit-Di-agramme (rechts) fur10 gekoppelte Pendel;Positionen und Ortejeweils um 1 verschoben,das linke Pendel (untereKurve) wird anfangs umeine Einheit nach rechtsausgelenkt, alle ande-ren Massen befindensich in der Ruhelage.Alle Massen habeneine verschwindendeAnfangsgeschwindigkeit.

§ 724 In Matrix-Schreibweise ergibt sich damit als Bewegungsgleichung

~x =

−k2+k1m1

k2m2

0 0 . . . 0 0k2m2

−k3+k2m2

k3m2

0 . . . 0 0...

......

... . . ....

...0 ki

mi−ki+1+ki

mi

ki+1mi

. . . 0 0...

......

... . . ....

...0 0 0 0 . . . kn

mn−kn+1+kn

mn

~x .

Darin sind in der ersten und letzten Zeile die Randbedingungen bereits berucksichtigt; fureine spezielle Losung mussen zusatzlich Anfangsbedingungen vorgegeben werden.

§ 725 Wie im Falle des Doppelpendels mussen fur eine analytische Losung die n Eigenwerteder Matrix, entsprechend den Werten fur ω0, bestimmt werden. Fur die Losung in SimuLinkbietet sich dringen die Steuerung der Simulation aus einem m-File heraus an, da sie Matrixsonst zu unubersichtlich wird.

Alles identisch

§ 726 Im einfachsten Fall sind alle Massen und Federkonstanten identisch, d.h. mi = m undki = k ∀i. Dann reduziert sich die Bewegungsgleichung mit der Abkurzung ω2

0 = k/m auf

~x =

−2ω2

0 ω20 0 0 . . . 0 0

ω20 −2ω2

0 ω20 0 . . . 0 0

0 ω20 −2ω2

0 ω20 . . . 0 0

......

...... . . .

......

0 0 0 0 . . . ω20 −2ω2

0

~x .

§ 727 Fur die ersten Versuche verwenden wir eine uberschaubare Zahl von zehn Massen.Abbildung 6.16 zeigt die Weg–Zeit- und die Geschwindigkeits–Zeit-Diagramme fur die ein-zelnen Pendelmassen; unten beginnend mit der linken Masse m1. Anfangs ist nur diese Masseum eine Einheit nach rechts ausgelenkt, alle anderen Massen befinden sich in der Ruhelage;alle Massen haben eine Anfangsgeschwindigkeit von Null. Fur kleine Zeiten ist in beidenDiagrammen zu erkennen, dass sich die der Auslenkung des linken Pendels entsprechende

4. Februar 2008 c© M.-B. Kallenrode

Page 208: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.2. GEKOPPELTE FEDERPENDEL 197

Abbildung 6.17: Darstellung derBewegung im Phasenraum fur dielinken 9 Massen des Zehnerpen-dels; Zeitraum wie in Abb. 6.16

Storung langsam nach rechts ausbreitet – Auslenkungen und Geschwindigkeiten sind bei derrechten Masse noch fur einen relativ langen Zeitraum gleich Null.

§ 728 Der mit der Ausbreitung der Storung verbundene Energietransport bewirkt, dass amAusgangspunkt, d.h. fur die ersten Massen am linken Rand, die kinetische und potentielleEnergie kleiner werden – ohne jedoch zu verschwinden. Zu dieser Zeit werden kinetische undpotentielle Energie bei der rechten Masse maximal – was zu einer Reflektion der Energienach links fuhrt. Da jedoch nicht die vollstandige Anfangsenergie von der linken zur rechtenMasse transportiert wurde, sind deren Auslenkungen und Geschwindigkeiten kleiner als dieanfanglichen Werte links. Da in dem System keine mechanische Energie in andere Energie-formen umgewandelt wird, mussen die anderen Massen und Federn einen Teil der fehlendenmechanischen Energie aufgenommen haben. Aufgrund dieses unvollstandigen Energietrans-ports verteilt sich die mechanische Energie im Laufe der Zeit mehr oder weniger gleichmaßigauf die einzelnen Massen: deren Bewegung wird gleichsam thermalisiert.

Verstandnisfrage 64 Warum schwingt die Storung nicht einfach zwischen dem linken Randhin- und her? Fallt Ihnen eine Konstruktion ein, bei der eine derartige Oszillation auftretenkonnte? Wie muss diese sich physikalisch von den gekoppelten Federn unterscheiden?

§ 729 Diese Thermalisierung wird bei der Darstellung im Phasenraum noch deutlicher. InAbb. 6.17 ist die Trajektorie im Phasenraum fur alle Massen (mit Ausnahme der rechten)dargestellt fur den auch in Abb. 6.16 betrachteten Zeitraum; in Abb. 6.18 wurde ein zehnmalso langer Zeitraum verwendet.

§ 730 Beim kurzen Zeitraum in Abb. 6.17 wird wieder, wie bereits beim Doppelpendel deut-lich, dass sich im Phasenraum keine geschlossenen Trajektorien bilden, d.h. die Bewegung istchaotisch. Die Phasenraumtrajektorien sind recht ahnlich, lediglich die Trajektorie der Massem1 bildet eine Ausnahme: da am Anfang die Gesamtenergie in der Auslenkung von Massem1 steckt, befindet sich diese am großten Abstand vom Ursprung – keine andere der Massenerreicht jemals einen derartig großen Abstand. Selbst Masse m1 erreicht diesen nicht wieder,da die Energie sich uber die einzelnen Massen verteilt.

§ 731 In der den langeren Zeitraum umfassenden Darstellung der Phasenraumtrajektorien inAbb. 6.18 wird diese Thermalisierung noch deutlicher: die Phasenraumbahnen der einzelnenMassen sind im Hinblick auf den von ihnen eingenommenen Bereich ununterscheidbar gewor-den – wieder mit Ausnahme von Masse m1, in deren Phasenraumbahn die Anfangsenergiewieder fur einen Ausreißer sorgt.

c© M.-B. Kallenrode 4. Februar 2008

Page 209: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

198 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.18: Darstellung derBewegung im Phasenraum fur dielinken 9 Massen des Zehnerpen-dels; Zeitraum zehnfaches dessenin Abb. 6.16

Abbildung 6.19:

§ 732 Eine alternative Darstellung zur Thermalisierung kann die kinetische Energie der ein-zelnen Massen verwenden, wie in Abb. 6.19 angedeutet. Auch dort wurde der in Abb. 6.18verwendete lange Zeitraum betrachtet – um nicht durch die Anderungen der kinetischen Ener-gie wahrend jeder einzelnen Schwingung abgelenkt zu werden, wurde jeweils ein gleitendesMittel uber 1000 Datenpunkte (entspricht 20 Zeiteinheiten) gebildet. Wie aus der Diskussi-on der Phasenraumbahnen zu erwarten, ist die kinetische Energie am Anfang in den beidenaußeren Massen maximal, anschließend fluktuiert die kinetische Energie fur jede einzelneMasse zwar deutlich, der Maximalwert wird jedoch nicht wieder erreicht.

Verstandnisfrage 65 Die kinetische Energie ist nur ein Teil der mechanischen Energie, derandere Teil steckt in der potentiellen Energie der gespannten bzw. kompromierten Federn. Beider thermischen Bewegung in einem Gas ist die kinetische Energie der einzelnen Gasmolekulekein konzeptionelles Problem – wie aber sieht es mit der potentiellen Energie aus? Gibt es dortein Aquivalent, so dass wir bei den gekoppelten Federpendeln von Thermalisierung sprechenkonnen oder ist der Ausdruck nicht angebracht?

§ 733 Beim Ubergang zu einer großeren Zahl von gekoppelten Pendeln ist die bisherige Formder Darstellung nicht besonders hilfreich: einige zehn oder gar Hunderte bzw. Tausende von

4. Februar 2008 c© M.-B. Kallenrode

Page 210: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.2. GEKOPPELTE FEDERPENDEL 199

Abbildung 6.20: Zeitliche Entwicklung der Verteilung verschiedener Parameter gekoppelterPendel:

Pendeln lassen sich nicht mit Hilfe individueller Orts–Zeit-Plots oder Phasenraumbahnen ana-lysieren. Genauso, wie die Betrachtung der Bahnen der einzelnen Atome/Molekule eines Ga-ses nicht mehr sinnvoll ist, benotigen wir auch hier statistische Beschreibungsmoglichkeiten.

§ 734 In der einfachsten Form konnen wir uns auf die Betrachtung der Verteilung (bzw.der zeitlichen Entwicklung der Verteilung) der bisher betrachteten Großen beschranken, d.h.Auslenkungen und Geschwindigkeiten, bzw. aus letzterer abgeleitet, kinetische Energien dereinzelnen Massen.

§ 735 In Abhangigkeit von der physikalischen Fragestellung lassen sich jedoch auch Vertei-lungen bzw. die zeitlichen Entwicklungen von Verteilungen anderer Parameter des Systemsbetrachten. Wollen wir z.B. der Frage der Synchronisation (siehe Abschn. A.10) nachgehen,so ware eine Untersuchung der Verteilung der Phasen sinnvoll. .... Und Toda’s Soliton ausAbschn. 6.2.2 ließe sich aus einer Verteilung der Abstande benachbarter Massen identifizieren.

§ 736 In Abb. 6.20 sind die mikroskopischen Großen betrachtet. Makroskopische Große,Mittelung ....

Verstandnisfrage 66 Und wie sieht es bei einer zweidimensionalen Geometrie aus, d.h.jedes Pendel ist mit vier benachbarten Pendeln verbunden?

Unterschiedliche lineare Federn

§ 737 Die Verwendung unterschiedlicher Federkonstanten/Massen verandert die Details derBewegung, nicht jedoch die wesentlichen Merkmale: Energie wird zwischen den Massen undFedern verlagert, es kommt zu einer Thermalisierung.

Zwischenrechnung 33 Fuhren Sie die entsprechenden Simulationen in SimuLink durch.Uberprufen Sie auch, im Vorgriff auf das Fermi–Pasta–Ulam problem in Abschn. 6.2.3 dasLangzeitverhalten.

6.2.2 Nicht-lineare Version: Toda’s Soliton

§ 738 Verwenden wir in der Pendelkette statt der dem Hook’schen Gesetz gehorchendenlinearen Federn solche mit nicht-linearen Eigenschaften – allgemein bezeichnet als FPU Lat-tices nach einer Arbeit von Fermi, Pasta und Ulam [23]. In den 1960 studierte MorikazuToda [128, 129] ein System aus Federn und Massen entsprechend dem in Abb. 6.15 – dieseKonfiguration wird daher auch als Toda–Lattice bezeichnet. Die Massen sind alle identi-sche Einheitsmassen, die nichtlinearen Federn werden charakterisiert durch ihre potentielleEnergie U(r) mit r als der Anderung des Abstandes benachbarter Massen vom Ruhezustand(entsprechend einem Minimum in der Energie der Feder). Die von einer Feder ausgeubteKraft ist daher F = −dU/dr. Mit xn als der Auslenkung der n-ten Masse aus ihrer Gleichge-wichtslage ergibt sich als Bewegungsgleichung analog zu der bei linearen Federn verwendeten

mnxn = U ′(xn+1 − xn)− U ′(xn − xn−1) .

Mit rn = xn+1 − xn wird die Gleichung zu

mnrn =(

dU(rn+1)drn+1

− dU(rn)drn

)−(

dU(rn)drn

− dU(rn−1)drn−1

).

Mit Einheitsmassen wird diese Bewegungsgleichung zu

rn =dU(rn+1)

drn+1− 2

dU(rn)drn

+dU(rn−1)

drn−1.

c© M.-B. Kallenrode 4. Februar 2008

Page 211: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

200 KAPITEL 6. NICHT-LINEARE SYSTEME

§ 739 Eine exakte analytische Losung ergibt sich fur das von Toda vorgeschlagene Federpo-tential

U(r) =a

b

(e−br + br − 1

)mit a, b > 0. Mit diesem Potential nimmt die Bewegungsgleichung folgende Form an

rn = a(2e−brn − e−brn+1 − e−brn−1) .

§ 740 Im Grenzfall b→ 0 (aber trotzdem ab endlich), reduziert sich die Bewegungsgleichungauf eine lineare Differential–Differenzengleichung

rn = ab (rn+1 − 2rn + rn−1) .

Die Losungen dieser Gleichungen sind langwellige Wellen mit einer Geschwindigkeit von√

abMassenpunkten pro Zeiteinheit.

§ 741 Ist der Parameter b nicht klein, so lasst sich mit einer inversen Streu-Transformation(IST) das Differentialgleichungssystem exakt losen (z.B. [108, 129]); das sich ergebende Soli-ton hat die Form

rn,s = −1b

log[1 + sinh2 κsech2

(κn±

√ab sinhκ

)]mit κ als einem Amplitudenparameter. Wie uberlich deuten die beiden Vorzeichen an, dasssich das Soliton in positiver und negativer Richtung ausbreiten kann. Dieses Soliton entsprichteiner Kompressionswelle. Deren Ausbreitungsgeschwindigkeit ist

v =√

ab

(sinhκ

κ

)>√

ab

und damit sowohl großer als die Ausbreitungsgeschwindigkeit einer Welle kleiner Amplitudeals auch großer als die der sich aus der Korteweg–de Vries Gleichung ergebenden Solitonen(wie z.B. Russell’s Wasserwelle).

Zwischenrechnung 34 Erstellen Sie ein Modell von Toda’s Soliton in SimuLink. UberprufenSie das Modell mit Hilfe der analytischen Losung. Untersuchen Sie andere Potentiale. Lasstsich eine Bedingung an das Potential fur das Auftreten von Solitonen abschatzen?

6.2.3 Fermi–Pasta–Ulam Problem: MANIAC’s Test

§ 742 MANIAC I (Mathematical Analyzer Numerical Integrator and Computer Model I) wareiner der ersten Universalrechner.2 Neben fruhen Monte Carlo Simulationen wurde MANIACauch fur andere Untersuchungen, z.B. des genetischen Codes, eingesetzt. Eine dieser anderenFragestellungen betraf die schwingende Saite (bzw. ein System gekoppelter Oszillatoren),allerdings nicht in der linearen sondern in der nicht-linearen Version.

2Wikipedia (http://de.wikipedia.org/wiki/MANIAC I) gibt die folgende Information: ‘Der MANIAC I(Mathematical Analyzer Numerical Integrator and Computer Model I) war ein fruher Universalrechner, derunter der Leitung von Nicholas Metropolis Anfang der funfziger Jahre fur das Los Alamos National Labora-tory gebaut wurde. Der auf der Von-Neumann-Architektur basierende Rechner wurde bei der University ofCalifornia gebaut und kostete mit Ausgabegeraten 298.000 US-Dollar.MANIAC benotigte eine Standflache von 1,85 Quadratmetern und war knapp 2 Meter hoch. Der Energie-bedarf des Rechners betrug 35 Kilowatt. 2400 Elektronenrohren und 500 Kristalldioden ubernahmen dieSchaltungen, die Befehle wurden entweder per Lochstreifen oder uber Magnetband eingelesen. Die Speiche-rung erfolgte entweder elektrostatisch (Kapazitat: 1024 Worte) oder auf einer Magnettrommel (Kapazitat:10.000 Worte). Die Durchfuhrung einer Addition dauerte 80 Millisekunden, Multiplikations- und Divisions-schritte nahmen eine Sekunde in Anspruch. Die Ausgabe erfolgte entweder uber einen Anelex-Drucker, einenFernschreiber, auf Papierband oder einen Magnetstreifen.MANIAC I lief zum ersten Mal erfolgreich im Marz 1952, er wurde dann zur Berechnung von Nuklearwaffeneingesetzt, bis er 1957 durch seinen Nachfolger MANIAC II ersetzt wurde. Der Großrechner wurde dann andie University of New Mexico ubergeben, wo er weiterverwendet wurde.’

4. Februar 2008 c© M.-B. Kallenrode

Page 212: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.3. DIFFUSIONS–REAKTIONS-GLEICHUNGEN UND IHRE ANWENDUNGEN 201

§ 743 Das Projekt wurde auf Anregung Fermis von ihm, Ulam und Pasta ausgefuhrt. Diegesamte Schwingungsenergie wurde anfangs in eine Schwingungsmode gesetzt, wie erwartetverteilte sich diese Energie im Laufe der Zeit auf benachbarte Schwingungsmoden bis sichein Gleichgewicht eingestellt hat. Die nichtlineare Saite verhielt sich wie erwartet – “Butthe completely unexpected happened one day when a typical problem was being computed.Owing to a very lively and distracting discussion, the computations continued beyond theusual cutoff. The results were so strange and mysterious that everyone around was quickto assume that the computer, the traditional whipping boy, had gone awry. The vibrationalenergy had returned to its initial state, within a few percent! The rest is history–nonlinearstudies were shown to have some fascinating aspects. The ideas of soliton theory emergedand there was an outpouring of papers that became a minor industry. Today this classic workis known as the FPU problem.” [2]

§ 744 Das Grundgitter zum FPU 738

6.3 Diffusions–Reaktions-Gleichungen und ihre Anwen-dungen

§ 745 Nachdem wir genug technischen Details von SimuLink zum Bau einfacher Modellekennen gelernt haben, konnen wir uns jetzt einem etwas interessanteren Beispiel zuwen-den, dem Diffusions–Reaktions-Modell. Wie bereits im Zusammenhang mit der Belousov–Zhabotinsky-Reaktion erlautert, wird ein entsprechendes System durch zwei konkurrierendeProzesse, Diffusion und Reaktion, sowie die entsprechenden Spezies und die zugehorigenReaktions- bzw. Ausbreitungsparameter bestimmt.

6.3.1 Das Gleichungssystem

§ 746 Das allgemeine Diffusions–Reaktions-Modell kann in kompakter Schreibweise darge-stellt werden als

∂~c

∂t= D∆~c + ~F (~c) . (6.2)

Darin gibt ~c die Konzentrationen der verschiedenen beteiligten Spezies ci, der Diffusions-tensor D auf seiner Diagonalen3 die Diffusionskoeffizienten Di der entsprechenden Spezies,und die vektorwertige Funktion ~F (~c) die Reaktionen und Verluste der einzelnen Spezies. DieFunktion ~F koppelt die einzelnen Gleichungen des Gleichungssystems (und damit die einzel-nen Komponenten des Vektors ~c), da die Senke in der Spezies ci eine Quelle fur die Speziesci+1 sein kann oder umgekehrt.

§ 747 Die Form der Reaktionsfunktion hangt von der Art der chemischen Reaktion ab undfuhrt zu unterschiedlichen Anwendungen und numerischen Verfahren. Die wichtigsten Typenchemischer Reaktionen sind

• Reaktion 1. Ordnung mit der Reaktionsrate

r = krc ,

d.h. die Reaktion ist linear von der Konzentration c abhangig.3Die Elemente außerhalb der Diagonalen verschwinden, da die Diffusion als isotrop angenommen wird.

Zur Erinnerung: die Diffusionsgleichung ist gegeben als

∂c

∂t= D

∂2c

∂x2bzw.

∂c

∂t= D∆c

mit D als dem Diffusionskoeffizienten. Diese Darstellung gilt nur fur isotrope Diffusion mit einem vom Ortunabhangigen Diffusionkoeffizienten; bei anisotroper Diffusion wird der Diffusionskoeffizient durch einen Dif-fusionstensor ersetzt: c = −D∆c. Ist der Diffusionskoeffizient ferner vom Ort abhangig, so verschwindet dieraumliche Ableitung des Diffusionskoeffizienten nicht und die bisher betrachtete vereinfachte Form mussersetzt werden durch die direkt aus der Kontinuitatsgleichung abgeleitete Form der Diffusionsgleichung:c = −∇D∇c.

c© M.-B. Kallenrode 4. Februar 2008

Page 213: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

202 KAPITEL 6. NICHT-LINEARE SYSTEME

• Reaktion 2. Ordnung mit der Reaktionsrate

r = KRc2 oder r = krcAcB ,

d.h. die Reaktionsrate hangt quadratisch von der Konzentration c ab oder sie hangt vomProdukt der Konzentrationen der beiden beteiligten Subastanzen ab.• Michaelis–Menton-Reaktionsrate

r =rmaxS

km + S

Turing-Muster

§ 748 Als erstes Beispiel wollen wir uns dem Modell zuwenden, dass Turing [131] in denfruhen 1950ern zur Erklarung biologischer Muster vorgeschlagen hat. Turing hat die Muster-bildung als eine Wechselwirkung elementarer Prozesse beschrieben mit dem entscheidendenAnsatz, dass stabile Prozesse sich derartig uberlagern konnen, dass Instabilitaten entstehen.Damit hat Turing am Chaos geruhrt – auch wenn er diesen Begriff im Zusammenhang mitder Musterbildung nicht verwendet hat.4 Auch fehlte Turing zu der Zeit die experimentelleUnterstutzung: die Belousov–Zhabotinsky-Reaktion war noch nicht allgemein bekannt. Heutewird das Diffusions–Reaktions-Modell in verschiedenen Wissenschaftsbereichen angewendet– einigen werden wir in den folgenden Unterabschnitten begegnen, eine Ubersicht geben [63]und [62], die Anwendung auf biologische Probleme ist z.B. in [76, 75, 84] gegeben.

§ 749 Turings Uberlegung startet von einem Aktivator, der mit geringer Reichweite diffun-diert, und einem Inhibitor, der uber einen weiten Bereich diffundiert. Die beiden chemischenSpezies unterscheiden sich also durch ihre Beweglichkeit im Raum: der Aktivator A bleibtstets in der Nahe seiner Eintragsstelle wahrend such der Inhibitor H uber ein weites Volumenverteilt. Die Produktion des Aktivators nimmt mit steigender Konzentration des Aktivatorszu, nimmt jedoch in Gegenwart des Inhibitors ab. Die Produktion des Inhibitors hangt zwarvon der Konzentration des Aktivators ab, nicht jedoch von der des Inhibitors: der Inhibitorkann sich nicht selbst vermehren. Die zeitliche Anderung in der lokalen Konzentration desAktivators ist dann:

∂A

∂t=

kA,1A

H− kA,2 + kA,1kA,3 + D1

∂2A

∂x2. (6.3)

Darin sind die einzelnen Terme von links nach rechts: Produktion des Aktivators aus demexistierenden Aktivator mit einer Produktionsrate kA,1, Zerfall des Aktivators mit einer RatekA,2, Grundproduktion des Aktivators (erfordert keine Anwesenheit des Aktivators) mit einerProduktionsrate kA,3, sowie die Diffusion des Aktivators mit dem zugehorigen Diffusionsko-effizienten DA.

§ 750 Die lokale Anderung des Inhibitors ist beschrieben durch

∂H

∂t= kH,1A

2 − kH,2H + kH,3 + DH∂2H

∂x2. (6.4)

Die Produktion des Inhibitors H erfolgt in einer Reaktion 2. Ordnung mit einer Produkti-onsrate kH,1. Zusatzlich zerfallt der Inhibitor mit einer Zerfallsrate kH,2 und wird, ohne Be-teiligung des Aktivators, mit einer Produktionsrate kh,3 erzeugt. Die raumliche Ausbreitungist durch den Diffusionskoeffizienten DH bestimmt. Beide Populationen mit ihren Quellenund Senken sind schematisch in Abb. 6.21 dargestellt.

4Turing und seine Gedanken zur Berechenbarkeit der Welt sind hinreichend bekannt – wahrscheinlich warChaos fur ihn noch kein Begriff im Sinne des heutigen deterministischen Chaos. Und mit Determinismus hater ohnehin seine Probleme gehabt: mehr als ein Jahrzehnt vor der Beschreibung des Schmetterlinsgeffektsdurch Lorentz [66] hat Turing [130] etwas sehr ahnliches formuliert:: “The system of the ‘universe as a whole’is such that quite small errors in the initial conditions can have an overwhelming effect at a later time. Thedisplacement of a single electron by a billionth of a centimeter at one moment might make the differencebetween a man being killed by an avalanche a year later, or escaping.”

4. Februar 2008 c© M.-B. Kallenrode

Page 214: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.3. DIFFUSIONS–REAKTIONS-GLEICHUNGEN UND IHRE ANWENDUNGEN 203

Abbildung 6.21: Schematische Darstel-lung des Diffusions–Reaktions-Modellszur Erklarung von Turing-Mustern

§ 751 Stabile raumliche Muster entstehen unter der bereits gegebenen Voraussetzung derunterschiedlichen raumlichen Beweglichkeiten, DA < DH fur kA,1 ≈ kA,2 ≈ kH,2, kH,3 ≈kA,1kA,3 sowie kH,1 ka;1. Beispiele und Erlauterungen zu verschiedenen Mustern gibt[115].

Kannibalen und Missionare oder Jager–Beute Modelle

§ 752 Von Turing selbst stammt eine anschaulichere Formulierung fur die beiden Gleichun-gen, wie sie auch bei Swinton [125] gegeben wird: wir betrachten, wie in den beiden obengegebenen Gleichungen, ein eindimensionales Modell, in diesem Fall einen langen Strand.Zwei Populationen existieren an diesem Strand: Kannibalen C und Missionare M . Diesehaben die folgenden Eigenschaften:

• Missionare M werden rekrutiert und leben zolibatar bis zu ihrem Tod. Fur Missionare gibtes demnach eine Produktionsrate, die unabhangig von der Population der Missionare ist,sowie eine Verlustrate.• Kannibalen sterben ebenfalls, konnen allerdings Kinder haben. Daher ist ihre Produkti-

onsrate von der Große ihrer Population abhangig.• Wenn Missionare und Kannibalen zusammen treffen, werden Kannibalen zu Missionaren

konvertiert.

Die zugehorigen Reaktionsgleichungen sind

dM

dt= a−M + M2C und

dC

dt= b−MC2 .

Wenn beide Populationen gemischt werden, steuern sie auf ein Gleichgewicht zu. In diesemModell sind die Kannibalen ein Aktivator, die Missionare ein Inhibitor.

§ 753 Interessanter wird das Modell, wenn sich die beiden Populationen am Strand aus-breiten konnen. In beiden Fallen erfolgt die Ausbreitung diffusiv, jedoch bewegen sich dieMissionare schneller. Die zugehorigen Diffusions–Reaktions-Gleichungen sind

∂M

∂t= a−M + M2C + dM

∂2M

∂x2und

∂C

∂t= b−MC2 + dC

∂2C

∂x2. (6.5)

Ein lokaler Uberschuss in Kannibalen wird dann automatisch eine großere Menge Kannibalenproduzieren, allerdings auch eine großere Zahl Missionare. Damit wird sich ein Muster aushohem C/M uber kleine Bereiche (kurze Reichweite des Aktivators) und niedrigem C/Muber großere Bereiche (große Reichweite des Inhibitors) ausbilden.

§ 754 Von Turing’s Missionaren und Kanniblen ist es nur ein kleiner Schritt zur allgemeine-ren Anwendung des Diffusions–Reaktions-Gleichungssystems in der Form eine Jager–BeuteModells. Wie bei den Missionaren und Kannibalen lesen wir dabei lediglich die Konzentra-tionen als Populationsdichten. Ein Beispiel fur ein Rauber–Beute-Modell auf dieser Basis ist

c© M.-B. Kallenrode 4. Februar 2008

Page 215: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

204 KAPITEL 6. NICHT-LINEARE SYSTEME

Abbildung 6.22: Relative Langenskalen bei Turing Mustern

Abbildung 6.23: Beispiele fur Muster auf Tierhauten mit verschiedenen Anzahlen stehen-der Wellen und unterschiedlichen Geometrien. Obere Reihe: Walliser Schwarzkopfziege, ...Mittlere Reihe:.... untere Reihe: [115]

von Scheffer [105] zur Erklarung der Dichteoszillationen aus Zoo- und Phytoplankton vor-geschlagen worden. Der Ubergang von stationaren Strukturen zu Oszillationen ist nur eineFrage der Parameter – womit wir auch den Ubergang zur Belousov–Zhabotinsky-Reaktiongefunden haben.

Hirnareale

§ 755 Die Spezialisierung der einzelnen Hirnareale ist, wie in § 81 angedeutet, ebenfalls einProblem der Musterbildung. Auch hier wird von einem Aktivator, der seine eigene Repro-duktion stimuliert, und einem Inhibitor, der schneller diffundiert, ausgegangen. Einen kurzenUberblick gibt [138], eine genauere Darstellung findet sich in dem Ubersichtsartikel von Mein-hardt [75].

§ 756 In der Großhirnrinde sind die Turing-Muster jedoch nicht nur im Hinblick auf Struk-turbildung sondern auch fur die Erklarung der zumindest bei einigen Tieren beobachtetenReparaturfahigkeit interessant: un den Diffusions–Reaktions-Modellen ist ein kritischer Para-meter die Große des morphogenen Feldes, uber die das Muster geformt wird, im Vergleich zumDiffusionskoeffizienten als einer Art Maß fur den ‘Bewegungsradius’ der Spezies/Molekule.Ist das morphogene Feld sehr viel kleiner als die Diffusionslange, so ergeben sich periodischeMuster. Ist die Große des Feldes dagegen mit der Diffusionslange vergleichbar, so bildet sichnur ein einzelner Gradient des Morphogens aus. Eine Verkleinerung des Feldes ist, zumin-dest in Gegenwart eines schwachen Gradienten im Aktivator, mit einer Wiederherstellungdes ursprunglichen Gradienten verbunden – dieser Prozess scheint kritisch fur die Regenra-tionsfahigkeit zu sein.

§ 757 Die Bedeutung der relativen Langenskalen (und damit der Geometrie) zeigt sich be-reits in den Tierhauten: ......

§ 758 Basierend auf den Arbeiten von Turing hat Murray [84] aus dem Verhaltnis der ver-schiedenen Reaktionskonstanten und den Randbedingungen (z.B. Rechteck oder periodischwie auf einem Zylinder) einige grundlegende Vorhersagen formuliert:

• Schlangen haben immer gestreifte Muster (Ringe), aber keine Flecken.• Es gibt keine Tiere mit gestreiftem Korper aber geflecktem Schwanz wahrend es Tiere mit

geflecktem Korper und gestreiftem Schwanz gibt.5

Derartige Vorhersagen sind fur eine Theorie naturlich praktisch, weil es viel Testmaterial gibt(siehe Abb. 6.23). Und sollten Sie einmal eine neue Tierspezies entdecken: gefleckter Korperplus gestreifter Schwanz ist zwar nett aber fur die tiefer liegende Wissenschaft langweilig –erst die umgekehrte Variante ware wirklich interessant.

5Beispiele sind Zebra und Tiger fur den gestreiften Korper kombiniert mit gestreiftem Schwanz; Leopardfur gefleckten Korper und gefleckten Schwanz; Giraffe, Genette/Ginsterkatze und Gepard mit geflecktemKorper und gestreiftem Schwanz.

4. Februar 2008 c© M.-B. Kallenrode

Page 216: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.3. DIFFUSIONS–REAKTIONS-GLEICHUNGEN UND IHRE ANWENDUNGEN 205

Selbstorganisation auf Oberflachen

§ 759 Auch Strukturen in nicht-biologischen Systemen lassen sich mit einem Diffusions–Reaktions-Modell beschreiben. Die Belousov–Zhabotinsky-Reaktion ist ein Beispiel fur eineoszillierende Losung. Aber auch stationare Strukturen lassen sich auf diese Weise beschreiben.Von besonderem Interesse ist dabei die Selbstorganisation von Atomen und/oder Molekulenauf Oberflachen. Ubersichten dazu sind in [63] und [141] gegeben, ein ausfuhrlich diskutiertesBeispiel in [144]; fur den Spezialfall von Oberflachen mit Terrassen-Struktur siehe [101].

Hodgkins–Huxley-Modell eines Neurons

§ 760 Ein Diffusions–Reaktions-Modell findet im zentralen Nervensystem nicht nur in derOrganisation Anwendung sondern auch in der Beschreibung eines einzelnen Neurons. DasHodgkin–Huxley-Modell [34] ist ein auf Untersuchungen am Tintenfisch (giant squid) basie-rendes empirisches Modell zur Beschreibung der Ausbreitung des Aktionspotentials entlangdes Axons. Darin wird der Nervenimpuls als eine nichtlineare wandernde Welle beschrieben,die durch die nichtlineare Reaktion ‘Anregung’ und die diffusive Ausbreitung des Potentialsbestimmt ist.

§ 761 Das Membranpotential V ist bestimmt durch die Diffusions–Reaktions-Gleichung

∂V

∂t=

1rc

∂2V

∂x2− iion

c. (6.6)

Darin ist r der Widerstand/Lange des Axons und c dessen Kapazitat pro Lange. Die Ionen-stromdichte iion ist eine nichtlineare Funktion des Potentials V und der Zeit t. Der Ionenstromwird getragen durch die durch die Membran gehenden, von Natrium und Kalium getragenenIonenstrome sowie einen Leckstrom:

iion = iK + iNa + iL .

§ 762 In der Beschreibung dieses Ionenstroms wird das Modell etwas unubersichtlich. DieStrome sind jeweils bestimmt durch eine fur die einzelnen Komponenten spezifische Leitfahigkeitund die Potentialdifferenz uber die Membran sowie Aktivierungen m und n und eine Hem-mung h:

iNa = gNam3h(V − VNa) , iK = gKn4(V − Vk) und iL = gL(V − VL) .

Darin sind die Nernst Potentiale fur die einzelnen Ionen gegeben zu VNa = −115 mV,VK = +12 mV und VL = −10.613 mV.6 Im Gegensatz zur Stromdichte in einem Drahtberucksichtigen die Aktivierungen bzw. die Hemmung, dass ein Ionenkanal offen sein muss,damit ein Strom fließen kann. Diese Faktoren konnen daher als Maß fur die Zahl der zurVerfugung stehenden Ionenkanale interpretiert werden. Diese sind durch Reaktionen 1. Ord-nung beschrieben:

m = αm(1−m)− βmmn = αn(1− n)− βnn undh = αh(1− h)− βhh .

Die Raten α und β fur das Offnen oder Schließen der Kanale sind empirische Funktionen derSpannung fur eine Temperatur von 6.37 [107]:

αm = 0.1 (25−V )exp(25−V )/10−1 , βm = 4 exp(−V/18) ,

αn = 0.01 (10−V )exp(10−V )/10−1 , βn = 0.125 exp(−V/80) ,

αh = 0.07 exp(−V/20) , βh = 1exp(30−V )/10+1 .

6Die Genauigkeit im Potential fur den Leckstrom erscheint auf den ersten Blick vollig ubertrieben: siewird nur benotigt, um V = 0 fur einen stabilen Gleichgewichtszustand fixieren zu konnen [108].

7Große Denker mussen offenbar einen kuhlen Kopf bewahren – wahrscheinlich hat es ein Tintenfischzumindest in tieferem Wasser deutlich einfacher.

c© M.-B. Kallenrode 4. Februar 2008

Page 217: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

206 KAPITEL 6. NICHT-LINEARE SYSTEME

§ 763 Dieses Modell unterscheidet sich von den anderen Beispielen fur die Reaktions–Diffusions-Gleichung in zwei Punkten:

• es ist einfacher in dem Sinne, dass nur eine partielle DGL betrachtet wird, da nur eineSpezies, das Aktionspotential, interessiert.• die Gleichung ist komplizierter, da Strome selbst durch Gleichungen beschrieben werden,

in denen Koeffizienten durch DGLs bestimmt werden.

Gerade der letzte Punkt, die DGL innerhalb der DGL, macht dieses Modell zu einem attrak-tiven Kandidaten fur die Behandlung in SimuLink.

6.3.2 mathematische Beschreibungen und Losungsverfahren

§ 764 Fur die Behandlung von Selbstorganisation und Musterbildung in diffusiv-reaktivenSystemen gibt es zwei verschiedenen Ansatze. Turing’s anschaulicher Beschreibung mit Hil-fe von Kannibalen und Missionaren legt die Beschreibung des Problems mit Hilfe zellularerAutomaten nahe. Da sich letztere einfach in Java (oder anderen Sprachen wie Logo) imple-mentieren lassen, ist z.B. die Beschreibung der Belousov–Zhabotinsky-Reaktion erfolgt meisteher mit einem zellularen Automat als mit Hilfe der Differentialgleichung.

§ 765 fur Turing’s Missionare und Kannibalen lasst sich der zellulare Automat einfach (wennauch vielleicht nicht im strengen mathematischen Sinne) konstruieren: wir benotigen nur zweiKonversions-, eine Vermehrungs-, eine Quell- und zwei Bewegungsregeln. ...

§ 766 Turing selbst hat sich naturlich auf ganz klassische Weise an die Losung der Diffusions–Reaktions-Gleichungen gemacht: Fourier Transformation liefert die stabilen Moden. Sonstgibt es keine analytischen Losungsmoglichkeiten – auch die Verwendung dimensionsloser Va-riablen wie in [144] fuhrt nur zu einer Vereinfachung der numerischen Behandlung, nicht aberzu einer analytischen Losung.

6.3.3 Das Gleichungssystem in SimuLink

§ 767 Die einzelnen Beispiele fur Anwendungen eines Diffusions–Reaktions-Modells unter-scheiden sich in ihrer Form jeweils etwas. Wir werden hier, ahnlich dem Vorgehen bei denBeispielen, mit dem einfachsten Modell anfangen und dieses jeweils erweitern.

§ 768 Allen Modell ist jedoch gemein, dass wir partielle DGLs zu behandeln haben: wiewir es vom Separationsansatz her kennen und auch kurz im Zusammenhang mit der LaplaceTransformation in § 210 angesprochen haben, reduzieren wir die partielle Differentialgleichungauf gewohnliche Differentialgleichungen. In diesem Falle verwenden wir, wie von der LaplaceTransformation bekannt, eine außere Zeitschleife, die die Entwicklung der Losung beschrei-ben soll. Innerhalb dieser Zeitschleife losen wir dann fur jeden Zeitschritt den raumlichenTransport.

Vorubung: Diffusionsgleichung in SimuLink

§ 769 Das Verfahren konnen wir uns an einer Losung der Diffusionsgleichung mit Hilfe vonSimuLink veranschaulichen.

Verstandnisfrage 67 Konnen Sie dieses Verfahren problemlos auch auf die Wellengleichungausdehnen? Wenn ja, wie? Diskutieren Sie mogliche Probleme.

4. Februar 2008 c© M.-B. Kallenrode

Page 218: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

6.3. DIFFUSIONS–REAKTIONS-GLEICHUNGEN UND IHRE ANWENDUNGEN 207

6.3.4 Eindimensionale Geometrie: Missionare und Kannibalen

6.3.5 Turing gehts ans Fell

6.3.6 Neuronen, helft mir!

§ 770 Jetzt wird es etwas unubersichtlich: versuchen wir, das Hodgkin–Huxley-Modell inSimuLink zu implementieren.

6.3.7 Uberprufung der Losungen

Fairy-ring Bild aus http://fp.bio.utk.edu/Mycology/images/fairy%20ring.jpg, Hin-weis in [109]

c© M.-B. Kallenrode 4. Februar 2008

Page 219: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 7Der Zufall kommt ins Spiel: EnsembleMittel

Gepriesen sei der Zufall. Er ist wenigstens nicht ungerecht.L. Marcuse

§ 771 Ein lineares System ist ein einfaches System: kleine Abweichungen der Eingangsgroßenvom angenommenen Wert fuhren zu endlichen, leicht abschatzbaren Abweichungen der Aus-gangsgroße. Eines der Merkmale eines nicht-linearen Systems dagegen ist, dass kleine Ab-weichungen in einer Eingangsgroße/einem Anfangszustand zu großen Abweichungem in derAusgangsgroße fuhren kann.

§ 772 Je komplexer ein Modell wird, um so großer wird die Zahl der darin enthaltenenphysikalischen Parameter und Anfangsbedingungen. Beide sind nicht immer genau bekannt– fur die Zuverlassigkeit der Vorhersage konnen diese kombinierten Ungenauigkeiten fataleKonsequenzen haben. Gerade in den großten und komplexesten Modellen, den Klimamodel-len, wunscht man umgekehrt eine moglichst zuverlassige Prognose. Daher bedient man sichauch hier der Verfahren der stochastischen Simulation und der Ensemble-Mittel; eine einfacheDarstellung ist in Imkelle und von Storch [47] gegeben.

Lernziele: nach Durcharbeiten dieses Kapitels sollen Sie in der Lage sein,

• die Idee der stochastischen Simulation naturlicher Systeme zu erlautern und Beispiele zugeben,• ....• ....

7.1 Ein (viel zu einfaches) Beispiel und ein etwas pas-senderes Beispiel

§ 773 In diesem Abschnitt werden wir die Idee des Ensemble–Mittels an einem einfachenBeispiel, der durch die Fibonacci-Zahlen beschriebenen Kaninchenpopulation, veranschauli-chen.

208

Page 220: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

7.1. EIN (VIEL ZU EINFACHES) BEISPIEL UND EIN ETWAS PASSENDERESBEISPIEL 209

Abbildung 7.1: Kaninchenpaare (FibonacciZahlen)

7.1.1 Fibonacci Zahlen

§ 774 Leonardo von Pisa, auch Fibonacci genannt, hat sich Anfang des 13. Jahrhundertsuber die Population von Kaninchen Sorgen gemacht. Die Ausgangsbasis ist ein einzelnesPaar von Kaninchen. Jedes Kaninchenpaar wirft einmal im Monat ein neues Kaninchenpaar,das seinerseits seinen ersten Nachwuchs nach zwei Monaten erzeugt. Verluste erleidet dieseKaninchenpopulation nicht.

§ 775 Sei kj die Zahl der Kaninchenpaare am Anfang des Monats j. Dann ist kj+2 derSumme aus der Zahl der am Anfang des j +1ten Monats lebenden Kaninchenpaare zuzuglichder Zahl der am Anfang des Monats j + 2ten geborenen Kaninchenpaare. Letztere ist gleichder Zahl der zwei Monate vorher lebenden Kaninchenpaare:

kj+2 = kj+1 + kj .

§ 776 Etwas formaler wird die so definierte Fibonacci Folge geschrieben als

Fn+1 = Fn + Fn−1 , n ≥ 1 , F1 = F2 = 1 . (7.1)

Die ersten Fibonacci Zahlen sind

1, 1, 2, 3, 5, 8, 13, 21, 34, 55, 89, 144, 233, 377, 610, 987.

Wie von einer Kaninchenpopulation erwartet, wachst die Reihe sehr schnell – da sie wie einVielfaches von xn mit x = 1

2 (√

5+1) wachst, handelt es sich um ein exponentielles Wachstum,siehe auch Abb. 7.1.

§ 777 Neben dem exponentiellen Wachstum ist aus mathematischer Sicht die Linearitat einerderartig definierten Folge interessant. Betrachten wir noch einmal die Definition der FibonacciFolge. Diese besteht aus zwei Teilen, der Rekursionsformel und den Anfangsbedingungen furF1 und F2. Die Fibonacci Zahlen sind daher ein Spezialfall einer allgemeinen Folge

Sn+1 = Sn + Sn−1 , n ≥ 2 ,

fur die die Anfangswerte S1 und S2 noch nicht naher spezifiziert sind. Je nach Wahl von S1

und S2 lassen sich verschiedenen Folgen konstruieren, bezeichnet z.B. als S(1)n und S

(2)n . Eine

Linearkombination dieser beiden Folgen ist

Sn = α1S(1)n + α2S

(2)n .

Einsetzen in die Rekursionsformel liefert

Sn+1 = α1S(1)n+1 + α2S

(2)n+1 = α1(S(1)

n + S(1)n−1) + α2(S(1)

n + S(2)n−1)

= (α1S(1)n + α2S

(2)n ) + (α1S

(1)n−1 + α2S

(2)n−1) = Sn + Sn−1 ,

d.h. die Linearkombination zweier Fibonacci Folgen liefert wieder eine Fibonacci Folge.

c© M.-B. Kallenrode 4. Februar 2008

Page 221: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

210 KAPITEL 7. DER ZUFALL KOMMT INS SPIEL: ENSEMBLE MITTEL

Abbildung 7.2: Ent-wicklung der Kanin-chenpopulation furverschiedene Anfangs-bedingungen

§ 778 Fur große n lasst sich der Quotient zweier aufeinander folgender Fibonacci Zahlen alsunendlicher Bruch schreiben mit Fn+1/Fn ≈ x. Daher verhalt sich Fn annahernd wie cxn

mit c als einer Konstanten und x definiert uber diesen Quotienten. Setzen wir den Ansatzcxn in die Rekursionsformel ein, so ergibt sich

cxn+1 = cxn + cxn−1 → x1 = x + 1

mit den Losungen

α =12

(1 +√

5)

und β =12

(1−√

5)

. (7.2)

Beide Losungen erfullen die Rekursionsformel (allerdings wird das Verhaltnis Fn+1/Fn ≈ xnur durch die positive Losung α erfullt), d.h. auch Linearkombinationen der beiden Losungenerfullen die Rekursionsformel. Damit erhalten wir als allgemeine Losung der Rekursionsformel

Sn = c1αn + c2β

n .

§ 779 Diese allgemeine Losung muss auch fur den Spezialfall der Fibonacci Zahlen gultigsein. Dann lasst sich die Fibonacci Folge schreiben als

Fn = c1αn + c2β

n

und die Koeffizienten c1 und c2 sind so zu wahlen, dass gilt

F1 = c1α + c2β = 1 und F2 = c1α2 + c2β

2 = 1 .

Wegen c1 = −c2 = (α + β)−1 ergibt sich fur die nte Fibonacci Zahl

Fn =αn − βn

α− β.

Damit lasst sich Fn direkt bestimmen ohne die Rekursionsformel durchlaufen zu mussen.

Zwischenrechnung 35 Fibonacci Zahlen sind naturliche Zahlen, der Ausdruck besteht je-doch aus irrationalen Zahlen α und β. Macht das Sinn?

7.1.2 Vorhersageprobleme bei Kaninchenpopulationen

§ 780 Sie sind der Besitzer eines Gartens, in dem sich – zumindest ihrer Meinung nach –ein Kaninchenpaar befindet. Der Garten ist so gegen die Umwelt abgeschlossen, dass keineKaninchen mit der Außenwelt ausgetauscht werden konnen: es gibt keinen Fluss von Kanin-chen uber die Gartengrenze hinweg. Sie mochten gerne Wissen, wie viele Kaninchenpaaresich nach 12 bzw. 24 Monaten im Garten befinden.

§ 781 Klar, Fibonacci liefert die Losung des Problems. Das einzige Problem ist die Anfangs-bedingung: ist es wirklich ein Paar oder haben Sie vielleicht beim Zahlen das eine oder anderePaar ubersehen oder ist vielleicht kein Kaninchenpaar da, weil irrtumlich etwas anderes alsKaninchen gezahlt wurde?

4. Februar 2008 c© M.-B. Kallenrode

Page 222: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

7.1. EIN (VIEL ZU EINFACHES) BEISPIEL UND EIN ETWAS PASSENDERESBEISPIEL 211

Abbildung 7.3: Nicht-linearesSystem: kleine Anderungen desAnfangszustandes (links) fuhrenzu großen Variationen in derAusgangsgroße

§ 782 Abbildung 7.2 zeigt die Entwicklung der Kaninchenpopulation fur verschiedene (je-doch jeweils selbst aus der Fibonacci Reihe entstehenden) Anfangsbedingungen. Das wesentli-che Merkmal des exponentiellen Wachstums wird deutlich: die Vorhersagen fur die Populationnach 12(24) Monaten schwanken zwischen Null (auch am Anfang waren keine Kaninchen da)und 4181(1346269) um den fur ein Kaninchenpaar erwarteten Wert von 144(46368). Obwohldie Fibonacci Folge noch nicht einmal wirklich chaotisches Verhalten zeigt, da sie monotonwachsend ist und eine großere Ausgangspopulation damit auch zu einer großeren Endpopula-tion fuhrt, wird die geringe Brauchbarkeit der Vorhersage deutlich: weder lasst sich ein Ertragaus Kaninchendung noch ein Bedarf an Kaninchenfutter auch nur annahernd abschatzen.

§ 783 Die Verteilung der Ergebnisse ist sehr breit; zu breit, um daraus eine eindeutige Vor-hersage zu gewinnen. Aber sind alle Ergebnisse wirklich gleich wahrscheinlich? Wenn wir voneinem Kaninchenpaar ausgehen, so ist die Wahrscheinlichkeit, ein zweites, vielleicht auchein drittes Paar ubersehen zu haben, recht groß – die Wahrscheinlichkeit, die restlichen 20Kaninchen der obersten Kurve ubersehen zu haben, ist dagegen gering. Schatzen wir die-se Fehlerwahrscheinlichkeiten ab,1 so erhalten wir die Wahrscheinlichkeit, mit der ein zu-gehoriges Ereignis auftritt. So konnen wir z.B. annehmen, dass die oberen vier Kurven einenWahrscheinlichkeit von je 3% haben, d.h. mit einer Wahrscheinlichkeit von 88% ist die Ka-ninchenpopulation nach 12 Monaten kleiner als 987 – das ist weniger als 1/4 des maximalenvorhergesagten Wertes.

§ 784 Außerdem konnen wir mit etwas Geduld aus der Kurvenschar in Abb. 7.2 noch eineverbesserte Vorhersage erstellen. Konnen wir nach einer bestimmten Zeit, z.B. nach sechs Mo-naten, unsere Kaninchenpopulation nochmals zahlen, so erhalten wir Einschrankung, welcheder Kurven in Abb. 7.2 nicht mehr mit der momentanen Beobachtung vereinbar sind. Damitwird auch der Bereich der Vorhersagewerte eingeschrankt.

7.1.3 Kritik am Beispiel

§ 785 Die Kaninchen sind ein sehr einfaches Beispiel, da die Reihe monoton steigend ist.Allgemein gilt in einem nicht-linearen System nur, dass benachbarte Anfangszustande aufsehr unterschiedliche Ausgangszustande fuhren konnen. Die Einschrankung, dass großereEingangszustande auch auf großere (oder kleinere) Ausgangsgroßen fuhren, ist normaler-weise nicht gegeben. Stattdessen bilden die Trajektorien fur verschiedene Eingangsgroßen einchaotisches Gewusel

7.1.4 Waldbrand

§ 786 Betrachten wir ein Beispiel mit einem großeren stochastischen Anteil; wir werden hierauch noch einmal an die Probleme der Vorhersagbarkeit in chaotischen Systemen erinnert.Gegeben ist ein Waldstuck einer bestimmten Breite; die relative Dichte der Baume ist uberdas gesamte Waldstuck konstant, jedoch sind die einzelnen Baume zufallig verteilt. Feuer liegt

1Da Kaninchen gezahlt werden, konnen wir den Fehler δn der Zahl n der Kaninchen aus der PoissonVerteilung abschatzen zu ∆n =

√n.

c© M.-B. Kallenrode 4. Februar 2008

Page 223: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

212 KAPITEL 7. DER ZUFALL KOMMT INS SPIEL: ENSEMBLE MITTEL

Abbildung 7.4: Abhangigkeit derAusgangsgroße von der Eingangs-große in einem komplexen System:es gibt eine kritische Große

als Randbedingung am linken Rand an, die Frage ist, ob sich, in Abhangigkeit von der Baum-dichte, dass Feuer bis zum rechten Rand durchfressen kann oder nicht. Und insbesondere,wie zuverlassig ist die Vorhersage, da ja die Baume zufallig verteilt sind.

§ 787 Als Modell verwenden wir hier keine SimuLink Simulation sondern das BeispielForest Fire in NetLogo; basierend auf dem Fire-Modul von Wilensky [137]. Das Re-chenrinzip ist ein einfacher zellularer Automat: Feuer kann nur von einem Baum auf einenbenachbarten Baum springen. Ganz offensichtlich wird der Anteil der verbrannten Baume(und damit auch das Risiko, dass sich das Feuer von der einen auf die andere Seite desWaldes durchfrisst), mit zunehmender Baumdichte großer.

§ 788 Lasst man das Modell mit verschiedenen Baumdichten laufen (naturlich mehrfach,um einen statistisch reprasentative Aussage zu erhalten), so ergibt sich ein auf den erstenBlick uberraschendes Ergebnis, vgl. Abb. 7.4: fur eine Baumdichte unterhalb von 50% liegtder Anteil der verbrannten Baume im Bereich von wenigen Prozent. Die Schwankungen vonRun zu Run sind gering, in keinem Fall breitet sich das Feuer uberhaupt nur nenneswert inden Wald hinein aus, geschweige denn kann es sich bis zur anderen Seite durchfressen.

§ 789 Oberhalb ca. 65% Baumdichte ist die Situation vergleichbar: der Baumbestand ver-brennt fast vollstandig (maximal wenige Prozent konnen uberleben) und entsprechend frisstsich das Feuer durch den Wald hindurch. Auch fur diese Baumdichten ist die Schwankungs-breite der Ergebnisse nur gering, d.h. das Ergebnis hangt kaum von der zufalligen Anfangs-verteilung ab.

§ 790 Fur Baumdichten im Bereich von knapp 60% steigt der relative Anteil der verbranntenBaume sehr schnell mit der Baumdichte an: in diesem Bereich erfolgt der Ubergang zwischengeringem Schaden und großem Schaden mit Durchfressen des Feuers abrupt. Es gibt also einekritische Große (genauer eine kritische Baumdichte), bei der sich das Systemverhalten vonleicht angekohltem Wald zu brandgerodeter Brache verandert.

§ 791 In einigem Abstand von der kritischen Große ist das Systemverhalten vorhersagbar,in der Nahe der kritischen Große dagegen nicht. Dazu zeigt Abb. 7.5 jeweils zwei Ergebnis-se fur eine Baumdichte von 0.58 (obere Reihe) bzw. 0.59 (untere Reihe). Im linken Teil istjeweils ein geringer Schaden bei der entsprechenden Baumdichte gezeigt, im rechten Teil eingroßer Schaden. Aus dem Vergleich erkennt man, dass das Ergebnis stark von den zufalligenAnfangsbedingungen abhangt und damit eine Vorhersage nahezu unmoglich wird. Aus demVergleich der beiden Zeilen erkennt man ferner, dass sich das Systemverhalten an der kriti-schen Große abrupt verandert: wahrend bei einer Baumdichte von 0.58 in 20 Runs das Feuerkein einziges Mal bis zur anderen Seite durchgekommen ist, ist es bei einer Baumdichte von0.58 nur in 2 Fallen nicht bis zur anderen Seite durchgekommen.

§ 792 Bei der Untersuchung eines derartigen Systems mit stochastischen Methoden konnenwir zumindest die kritische Große erkennen und fur die Bereiche abseits der kritischen GroßeVorhersagen machen. damit lassen sich z.B. geeignete waldwirtschaftliche Maßnahmen ein-leiten. Alternativ konnen wir aus einer derartigen Simulation bei einer Annahme uber die

4. Februar 2008 c© M.-B. Kallenrode

Page 224: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

7.2. EIN EINFACHES CHAOTISCHES SYSTEM: LOGISTISCHE GLEICHUNG 213

Abbildung 7.5: NetLogo Simulation Forest Fire; im Bereich einer Dichte von 0.58 (obereZeile) bzw. 0.59 (untere Zeile) sind die Ergebnisse hochgradig variabel (Abhangigkeit vonden zufalligen Anfangsbedingungen)

Baumdichte und deren Verteilungsbreite zumindest eine Aussage daruber treffen, mit welcherWahrscheinlichkeit sich das Feuer durchfrisst.

7.2 Ein einfaches chaotisches System: logistische Glei-chung

7.3 Jager–Beute Modell mit stochastischen Anfangsbe-dingungen

§ 793 Betrachten wir statt der Kaninchen Hasen, die sich mit Fuchsen ein Revier teilenmussen, d.h. wir verwenden ein Jager–Beute Modell wie in Abschn. 6.3.1 angedeutet.

c© M.-B. Kallenrode 4. Februar 2008

Page 225: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Kapitel 8Etwas Spieltheorie

Der Mensch lebt nicht nur sein personliches Leben als Einzelwesen, sondern, bewusstoder unbewusst, auch das seiner Epoche und Zeitgenossenschaft, und solle er die all-gemeinen und unpersonlichen Grundlagen seiner Existenz auch als unbedingt gegebenund selbstverstandlich betrachten und von dem Einfall, Kritik daran zu uben, so weitentfernt sein, wie der gute Hans Castorp es wirklich war, so ist doch sehr wohl moglich,dass er sein sittliches Wohlbefinden durch die Mangel vage beeintrachtigt fuhlt. Demeinzelnen Menschen mogen mancherlei personliche Ziele, Zwecke, Hoffnungen, Aus-sichten vor Augen schweben, aus denen er der Impuls zu hoher Anstrengung undTatigkeit schopft; wenn das Unpersonliche um ihn her, die Zeit selbst der Hoffnungenund Aussichten bei aller außeren Regsamkeit im Grunde entbehrt, wenn sie sich ihmals hoffnungslos, aussichtslos und ratlos heimlich zu erkennen gibt und er bewusstoder unbewusst gestellten, aber doch irgendwie gestellten Frage nach seinem letzten,mehr als personlichen, unbedingten Sinn aller Anstrengung und Tatigkeit ein hoh-les Schweigen entgegensetzt, so wird gerade in Fallen redlicheren Menschentums einegewisse lahmende Wirkung solches Sachverhalts fast unausbleiblich sein, die sich aufdem Weg uber das Seelisch-Sittliche geradezu auf das physische und organische Teildes Individuums erstrecken mag. Zu bedeutender, das Maß des schlechthin gebotenenuberschreitener Leistung aufgelegt zu sein, ohne dass die Zeit auf die Frage Wozu?eine befriedigende Antwort wusste, dazu gehort entweder eine sittliche Einsamkeitund Unmittelbarkeit, die schon selten vorkommt und heroischer Natur ist, oder einesehr robuste Vitalitat.

Thomas Mann, Zauberberg

§ 794 Nein – es geht nicht um die Theorie des Glucksspiels, auch wenn sich das voran ge-gangene Kapitel mit dem Zufall beschaftigt hat. Spieltheorie wird eigentlich eher in denWirtschafts- und Sozialwissenschaften verwendet, so z.B. in der Diskussion im Strategienzur Reduktion des anthropogenen Treibhauseffekts. Allerdings lassen sich viele Strategiepla-nungen ebenfalls spieltheoretisch beschreiben (z.B. die Mittelvergabe an Universitaten, dieSteuerung von Wissenschaft durch diese Mittelvergabe usw.). Und im Bezug auf SimuLinkbietet die Speiltheorie noch einmal eine andere Moglichkeit, mit diskreten Systemen zu arbei-ten: es finden mehrfache Wechselwirkungen statt (mehrere Runden) und diese erfolgen nachfesten Regeln.

§ 795 In diesem Kapitel werden die Grundbegriffe der Spieltheorie am Beispiel des Gefan-gegenedilemmas (und logisch isomorpher Spiele) sowie der Gemeindewiese beschrieben. An-schließend wird eine Kopplung eines Klimamodells (beschrieben durch seine Impulsantwort)zur Bestimmung eines optimalen Emissionspfades eingefuhrt; die Aufteilung des letzteren

214

Page 226: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.1. GEFANGENE, KUHE UND STICHLINGE 215

auf verschiedene Akteure wird unter spieltheoretischen Gesichtspunkten diskutiert. Am En-de des Abschnitts sind die Ergebnisse der studentischen Projekte zum Gefangenendilemmazusammen gefasst.

Lernziele: nach Durcharbeiten dieses Kapitels sollen Sie in der Lage sein,

• einige relevante Begriffe der Spieltheorie zu erlautern, wie z.B. Nullsummenspiel, NashGleichgewicht.• einfache Strategien so zu formulieren, dass sich die Regeln in SimuLink implementieren

lassen und die Strategien gegeneinander spielen konnen.• die logischen Blocken in SimuLink einzusetzen.• eine Simulation mit diskreten Zustanden durchzufuhren.

8.1 Gefangene, Kuhe und Stichlinge

§ 796 Die Spieltheorie liefert eine formale Beschreibung von Strategien zur Findung vonEntscheidungen in Systemen mit mehreren Beteiligten/Akteuren. Die Beschreibung solcherSituationen mit Hilfe der Spieltheorie ist jedoch nur dann sinnvoll, wenn diese Entscheidungenmehrfach getroffen werden mussen, d.h. wir betrachten wiederholte Spielrunden und damitlange Zeitraume. Interessant werden diese sich wiederholenden Runden dadurch, dass dieEntscheidung, die den personlichen Vorteil maximiert, fur die Gesamtheit der Beteiligtensuboptimal ist. Umgekehrt ist die Entscheidung, die fur die Gesamtheit optimal ist, fur denEinzelnen suboptimal. Oder ganz einfach: Verzicht aufs Auto mag furs Klima (und damit furdie Gesamtheit der Spieler) besser sein, fur mich ist es aber mit Einschrankungen verbunden.1

§ 797 Zur Entscheidungsfindung in einem sich wiederholenden Spiel kann jeder Spieler einepersonliche Strategie entwickeln. Diese lassen sich in zwei verschiedenen Formen unterteilen.Bei einer reinen Strategie legt der Spieler sein Vorgehen derart fest, dass in einer vorgege-benen Situation nach diesem Prinzip immer der gleiche Schritt erfolgt. Bei einer gemischtenStrategie dagegen schreibt der Spieler jeder Handlungsmoglichkeit eine Wahrscheinlichkeitzugeschrieben; auf der Grundlage dieser Wahrscheinlichkeiten wird dann gehandelt, die Ent-scheidung selbst wird vom Zufall bestimmt. Die reine Strategie ist der Grenzfall der gemisch-ten.

§ 798 Wikipedia http://en.wikipedia.org/wiki/Game theory liefert eine uber meine en-ge Auffassung von Spieltheorie weit hinaus gehende Definition:

Game theory is a branch of applied mathematics that is often used in the contextof economics. It studies strategic interactions between agents. In strategic games,agents choose strategies which will maximize their return, given the strategies theother agents choose. The essential feature is that it provides a formal modellingapproach to social situations in which decision makers interact with other agents.Game theory extends the simpler optimisation approach developed in neoclassicaleconomics.The field of game theory came into being with the 1944 classic Theory of Games andEconomic Behavior by John von Neumann and Oskar Morgenstern. A major centerfor the development of game theory was RAND Corporation where it helped to definenuclear strategies.Game theory has played, and continues to play a large role in the social sciences, andis now also used in many diverse academic fields. Beginning in the 1970s, game theoryhas been applied to animal behaviour, including evolutionary theory. Many games,especially the prisoner’s dilemma, are used to illustrate ideas in political science andethics. Game theory has recently drawn attention from computer scientists becauseof its use in artificial intelligence and cybernetics.

1In der Diskussion um die Einschrankung der Folgen eines anthropogenen Klimawandels haben sich daherauch verschiedenen spieltheoretische Ansatze ausgebildet; die ersten davon gehen auf Hasselmann ... zuruck.

c© M.-B. Kallenrode 4. Februar 2008

Page 227: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

216 KAPITEL 8. ETWAS SPIELTHEORIE

In addition to its academic interest, game theory has received attention in popularculture. A Nobel Prize–winning game theorist, John Nash, was the subject of the1998 biography by Sylvia Nasar and the 2001 film A Beautiful Mind. Game theorywas also a theme in the 1983 film WarGames. Several game shows have adoptedgame theoretic situations, including Friend or Foe? and to some extent Survivor. Thecharacter Jack Bristow on the television show Alias is one of the few fictional gametheorists in popular culture.[1]Although some game theoretic analyses appear similar to decision theory, game theorystudies decisions made in an environment in which players interact. In other words,game theory studies choice of optimal behavior when costs and benefits of each optiondepend upon the choices of other individuals.

8.1.1 Hofstaedter’s Einmillionendollarspiel

§ 799 Douglas Hofstaedter, vielleicht eher bekannt durch ‘Godel, Escher, Bach’ und andereBucher [36, 37, 38] hat fur seine Kolumne in der Zeitschrift Scientific American ein recht ein-faches Spiel entwickelt, um die Grundkonzepte der Spieltheorie zu erlautern. Dazu entwickelter folgende Spielsituation: der Scientific American verlost unter seinen Lesern einen Preis von1 Mio $ – allerdings hangt der Preis von der Zahl N der Bewerber ab: es gewinnt nur einer,der aber 1/N Mio $. Die Leser sind aufgefordert, eine sinnvolle Strategie zu finden – wobeisich die Frage stellt, was eine sinnvolle Strategie ist und fur wen diese Strategie sinnvoll ist.

§ 800 Die Situation unterscheidet sich sowohl von einem typischen Spiel wie Skat oder Kno-beln als auch von einer typischen Auslosung. Normalerweise verringern bei letztere Mitbe-werber zwar die Chance des Einzelnen auf den Gewinn, nicht aber den Gewinn; bei ersteremist der Gewinn des einen Spielers gleich den Verlusten der anderen. Stattdessen ist dieseSpielsituation ein gutes Beispiel fur den Konflikt zwischen den Interessen des Einzelnen unddenen der (Spieler-)Gemeinschaft.

§ 801 Dieser Interessenkonflikt wird deutlich, wenn wir die Frage nach dem Ziel einmal ausSicht des einzelnen Spielers, einmal aus Sicht der Spielergemeinschaft stellen. Der spieltheo-retische Background ist ein einfacher: es geht nicht um den Gewinn des einen als den Verlustdes anderen (Nullsummenspiel) sondern um das Auffinden einer Strategie im gemeinsamenKampf um optimale Ressourcen.

§ 802 Im Kopf des Einzelspielers bildet sich (ungefahr) die folgende Gedankenkette:

Ich mochte die Million gewinnen, also muss ich spielen. Aber mit jedem zusatzlichenSpieler sinken meine Chancen und der Gewinn wird kleiner, also sollte ich nichtspielen, da sonst ein Großteil des Geldes, namlich der (N − 1)/Nte Teil, beim Verlagverbleibt. Aber wenn alle so argumentieren, gewinnt kein Spieler sondern der Verlagund um das zu verhindern, sollte ich spielen.

Um die Ressourcen (den Gewinn) nicht ganz verfallen zu lassen, kommt der Einzelspieler zudem Schluss, dass auch ein kleiner Gewinn besser ist als wenn das Geld beim Verlag verbleibt.

§ 803 In der Spielergemeinschaft dagegen bildet sich dagegen die folgende Gedankenketteaus:

Wir haben ein gemeinsames Ziel: die Million (die Ressourcen) muss gewonnen werden.Diese kann aber nur dann gewonnen werden, wenn es genau einen Teilnehmer gibt:keiner Teilnehmer macht den Verlag zum Gewinner, mehrere schmalern den Gewinnfur die Spielergemeinschaft und machen damit den Verlag zum Gewinner.

Damit hat die Spielergemeinschaft ein klares Ziel: genau einer soll spielen. Aber wer?schließlich ist der eine ja auch der Gewinner. Die Spielergemeinschaft kann z.B. auf folgendesVerfahren kommen: die N Interessenten zur Teilnahme am Spiel haben jeweils einen n-seitigen

4. Februar 2008 c© M.-B. Kallenrode

Page 228: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.1. GEFANGENE, KUHE UND STICHLINGE 217

Wurfel und nur Spieler, die die 1 wurfeln, durfen mitspielen. In diesem Fall hat die Spieler-gemeinschaft eine optimale gemischte Strategie gefunden: sie enthalt Zufallsentscheidungenund maximiert den Gewinn fur die Gesamtheit der Spieler. Die Spielergemeinschaft hatte sichauch auf eine andere Strategie zuruck ziehen konnen: schreibe alle Zahlen von 1 bis N aufLose und lasse jeden Interessierten ein Los ziehen – dann hatte die Spielergemeinschaft eineArt Vorauslosung vorgenommen, die sich vom eigentlichen Spiel nur dadurch unterscheidet,dass der Nachteil der Gewinnverkleinerung bei mehreren Spielern entfallt, da diese erst ineiner zweiten Runde (eben beim Verlag) wirksam wird.

§ 804 Experimentell ist das Spiel leider nie durchgefuhrt worden – da wollte offenbar kei-ner die Ressourcen opfern. Stattdessen wurde das Spiel in veranderter Form veroffentlicht:jeder Teilnehmer konnte in einem einzigen Brief angeben, wie oft er teilnehmen wollte. DasErgebnis:

1 2 3 4 5 6 7 8 9 10 100 10001133 31 16 8 16 0 9 1 1 49 61 46

sowie ‘Spielverderber’ bis hin zu 1010100. Etwas irritierend ist die große Zahl von Teilneh-

mern, die mehrfach teilnehmen wurden; entweder nach dem Motto ‘bevor jemand andersviel gewinnt, versuch ich zumindest wenig zu gewinnen’ oder weil sie das Spielprinzip nichtverstanden haben.

8.1.2 Nullsummenspiele

Definition 9 Beim Nullsummenspiel ist der Gewinn des einen Spielers der Verlust des an-deren.

§ 805 Die meisten Gesellschaftsspiele sind Nullsummenspiele. Das einfachste Beispiel ist einklassisches Spiel, der Munzwurf: bei Kopf gibt A 10 Cent an B, bei Zahl umgekehrt. Aber vonDoppelkopf uber Mensch-Argere-Dich-nicht und Schach bis hin zu Go ist stets der Gewinndes einen gleichbedeutend mit dem Verlust des anderen Spielers, d.h. es gibt Gewinner undVerlierer.

§ 806 Nullsummenspiele sind jedoch nicht auf klassische Spiele im alltaglichen Sinn be-schrankt. Begrenzte Ressourcen fuhren auf Nullsummenspiele. Bei gedeckelten offentlichenHaushalten sind auch ein Hochschuloptimierungskonzept und die leistungsorientierte Mittel-vergabe Nullsummenspiele: wenn Osnabruck die Physik behalt, muss halt eben Clausthal aufdie Physik verzichten. Nullsummenspiele haben im Gegensatz zu dem oben beschriebenenMillionenspiel und zu Situationen, in denen der in § 796 beschriebene Zielkonflikt auftretenkann, eine Einschrankung: bei Nullsummenspielen kann Kooperation keinen Gewinn fur dieSpielergemeinschaft erreichen! Clausthal und Osnabruck mochten beide ihre Physik behaltenund konnen sich beide gut darstellen, sie konnen sich u.U. sogar als eine gute Gemeinschaftverkaufen: da aber das Land die Zahl der Physikstudienplatze auf Grund mangelnder Nach-frage reduzieren will, ist einer von den beiden zuviel. Im Prinzip kann man in dieser Situationauch durch Munzwurf, also das klassische Nullsummenspiel, zu einer Entscheidung kommen.

8.1.3 Das Gefangenendilemma – Einzelspiel

§ 807 Das Gefangenendilemma ist ein klassisches Beispiel fur ein Nicht-Nullsummenspielmit einem Zielkonflikt. Es ist gleichzeitig auch das Musterbeispiel fur die Bedeutung vonKooperation [3, 98] – und illustriert ein Problem der Kooperation besonders deutlich: Ko-operation ist bei Vertrauen leichter moglich als in einer Situation des Mißtrauens oder einfachdes fehlenden Vertrauens im neutralen Sinne von nicht Kennen.

§ 808 In der von Mero [77] gegebenen Form liest sich das Gefangenendilemma folgenderma-ßen:

c© M.-B. Kallenrode 4. Februar 2008

Page 229: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

218 KAPITEL 8. ETWAS SPIELTHEORIE

Die Polizei fangt ein langgesuchtes Duo, dem ein schweres Verbrechen angelastet wird.Die Polizei hat keine direkten Beweise fur die Schuld der beiden Manner und kann ih-nen lediglich fahren mit uberhohter Geschwindigkeit nachweisen. Der Untersuchungs-richter mochte den Fall abschließen und unterbreitet dazu jedem der Gefangenen, dieer in getrennte Zellen legen ließ, den folgenden Vorschlag:“Wenn Sie das Verbrechen gestehen und uns dadurch helfen, den Fall schnell zuklaren, lasse ich Sie frei und wir vergessen die Sache mit dem zu schnellen Fahren.Ihren Komplizen lochen wir dann fur 10 Jahre ein und die Sache ist fur immer erledigt.Das Angebot gilt jedoch nur, falls Ihr Komplize das Verbrechen nicht gesteht und unsbei der Aufklarung also nicht hilft. Wenn er ebenfalls gesteht, ist ihr Gestandnis nichtviel wert, weil wir dann ohnehin Bescheid wissen. In diesem Fall werden Sie beide zuje 10 Jahren Gefangnis verurteilt. Wenn keiner von Ihnen gesteht, ist das Ihre Sache,aber in jedem Fall wird diese furchterliche Raserei streng geahndet werden, und Siekommen beide fur ein Jahr hinter Schloss und Riegel. Noch etwas: Ihrem Komplizenhabe ich das gleiche gesagt wie Ihnen. Ich erwarte Ihre Antwort morgen fruh um zehnUhr – um elf Uhr konnen Sie frei sein.”

§ 809 Die Spielausgange hangen von den voneinander unabhangigen Entscheidungen derbeiden Gefangenen ab und lassen sich in einer Gewinnmatrix zusammen fassen:

K1 gesteht K1 gesteht nichtK2 gesteht -5, -5 -10, 0K2 gesteht nicht 0, -10 -1, -1

Darin bedeuten negative Zahlen einen Verlust. Im Fettdruck gegeben ist das Ergebnis furden Gefangenen K1. Aus der Gewinnmatrix wird das Problem des Spiels, der Zielkonfliktder einzelnen Spieler, deutlich: das optimale Ergebnis fur den Einzelnen (keine Haft) istnicht vertraglich mit dem optimalen Ergebnis fur die Gemeinschaft (Gesamthaftzeit von 2Jahren, verglichen mit einer Gesamthaftzeit von 10 Jahren in allen anderen Fallen). DasGefangenendilemma ist also kein Nullsummenspiel: die Summe der Gewinne und Verluste istungleich Null. In diesem Fall geht es nur um Verlustminimierung; fur den einzelnen Spieleroder fur die Gruppe der Spieler.

§ 810 Wie findet in dieser Situation jeder der Gefangenen seine Strategie? Eine Kommuni-kation zwischen beiden ist nicht moglich, d.h. jeder Gefangene kann zwar uber die Gedankendes anderen spekulieren, kann aber keinerlei Aussage von diesem erhalten. Nehmen wir fernerVoraussetzung an, dass es keine besondere emotionale Bindung zwischen beiden gibt, d.h.dass keiner von den beiden irgendeinen Grund zu der Annahme hat, dass der zweite Gefan-gene ein besonderes Interesse am Wohlergehen des ersten Gefangenen (oder umgekehrt) hat.Dann hangt jeder der gefangenen ungefahr dem folgenden Gedankengang nach:

Singt mein Partner, so bekomme ich 5 Jahre, wenn ich auch singe, aber 10 Jahre,wenn ich leugne. Singt mein Partner aber nicht, so komme ich frei, wenn ich singe,aber ich kriege 5 Jahre, wenn ich leugne. In beiden Fallen ist meine Strafe geringer,wenn ich singe, also singe ich.

Diese Logik diktiert beiden Gefangenen zu singen – auch wenn das Gesamtergebnis damitnicht optimal ist. Aber das Singen ist die Strategie, die unabhangig von der Strategie desanderen Spielers, den eigenen Gewinn maximiert (Nash-Gleichgewicht).

§ 811 Allerdings kommen den Gefangenen bei dem Versuch einer Bewertung des Spielaus-gangs weitere Gedanken:

Ich bin meinem Partner zwar nicht emotional verbunden, weiß aber, dass er ebenfallsintelligent ist. Mein Partner wird zu dem gleichen Schluss kommen, dass singen dasBeste ist. Und mein Partner wird ebenfalls erkennen, dass es nicht die optimaleLosung ist – und dass ich es ebenfalls weiß. Daher wird mein Partner nicht singen –und ich werde es auch nicht.

4. Februar 2008 c© M.-B. Kallenrode

Page 230: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.1. GEFANGENE, KUHE UND STICHLINGE 219

Dieser Schritt ist eigentlich schon ganz gut: damit ließe sich der Gesamtgewinn optimieren(bzw. in diesem Fall eher der gesamtverlust minimieren), jedoch um den personlichen Preisvon einem Jahr Gefangnis.

§ 812 Und dann kommen die Hintergedanken und jeder Gefangene versteht sein Dilemmanoch deutlicher:

Und wenn mein Partner weiter denkt und merkt, dass ich auf der Basis dieser Logiknicht singe – dann kann er durch singen seinen Gewinn optimieren.

Damit ist jeder der Gefangenen wieder in der gleichen Situation wie am Anfang: er hat zwarerkannt, was die beste Strategie fur die beiden Gefangenen gemeinsam ware und dass dieserStrategie ein Zielkonflikt innewohnt, hat aber keinen Grund, dem anderen ebenfalls diesemZielkonflikt ausgesetzten Gefangenen zu trauen.

§ 813 Die moglichen Strategien im Gefangenendilemma lassen sich mit zwei Begriffen be-schreiben: Kooperation oder Konkurrenz.

Definition 10 Kooperation: Der Spieler wahlt den Zug, der den Gewinn fur die Gemein-schaft maximiert – aber gleichzeitig das großte personliche Risiko beinhaltet.

Definition 11 Konkurrenz: Der Spieler wahlt den Zug, der den großten eigenen Vorteilgestattet – auch wenn der Gesamtgewinn dabei suboptimal ist.

§ 814 Fuhrt man das Gefangenendilemma experimentell durch, so zeigt sich , dass ungefahr40% der Probanden eine kooperative Strategie wahlen. Oder umgekehrt: es wird haufigereine konkurrierende als eine kooperierende Strategie gewahlt. Wird das Spiel jedoch nichtnur einmal, sondern mehrfach in Folge gespielt, so steigt die Zahl der Kooperativen auf biszu 60% (die Zukunft wirft ihre Schatten voraus, s.u.). Eine mogliche Begrundung ist die Ri-sikovermeidung (bloß keine 10 Jahre Knast). Wirklich interessant und ach breiter anwendbarwird das Gefangenendilemma erst bei mehrfachem Spielen – was auch anschaulich vorstellbarist, da ein mehrfaches spiel die Moglichkeit eroffnet, den anderen Gefangenen einzuschatzenund die Idee von Kooperation zu entwickeln.

§ 815 Um die Folgerungen aus dem Gefangenendilemma auf andere Situationen ubertragenzu konnen, mussen diese einen vergleichbaren Zielkonflikt bietet. Derartige Situationen be-zeichnet man als isomorphe Spiele. Dabei bedeutet logisch isomorph, dass sich die Spielsitua-tion durch eine ahnliche Gedankenkette wie beim Gefangenendilemma und eine ahnliche Ge-winnmatrix beschreiben lasst. Das Wettrusten2 ist ein verwandtes Problem: beim Wettrustenist der Gewinn die militarische Macht, der Einsatz die mit der Rustung verbundenen Kosten.Die Gewinnmatrix mit 1 als dem schlechtesten und 4 als dem besten Ergebnis ist der desGefangenendilemmas vergleichbar:

Blau rustet wenig Blau rustet starkRot rustet wenig 2, 2 1, 4

billiges Gleichgewicht UberlegenheitRot rustet stark 1, 4 3, 3

Wehrlosigkeit teures Gleichgewicht

2Das Gefangenendilemma ist nicht das ‘Ausgangsspiel’. Das Ausgangsspiel war das Wettrusten (daher wirdRAND ja auch von Wikipedia im Zusammenhang mit der Spieltheorie genannt). Das Gefangenendilemma istnur eine ‘neutrale’ Illustration um auf das Problem von Kooperation versus Konkurrenz hinzuweisen ohne so-fort die gesamte Rhetorik und den gesamten emotionalen Ballast des Kalten Krieges aufzurufen. Spieltheoriewurde in den spaten 1970ern und fruhen 1980ern vor dem Hintergrund des Nato-Doppelbeschlusses und StarWars (Reagans geplante Rakentenabwehr im All) mit dem Gefangenendilemma popular, z.B. [3, 98]. Letzt-endlich hat sich die Gewinnmatrix schon vor dem Ende der Sowjetunion bewahrt: das billigere Gleichgewichtwurde z.B. schon durch SALT langsam angestrebt.

c© M.-B. Kallenrode 4. Februar 2008

Page 231: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

220 KAPITEL 8. ETWAS SPIELTHEORIE

§ 816 Ein anderes Beispiel ist die Preisgestaltung an der Zapfsaule – im Gegensatz zumWettrusten ein Beispiel, dass nichts an seiner Aktualitat verloren hat. Dazu betrachten wirdie folgende Situation: zwei benachbarte Tankstellen durfen einmal im Monat (oder in einemanderen Zeittakt) ihre Preise neu festsetzen. Geringerer Preis heißt weniger Gewinn pro Literaber moglicherweise mehr Kunden. Die Gewinnmatrix ist

Blau senkt Preis Blau senkt Preis nichtRot senkt Preis 0, 0 4, -3

geringer Verlust zusatzlicher GewinnRot senkt Preis nicht -3, 4 1, 1

großer Verlust normaler Gewinn

Das Spiel wiederholt sich in den Folgemonaten (bzw. Folgetakten), falls nicht einer oder beidePleite gegangen sind. Hier bietet sich als Strategie Koorperation an – dadurch lassen sich dieSpritpreise sogar ohne (verbotene) Preisabsprachen hoch halten.

§ 817 Die Tankstellen bzw. das Wettrusten sind auf Grund der wiederholten Wechselwirkung– und damit der Moglichkeit, eine Strategie zu entwickeln und sich auf den anderen Spielerbzw. dessen Strategie einzustellen – fur die praktische Anwendung wesentlich wichtiger alsdas in § 808 als isoliertes Ereignis auftretende Gefangenendilemma.

§ 818 Allerdings hat die Spieltheorie in ihrer Anwendung auf Entscheidungsfindungen auchGrenzen: als Schelling Spiel [5] wird ein Spiel bezeichnet, in dem es auf reine Koordinationbzw. Koinzidenz ankommt. Es gibt zwei Spieler, die nicht mit einander kommunizieren durfen.Ihnen wird folgende Aufgabe gestellt: ‘Vervollstandigen Sie den folgenden Satz: Eine Munzewurde geworfen; sie zeigte....’. Wenn beide Spieler den Satz auf gleiche Weise vervollstandigen,erhalten sie je einen Euro; wenn sie ihn auf unterschiedliche Weise vervollstandigen, erhaltenSie kein Geld (verlieren aber auch nichts). Die Gewinnmatrix ist

Blau Kopf Blau ZahlRot Kopf (1,1) (0,0)Rot Zahl (0,0) (1,1)

Wie im Gefangenendilemma ist Kommunikation zwischen den Spielern nicht moglich. Jedochist es im Schelling Spiel nicht einmal moglich, dem anderen Spieler Motive fur eine bestimmteWahl zu unterstellen: es gibt keinen Zug, der von vornherein zu schlechteren oder besserenAlternative fuhren wurde. Und es gibt daher auch keine Moglichkeit, dem anderen Spielereine Strategie zu unterstellen. Daher sollten alle vier Felder der Gewinnmatrix mit gleicherHaufigkeit auftreten: die Wahrscheinlichkeit, dass beide Spieler gewinnen, betragt also 50%.Experimente (fur Details und Zitate siehe [5]) zeigen jedoch, dass mehr als 3/4 der Spiele ge-wonnen wurden. Ein genauerer Blick erklart warum: 86% der Probanden erganzen ‘Kopf’ undnicht ‘Zahl’, obwohl die Versuchsausgange der Munze gleich wahrscheinlich sind. Der Grundist ein einfacher: ‘Kopf oder Zahl’ ist die typische Frage beim Munzwurf – die umgekehrteFolge, ‘Zahl oder Kopf’ dagegen wird nicht gefragt, kommt uns eher sperrig und irritierendvor.3 Explizit befragt wurde niemand diese Reihenfolge als relevant fur eine Spielstrategieempfinden – sie schleicht sich aber uber das unbewusste in die real angewandte Strategieein. Solche unbewussten Einflussgroßen lassen sich auch im Rahmen der Spieltheorie nichtformalisieren.

Gefangenendilemma mit mehreren Spielern: die Gemeindewiese

§ 819 Das Problem der Gemeindewiese ist eine Spielvariante, die die eigentlich bei wieder-holter Wechselwirkung leicht zu realisierende Koorperation noch einmal genauer betrachtet.Kooperation bedeutet gewohnlich Verzicht. Betrachten wir eine Versuchung, die zu einer

3Die Argumentation klingt plausibel – ich sollte Ihnen jedoch nicht verheimlichen, dass die experimentellenUntersuchungen im anglo-amerikanischen Sprachraum durchgefuhrt wurden. Allerdings ist auch dort dieReihenfolge ‘Head or Tail’ fest verdrahtet.

4. Februar 2008 c© M.-B. Kallenrode

Page 232: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.1. GEFANGENE, KUHE UND STICHLINGE 221

Katastrophe fuhrt, wenn ihr jeder erliegt. Die Situation lasst sich durch das Problem derGemeindewiese illustrieren:

Zehn Bauern eines Dorfes, die je eine Kuh haben, lassen alle zehn Kuhe auf derGemeindewiese grasen. Die Kuhe werden schon fett, wobei die Weide mehr oderweniger kahlgefressen wird. Die Bauern werden reicher und manche konnen sich baldeine zweite Kuh leisten. Als der erste Bauer seine zweite Kuh auf die Gemeindewieseschickt, ist praktisch keine Veranderung zu beobachten. Vielleicht finden die Kuheetwas weniger Nahrung, vielleicht werden sie etwas weniger fett. Auch wenn der zweiteund der dritte Bauer jeweils eine zweite Kuh auf die Weide schicken, gibt es nochkeine großen Probleme. Obwohl die Kuhe sichtbar schlanker geworden sind, ist jedevon ihnen noch wohlgenahrt und gesund. Als jedoch auch der siebte Bauer seinezweite Kuh kauft, leiden offensichtlich alle Kuhe unter Hunger, und der Wert allersiebzehn Kuhe zusammen erreicht nicht den der ursprunglichen zehn. Als schließlichalle zehn Bauern zwei Kuhe haben, verhungern alle Kuhe. Zunachst sind also zweiKuhe mehr wert als eine, deshalb ist es fur jeden Bauern vorteilhaft, eine zweite Kuhzu kaufen – bis alle verhungern.

§ 820 Mit den Ergebnissen I fur ‘ich habe eine sehr dunne Kuh’, II fur ‘ich habe zwei sehrdunne Kuhe’, III fur ‘ich habe eine sehr fette Kuh’ und IV fur ‘ich habe zwei sehr fette Kuhe’ergibt sich fur die Gemeindewiese die folgende Gewinnmatrix:

Mehrheit kauft zweite Kuhja nein

Ich kaufe 2te Kuh 2, 2 (II) 4, 1 (IV)Ich kaufe keine 2te Kuh 1, 4 (I) 3, 3 (III)

Die Gewinnmatrix zeigt wieder einen Zielkonflikt: fur mich personlich ist IV optimal, fur dieGemeinschaft III. Der entscheidende Unterschied zum Zwei-Personen-Spiel wie dem Gefan-genendilemma besteht darin, dass der Zielkonflikt zwar existiert, aber fur einen einzelnenSpieler dieser Zielkonflikt immer dadurch rationalisiert werden kann, dass ja alles im Sinneder Gemeinschaft gut geht, wenn er selbst der einzige ist, der statt Kooperation Konkurrenzwahlt.

§ 821 Ein interessante Aspekt an dieser Matrix (und damit an der Interpretation des Mehr-personenspiels) ist die Tatsache, dass das Mehrpersonenspiel wieder auf zwei Akteure redu-ziert wird. Statt alle einzelnen Spieler zu betrachten, wird ein Akteur (eben der, der seineStrategie ermitteln/bewerten will) ausgewahlt. Alle anderen Mitspieler werden als ein Ak-teur aufgefasst. Die Beschreibung ist eine vollig sinnvolle Reduktion: fur den einzelnen Akteurist nur relevant, wie sich die anderen Spieler als Gesamtheit verhalten – welcher der Spie-ler welchen Zug auswahlt (bzw. wie viele Kuhe platziert) ist irrelevant. Auf diese Weiselassen sich alle Situationen der Art ‘das Interesse des Einzelnen vs. das Interesse der Grup-pe/Gesellschaft’ formalisieren.

8.1.4 Iteriertes Gefangenendilemma

§ 822 Beim iterierten Gefangenedilemma entspricht der einzelne Spielzug dem gewohnlichenGefangenendilemma. Im Unterschied zu diesem ist nicht nach einem Zug Schluss, sondern eswerden wiederholt Zuge gemacht, wie z.B. beim Wettrusten in § 815 und bei den Spritpreisenin § 816. Als Konsequenz lernt man die Strategie des anderen Spielers kennen und kann sichauf diese Einstellen. Außerdem unterscheidet sich die Situation im Hinblick auf die Folgeneiner Strategie: eine Strategie, die im Einzelspiel einen maximalen Gewinn liefert, kann imWiederholungsfall zum Verlust fuhren!

§ 823 Wie beim normalen Gefangenendilemma gehen wir auch hier von der folgenden An-nahme aus: entscheidend fur die Gewinnmaximierung in einem Nicht-Nullsummenspiel istdie Kooperation. Beim iterierten Gefangenendilemma lassen sich auf Grund der haufigeren

c© M.-B. Kallenrode 4. Februar 2008

Page 233: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

222 KAPITEL 8. ETWAS SPIELTHEORIE

Wechselwirkung verschiedene Strategien entwickeln, die die voran gegangenen Zuge des Mit-spielers berucksichtigen konnen. Einige typische Strategien sind:

• Altruist: kooperiere immer, egal was der Mitspieler tut. Diese Strategie ist fur den Mit-spieler schnell zu erkennen, erlaubt aber keine echte Wechselwirkung der Strategien.• Egoist: konkurriere immer, egal was der Mitspieler tut. Auch diese Strategie ist fur den

Mitspieler schnell zu erkennen und auch sie erlaubt keine echte Wechselwirkung.• alternierender Altruist und Egoist: Kooperation und Konkurrenz nach festem Schema (z.B.

je zweimal oder 4 mal Kooperation, dann zweimal Konkurrenz, dann wieder 4 mal Koope-ration usw.). Erlaubt ebenfalls keine echte Wechselwirkung.• Tit for Tat (wie Du mir, so ich Dir): mache immer das, was der Mitspieler im Zug davor

gemacht hat. Im Gegensatz zu den beiden voran gegangenen Strategien werden hier diefruheren Aktionen des Mitspielers berucksichtigt. Fahrt dieser jedoch eine der beiden nicht-reaktiven Strategien, so ergibt sich im besten Fall eine Altruist–Altruist Kombination, imungunstigsten dagegen eine Egoist–Egoist Kombination.

• Altruist mit verzeihender Strafe: konkurriert der Gegner, konkurriere zweimal, dann ko-operiere wieder.• Altruist mir starkerer Strafe: Kooperation, konkurriert der Gegner, konkurriere zweimal,

dann kooperiere wieder.• Konkurrenz wird nicht verziehen: kooperieire bis der andere konkurriert. Dann konkurriere

immer.

Viele weitere Strategien lassen sich auf ahnliche Weise erzeugen. Insbesondere konnen auchStrategien entwickelt werden, die viele zuruck liegende Zuge berucksichtigen. Letzteres istz.B. erforderlich, wenn man versuchen mochte, die Strategie des Mitspielers zu verstehen undsich gegebenenfalls auf diese einzustellen.

§ 824 Als eine sehr erfolgreiche Strategie erweist sich Tit for Tat (TFT). Oder im Detail[98]: Kooperiere im ersten Schritt. In jedem folgenden Schritt tue das, was der Gegner inder vorigen Runde tat. Diese Strategie ist so einfach, dass auch Stichlinge TFT spielen wennes darum geht aus vielen Fischen eine Schwarmformation zu erzeugen, die eine rauberischeMakrele davon uberzeugt, dass sie keinen Schwarm Stichlinge vor sich hat sondern einennicht zum Verzeht geeigneten großen Fisch. Hier gehen die Stichlinge naher am Fressfeindein erhohtes Risiko ein, gefressen zu werden; wenn die anderen Stichlinge aber gut genugsind, den großen Fisch zu formen, wird gar nicht gefressen. Was immer noch besser ist, alszufallig vom in den diffusen Schwarm einfallenden Fressfeind erwischt zu werden.

§ 825 Außer Tit for Tat haben sich im Experiment noch verschiedene andere erfolgreicheStrategien heraus gestellt. Als Eigenschaften dieser erfolgreicher Strategien haben sich ge-zeigt:

• Freundlichkeit: greift nicht als erstes an.• Nachsichtigkeit: kehrt zur Kooperation zuruck, wenn der Gegner kooperativ war.• Provozierbarkeit: reagiert auf Konkurrenz mit Konkurrenz.• Reziprozitat: Reaktion des Programms hangt weitgehend von der Strategie des Gegners

ab.• Verstandlichkeit: Strategie ist deutlich genug, so dass sich ein Gegner darauf einstellen

kann.

Am Ende des Kapitels werden wir verschiedenen in den studentischen Projekten entwickelteund getestete Strategien betrachten.

4. Februar 2008 c© M.-B. Kallenrode

Page 234: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 223

8.2 Klimafolgenabminderung spieltheoretisch

§ 826 Der anthropogene Klimawandel4 koppelt die verschiedenen globalen Akteure in demSinne, dass er nicht vor irgendwelchen Grenzen halt macht oder in irgendeiner Form einfruheres Wohlverhalten besonders belohnt oder fruheres Fehlverhalten besonders sanktio-niert. Uberspitzt formuliert: die reichen Staaten auf der Nordhalbkugel tragen zwar am meis-ten zu den CO2 Emissionen bei, aber die Malediven saufen ab.

8.2.1 Das Klimasystem spieltheoretisch

§ 827 Anthropogene Einflusse auf das Klimasystem lassen sich spieltheoretisch mit folgendenSchlagworten beschreiben:

• das Problem der anthropogenen Klimaanderungen (und entsprechend deren Vermeidung)ist kein Nullsummenspiel: des einen Gewinn ist nicht des anderen Verlust sondern es wirddie optimale Ausnutzung von Ressourcen angestrebt. Einerseits mochten alle Beteiligtengeringe momentane Reduktionskosten und moglichst dicht am Buisiness as usual arbeiten,andererseits mochten aber auch alle Beteiligten moglichst geringe Klimafolgekosten.• das Problem moglicher Reduktionsszenarien ist ein iteriertes Problem: jeder Spieler kann

seine Spielzuge neu anpassen und gegebenenfalls seine Spielstrategie wechseln.• komplizierter als die bisher betrachteten Beispiele wird die Kombination aus Klima- und

Wirtschaftssystemen dadurch, dass es sich um ein Mehrpersonenspiel handelt. Allerdingskann es fur einige Fragestellungen auch auf ein einfaches Zwei-Personenspiel reduziert wer-den.

§ 828 Betrachten wir die Akteure in diesem Mehrpersonenspiel etwas genauer. Sie sind beideBestandteil von zwei Systemen: die Akteure sind durch das globale Wirtschaftssystem unddas Klimasystem gekoppelt. Beide Systeme werden von allen Akteuren gemeinsam erzeugt(bzw. die Akteure sind die Systeme) – die Gemeindewiese in § 819ff ist ein einfaches Bei-spiel. Sie werden aber individuell erfahren: des einen Untergang (Versinken der Malediven)kann des anderen Argrarflache sein (endlich lassen sich die Weiten Sibiriens zum Getreide-anbau nutzen). Auf Grund der unterschiedlichen wirtschaftlichen Abhangigkeiten und derverschiedenen Empfindlichkeiten gegenuber Klimaanderungen divergieren die Auffassungender Akteure bezuglich der besten Vermeidungsstrategie. Der Nettoeffekt etwaiger Vermei-dungsstrategien hangt ab von den Spielstrategien der einzelnen Akteure sowie den Allianzenzwischen den Akteuren.

§ 829 Spieltheoretisch lasst sich das Problem auf verschiedene Weisen anpacken. In einemsingle-actor case (Einpersonenspiel) ist die einzige Frage die der Optimierung des Emissions-pfad: die Welt handelt wie ein Spieler und die einzige zu bestimmende Frage ist, wieviel CO2

darf wann emittiert werden. Und zusatzlich: welche zusatzlichen Energiequellen stehen zurVerfugung oder mussen erschlossen werden bzw. welche Auswirkungen hat die Reduktion derCO2-Emission, was davon ist tolerabel und was muss aufgefangen werden.

§ 830 In einem Szenario mit mehreren Mitspielern gibt es unterschiedliche Beschreibungen.Generell gilt im multi-actor case (Mehrpersonenspiel): die Beteiligten verfolgen unterschiedli-che Strategien, wobei allerdings Gruppenbildung moglich ist. Gruppenbildung setzt vergleich-bare Interessen und Moglichkeiten voraus; nahe liegende Gruppen sind die Industrienationenauf der einen, die Schwellenlander auf der anderen Seite und die Entwicklungslander amKatzentisch.

§ 831 Egal ob zwei oder mehr Akteure bzw. Gruppen von Akteuren, die wesentlichen Stra-tegien. In einer kooporativen Strategie verfolgen alle Beteiligten ein gemeinsames Ziel undsind bereit, es gemeinsam durchzusetzen. In diesem Fall reduziert sich das Spiel auf den

4Im Rahmen dieses Skripts ist es nicht sinnvoll, differenziert uber Klimawandel als eine Uberlagerung ausnaturlichem und antrophogenen Einflussen nachzudenken; Hinweise auf Literatur dazu finden Sie z.B. in [52]und naturlich, wenn auch versteckter, in den IPCC-Berichten unter www.ipcc.ch.

c© M.-B. Kallenrode 4. Februar 2008

Page 235: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

224 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.1: Definition des Global Envi-ronment and Society (GES) Model; dunklePfeile reprasentieren gut verstandene Wch-selwirkungen, helle Pfeile weniger verstan-dene [31]

single-actor case. Bei einer nicht-kooporativen Strategie dagegen uberwiegen Egoismen: Zieleund Strategien der Akteure sind unterschiedlich.

8.2.2 Globales Modell Umwelt und Gesellschaft – Einpersonenspiel

§ 832 Fur die einfachste spieltheoretische Beschreibung moglicher Emissionsreduktionen er-folgt im Global Environment and Society (GES) ModelGlobal Environment and SocietyModel wie in Abb. 8.1 skizziert. Die einfachste, auch in der Abbildung angenommene Va-riante ist das Einpersonenspiel. Dieses Szenario ist nur unter einer Annahme sinnvoll: alleBeteiligten haben sich auf ein kooperatives Klimafolgen-Vermeidungsszenario geeignet. DasZiel des Spielers (also aller Beteiligten) ist die Maximierung des globalen Wohlergehens GW– letzteres ist nicht nur gemeinsam definiert sondern auch akzeptiert. Dann lasst sich das Zielals Optimierungsproblem auffassen: wie ist das Emissionsszenario zu gestalten, so dass daszeitliche Integral des GW maximiert wird?

§ 833 Zur formalen Behandlung dieses Optimierungsproblems benotigen wir eine Kombina-tion aus Emissionsszenarios und Klimamodell.5 Um die Klimafolgen eines gegebenen Emis-sionsszenarions zu bewerten, muss dieses in das Klimamodell eingesetzt werden.6 In derNormalversion ist ein Klimamodell langsam. Damit eine großere Zahl von Emissionszenarienbetrachtet und miteinader vergleichen werden kann, wird das verwendete Klimamodell linea-risiert: es werden nur kleine Anderungen betrachtet.7 In diesem linearisierten Modell ist die

5Fur alle folgenden Betrachtungen macht es keinen Unterschied, dass die Arbeiten von Hasselmann aufdem 1996er Bericht des IPCC (Second Assessment report) aufbauen. Das Prinzip verandert sich auch mit denneueren IPCC-Berichten nicht (2001 und 2007, Third and Fourth Assessment Report, beide Berichte sind mitallen Banden unter der Homepage des IPCC www.ipcc.ch zu finden. Fur das eigentliche Modell ist nur derjeweils erste Band (Working Group I: The physical basis of climate change) interessant. Um die Motivationder einzelnen Spieler besser zu verstehen und die Auswirkungen von Klimaanderungen auf GW, lohnt auchein Blick in Band II (Working Group II: Climate change impacts, adaption and vulnerability). Working GroupIII befasst sich im dritten mit den Moglichkeiten, Klimaanderungen zu reduzieren oder aufzufangen (WorkingGroup III: Mitigation of Climate Change).

6Umgekehrt basieren naturlich auch alle Vorhersagen in den IPCC Berichten auf Emissionsszenarien – alleuns bekannten Vorhersagen hangen damit auch von Annahmen uber wirtschaftliche Entwicklung und damitEntwicklung von CO2 Emissionen ab.

7Dieser Ansatz ist keine so grobe Vereinfachung, wie sie auf den ersten Blick erscheint. Die alten Kli-maszenarien gingen stets von einer Verdopplung der CO2 Konzentration aus. Dann ware eine Linearisierungleichtfertig. Allerdings wurde die Verdopplung nur als ein Bezugswert verwendet und nicht transient gerechnetsondern fur das sich unter den neuen Bedingungen einstellende Gleichgewicht. Da wir jedoch Emissionssze-narien betrachten wollen, benotigen wir einerseits ohnehin ein transientes Modell, andererseits betrachtenwir aber auch keine großen sprunghaften Anderungen. Die Linearisierung scheint so lange ein plausiblerAnsatz zu sein, wie die atmospharische CO2 Konzentration das Doppelte ihres vorindustriellen Wertes nichtuberschreitet und die Temperaturzunahme weniger als 3 K betragt. Die Grenze, bis zu der eine Linearisierungnoch sinnvoll erscheint, ist in den hier vorgestellten Ergebnissen jeweils mit angegeben.

4. Februar 2008 c© M.-B. Kallenrode

Page 236: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 225

Abbildung 8.2: Impulsantwort Klima-system [31]: Green’sche Funktion Rω

fur die CO2-Konzentration (links);Green’sche Funktion RT der Tempe-ratur sowie R als Gesamt-Response(rechts)

Anderung des Klimavektor (Zustandsvektor) ~x(t) auf Grund der Emission e(t) gegeben als

~x(t) =∫ t

t0

~G(t− t′) e(t′) dt

Green’sche Funktion des Klimamodells

§ 834 Im linearisierten Modell lasst sich die Anderung des Klimavektors also durch die Fal-tung des Emissionsszenarion mit der Impulsantwort des Klimasystems, beschrieben durchdie Green’sche Funktion, bestimmen. Damit lassen sich die Klimavektoren fur verschiedeneEmissionsszenarien bestimmen, ohne das Klimamodell jedesmal anwenden zu mussen.

§ 835 Zur Bestimmung der Green’schen Funktion muss außer dem globalen Zirkulationsmo-dell8 (global circulation model, GCM) der CO2-Kreislauf berucksichtigt werden. Daher istdie Green’sche Funktion zusammengesetzt aus den Green’schen Funktionen fur beide Sub-systeme:

G(t) = GT (t) +

t∫0

GT (t− t′)Gω(t′) dt′

mit ω(t) =∫ t

t0

Gω(t− t′) e(t′) dt

und T (t) =∫ t

t0

GT (t− t′) ω(t′) dt′ .

§ 836 Abbildung 8.2 zeigt im linken Teil die Green’sche Funktion Rω fur die CO2-Konzentration.Diese klingt, wie durch die Aufnahme von CO2 in Ozeane, in die Biosphare aber auch in denBoden und den Einbau in Mineralien zu erwarten, mit der Zeit ab. Im rechten Teilbild istRT die Green’sche Funktion der Temperatur: das Klimasystem benotigt einige Zeit, bis sichnach einem CO2-Eintrag ein neuer Gleichgewichtszustand und damit eine neue konstan-te Temperatur ausbildet. Beide Funktionen zusammen ergeben im rechten Teilbild R alsGesamt-Response. Ein δ-Eintrag von CO2 hat einen maximalen Einfluss auf die Temperaturnach ein bis zwei Dekaden und klingt danach ab: anfangs wird Zeit benotigt, bis sich dieAtmosphare auf die neue CO2-Konzentration eingepegelt hat, spater nimmt das CO2 bereitswieder ab.

Zwischenrechnung 36 Falls Sie selbst mit dem entsprechenden Modell spielen wollen; diezugehorigen Parameter sind in [31] gegeben, so dass sie die Response-Funktionen und damitdie Temperaturanderungen fur unterschiedliche Emissionspfade bestimmen lassen.

c© M.-B. Kallenrode 4. Februar 2008

Page 237: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

226 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.3: Emissionsszenarios (links), sich daraus ergebende CO2-Konzentration in derAtmosphare (Mitte) sowie daraus resultierende Temperaturanderung (rechts) fur vier ver-schiedenen Szenarien im Zeitraum 1800–3000 (oben) und 1995–2200 (unten) [31]. Die ho-rizontale Linie gibt den Bereich an, bis zu dem die Linearisierung des Klimamodells nochsinnvolle Ergebnisse liefert

Vorgegebene Szenarien – Response-Funktionen

§ 837 Im Rahmen des Skripts und der Vorlesung wollen wir keine eigenen Emissionszenarienentwickeln sondern greifen auf die von [31] verwendeten zuruck – letztere sind ahnlich denIPCC Szenarien. Das Standard-Szenario in der Vorhersage von Klimamodellen schreibt denin den letzten Dekaden beobachteten Trend des CO2-Anstieges linear fort bis zum Jahr 2200.Anschließend ist die CO2-Emission konstant. Dieses Szenario wird als Buisiness As Usual(BAU) bezeichnet.

§ 838 Neben dem Buisiness As Usual (BAU) Szenario, jeweils linkes Teilbild in Abb. 8.3bezeichnet als SA, werden noch drei weitere Szenarios betrachtet: SB folgt BAU bis 2200und fallt anschließend linear auf Null ab bis zum Jahre 3000. Im Szenario SF ist die Emissionauf dem Niveau von 1990 eingefroren, in Szenario SG auf 80% von 1990.

§ 839 In allen vier Szenarien steigt die atmospharische CO2-Konzentration (mittleres Teil-bild in Abb. 8.3) noch lange nach 2200 weiter an – entsprechend steigt naturlich auch dieTemperatur (rechtes Teilbild in Abb. 8.3) weiterhin an. Selbst in den Kyoto-ahnlichen Szena-rien (Emission eingefroren auf dem stand von 1990 bis 80% von 1990) steigt die Temperaturweiterhin an; sie bleibt allerdings bis nach dem Jahr 2200 unter dem Limit fur die Linea-risierung. Fur die linear ansteigenden Szenarien BAU (und nach 2200 konstant oder linearabfallend) dagegen wird dieses Limit schon ca. 2075 uberschritten – was damit den Vorher-sagehorizont des Modells gibt.

§ 840 Unabhangig von den im folgenden Unterabschnitt betrachteten Kostenmodellen kannauf der Basis dieses response bereits eine Einschrankung moglicher Szenarien vorgenommenwerden, wenn fur den Spieler bestimmte Ergebnisse (z.B. ein Temperaturanstieg von mehr als

8Ein modernes GCM wie ECHAM5 http://www.mpimet.mpg.de/en/wissenschaft/modelle/echam.html

oder HAMMONIA http://www.mpimet.mpg.de/en/wissenschaft/ueberblick/atmosphaere-im-erdsystem/

modellierung-der-mittleren-und-hohen-atmosphaere/hammonia.html?0= enthalt neben der Dynamik undChemie von Atmosphare und Ozean (allerdings in zwei separaten, miteinander verwobenen Modellen) auchglobale Kreislaufe von Spurengasen sowie Beschreibungen von Kryo- und Hydrosphare, Boden und eineTopologie.

4. Februar 2008 c© M.-B. Kallenrode

Page 238: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 227

5 K, ein Meeresspiegelanstieg von mehr als 30 cm) aus irgendwelchen nicht kostenbezogenenErwagungen vollig inakzeptabel sind.

Klimakostenmodell

§ 841 Fur die verbliebenen Szenarien ist das Ziel die Maximierung von GW bzw. die Mini-mierung der mit dem Klimawandel bzw. der Verhinderung des Klimawandels verbundenenKosten. Entsprechend setzen sich die Gesamtkosten C zusammen aus den Folgekosten Cd

(fur damage cost) und den Vermeidungskosten Ca (fur abatement cost):

C = Cd + Ca .

Die Folgekosten lassen sich beschreiben als

Cd =∫ ∞

t0

cd(T (t), T (t), t) dt .

Die Folgekosten hangen zum einen explizit von der Zeit ab (z.B. allgemeine Kostenent-wicklung), zum anderen von der Temperatur T (t) sowie ihrer Anderung T (t). Die erstereAbhangigkeit entsteht durch die direkten Folgen, z.B. die Finanzierung von Nahrungsmit-telimporten auf Grund ausgefallener Ernten. Die Abhangigkeit von der Geschwindigkeit derTemperaturabhangigkeit ist vielfaltig zu begrunden: schnelle Temperaturanderungen erfor-dern schnelles Handeln (z.B. Erhohung von Deichen) und damit gegebenenfalls hohere Kredit-aufnahmen mit entsprechenden Kosten fur Zinsen. Umgekehrt kann aber auch eine langsameTemperaturanderung zu hoheren Folgekosten fuhren, da man erst eine einfache Abwehrmaß-nahme durchfuhrt, die dann bald durch eine besser angepasste ersetzt werden muss. Langsa-mere Temperaturanderungen konnen aber auch die Folgekosten verringern, wenn die Land-wirtschaft es schafft, sich den sich verandernden Randbedingungen anzupassen ohne dass eszu großen Missernten bzw. Ernteausfallen und den damit verbundenen Kosten kommt. Diekurze Erlauterung sollte ausreichen zu erklaren, dass die Annahmen uber die Folgekostenbereits eine Wissenschaft (oder ein Glaskugellesen) fur sich sind.

§ 842 Folgekosten sind außerdem in einem anderen Parameter leicht zu variieren: die obe-re Integrationsgrenze ist hier auf ∞ – alternativ ließe sich auch ein begrenzter Zeithorizontth verwenden. Der endliche Zeithorizont hat den Vorteil, dass das Integral konvergiert. Furt→∞ lasst sich dies nur durch geeignete Discount Faktoren erreichen – daher ist in cd undca jeweils die Zeit explizit enthalten. Sowohl die Kosten als auch die Discount-Faktoren sindinflations-angepasst zu berucksichtigen (oder, falls man den Blick in die Kristallkugel/denTeebeutel/die eingetrocknete Kaffeetasse scheut durch Annahme einer ungewohnlich stati-onaren Welt ohne Inflation – letzteres dann allerdings auch in allen Preisen).

§ 843 Die Vermeidungskosten sind auf ahnliche Weise beschrieben als

Ca =∫ ∞

t0

ca(e(t), e(t), e(t), t) dt .

Hier tritt eine zusatzliche Abhangigkeit von e(t) auf, d.h. der Beschleunigung der Emissions-rate. Das Auftreten dieser zusatzlichen Abhangigkeit lasst sich vielleicht an einem einfachenBeispiel deutlich machen: die Reduktion der Emissionsrate durch Sparmaßnahmen ist ein imwesentlichen linearer Effekt – statt 60 W Gluhbirne eine 8 W Sparlampe. Das ist etwas teu-rer, die Kosten steigen entsprechend mit zunehmender Emissionsrate. Weniger individuelleReduktionsmaßnahmen konnen z.B. der Bau eines AKW (oder eines Windparks) sein. Diesist ein langfristiges Projekt mit entsprechend gestreckter Finanzierung – wenn es aber be-schleunigt werden muss, da sich die Emissionsrate sonst immer starker erhohen wurde (alsobeschleunigt wurde), entstehen zusatzliche Kosten.

§ 844 Die Koeffizienten in den Folge- bzw. Vermeidungskosten hangen von wirtschaftli-chen Parametern ab. Damit hat aber auch das gesamte Szenario eine Sensitivitat gegenuber

c© M.-B. Kallenrode 4. Februar 2008

Page 239: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

228 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.4: Sensitivitat Kosten [31]

wirtschaftlichen Parametern. Hier verlassen wir den Bereich, in dem wir uns als Physikerwohlfuhlen – ich mochte aber weniger, dass Sie die einzelnen wirtschaftlichen Szenarien be-werten und diskutieren als vielmehr dass wir diese hinnehmen um zu verstehen, wie manmit Hilfe eines Klimamodells und etwas Spieltheorie Moglichkeiten in der Reduktion vontriebhauswirksamen Gasen (und damit in einer Begrenzung der Folgen eines sich anderndenKlimas) entwickeln kann.

§ 845 Beginnen wir mit einem sehr optimistischen Fall in Abb. 8.4. In der oberen Zeilesind jeweils CO2 Emission, CO2-Konzentration sowie die sich daraus ergebende Temperaturgegeben, in der unteren Zeile die (spezifischen) Vermeidungskosten ca, die spezifischen Fol-gekosten cd sowie den Beitrag c′d der Folgekosten, der sich aus der Rate der Berucksichtigungder Rate der Temperatur ergibt. Das Referenzszenario S0 ist fur eine reduzierte konstanteEmission bestimmt, entsprechend SG in Abb. 8.3. Die Kurven S1 sind fur das gleiche Szena-rion mit einem reduzierten (a) bzw. einem verschwindenden (b) Tragheitsterm bestimmt; inS2 wurde fur gleiches Emissionsszenario die Rate der Temperaturanderung nicht weiter imSchadensterm berucksichtigt.

§ 846 Der Vergleich von S1a und S1b zeigt, dass der langfristige Einfluss des Tragheitstermsgering ist. Außerdem stammt der wesentliche Anteil des Folgekostenterm aus der Tempera-turanderung selbst und weniger aus der Rate der Temperaturanderung, wie ein Vergleich voncd und c′d nahe legt.

§ 847 Im Zusammenhang mit der Integrationsgrenze in den Folge- und Vermeidungskostenhaben wir bereits auf die explizite Zeitabhangigkeit hingewiesen, die die Einfuhrung einesDiscounts erlaubt. Ein Discount ist fur beide Kostenformen bei den Maßnahmen sinnvoll, diesich Ingenieur-technisch realisieren lassen, wie z.B. der Bau hoherer Deiche. Vermeidungs-kosten kommen in der Regel aus diesem Bereich. Bei den Folgekosten ist die Einfuhrung desDiscount dagegen umstritten: fur die technischen Maßnahmen lasst er sich einfuhren aber dieFolgekosten fur den Verlust an Biodiversitat oder Landstrichen (untergegangene Malediven;verschwundene Alpengletscher9.)

9Letztere bilden ubrigens fur die Schweizer Energiepolitik eine interessante Herausforderung: die Schweizkann trotz hohen Lebensstandards zumindest bei der Energieerzeugung eine sehr gute Bilanz aufweisen: Was-serkraft und Kernkraft sind wesentliche Energietrager. Beide benotigen jedoch den Gletscher: nur durch ihn

4. Februar 2008 c© M.-B. Kallenrode

Page 240: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 229

Abbildung 8.5: Vermeidungskosten fur verschiedene Zeitkonstanten des Discount Terms [31]

§ 848 Um die Empfindlichkeit der Vermeidungskosten von der Zeitkonstante des Discountabschatzen zu konnen, wird angenommen, dass alle Kosten mit einem Discount behaftetwerden konnen und dass dieser im Referenzszenario eine Zeitkonstante τa von 50 Jahrenhat (im Referenzszenarion S0 wie aus Abb. 8.4); die Vergleichsszenarien gehen von einerZeitkonstante des Discount von 25 Jahren (S3a) bzw. 50 Jahren (S3b) aus (siehe Abb. 8.5).Aus dem Vergleich der Kurven wird der starke Einfluss dieser Zeitkonstanten deutlich – unddass, wo gerade sie, wie bereits angedeutet, die am starksten in den Modellen debattierteGroße ist (siehe auch die detailliertere Diskussion in [31] sowie die dort gegebenen Verweise).

§ 849 Auch die Schadenskosten lassen sich alle mit Hilfe eines Discounts beschreiben. DasBaseline Szenario S0 (durchgezogene Linien in Abb. 8.6) berucksichtigt keinen Discount beiden Klimafolgenkosten: alle anderen Szenarien berucksichtigen endliche Zeitkonstanten furden Discount von 100 Jahren (4a), 50 Jahren (4b), 35 Jahren (4c) und 25 Jahren (4d).Insbesondere in den letzten beiden Fallen steigen die CO2 Konzentrationen und damit auchdie Temperaturen sehr deutlich an – auf Werte, die die Lebensbedingungen in fast allenRegionen deutlich verandern werden.

§ 850 Aus dieser kurzen Beschreibung konnen wir einen wichtigen Schluss bezuglich derSensititvitat der Klimaanderungen ziehen: die sich unter Berucksichtigung eines wirtschaftli-chen Szenarios ergebenden Klimaanderungen hangen sehr stark von den Zeitkonstanten derVermeidungs- und Folgekosten – und insbesondere deren Verhaltnis – ab! Und damit hangenauch alle anderen Aussagen des Modells davon ab.

Ergebnisse

§ 851 Die Ergebnisse dieses spieltheoretisch noch nicht einmal besonders interessanten Mo-dells sind eher etwas deprimierend – oder sie erlauben einen realistischen Blick auf die aufuns zukommenden Probleme.

sind die Stauseen gefullt und funktioniert das Kuhlsystem der KKWs. Eine CO2-Zunahme und damit ver-bunden eine Temperaturerhohung kann dadurch selbst bei geringerem Energieverbrauch zu einer Erhohungder CO2 Emission fuhren, da von den CO2-neutralen (naja?) Energietragern auf fossile Brennstoffe ausgewi-chen werden musste. Die Abhangigkeit regenerativer Energietrager von Klimaanderungen ist bisher meinesWissens nirgendwo diskutiert.

c© M.-B. Kallenrode 4. Februar 2008

Page 241: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

230 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.6: Abhangigkeit der Schadenskostenfunktion vom Discount [31]

• die Zeitskalen des CO2-Response sind wesentlich großer als der sozio-okonomische Vor-hersagehorizont. Daher sind alle Vorhersageversuche auf Annahmen im Bezug auf dasWirtschafts- und Gesellschaftssystem angewiesen. Zur Illustration: das Standard-Szenariongeht von einem Buisiness as usual uber 200 Jahre aus. Allein im vergangenen Jahrhunderthaben zwei Weltkriege, die Unabhangigkeit der Kolonien von den Mutterlandern und dasBestreben nach Gleichberechtigung (Rasse, Religion, Geschlecht) das sozio-okonomischeSystem einigermaßen verandert.• begrenzte Klimafolgen erfordern CO2-Emissionsreduktionen um mindestens 50% uber we-

nige Jahrhunderte,• die Reduktionsrate hangt stark von den Annahmen uber die Kosten ab,• klimatisch optimale Szenarien ergeben sich nur, wenn die Folgekosten wesentlich großer

werden als die Vermeidungsksoten,• sozio-okonomische Tragheit bewirkt, dass auch optimale Emissionszenarien noch 1–2 De-

kaden wie BAU ansteigen durfen,• Energiesparmaßnahmen sind nicht effizient genug, Energieerzeugung muss CO2-frei erfol-

gen,• Umstellungszeitskalen sind Jahrzehnte bis Jahrhunderte – in der Zeit steigt die Temperatur

ohnehin noch,

Und noch eine Nachbemerkung: so pessimistisch die Auflistung klingt: sie ist noch ein op-timistisches Szenario, da die anderen treibhauswirksamen Spurengase im Modell noch nichteinmal berucksichtigt sind.10

Erweitertes Modell

§ 852 Stehr und von Storch (1995) haben ein erweitertes GES vorgestellt, vgl. Abb. 8.7. Imwesentlichen ist dabei die Zahl der Akteure bei der Definition des Ziels (also dieses schwam-

10Zur Zeit tragt CO2 nur noch ungefahr die Halfte zum anthropogenen Treibhauseffekt bei. Das zweit-wichtigste treibhauswirksame Spurengas ist Methan. Dieses entsteht primar in Feuchtgebieten und in denVerdauungstrakten von Widerkauern. Damit ist es direkt mit der Nahrungsmittelproduktion (Reis, Rin-der) verbunden. Zusatzlich wird es aber bei einer Erhohung der Temperatur auch durch die aus den tauen-den Permafrostboden gebildeten Feuchtgebiete in die Atmosphare eingetragen – das klingt sehr nach einerRuckkopplung; und zwar eher einer Mit- als einer Gegenkopplung. Weitere Treibhausgase sind Lachgas (u.a.Dungung) und tropospharisches Ozon (Sommersmog).

4. Februar 2008 c© M.-B. Kallenrode

Page 242: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 231

Abbildung 8.7: Erweitertes GES-Modell [121]

migen Begriffes ‘globales Wohlbefinden’) erweitert, auch wird den Experten eine großere Rol-le eingeraumt. Diese bezieht sich insbesondere auf die Unterstutzung bei der Interpretationsozio-okonomischer und klimatischer Zusammenhange.11 Ein weiterer Punkt in diesem erwei-terten Modell ist die Betonung von Wertesystemen – dieser Aspekt wurde z.B. wie bereitsin § 847 angedeutet, auch die Berucksichtigung nicht monetar zu betrachtender Klimafol-gen erlauben. Eine kritische Diskussion dieses von Klima und Klimaanderung als sozialesKonstrukt findet sich in [120].

8.2.3 Globales Modell Umwelt und Gesellschaft – Mehrpersonen-spiel

§ 853 Im Rahmen des Mehrpersonenspiels brauchen wir keine Varianten betrachten, dieauf Kooperation basieren: diese sind bereits durch das Einpersonenspiel beschrieben sind.12

Fur die verbleibenden nicht-kooperierenden Varianten ergeben sich zwei unterschiedlicheMoglichkeiten:

• es gibt n gleichberechtigte (nicht-kooperierende) Akteure. Dabei ist gleichberechtigt imSinne vergleichbaren Handlungsspielraums zu verstehen: auch wenn die Niederlande unddie Malediven oder Bangladesh in vielleicht vergleichbarem Maße von einem mit einerErwarmung einher gehenden Anstieg des Meeresspiegels betroffen sind, haben die Nieder-lande ganz andere technologische und finanzielle Moglichkeiten, die Folgen abzumindernund sich den neuen Randbedingungen anzupassen. Die gleichberechtigten Akteure erlaubeneine gleichmaßige Verteilung von nicht nur Emissionrechten sondern auch Vermeidungs-und Folgekosten; sie werden auch in ungefahr gleichem Maße (z.B. Pro-Kopf Verbrauch)an der Emission beteiligt sein.• es gibt n Akteure mit (gruppenweise) unterschiedlichen Moglichkeiten. Aus dem ersten Bei-

spiel waren wahrscheinlich Bangladesh und die Malediven in einer Gruppe, die Niederlandeeher in einer anderen Gruppe anzusiedeln.

Die Einteilung der Akteure in diese beiden Arten von Gruppen erlaubt eine vollstandige Be-schreibung des wesentlich komplexeren Systems – allerdings um den Preis eines mehrstufigenVerfahrens. So ware eine nahe liegende Einteilung ein Mehrpersonenspiel mit in der erstenStufe drei Gruppen: (a) Industrienationen, (b) aufstrebende Staaten (wie Indien und China)und (c) klassische Entwicklungslander. Diese Gruppen sind (naja vielleicht nur idealerweise)in sich relativ homogen und konnen unter dem Szenario gleich berechtigter – aber nicht not-wendigerweise kooperierender – Akteure diskutiert werden. Der Prototyp fur ein Spiel mit ngleichberechtigten Akteuren ist die Gemeindewiese.

§ 854 Fur das Mehrspielermodell lassen sich prinzipiell zwei Ansatze wahlen: (a) wir gehendavon aus, dass der optimale Emissionspfad e(t) bereits durch das Einspielermodell fest-

11Wenn man sich das Hick-Hack der Experten (und Politiker) bei der Ausarbeitung der IPCC Berichteansieht und bedenkt, dass diese unabhangigen Experten alle auch ihre Forschungsmittel haben wollen, sollteman die Vorteile einer starkeren Einbindung von Experten nicht uberbewerten.

12Das Einpersonenspiel legt den unter den Annahmen bezuglich Wirtschaft und wirtschaftlicher Entwick-lung optimalen Emissionspfad fest. Da alle Beteiligten kooperieren, haben sie diesen Emissionpfad gemeinsamfestgelegt und es geht nur noch um die Aufteilung der einzelnen Emissionsanteile an die Teilnehmer.

c© M.-B. Kallenrode 4. Februar 2008

Page 243: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

232 KAPITEL 8. ETWAS SPIELTHEORIE

gelegt ist; im Rahmen des Modells wird kein neuer Emissionpfad gesucht sondern fur eingegebenen e(t) eine geschickte Aufteilung der Emissionsanteile bk(t) auf die Akteure derart,dass

∑bk(t)e(t) = e(t). (b) Der Emissionspfad ist nicht vorgegeben sondern entwickelt sich

aus den jeweils durch die Wahl des eigenen Emissionspfades bestimmten Vermeidungskostensowie die durch die kombinierten Emissionspfade aller Teilnehmer bedingten Folgekosten.13

§ 855 Im Mehrspielermodell sind alle Akteure durch das Klima gekoppelt. Sind die Akteurekooperativ, reduziert sich das Problem auf den Single-Actor. Sind sie nicht kooperativ, solassen sich verschiedene Falle durchspielen. So kann z.B. ein einzelner Vermeider betrachtetwerden, wobei einzeln nicht zwingend im Sinne von einzelner Nation verstanden werdenmuss sondern auch eine zu einem einzelnen Akteur zusammen gefasste Gruppe von Staatenmit gemeinsamen Zielen und Moglichkeiten sein kann. Der allgemeinste Fall ist jedoch eineAnsammlung von n Individualisten.

§ 856 Als wesentliches Ergebnis werden wir sehen, dass Losungen fur nicht-kooperative Stra-tegien oder teilweise kooperative Strategien (Kartell-ahnlich) der kooperativen Strategie un-terlegen sind. Die optimale Losung ergibt sich im Einpersonenspiel.

Gleichberechtigte nicht-kooperative Akteure

§ 857 Das Grundproblem beim Spiel mehrerer Akteure oder Gruppen von Akteuren ist inbeiden Varianten, gleichberechtigt oder nicht, identisch: jeder Akteur ist bestrebt sein Wohl-befinden GW zu optimieren. In diesem Spiel sind die Akteure allerdings keine Einzelperso-nen sondern Staaten oder Staatengruppen. Daher ist bereits die Definition von Wohlbefindenbzw. maximalem Wohlbefinden innerhalb eines Akteurs nicht trivial. So werden die zur Her-beifuhrung des (maximalen) Wohlbefindens benotigten politische Entscheidungen z.B. beein-flusst durch lokale Interessen(vertretungen)14 beeinflusst, durch globale Verflechtungen15 unddamit letztendlich gekoppelte Akteure sowie durch weitere politische Randbedingungen, wiedie Forderung von alternativen Energien oder die Akzeptanz der Kernenergie – und naturlichauch den Export von Technologie und/oder Know-How.

§ 858 Die dafur erforderliche Erweiterung vom Einpersonen- auf das Mehrpersonenspielverandert das in Abb. 8.1 gegebene Modell zu dem in Abb. 8.8 gezeigten. Fur jeden einzel-nen Akteur ergibt sich im wesentlichen wieder das aus dem Einpersonenspiel bekannte GES– der wesentliche Unterschied ist die Kopplung der Akteure uber (a) das gemeinsam erfah-ren Klimasystem bzw. dessen Anderungen (globale Kopplung), (b) Handel (jeweils bilateraloder multi-lateral, nicht jedoch zwingend global) sowie (c) internationale Vereinbarungen(hoffentlich global oder zumindest nahezu global)

§ 859 Da wir das Mehrpersonenspiel als nicht-kooperativ definiert haben, wollen die Ak-teure den eigenen Profit ohne Rucksicht auf andere Akteure maximieren. In diesem Fallist die Losung ein Gleichgewicht (Nash-Gleichgewicht) in Form eines Satzes von Strategienunter denen jeder Spieler seinen Gewinn unter der Randbedingung der Strategien der an-deren Spieler maximieren kann. Allerdings ist der Gewinn fur die Gemeinschaft geringer alsbeim kooperativen Szenario. Aber: Nash-Gleichgewicht ist im Gegensatz zum kooperativenSzenario stabil.

13Unsere Akteure verfugen uber unbegrenzte finanzielle Ressourcen – die Komplikation, dass z.B. die Nie-derlande ihre Vermeidungskosten nicht mehr finanzieren konnen, da sie plotzlich alles Geld in den Deichbaustecken mussen, ist nicht vorgesehen.

14Zwar lasst sich auf Grund der globalen Erwarmung im Alten Land die Apfelsorte Cox nicht mehr anbauen,dafur aber der Braeburn. Da sich dieser einfacher lagern und behandeln lasst, ist der Obstbauer nicht einmalunglucklich und daher entsprechend weniger motiviert, hohe Vermeidungskosten zu tragen. Der Kollege Seil-bahnbetreiber im Schwarzwald oder in den bayrischen Alpen dagegen sieht seine Verdienstmoglichkeiten beieiner Klimaerwarmung im wahrsten Sinne des Wortes dahin schmelzen und hat eine hohere Motivation, sichan Vermeidungskosten zu beteiligen.

15Dieser Aspekt ist sicherlich heute im Zuge der Globalisierung wesentlich wichtiger als noch vor zehnJahren:was nutzt einer Nation ihre boomende Export-Industrie, wenn auf Grund der CO2 Emissionen unddes damit verbundenen Temperaturanstiegs die potentiellen Importeure gerade untergehen.

4. Februar 2008 c© M.-B. Kallenrode

Page 244: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 233

Abbildung 8.8: GES aus Abb. 8.1 imMehrspielerszenario [30]

§ 860 Die n nicht-kooperierenden Akteure haben also ein gemeinsames Ziel: das Nash-Gleichgewicht zu erreichen. Dieses soll erreicht werden unter Maximierung der eigenen Emis-sionsfunktion ei bei gleichzeitiger Minimierung der Kostenfunktion Ci. Da wir gleichberech-tigte Akteure betrachten, ergibt sich eine symmetrische Situation: e =

∑ni=1 ei = nei mit e

als dem optimalen Emissionsszenario aus dem Einspielermodell.

§ 861 Im Gegensatz zum Einspielermodell hat das Mehrspielermodell den Vorteil, dass Ab-weichungen eines Akteurs weniger Gewicht haben als dies beim Einspielermodell der Fall ist:der Gewichtsfaktor fur jeden einzelnen Akteur ist 1/n, d.h. selbst wenn einer der Akteureseine ‘erlaubte’ CO2 Emission um den Faktor zwei uberschreitet, ist die Gesamtabweichungvom optimalen Emissionsszenario gering. Mit zunehmender Zahl der Akteure beinhaltet diese‘Unauffalligkeit’ aber auch ein Risiko: alle drucken sich um die Vermeidungskosten (Analogie:Gemeindewiese). Letztere Version wird als Freerider Losung bezeichnet.

§ 862 Beginnen wir mit einem Nash-Gleichgewicht in einem Modell mit wenigen Akteuren.Abbildung 8.9 zeigt Emission e, resultierende CO2-Konzentration w, TemperaturanderungT sowie Vermeidungs- ca und Folgekosten cd fur verschiedene ’Spieler’-Anzahlen von 1 bis20. Der Fall n = 1 entspricht einem Akteur (bzw. einer Menge kooperierender Akteure) undgibt damit das optimale Emissionsszenario. Bei einer großeren Zahl von Akteuren folgen alledem gleichen Verhaltensmuster.

§ 863 Aus Abb. 8.9 lasst sich erkennen, dass die CO2-Emission mit der Zahl der Akteuregegenuber dem Einspielermodell ansteigt: jeder Akteur tragt weniger Vermeidungskosten beiund emittiert stattdessen mehr. Da dies zu einem Anstieg der CO2 Emission fuhrt, ist dieTemperaturanderung entsprechend großer und die Folgekosten steigen deutlich. Der Anstiegin der CO2 Emission ist noch moderat (kleiner als

√n); auch stellt sich ein vergleichbarer

Emissionsverlauf ein.

§ 864 Vergleicht man die Folge- und die Vermeidungskosten in Abhangigkeit von n, so wirddeutlich, dass die geringe absolute Abnahme der Vermeidungskosten durch deutlich hohereFolgekosten mehr als aufgefressen wird – allerdings kommen die Folgekosten halt eben erstin der Zukunft.

Ein einzelner Vermeider

§ 865 Betrachten wir jetzt einen einzelnen Vermeider in den n gleichbereichtigten aber nicht-kooperativen Akteuren. Dieser Akteur bewertet die Folgen des Klimawandels hoch und ist

c© M.-B. Kallenrode 4. Februar 2008

Page 245: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

234 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.9: Nash Gleichgewicht mit wenigen Akteuren [30]; gegeben sind jeweils die Emis-sion e, die resultierende CO2-Konzentration w, die Temperaturanderung T sowie die Vermei-dungskosten ca und die Folgekosten cd

daher zu hohen Vermeidungskosten bereit. Die anderen (n− 1)-Akteure dagegen leben wei-terhin in ihrem Nash-Gleichgewicht. Das Szenario lasst sich auch fur m kooperative Klima-folgenvermeider verwenden, da letztere als ein Akteur betrachtet werden konnen. Lediglichdas Verhaltnis der Moglichkeiten von Vermeider zu Nicht-Vermeider ist wichtig.

§ 866 Die in Abb. 8.10 sind nicht wirklich uberraschend: ein einzelner Vermeider kann dieKlimafolgenkosten nicht reduzieren. Daher macht Reduktion fur ihn keinen Sinn. Allerdingshat der Vermeider bei n ≤ 10 noch genug Einfluss auf BAUs, um insgesamt eine reduzierteEmissionen zu bewirken. Das Ergebniss sollte nicht unterschatzt werden: wenn einige wenigeder Groß-Emittenten auf Vermeidung setzen wurden, waren wir zwar immer noch weit voneinem optimalen Emissionspfad entfernt – es wurde sich aber dennoch bereits ein merkbarerpositiver Effekt ergeben.

Handelnde Akteure

§ 867 Die Situation verandert sich jedoch, wenn wir handelnde Akteure betrachten. Dannerfolgt die Kopplung der Akteure nicht nur durch das Klima sondern auch durch Handel – imZuge der Globalisierung sicherlich keine schlechte Annahme. Auf Grund der Kopplung durchden Handel betrachtet jeder Akteur neben seiner Profitmaximierung auch die moglichen (Re-)Aktionen der anderen Akteure: alle Wirtschafts- und Klimavariablen eines Akteurs werdenvon allen anderen Akteuren beeinflusst.

§ 868 Und die Einflussmoglichkeiten sind vielfaltig, z.B. (a) Achtung/Abbruch der Geschaftsbeziehungenauf Grund unterschiedlicher Auffassungen bezuglich Klimawandel und Reduktion der CO2

Emission, (b) die bisher produzierten und exportierten Waren werden von den Importeurenauf Grund des veranderten Klimas nicht mehr benotigt (Sibirien baut sein Getreide selbstan und mochte statt der fruher so gerne gekauften Heizlufter lieber Kuhlschranke), (c) derLebensstandard bei einem wichtigen Importeur sinkt auf Grund der hohen Klimafolgekostenso stark, dass zwar noch Interesse an den Produkten besteht, aber kein Geld mehr da ist, (d)benotigte Rohstoffe/Agrarprodukte konnen nicht mehr importiert werden, da sie auf Grunddes Klimawandels im Erzeugerland nicht mehr verfugbar sind, (e) Angebot und Nachfrage

4. Februar 2008 c© M.-B. Kallenrode

Page 246: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.2. KLIMAFOLGENABMINDERUNG SPIELTHEORETISCH 235

Abbildung 8.10: Nash Gleichgewicht und ein einzelner Vermeider in Gegenwart von n − 1gleichberechtigten, nicht-kooperativen Akteuren [30]

verschieben sich auf dem Weltmarkt (nachdem ganz Sibirien in ein Kornfeld verwandelt wur-de, ist der Preis fur Roggen soweit gesunken, dass der mittlere Westen der USA kollektivKonkurs angemeldet hat).

§ 869 Diese kurzen (und teilweise etwas flapsigen) Beispiele zeigen, dass eine Berucksichtigungder Beziehungen unter den Akteuren nicht einfach ist. Eine besonders interessante Varianteder handelnden Akteure sind jedoch Konsument und Produzent fossiler Brennstoffe. DerenKopplung ist besonders direkt, da des einen Gewinn direkt des anderen Verlust ist. Außerdemtut sich an dieser Stelle eine wichtige Regulierungsmoglichkeit auf: Produzenten konnen uberPreise in die Emissionszenarien eingreifen.16

§ 870 Abbildung 8.11 zeigt verschiedenen Szenarien fur einen Preis–Verbrauchs-Parameterβ, der Produzenten und Konsumenten koppelt: β = 0 entspricht hohen Preisen, so dassVermeidungsksoten leichter getatigt werden, wahrend β = 100 niedrigen Preisen entspricht(die Produzenten geben einen Discount, da auf Grund der zunehmenden Zahl von Vermeidernnicht mehr so viele fossile Brennstoffe abgenommen werden). β = 0 ist so eingestellt, dass dasbekannte Einspieler-Modell den optimalen Emissionspfad liefert; in allen anderen Variantenfuhren die niedrigen Energiekosten zu hoheren Emissionen, also auch hoheren Temperaturenund damit letztendlich hoheren Vermeidungskosten. Die Preise fossiler Brennstoffe sind alsoein starker Regelmechanismus.17

16Die Erfahrung machen wir in Europa z.Z. mit den (allerdings auf Grund von China’s Energie- undRohstoffbedarf) stark gestiegenen Energiekosten. Plotzlich lasst sich, zusammen mit einem ungewohnlichwarmen Winter, einem neuen IPCC-Bericht (der eigentlich nur altbekanntes mit etwas veranderten Zahlenenthalt) und etwas politischer Werbung Energiesparen wieder leichter verkaufen. Die Lehre hatten wir auchschon aus dem Kalten Krieg und dem Wettrusten ziehen konnen: offenbar ist der Geldbeutel ein wesentlichbesseres Regulierungsmittel als der Verstand.

17Die Aussage ist nicht ganz so trivial, wie sie einem gefrusteten Autofahrer vielleicht erscheinen mag: dieErhohung von Spritpreisen (insbesondere die systematische wie bei Mehrwertsteuererhohung) fuhrt jedes malzum Aufschrei und zum Versprechen, jetzt weniger fahren zu wollen. Aber meistens beruhigt sich das nacheiniger Zeit. Ob die globale Wirtschaft ahnliche psychologische Zuge zeigt?

c© M.-B. Kallenrode 4. Februar 2008

Page 247: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

236 KAPITEL 8. ETWAS SPIELTHEORIE

Abbildung 8.11: Handelnde Akteure: Konsument und Produzent fossiler Brennstoffe; β istein Preis–Verbrauchs-Parameter [30]

Zusammenfassung Multi-Actor

§ 871 Die hier gezeigten Ergebnisse aus einem Mehrspieler-Szenario lassen sich wie folgtzusammen fassen:

• die Veranderung in den Folgen von Vermeidungsmaßnahmen in nicht-kooperativen Strate-gien ist nicht so stark wie aus dem Freerider-Szenario erwartet.• bei kleinen Zahlen unabhangiger Akteure andert sich das Szenario gegenuber dem optima-

len nur geringfugig.• einzelne Vermeider haben einen auf Grund nichtlinearer Effekte einen großen Einfluss.• Preisnachlasse der Erzeugerlander fossiler Brennstoffe konnen Vermeidungsmaßnahmen au-

ßer Gefecht setzen.

Genauere Diskussionen finden sich in [29, 30] sowie auf anschauliche Weise auch in [121].

8.3 Strategien auswahlen mit SimuLink

......

§ 872 Im Hinblick auf SimuLink bedeutet die Behandlung spieltheoretischer Probleme dieAuswertung der Gewinnmatrix mit Hilfe logischer Blocke sowie die Umsetzung der Strategiedurch Bewertung des voran gegangenen Zuges.

§ 873 Nehmen wir die Gewinnmatrix des Gefangenendilemmas aus § 809.

Literaturhinweise

§ 874 Die Standardwerke uber Spieltheorie unter sozialwissenschaftlichen Gesichtpunkten,d.h. der Frage nach Kooperation oder Konkurrenz, sind Rapoport [98] und Axelrodt [3];starker auf die wirtschaftswissenschaftlichen Hintergrunde geht Rasmussen [99] ein. Einegute Mischung der verschiedenen Aspekte (und einfach gut zu lesen) ist Binmore [8]. NeuereEntwicklung sind, teilweise auch kritisch, diskutiert in Bacharach [5] sowie Hargreaves Heapand Varoufakis [27]. Und falls Sie bei Spiel eher an Glucks- oder Strategiespiele denken –Packel [89] bietet eine kurze und interessante Einfuhrung.

4. Februar 2008 c© M.-B. Kallenrode

Page 248: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

8.3. STRATEGIEN AUSWAHLEN MIT SIMULINK 237

Fragen

Aufgaben

c© M.-B. Kallenrode 4. Februar 2008

Page 249: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Anhang AEinige wichtige Begriffe und Konzepte

§ 875 In diesem Abschnitt sind, sehr zusammenhanglos und auch nicht vollstandig, einigeim Zusammenhang mit nicht-linearen Systemen auftretende Begriffe und Konzepte erlautert.Wikipedia hatte vieles durchaus besser erklaren und vor allen Dingen auch weiter fuhrendeHinweise geben konnen – also scheuen Sie sich nicht, dort nach vertiefenden Informationen(und Links) zu suchen.

A.1 Attraktor

§ 876 Ein Attraktor ist ein Punkt im Phasenraum, in dem die Trajektorien von verschiedenenAnfangspunkten konvergieren.

A.1.1 Ein trivialer Attraktor

§ 877 Ein trivialer Attraktor ergibt sich selbst bei einfachen regularen Bewegungen. Die Tra-jektorie der freien Schwingung im Phasenraum ist eine Ellipse; erlaubt man eine Dampfungdurch Reibung, so ergibt sich eine Spirale in den Ursprung. Dieser ist das Ziel aller Trajek-torien, unabhangig von den Anfangsbedingungen, vgl. Abb. A.1. Daher ist der Attraktor furdie gedampfte Schwingung ein Punkt, eben der Ursprung des Phasenraums.

§ 878 Jede gedampfte periodische Bewegung hat einen Attraktor im Ursprung (bzw. bei derRaumkoordinate, die der Ruhelage entspricht).

Abbildung A.1: Zwei Trajek-torien im Phasenraum furdie gedampfte Schwingung.Unabhangig von den Anfangs-bedingungen konvergieren alleTrajektorien im Ursprung

238

Page 250: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.2. CHAOS 239

A.1.2 Poincare Schnitt

A.2 Chaos

§ 879 Chaos kommt in zwei Verkleidungen, als echtes Chaos und als deterministisches Chaos.Im Zusammenhang mit nichtlinearen Systemen bezieht man sich haufig auf das determinis-tische Chaos.

A.2.1 Deterministisches Chaos

§ 880 Deterministisches Chaos beschreibt die starke Abhangigkeit einer Zustandsgroße bzw.einer Ausgangsgroße eines Systems von den Anfangsbedingungen: eine kleine Anderung inden Anfangsbedingungen kann zu vollig unterschiedlichem Systemverhalten fuhren. Beispie-le sind die Darstellungen im Phasenraum in Abb. 6.11 und 6.12. Dieses Chaos ist abervollstandig deterministisch in dem Sinne, dass die Gleichungen, die zu diesem Chaos fuhren,deterministisch sind. Daher lassen sich die Abbildungen auch jederzeit reproduzieren.

§ 881 Deterministisches Chaos ....

§ 882 Fur einen kurzen Uberblick (und einfach nebenbei zum Lesen) eignet sich [118];schone Bilder zu Attraktoren, allerdings nur fur bestimmte Formen der Abbildung, gebendie gangigen Bucher uber Fraktale und Chaos von Peitgen und Co-Autoren [92, 93, 94, 88].

A.3 Diffusions–Reaktions-Modell

§ 883 Die Anwendung von Diffusions–Reaktions-Modellen ist in Abschn. 6.3 diskutiert; indiesem Abschnitt werden einige physikalische Grundbegriffe kurz wiederholt.

§ 884 In seiner allgemeinsten Form lasst sich ein Diffusions–Reaktions-Modell formal dar-stellen als

∂~c

∂t= D∇2~c + ~F (~c) . (A.1)

Darin ist ~c der Vektor der (gesuchten) Konzentrationen ci; die beiden Terme auf der rechtenSeite beschreiben die diffusive Ausbreitung der Substanzen mit dem Diffusionstensor D unddie Reaktionen der verschiedenen Substanzen miteinander.

§ 885 Gleichung (A.1) ist eine spezielle Form der Kontinuitatsgleichung fur die einzelnenSubstanzen i: die Anderung der Konzentration ci der iten Substanz innerhalb eines Volu-menelements (linke Seite) ist gegeben durch den Fluss dieser Substanz uber die Umrandungdes Volumenelements sowie die Quellen/Senken dieser Substanz innerhalb des Volumenle-ments.

§ 886 Gleichung A.1 ist die vektorielle Form der einfachen skalaren Kontinuitatsgleichungeiner Eigenschaft ε in einem Volumenelement:

∂ε

∂t+∇ · ~C(ε) + S(ε)

mit ~C(ε) als dem Fluss von ε uber die Umrandung des Volumenelements und S(ε) als denQuellen und Senken von ε innerhalb der Volumenelements.

A.3.1 Diffusion

§ 887 Im Rahmen des Diffusions–Reaktions-Modells erfolgt der Fluss durch die Umrandungnur durch Diffusion. Betrachten wir nur den diffusiven Teil, so ist der Fluss ~C uber die

c© M.-B. Kallenrode 4. Februar 2008

Page 251: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

240 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Umrandung die einzige Quelle der Eigenschaft ε in dem Volumenelement und die Konti-nuitatsgleichung liefert

∂ε

∂t+∇ · ~C(ε) =

∂ε

∂t+∇(−D∇ε) = 0 .

mit ~C(ε) = −D∇ε als dem Diffusionsstrom. Darin ist D der Diffusionstensor.

§ 888 In einem homogenen Medium hangt der Diffusionstensor nicht von der raumlichenKoordinate ab, d.h. er kann vor die Divergenz gezogen werden und die Diffusionsgleichungwird

∂ε

∂t= ∇(D∇ε) = D∆ε .

Ist die Diffusion ferner isotrop, so reduziert sich der Diffusionstensor auf einen skalaren Dif-fusionskoeffizienten D und die Diffusionsgleichung wird

∂ε

∂t= ∇(D∇ε) = D ∆ε .

§ 889 Der Diffusionstensor in (A.1) ist kein Hinweis auf anisotrope Diffusion sondern entstehtdaraus, dass die einzelnen Substanzen unterschiedliche Diffusionskoeffizienten haben:

c1 = D1∇2c1

c2 = D2∇2c2... =

...cn = Dn∇2cn

c1

c2...

cn

=

D1 0 . . . 00 D2 . . . 0...

.... . .

...0 0 . . . Dn

c1

c2

. . .cn

⇒ ~c = D~c .

§ 890 Reine Diffusion ist ein sehr selten auftretender Prozess: in flussigen und gasformigenMedien .... Dispersion oder Wirbeldiffusion

A.3.2 Reaktion

§ 891 Fur die Reaktionen gibt es verschiedenen Ansatze in Abhangigkeit davon, welche Pro-zesse durch das Diffusions–Reaktionsmodell beschrieben werden sollen. Fur den einfachenTuring’schen Ansatz mit Kannibalen der Konzentration C und Missionaren der Konzentra-tion M ist das Gleichungssystem (ohne den Diffusionsteil)

∂C

∂t= b−MC2 und

∂M

∂t= a−M −M2C .

Hierbei handelt es sich um zwei gekoppelte gewohnliche Differentialgleichungen. Da die Glei-chungen nicht linear sind, entfallt eine abkurzende Matrixschreibweise.

A.4 Emergenz

§ 892 Der Begriff der Emergenz wird in sehr vielen unterschiedlichen Zusammenhangen ver-wendet und hat entsprechend viele Bedeutungen. Fur die schwachste Form konnen wir dieSkulpturen ‘The Prisoners’ von Michelangelo Buonarotti (vgl. Abb. A.2) verwenden: die-se zeigen menschliche Figuren, die damit kampfen, sich aus ihrem steinernen Gefangnis zubefreien.

§ 893 Michelangelo Buonarotti hat diese Skultpturen zur Veranschaulichung des kunstlerischenSchaffungsprozesses erzeugt. In dieser einfachsten Interpretation beinhaltet Emergenz hierkein Geheimnis: der Bildhauer entfernt den nicht benotigten Stein und legt damit die Figu-ren frei. Die im Stein Gefangenen ‘erscheinen’ – diese Emergenz erfolgt in so elementaremSinne, dass sie nach van Gulick [135] als specific value emergence bezeichnet wird mit derDefinition

4. Februar 2008 c© M.-B. Kallenrode

Page 252: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.4. EMERGENZ 241

Abbildung A.2: The Priso-ner http://www.bc.edu/bc org/avp/cas/fnart/art/ren italy/sculpture/10 97 5 25.jpg

Specific value emergence: the whole and its parts have features of the samekind, but have different specific s btypes or values of that kind. For example, a bronzestatue has a given mass as does each of the molecular parts of which it is composed,but the mass of the whole is different from that of any of its material parts.

Uber diesen sehr eingeschrankten Sinn hinaus definiert van Gulick [135] auch den Begriff dermodest emergence

Modest Emergence: the whole has features that are different in kind from thoseof its parts (or alternatvely that could be had by its parts). For example, a piece ofcloth might be purple in hue even though none of the molecules that make up itssurface could be said to be purple. Or a mouse might be alive even if none of its parts(or at least none of its subcellular parts) were alive.

Modest emergence zeigt sich in einem Spektrum von Schattierungen in Abhangigkeit vondem Grad des Unterschieds zwischen dem Phanomen und der Basis, aus der es entsteht. Diekoharenten Strukturen in den nichtlineren Systemen liefern viele Beispiele.

§ 894 Die von van Gulick eingefuhrten Begriffe haben nichts mit den Konzepten von starkerund schwacher Form der Emergenz zu tun. Die schwache Form der Emergenz geht von derAnnahme der nur vorubergehenden Nichterklarbarkeit der Eigenschaften emergenter Systemeauf Grundlage der Beschreibung ihrer Elemente aus; die starke Form der Emergenz dagegengeht von einer prinzipiellen Nichtbeschreibbarkeit aus.

§ 895 Modest Emergence tritt in vielen physikalischen Systemen auf. Die Solitonen derKorteweg–de Vries Gleichung sind unabhangige dynamische Entitaten, deren Geschwindig-keit und Form sich aus den Anfangsbedingungen ergibt. Weniger modest aber dafur robustereEmergenz zeigt sich in den Nervenpulsen, die sich in verschiedenen nichtlinearen Modellen(z.B. Hodgkin–Huxley Neuron) ergeben. Obwohl auch diese sich auf einem einheitlichen Sys-tem mit konstanter Geschwindigkeit und unter Wahrung der Form ausbreiten, unterscheidensie sich fundamental von Solitonen: ein Nervenimpuls erhalt die Energie nicht sondern lebtin einem Zusammenspiel von Freisetzung und Dissipation von Energie.

§ 896 Noch robuster (und weniger modest) ist die Emergenz des Lebens sowie noch einenSchritt weiter die des Bewusstseins. Die Aspekte von Emergenz an diesem Ende der Skalafast van Gulick [135] als radical emergence zusammen:

c© M.-B. Kallenrode 4. Februar 2008

Page 253: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

242 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Radical Emergence: the whole has features that are both different in kind fromthose had by its parts, and of a kind whose nature ans existence is not necessitatedby the feature of its parts, their mode of combination and the law-like regularitiesgoverning the features of its parts.

§ 897 Weitere Literatur: als Einfuhrung eignet sich [39] oder [50], wesentlich anspruchsvoller(und formaler) ist [108]. Ebenfalls sehr formal, aber mit dem Schwerpunkt auf Neurowissen-schaften ist [107]. Andere Literatur, ebenfalls mit der Frage nach dem Bewusstsein, sind[13, 58, 106, 135].

A.5 Morphogenese, biologische

§ 898 Eines der fundamentalen Probleme in der Entwicklungsbiologie ist das Verstandnisder Entwicklung von Muster und Strukturen: wie entwickelt sich aus einem anfangs nahezuhomogenen Haufen sich teilender Zellen des Embryos der weite Bereich von Mustern undStrukturen im lebenden Tier?1 Wie gelingt die Ausbildung so unterschiedlicher funktionalerElemente wie Haare, Federn und Drusen auf der Haut? Wie bilden sich die Muster aufTierhauten oder sie schillernden Farben und Muster auf Schmetterlinsgflugeln?

§ 899 Auch wenn die Gene eine wichtige Rolle dabei spielen, die Genetik sagt nichts uber diedie Muster und Strukturen produzierenden Mechanismen, die Morphogenese, aus. Die Bewe-gung und Umsortierung von Gewebe ist der Schlusselprozess in nahezu allen Mechanismender Morphogenese; sie resultiert aus einem komplexen Spiel mechanischer, chemischer undelektrischer Wechselwirkungen. Trotz der großen Fortschritte in molekularer Biologie undGenetik sind diese Prozesse und insbesondere das Wechselspiel zwischen ihnen kaum ver-standen. Stattdessen besteht hier die Gefahr in die Methoden des 19. Jahrhunderts zuruckzu verfallen und die Biologie wieder als eine klassifizierende Wissenschaft zu betrachten undsich in das Anfertigen endloser Listen zu fluchten. Bereits 1917 wies Thompson [127] auf die-ses Problem hin. Und versuchte ihm dadurch zu begegnen, dass er die ersten Theorien dafurprasentierte, wie sich bestimmte Formen entwickeln anstatt sie nur nach damaliger Sitte zuklassifizieren.

§ 900 ...

§ 901 Weitere Literatur: eine grundlegende Veroffentlichung ist Turing’s Paper [131], guteBucher sind Murray [84] und [81]. Und ein schones Buch Thompson [127]. Das Problem derStrukturbildung im zentralen Nervensystem ist z.B. in [138] dargestellt.

A.6 Nash-Gleichgewicht

§ 902 Das Nash Gleichgewicht bezeichnet in der (mathematischen) Spieltheorie eine Situa-tion, in der ein Spieler durch einseitige Veranderung seiner Strategie seinen Gewinn nichtweiter erhohen kann. ...

A.7 Oszillatoren

§ 903 Der harmonische Oszillator begleitet uns durch die gesamte Physik; auch in Kap. 1sind wir ihm ausfuhrlich begegnet. In einigen physikalischen Situationen tritt wirklich eineharmonische Schwingung auf, in anderen ist die harmonische Schwingung zumindest einebrauchbare Naherung, wenn auch nur fur den Fall einer eingeschrankten Amplitude.

1Eng damit verbunden ist naturlich auch die ethische Frage, ab wann ein menschlicher Embryo als Menschbzw. bis wann er als Zellhaufen gilt.

4. Februar 2008 c© M.-B. Kallenrode

Page 254: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.8. SELBSTORGANISATION 243

A.7.1 Van (der) Pol Oszillator

§ 904 Ein Limit-cycle Oszillator, auch als selbst-unterhaltender Oszillator bezeichnet, lasstsich als ein Attraktor (→ Abschn. A.1) in einem dissipativen System beschreiben. ....

A.8 Selbstorganisation

§ 905 Selbstorganisation wird manchmal auch als Synergie bezeichnet; der griechische Ur-sprung des letzteren Begriffs bedeutet ‘Wissenschaft der Kooperation’.

A.9 Solitonen

§ 906 In diesem Abschnitt wird das Konzept des Solitons am Beispiel einer Wasserwelleeingefuhrt. Auch wenn es hier besonders anschaulich wird, Solitonen sind keinesfalls nurauf Wasserwellen beschrankt. In Festkorpern lasst sich ihre Ausbildung z.B. durch Toda’sLattice (Abschn. 6.2.2) beschreiben. Optischen Solitonen in Lichtwellenleitern wurden 1973theoretisch vorausgesagt und 1980 erstmals experimentell nachgewiesen (s.u.).

A.9.1 Tsunamis

§ 907 Tsunamis werden durch Seebeben ausgelost. Ein Seebeben kann durch Anheben derlokalen Meeresoberflache einen horizontalen Druckgradienten auslosen und damit einen Wel-lenberg oder einen kurzen Wellenzug uber die Ozeanoberflache senden. Da sich diese Prozesseim tiefen Wasser abspielen, ist Reibung am Boden zu vernachlassigen. Die innere Reibung istebenfalls vernachlassigbar, so dass wir die Welle als Oberflachenwelle beschreiben konnen.

§ 908 Unter diesen idealen Voraussetzungen breitet sich der Wellenberg bzw. Wellenzugungestort und unter Wahrung seiner Form uber Tausende von Kilometern uber die Was-seroberflache aus. Selbst Wellen mit großer Wellenhohe werden dabei aufgrund der langenWellenlangen kaum wahr genommen und konnen unbemerkt unter einem Schiff hinweg glei-ten.

§ 909 Die Formstabilitat dieser Wellen ist eine bemerkenswerte Eigenschaft, da bei einerAusbreitung uber Tausende von Kilometern die Vernachlassigung der inneren Reibung pro-blematischer ist als bei einer eher lokalen Welle. Diese ’Konstanz’ ist das Merkmal eines spezi-ellen Wellentyps, der als Soliton bezeichnet wird. Da sich Solitonen wie Teilchen und nicht wieWellen verhalten, ist eine Ausbreitung mit Geshcwindigkeiten großer als der Signalgeschwin-digkeit des Mediums kein Problem: Solitonen in Luft konnen Uberschallgeschwindigkeit an-nehmen. Auch die Solitonen auf dem Ozean breiten sich schneller als gewohnliche Wasser-wellen aus – daher die kurzen Vorwarnzeiten.

A.9.2 Parry und die voreilige Kanone

§ 910 Die Tatsache, dass Solitonen sowohl stabil als auch supersonisch sein konnen, erklartsie Beobachtungen von W.E. Parry, einem gefeierten britischen Entdeckers des fruhen 19.Jahrhunderts – u.a. auf der Suche nach der Nordwest-Passage. In einem zu seinen Journalenveroffentlichten Anhang bemerkt C. Fisher [90]

On one day, and one day only, February 9, 1822, the officer’s word of command “fire”was several times heard distinctly both by Captain Parry and myself about one beatof the chronometer [nearly half a second] after the report of the gun.

Dies ist der erste (bekannte) schriftliche Report der Beobachtung, dass der Schall einer feu-ernden Kanone fruher gehort werden kann als das Kommando zum Abfeuern der Kanone.2

2Die unterschiedliche ‘Behandlung’ der beiden Schallsignale durch die Atmosphare liegt an ihren unter-schiedlichen Eigenschaften: das Kommando ist eine normale Schallwelle, d.h. ein Signal kleiner Amplitude,

c© M.-B. Kallenrode 4. Februar 2008

Page 255: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

244 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Abbildung A.3: Nachbildung vonRussell’s Soliton http://www.ma.hw.ac.uk/solitons/press.html

Abbildung A.4: a) Wasserwellen laufen in flachem Wasser aufgrund der Dispersion ausein-ander. (b) Nicht-lineare Effekte erzeugen ein Aufsteilen der fuhrenden Flanke der Welle. (c)Wenn sich Dispersion und nicht-lineare Effekte genau die Waage halten, entsteht ein Soliton[85]

A.9.3 Russel und Korteweg–de Vries

§ 911 Solitonen sind langlebige Wellen, die nicht dissipieren und ihre Form beibehalten. Invielen Aspekten verhalten sich Solitonen eher wie Teilchen als wie Wellen.

§ 912 Die erste schriftlich uberliefert Beschreibung eines Solitons stammt von J.S. Russell[102] (in der Ubersetzung in [74]; die moderne experimentelle Version ist in Abb. A.3 gezeigt):

Ich beobachtete die Bewegung eines Schiffes, das von zwei Pferden durch schnelldurch einen engen Kanal gezogen wurde. Das Schiff stoppte plotzlich, nicht jedoch dieMasse des Wassers, die es in Bewegung gesetzt hatte. Diese sammelte sich am Bug desSchiffes in einem Zustand lebhaftester Bewegung, ließ ihn dann plotzlich hinter sich,rollte vorwarts mit großer Geschwindigkeit, wobei sie die Form einer großen einzelnenErhebung annahm, eines abgerundeten, glatten und wohldefinierten Wasserbuckels,der seinen Weg fortsetzte durch den Kanal, anscheinend ohne Anderung der Formoder der Geschwindigkeit. Ich folgte ihr zu Pferde und uberholte sie, wobei sie immernoch vorwarts rollte mit einer Geschwindigkeit von etwa acht oder neun Meilen proStunde und ihre ursprungliche Gestalt von etwa 30 Fuß Lange und anderthalb FußHohe beibehielt. Die Hohe nahm allmahlich ab und nach einer Jagd von ein oder zweiMeilen verlor ich sie in den Windungen des Kanals.

bei dem sich die Atmosphare reversibel verandert und die Ausbreitungsgeschwindigkeit durch die Schallge-schwindigkeit limitiert ist. Die konventionelle Schallwelle ist ein einfaches lineares Phanomen. Das Feuern derKanone dagegen erzeugt eine Stoßwelle – eine so schnelle und kraftige Kompression der Atmosphare, dasssich deren Eigenschaften irreversibel verandern. Die Stoß- oder Explosionswelle ist daher ein nichtlinearesProblem und hat nichts mit der konventionellen Schallwelle zu tun. Also gibt es keinen Grund, identischeAusbreitungsgeschwindigkeiten anzunehmen.

4. Februar 2008 c© M.-B. Kallenrode

Page 256: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.9. SOLITONEN 245

§ 913 Wahrend ihrer Ausbreitung verhalten sich Solitonen also eher wie Teilchen als wiegewohnliche Wellen. Sie entstehen aus einem Zusammenspiel von Dispersion und Nichtli-nearitat. Betrachten wir dazu das in Abb. A.4 dargestellte Beispiel zur Entstehung einesSolitons in Wasser. In Teil (a) der Abbildung ist ein zerfließendes Wellenpaket gezeigt, z.B.eine Wasserwelle in tiefem Wasser (d.h. die Wassertiefe muss mindestens gleiche der Wel-lenlange sein). Aufgrund der Dispersion bewegen sich die einzelnen Wellenkomponenten mitunterschiedlicher Phasengeschwindigkeit und der Wellenberg zerfließt. In flachem Wasser,z.B. bei Auflaufen auf den Strand, ist die Situation anders (Teil (b) der Abbildung): dievordere Flanke der Welle wird gebremst wahrend die hinteren Teile noch relativ ungestortweiter laufen. Damit steilt sich die Welle auf. Diese Aufsteilung kann so weit gehen, dassdie Welle sich uberschlagt. In Teil (c) der Abbildung herrscht ein Gleichgewicht aus beidenEffekten (z.B. in einem Kanal mit einer Tiefe in der Großenordnung der Wellenlange): dasZerfließen aufgrund der Dispersion wird gerade kompensiert durch das Aufsteilen der Welleaufgrund der nichtlinearen Effekte und es bildet sich ein stabiles Soliton aus, das sich entlangdes Kanals unter Beibehaltung seiner Form ausbreitet, vgl. die Beschreibung von Russell.Dies geschieht derart, dass die schnelleren Frequenzkomponenten des Wellenpakets in lang-samere umgewandelt werden und umgekehrt – wobei die Bildung des Solitons voraussetzt,dass sich in dieser Umwandlung ein dynamisches Gleichgewicht ausbildet.

§ 914 Russell bemerkte ferner einen Zusammenhang zwischen Hohe und Ausbreitungsge-schwindigkeit der Welle: Wasserwellen mit hoher Amplitude breiten sich schneller aus alsniedrigere Wellen. Russel hat seine Beobachtungen korrekt mit denen Parry’s in Beziehunggesetzt und aus letzteren korrekt die Hohe der Erdatmosphare abgeschatzt [103].

§ 915 Mathematisch wird ein Soliton durch eine nichtlineare partielle Differentialgleichungbeschrieben, die außer der Dispersionsrelation noch ein nichtlineares Glied enthalt. Die ers-te Beschreibung erfolgte 1895 durch Korteweg und de Vries in der nach ihnen benanntenKorteweg–de Vries Gleichung, hier in einer modifizierten Form:

∂u

∂t− 6u

∂u

∂x+

∂3u

∂x3= 0 . (A.2)

Der zweite Term der Gleichung beschreibt die konvektiven/advektiven Effekte ~u · ∇~u, dieein Aufsteilende der Welle bewirken, der dritte Term ergibt sich aus der Dispersion. Die-se Gleichung erlaubt eine relativ genaue Beschreibung von recht langwelligen Wasserwellenund auch von den von Russell beschriebenen solitaren Wellen in flachen Kanalen. Fur eineAnwendung der Korteweg–de Vries Gleichung sei auf [85] verwiesen. Eine Einfuhrung in dieBehandlung der entstehenden nicht-linearen Differentialgleichungen mit Hilfe der InversenStreumethode zusammen mit Beispielen fur Solitonen in vielen Bereichen der Physik geben[74]; auch Scott [108, 109] geht ausfuhrlich auf Solitonen ein.

§ 916 Die wesentlichen Merkmale von Solitonen lassen sich zusammenfassen als

• Solitonen entstehen aus dem Zusammenspeil von Nichtlinearitat und Dispersion.• Solitonen sind raumlich lokalisiert.• Solitonen breiten sich mit (im allgemeinen von der Wellenform abhangiger) konstanter

Geschwindigkeit aus, und• Solitonen sind stabil gegenuber Stoßen untereinander.

A.9.4 Aufsteilen im Flachwasser

§ 917 Der zerstorerische Aspekt des Tsuanmis entsteht erst, wenn der Wellenzug in flachesWasser gelangt. Hier gelten die gleichen Kriterien fur das Aufsteilen wie bei einer normalenWelle, die auf den Strand lauft.

c© M.-B. Kallenrode 4. Februar 2008

Page 257: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

246 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Abbildung A.5: (a) Computer Simu-lation des Tsunami vom 26.12.2004ca. 1:50 h nach dem Start (sie-he auch http://staff.aist.go.jp/kenji.satake/animation.html fureine animierte Version); (b) Apollo–Soyuz Aufnahme der Andaman Seemit Evidenz fur interne Wellen; dieLage dieses Ausschnitts ist durch dasRechteck im oberen Teilbild angedeu-tet [109]

§ 918 Typische Parameter eines Tsunamis sind Wellenlangen im Bereich von Hundertenvon Kilometern bei Wellenhohen im Bereich von 1 m.3 Tsunamis entstehen im freien Ozean,so dass sich auf Grund der großen Wassertiefe wegen c =

√gh sehr hohe Ausbreitungsge-

schwindigkeiten ergeben, die 700 km/h oder 20 m/s uberschreiten konnen. Beim Auflaufenin flacheres Wasser bleibt der Energiefluss in der Welle konstant, allerdings verringert sichdie Geschwindigkeit deutlich. Daher steilt sich die Welle auf, Wellenhohe von uber 30 m imKustenbereich wurden beobachtet. Entsprechend kann sich ein Tsunami bei einem flachenLandprofil uber etliche Kilometer in das Hinterland ausbreiten.

§ 919 Der Hauptentstehungsort von Tsunamis ist der Pazifik, da sich dort die notwendigeKombination von Erdbeben (als Wellenausloser) und hinreichend tiefem Wasser (zur Errei-chung der hohen Wellengeschwindigkeiten) ergibt; Abb. A.5 zeigt als Beispiel im oberen Teileine Simulation fur den Tsunami vom 26.12.2004 – das globale Bild der Ausbreitung gibt esunter http://www.noaanews.noaa.gov/video/tsunami-worldpropagation2004.mov.

§ 920 Aufgrund der großen Gefahrdung kustennaher Bereiche hat sich im Pazifik ein Warn-system fur Tsunamis etabliert.4 Trotz der Erfolge dieses Systems muss man sich daruberim Klaren sein, dass das Warnsystem nur sehr kurzfristig warnen kann: Warnzeiten von 1 hsetzen voraus, dass sich das Seebeben in einem Abstand von mindestens 750 km von der zuwarnenden Kustenregion ereignet hat, selbst fur die kurze Warnzeit von 10 min ist noch einAbstand von uber 100 km erforderlich.

3Daher wird die Welle auf freier See auch nicht bemerkt sondern geht einfach unter einem Schiff durch. Jenach Relief und zur Verfugung stehender Zeit kann die Flucht auf das Wasser hinaus eine sinnvolle Optionsein.

4Ok, im wesentlichen von Japan und Hawai getragen, so dass die Warnung fur Indonesien und andere imDezember 2004 nicht mehr rechtzeitig moglich war.

4. Februar 2008 c© M.-B. Kallenrode

Page 258: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.9. SOLITONEN 247

A.9.5 Die mathematische Formulierung

§ 921 Unabhangig von irgendeiner physikalischen Realisierung lasst sich ein Soliton alseine lokalisierte Losung einer nichtlinearen partiellen Differential- oder einer Differential–Differenzengleichung beschreiben, wobei die Losung bei der Kollision mit anderen derartigenLosungen ihre Integritat bewahrt.5 In der Regel bleibt die Energie in derartigen Systemenerhalten, es sind Hamilton-Systeme. Die Lokalisierung der Losung kann sich, wie oben be-schrieben, aus einem dynamischen Gleichgewicht von nichtlinearen und dispersiven Effektenergeben (nicht-topologische Solitonen) oder durch topologische Randbedingungen. Eine guteUbersicht uber die verschiedenen Solitonen und ihre mathematische Behandlung gibt [100].

Nicht-topologische Solitonen

§ 922 Die wahrscheinlich bekannteste Gleichung, die Solitonen als Losungen zulasst, ist diebereits erwahnte und in einem Spezialfall beschriebene Korteweg–de Vries Gleichung. Dieseexistiert in verschiedenen Varianten, da sie von Kroteweg und de Vries als mathematischesModell eingefuhrt wurde, das zwar das von Russel beobachtete physikalische Phanomen be-schreiben sollte, selbst aber nicht die zu Grunde liegenden physikalischen Prozesse enthalt.Eine gebrauchliche Form der KdV Gleichung ist

ut + αuux + uxxx = 0 (A.3)

mit einem quadratischen nichtlinearen Term (αuux), der durch den dispersiven Term (uxxx)ausbalanziert wird, und den Losungen

u = asech2

(√αa

12

[x− αa

3t])

. (A.4)

Diese beschreiben Beschreiben eine solitare Welle mit der Amplitude a. Die Losung hat fernerdie Eigenschaft, dass Form und Geschwindigkeit bei Kollisionen beibehalten wird; die Welleverhalt sich wie ein Teilchen, ein Soliton.

§ 923 Gleichung (A.3) ist eine einfache Annaherung. Ist der quadratische nichtlineare Termnur klein, so kann es sinnvoll sein, den kubischen nichtlinearen Term zusatzlich zu berucksichtigen:

ut + αuux + βz2ux + uxxx = 0 .

Die Gleichung wird als erweiterte KdV Gleichung bezeichnet – mit α = 0 und β = 6 ergibtsich die in (A.2) gegebene modifizierte KdV Gleichung mit solitaren Wellen als Losungen

u(x, t) = u0 +2ν2

u0 + σλ cosh[2ν(x− µt)](A.5)

mit λ > |u0|, ν =√

λ2 − u20, σ = ±1, µ = 2u2

0 + 4λ2 sowie

u(x, t) = u0 −4u0

1 + 4u20(x− 6u2

0t)2.

Diese Losungen streben fur t→∞ gegen u0. Fur u0 → 0 ergibt sich aus (A.5) ein Soliton

u = 2σλsech[2λ(x− 4λ2t)] .

Diese Losung unterscheidet sich von (A.4) insofern, als dass die Form (u− u0) der Welle fur|x| → ∞ algebraisch verschwindet; das sich ergebende Soliton wird als algebraisches oderrationales Soliton bezeichnet.

§ 924 Fur verschiedenen Terme und Parameterkombinationen lassen sich die verschiedenes-ten Formen von Solitonen erzeugen – alle brav mit den Namen ihrer Beschreiber versehenund fur verschiedene, teilweise sehr spezielle Anwendungen gedacht.

5Das ist nur eine andere Formulierung dafur, dass Solitonen wie Teilchen kollidieren.

c© M.-B. Kallenrode 4. Februar 2008

Page 259: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

248 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Abbildung A.6: Helles (oben)und dunkles (unten) Soliton

Einhullende Solitonen

§ 925 Eine vollig andere Art von Solitonen ergibt sich, wenn wir die Ausbreitung einerebenen, modulierten Welle betracchten, bei der die Dispersion von der Amplitude abhangt,ω = ω(k, |u|2). Taylor Entwicklung um die Frequenz ω0 und die Wellenzahl k0 der Tragerwelleliefert

ω − ω0 =(

∂ω

∂k

)0

(k − k0) +12

(∂2ω

∂k2

)0

(k − ko)2 +(

∂ω

∂|u|2

)0

|u|2 . . . .

Ersetzen wir ω − ω0 durch i∂/∂t und k − k0 durch i∂/∂x, d.h. fuhren wir eine FourierTransformation durch, und wenden die Operatoren auf u an, so ergibt sich die nichtlineareSchrodinger (NLS) Gleichung

i[∂u

∂t+(

∂ω

∂k

)0

∂u

∂x

]+

12

(∂2ω

∂k2

)0

|u|2u = 0 .

Die Welle ist instabil gegenuber Modulation fur(∂2ω

∂k2

)0

(∂ω

∂|u|2

)0

< 0 ,

ansonsten ist sie stabil.

§ 926 Mit etwas Skalierung und Variablentransformation lasst sich die NLS Gleichung um-schreiben in die Standardform

iut + uxx + 2ε|u|2u = 0

mit ε = ±1. Fur ε = +1 wird dies zur fokussierenden NLS (FNLS) Gleichung mit einereinhullenden Losung (envelope solution)

u = Kei(kx−ωt+ϑ) sech(Kx− Ωt + σ) .

Darin sind ϑ und σ beliebige Konstanten und (K + ik)2 − (Ω + iω) = 0. Diese Losung ent-spricht in der nichtlinearen Optik dem hellen Soliton, vgl. oberes Teilbild in Abb. A.6: nimmtdie Phasengeschwindigkeit mit zunehmender Amplitude zu(ab), so fuhren die nichtlinearenEffekte zu einer Abnahme(Zunahme) der Wellenzahl in der vorderen Halfte der Hullkurveund zu einer Zunahme (Abnahme) in deren hinteren Halfte. Damit wird die Hullkurve zu-sammengepresst und ein Soliton bildet sich in diesem dynamischen Gleichgewicht zwischenDispersion und der durch nichtlineare Effekte bewirkten Kompression.

§ 927 Fur ε = −1 ergibt sich die defokussierende NLS (DNLS) Gleichung mit dem dunklenSoliton (unterer Teil von Abb. A.6)

|u|2 = u20[1− a2sech(u0a(x− vt))]

als Losung. Dieses bildet eine Intensitatsdelle in einem ansonsten unendlich ausgedehntenWellenzug. Fur den Spezialfall a = 1 wird das dunkle Soliton zum schwarzen Soliton, fura < 1 zum grauen.

4. Februar 2008 c© M.-B. Kallenrode

Page 260: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.9. SOLITONEN 249

§ 928 helle optische Solutionen sind fur die Nachrichtentechnik interessant: da ein Puls beider Ausbreitung entlang einer Glasfaser durch Dispersion aufgeweitet wird, ist ein ‘Sicher-heitsabstand’ zwischen aufeinanderfolgenden Pulsen erforderlich, d.h. die Ubertragungsrateist eingeschrankt. Bereits in den 1970ern schlugen daher Hasagawa und Tappert [28] dieAusnutzung nichtlinearer Anderungen der dielektrischen Konstante innerhalb der Faser zurAusbildung von Solitonen vor; der experimentelle Nachweis erfolgte 1980 durch Mollenaueret al. [80].

Topologische Solitonen

§ 929 Wahrend die bisherigen Solitonen aus dem dynamischen Gleichgewicht von Dispersionund nichtlinearen Effekten entstehen, entstehen topologische Solitonen durch eine topologi-sche randbedingung. So, wie die KdV (und in geringerem Maße die NLS) Gleichung dasmathematische Mustersystem zur Beschreibung nichttopologischer Solitonen liefert, ist diesine–Gordon (SG) Gleichung

utt − uxx + m2 sinu = 0 .

§ 930 Die wesentlichen Eigenschaften der sine–Gordon Gleichung sind Invarianz gegenuberLorentz-Transformationen und die Existenz mehrfacher Grundzustande in der Energie. Letz-teres ist bei der Ausbildung von Solitonen hilfreich, da das Feld auf beiden Seiten einerisolierten Welle unterschiedliche asymptotische Werte annimmt. Dieses verhindert die Di-spersion der Welle. Da die Begrundung der entspricht, dass ein in den Randbedingungen amEnde eines Bandes enthaltener Twist nicht entfernt werden kann. Auf Grund dieser Analogiezur Topologie wird das sich ergebende Soliton als topologisches Soliton bezeichnet.

§ 931 Die Voraussetzung dafur, dass ein Wellenfeld topologische Solitonen enthalt, ist dieExistenz mehrfacher Grundzustande mit einer geeigneten Topology. Das entsprechende Soli-ton lasst sich beschreiben durch

u = 4 arctan[exp

±m

x− vt− x0√1− v2

]Dieses Soliton entspricht einem Twist in der einen Gunrdzustant 2nπ mit einem anderenGrundzustand (2n ± 2)π verbindenden Feldkonfiguration. Die Losung mit dem + wird alsKink oder Soliton, die mit dem −− als Antikink oder Antisoliton bezeichnet. Soliton und An-tisoliton haben teilweise ahnliche Eigenschaften wie geladenen Elementarteilchen: so bewegensich in einem aus zwei Solitonen bestehenden Anfangszustand diese im Laufe der Zeit voneinander weg. Daher wird der Twist eines Solitons oder Antisolitons auch als topologischeLadung bezeichnet.

Lattice Solitonen

§ 932 Toda’s Lattice Solitonen sind das Musterbeispiel fur Solitonen, die sich nicht in einemkontinuierlichen System ausbilden sondern auf einem ein- oder mehrdimensionalen Gitter.Daher auch die Bezeichnung Lattice Soliton.

Boomeronen

§ 933 Die Tsunamis erzeugenden Solitonen im Ozean entstehen in Folge von Seebeben imfreien Ozean. Diese finden in der Regel in einer Wassertiefe von einigen Hundert oder gareinigen Tausend Metern statt. Dennoch sind die entstehenden Solitonen Flachwasserwellen,6

6Fur die Definition, ob eine gegebene Welle im tiefen oder im flachen Wasser betrachtet wird, ist nur dasVerhaltnis aus der Wellenlange und der Wassertiefe maßgeblich: ... Physikalisch bedeutet die Unterscheidungzwischen Wellen im tiefen und im flachen Wasser nur, dass in letzterem die Welle durch die Eigenschaftendes Meeresbodens beeinflusst wird, in ersterem jedoch nicht. Diese kann man daher als eine Welle auf einemunendlich tiefen Gewasser idealisieren. Die Flachwasserwelle dagegen wird z.B. durch Reibung beeinflusst,was zum Abbremsen des Wellenfusses und damit zum Brechen derselben bei Auflaufen an auf den Strandfuhrt.

c© M.-B. Kallenrode 4. Februar 2008

Page 261: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

250 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Abbildung A.7: Moderne Versionfur Huygen’s synchronisierte Uh-ren (http://osiris.sunderland.ac.uk/ncaf/htm/meet.htm)

da ihre Wellenlange so lang ist. Ist der Boden nicht mehr eben, so fuhrt dessen Relief zu einemvariablen Koeffizienten in der KdV Gleichung [49]. Wird ein Soliton dabei reflektiert (es trittvon einer Seite in den entsprechenden Bereich ein und verlasst es anschließend mit entgegengesetzter Geschwindigkeit auf wieder in dieser Richtung), so wird es, in Anlehnung an denBoomerang, als Boomeron bezeichnet. Beginnt das Soliton dagegen zwischen zwei Punktenzu oszillieren ohne von diesen entweichen zu konnen, so wird es als Trappon bezeichnet.

A.10 Synchronisation

§ 934 Im klassischen Sinne bezeichnet Synchronisation die Anpassung der Rhythmen sichselbst-erhaltender periodischer Oszillationen durch ihre schwache Wechselwirkung unterein-ander. Formal kann Synchronization durch Phase Lockking und Frequency Entrainment be-schrieben werden. Moderne Konzepte betrachten verschiedenen Formen der Synchronisation,die z.B. einen Master und einen Sklaven beinhalten konnen oder sich nur auf die Phasebeziehen.7

§ 935 Die erste (bekannte) Aufzeichnung einer Synchronisation stammt von Huygens [44](fur eine moderne experimentelle Realisierung siehe Abb. A.7)

... it is quite worth noting that when we suspended two clocks so constructed fromtwo hooks imbedded in the same wooden beam, the motions of each pendulum inopposite swings were so much in agreement that they never receded the least bitfrom each other and the sound of each was always heard simultaneously. Further, ifthis agreement was disturbed by some interference, it reestablished itself in a shorttime. For a long time I was amazed at this unexpected result, but after a carefulexamination finally found that the cause of this is due to the motion of the beam, eventhough this is hardly perceptible. The cause is that the oscillations of the pendula,in proportion to their weight, communicate some motion to the clocks. This motion,impressed onto the beam, necessarily has the effect of making the pendula come toa state of exactly contrary swings if it happened that they moved otherwise at first,and from this finally the motion of the beam completely ceases. But this cause is notsufficiently powerful unless the opposite motions of the clocks are exactly equal anduniform.

§ 936 Synchronisation ist (zumindest im Rahmen dieser Vorlesung) in drei unterschiedli-chen Bereichen von Interesse: bei der angetriebenen Schwingung findet eine Synchronisationzwischen einem Oszillator und einem externen Antrieb statt. Bei zwei gekoppelten Pendelnfindet die Synchronisation zwischen zwei Oszillatoren statt – im Gegensatz zur erzwungenenSchwingung sind diese gleich bereichtigt. Die gegenseitige Synchronisation in einer großenPopulation von Oszillatoren ist die Erweiterung der beiden gekoppelten Oszillatoren.

7Und dann gibt es noch die ganzen technischen Aspekte von Synchronization wie zwischen Notebook undPDA. Aber die interessieren hier nicht.

4. Februar 2008 c© M.-B. Kallenrode

Page 262: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.10. SYNCHRONISATION 251

A.10.1 Zum Einstieg: erzwungene Schwingung

§ 937 Formal ist die wesentliche Eigenschaft zur Betrachtung einer Synchronization die Pha-se ϕ. Mathematisch lasst sie sich als die Parametrisierung der Bewegung eines autonomen,zeitkontinuierlichen Systems im Phasenraum fur den stabilen Grenzfall beschreiben. Die Pha-se kann daher monoton mit der Zeit anwachsen, ϕ = ω0 mit ω0 als der Frequenz der freienSchwingung des Oszillators.

§ 938 Die Phase ist im indifferenten Gleichgewicht (neutrale Stabilitat): Storungen werdenweder gedampft noch wachsen sie an. Das bedeutet jedoch auch, dass eine kleine außereStorung (z.B. ein außerer Zwang mit einer anderen Frequenz oder die Kopplung an einenanderen Oszillator) im Laufe der Zeit zu großen Abweichungen in der Phase fuhren kann.Ein Oszillator mit der freien Frequenz ω0 und einem externen periodischen Antrieb mitFrequenz ω und Amplitude ε kann dann beschrieben werden als

ϕ = ω0 + ε Q(ϕ, ωt) .

Darin ist Q eine Kopplungsfunktion, die in beiden Argumenten periodisch mit Periode 2π ist;ihre Details hangen von den Eigenschaften der freien Schwingung und des externen Antriebsab.

§ 939 In der Nahe der Resonanz, d.h. fur ω ≈ ω0 enthalt die Kopplungsfunktion Q schnelleoszillierende and langsam variierende Terme. Letztere konnen angenahert werden als q(ϕ −ωt). Im Mittel uber eine Schwingung lasst sich die Dynamik der Phase damit schreiben als

d∆ϕ

dt= −(ω − ω0) + εq(∆ϕ) (A.6)

mit ∆ϕ = ϕ−ωt als der Differenz zwischen der Phase des Oszillators und der der antreibendenKraft. Die Funktion q ist periodisch mit Periode 2π, im einfachsten Fall lasst sich q als Sinusschreiben. Gleichung A.6 wird als Adler Gleichung bezeichnet.

§ 940 Im Parameterraum des externen Antriebs ergeben sich im Bereich εqmin < ω − ω0 <εqmax stabile stationare Losungen der Adler Gleichung (A.6). Diese Losungen entsprechendem Phase Locking, d.h. die Phase ϕ der erzwungenen Schwingung folgt der des Forcingsderart, dass ϕ− ωt = const, und dem Frequency Entrainment, d.h. die Frequenz Ω = ϕ desOszillators entspricht exakt der Frequenz ω der anregenden Kraft.

§ 941 Synchronisation kann auch fur Resonanzen hoherer Ordnung auftreten: dann ent-spricht die Frequenz der erzwungenen Schwingung nicht exakt der der Anregung sonderndie beiden stehen in einem ganzrationalen Verhaltnis: nω ≈ mω0. Auch in diesem Fall wirddie Dynamik der Phasendifferenz ∆ϕ = mϕ − nωt durch eine Gleichung ahnlich der AdlerGleichung (A.6) beschrieben:

d∆ϕ

dt= −(nω −mω0) + εq(∆ϕ) .

Ein synchrones Regime entspricht einem perfekten Entrainment der Frequenz des Oszillatorsbei einem rationalen Vielfachen der Anregungsfrequenz, Ω = nω/m, sowie einem PhaseLocking mϕ = nωt + const.

§ 942 Die allgemeine Darstellung erfolgt in der ω, ε-Ebene durch ein System von dreickigenSynchronisations Bereichen (Arnold’s Zungen, Arnold’s Tongue, oberes Teilbild in Abb. A.8),deren Spitze die ω-Achse jeweils bei rationalen Vielefachen der Frequenz der freien Schwin-gung beruhrt. Ein ahnliches Bild ergibt sich auch fur ein nur moderates Forcing, allerdingsbehalten die Synchronisationsbereiche dabei nicht die dreieckige Form. Der Devil’s Stairca-se im unteren Teilbild von Abb. A.8 besteht aus horizontalen Plateaus bei allen moglichenrationalen Frequenzverhaltnissen: fur eine feste Amplitude ε der Anregung und eine variableAnregungsfrequenz ω ergeben sich unterschiedliche Intervalle der Synchronisation. Hier istdie Bewegung periodisch, dazwischen dagegen quasi-periodisch.

c© M.-B. Kallenrode 4. Februar 2008

Page 263: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

252 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

Abbildung A.8: Arnold’s Tongue(oben) und Devil’s Staircase (unten)

§ 943 Die erzwungene Schwingung ist von diversen mechanischen Pendeln und dem Schwing-kreis bekannt, aber wahrscheinlich nicht gerade das Phanomen, welches man unter der RubrikSynchronisation betrachten wurde. Das wesentliche Merkmal der Synchronisation in diesemfall ist der externe ‘Taktgeber’. Derartigen Taktgebern begegnen wir im Alltag haufig: diekonventionell Funkuhr ist ein einfaches technisches Beispiel fur eine Synchronisation. Biologi-scher Rhythmen werden teilweise ebenfalls synchronisiert: der Sinusknoten (Purkinje Fasern)synchronisiert die Herzzellen und damit den Herzschlag – wird er unzuverlassig, so lasst sichdiese Funktion an einen externen Taktgeber, den Herzschrittmacher, delegieren. FehlerhafteSynchronisation von Gehirnzellen lasst sich ebenfalls mit Hilfe eines Schrittmachers regulieren(... bei Parkinson). Auch auf der Ebene des Gesamtorganismus werden verschiedenen bio-logische Funktionen (Herzfrequenz, Korpertemperatur, Hormonausschuttung, Schlaf–Wach-Rhytmen) durch einen externen Taktgeber synchronisiert: alle quasi-circadianen Rhythmenwerden durch das Sonnenlicht synchronisiert. Sperrt man Menschen in Hohlen oder sonsti-ge kunstliche Settings, in denen sie keinerlei Informationen uber den externen Tagesverlauferhalten, so fehlt der externe Taktgeber und es bilden sich, in der Regel langer dauernde,Schlaf–Wach-Rhythmen aus. Viele dieser biologischen Beispiele fur Synchronisation sind imDetail in [139] beschrieben.

A.10.2 Zwei gekoppelte Oszillatoren

§ 944 Die Synchronisation zwischen zwei gekoppelten Oszillatoren kann auf gleiche Weisebeschrieben werden. Eine schwache Kopplung betrifft lediglich die Phasen ßvarphi1 und ϕ2

der beiden Oszillatoren:

ϕ1 = ω1 + εQ1(ϕ1, ϕ2) und ϕ2 = ω2 + εQ2(ϕ2, ϕ1) .

Durch Mittelung erhalt man fur die Phasendifferenz ∆ϕ = ϕ2 − ϕ1 einen Ausdruck ahnlichdem der Adler Gleichung A.6.

§ 945 In diesem Fall bedeutet Synchronisation das von Huygens Beschriebene: zwei nicht-identische Oszillatoren beginnen mit der gleichen Frequenz (oder allgemeiner mit einem ra-tionalen Frequenzverhaltnis) zu oszillieren. Die gemeinsame Frequenz liegt uberlicherweisezwischen ω1 und ω2.

§ 946 Das Phase Locking ebenso wie das Frequency Locking beinhaltet keine Beschrankungenbezuglich Amplitude und Wellenform; die Oszillationen konnen auch Relaxation (integrateand fire) oder quasi-harmonisch sein. Harmonische (oder quasi-harmonische) Oszillationenerwarten wir insbesondere in Systemen, die sich mit der Hamilton’schen Dynamik beschrei-ben lassen, d.h. in denen Energieerhaltung gilt. Ein typisches dissipatives System mit einerlimit-cycle Oszillation ist durch van der Pol’s Gleichung [133]

x− ε(1− x2)x + ω2x = 0

4. Februar 2008 c© M.-B. Kallenrode

Page 264: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

A.10. SYNCHRONISATION 253

Abbildung A.9:Losungen von vander Pol’s Gleichung furverschiedenen Werte desParameters ε: fur kleineWerte ergibt sich eineharmonische Schwin-gung, fur große einerelaxierende Oszillation

beschrieben. In Abhangigkeit vom Parameter ε variiert die Schwingung: fur kleine ε ergibtsich eine harmonische und Energie erhaltende Bewegung x(t) = sin(ωt + ϕ0); fur große εergeben sich blockierende oder relaxierende Schwingungsformen. Die Wellenform eines rela-xierenden Oszillators dagegen besteht aus abwechselnd schnellen und langsamen Bewegungen,ahnlich den Spikes und langsamen Erholung bei einem feuernden Neuron und den stick–slipOszillationen bei Bewegung mit Reibung.

Zwischenrechnung 37 Mit van der Pol konnen Sie in Abwandlung des Modells fur diegewohnliche gedampfte Schwingung selbst ein wenig herum spielen – das ist auch im Hinblickauf Stabilitat und Schrittweite im numerischen Verfahren interessant.

§ 947 Genauso wie der harmonische Oszillator lasst sich ein van der Pol Oszillator durch eineexterne Anregung synchronisieren. Dies ist um so leichter moglich, je dichter die anregendeFrequenz an der der freien Schwingung des van der Pol (VDP) Oszillators, je großer ε und jestarker die Kopplung. Auch hier bilden sich wieder die aus Abb. A.8 bekannten Arnold’schenZungen.

A.10.3 Eine Population gekoppelter Oszillatoren

§ 948 Die Synchronisation einer großen Zahle gekoppelter Oszillatoren lasst sich als einNicht-Gleichgewichts-Phasenubergang beschreiben mit dem mittleren oszillierenden Feld alsOrdnungsparameter. Die alltaglichen Beispiele sind die gleichzeitigen Lichtblitze von Gluh-wurmchen oder der synchronisierte Applaus in einem großen Publikum.

§ 949 Formal schwieriger zu handhaben sind die Populationen teilweise gekoppelter Oszilla-toren, wie z.B. bei der Erklarung von Aktivitatsmustern in der Großhirnrinde: hier synchroni-siert nicht die gesamte Neuronenpopulation sondern die Mustercodierung erfolgt eben geradedadurch, dass eine Teilpopulation sich synchronisiert. Je nach relativem Anteil dieser Popu-lation ist die Beschreibung als Phasenubergang moglich oder es sollte lieber die Kopplungeiner großeren Zahl einzelner Oszillatoren beschrieben werden.

§ 950 Formal lasst sich die Synchronisation einer Zahl von N Oszillatoren mit geringfugigunterschiedlichen Frequenzen ωi ihrer freien Schwingung schreiben als

ϕ = ωi +N∑

j=1

Γij(ϕi − ϕj) i = 1, 2, . . . , N

mit Γ als einer in 2π periodischen Funktion. Diese Betrachtung lasst sich auch auf Oszillatorenausweiten, die ein kontinuierliches Feld bilden.

c© M.-B. Kallenrode 4. Februar 2008

Page 265: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

254 ANHANG A. EINIGE WICHTIGE BEGRIFFE UND KONZEPTE

§ 951 Weitere Literatur: eine anschauliche Einfuhrung gibt [124], eine weitergehende [95].Technische Systeme werden in [9] betrachtet, chemische in [61], biologische in [139] undphysiologische in [25]. Die Anwendung auf lebende Systeme (und damit chaotische Synchro-nisation) wird in [82] betrachtet.

A.11 Schmetterlingseffekt

A.11.1 Schmetterlingseffekt und Vorhersagbarkeit

But can modeling have an impact on society? Can modeling really allow or predictions? Isn’tthere Lorentz’ butterfly effect8 [66]: “Does the flap of a butterfly’s wing in Brazil set off atornado in Texas?”

While Lorentz made the experience of the small error in initial conditions, Alan Turing[130] had made a similar statement about two decades earlier out of reasoning about com-puters and in particular the later so-called Turing test:

The system of the ‘universe as a whole’ is such that quite small errors in the initialconditions can have an overwhelming effect at a later time. The displacement of asingle electron by a billionth of a centimeter at one moment might make the differencebetween a man being killed by an avalanche a year later, or escaping.

Turing’s statement is even more fatal than Lorentz’ because it retracts to the quantummechanical level. If the world model or the general model of the universe including detailsdown to the atomar and sub-atomar level is the target, Turing’s objections most likely arecorrect. However, wether a model allows for a prediction or not, depends on the questionand the model. A dike reeve, for instance, wants to know wether a certain stretch of dikewill hold or break – it does not matter in detail where and how it will break.9 Thus if wejudge a model in its ability to reproduce the intimate details of the process under study,most models probably will fail. But if we ask the more general question, the model, at leastif it is a good working model, probably will give a reasonable answer. The same is true forclimate models. The large number of different climate models also can be used to confirmthe trends in the results: although all models lead to different predictions about the exacttemperature evolution until 2100 under the constraint of increased carbon dioxide levels, allmodels agree on the warming effect and all models lead to predictions in a rather small rangeof temperature changes, see e.g. [?]. And this agreement despite the differences in the modelssuggests that it might be time to think about measures to take even if models are not perfect.This problem is discussed in detail in Pollack’s book Uncertain science ... uncertain world[?].

In sum, although models do not predict the future in all detail, good models give quitereasonable ideas about it. For instance, weather forecast is well advanced and gives prettyreliable predictions for the general weather pattern over Germany for about five days inadvance – also it always almost fails to tell me wether I will need an umbrella on my way tothe mensa or not. The path of hurricane Katrina has been predicted fairly well – as had beenthe inability of New Orleans’ dike system to withstand such a hurricane. Tsunami predictionin the pacific works reasonably well and is greatly appreciated by the surrounding countries.And even the rather crude models two decades ago made reasonable predictions about thefall our following the Chernobyl accident and the burning oil fields in the first Iraqi war.

8The tale goes that Lorentz discovered this effect after a computer breakdown in his lab at MIT. Lorentzwas a pioneer in numerical weather forecast. One day, he restarted a run after a computer breakdown withthe last saved data set as initial conditions for the run’s continuation. When he compared the results to theresults from a complete run, obvious differences appeared. He concluded that the rounding errors made asthe saved data werde fed back into the program were large enough to affect the program’s output strongly.To illustrate that such a small deviation can make a strong effect, he created the above statement.

9Probably nobody in New Orleans cared about which part of the dike broke – the fact that some dikebroke was fatal enough.

4. Februar 2008 c© M.-B. Kallenrode

Page 266: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Anhang BNutzliche Erganzungen

B.1 Formelzeichen und Abkurzungen

B.1.1 Formelzeichen

β Reibungskoeffizientβ Separationskonstanteγ Reibungskoeffizient/Masse, γ = β/2mγ Integrationskonstante bei DGLε irgendeine Eigenschaftϕ Phaseλ Eigenwertλ thermische Leitfahigkeitω0 Frequenz der freien Schwingung (ω2

0 = k/m)ω (kreis-)FrequenzΩ Frequenz (der antreibenden Kraft)% DichteA AmplitudeAc komplexwertige Amplitude~B magnetische Flussdichtec LichtgeschwindigkeitC KapazitatC KlimakostenCa VermeidungskostenCd Klimafolgekosten~C(ε) Fluss der Eigenschaft εD DiffusionstensorD Diffusionskoeffiziente Emissionsfunktionf FrequenzfA AbtastfrequenzfA Dichte der antreibenden Kraft, fA = FA/mFA antreibende Kraftg GravitationsbeschleunigungI Strom (konstant)i Strom (variabel, i(t))~j Stromdichtek Federkonstante

255

Page 267: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

256 ANHANG B. NUTZLICHE ERGANZUNGEN

L Induktivitatm MasseQ Ladung (konstant)Q Quellfunktion (thermisch)q Ladung (variabel, q(t))R WiderstandRω Impulsantwort CO2 KonzentrationRT Impulsantwort TemperaturR Impulsantwort AtmosphareS(ε) Quellen und Senken der Eigenschaft εt ZeitT TemperaturT Periode, SchwingungsdauernTA AbtastintervallU Spannung (konstant)u Spannung (variabel, u(t))u bulk velocity (mittlere Geschwindigkeit eines kont. Mediums)v GeschwindigkeitvA Alfven-Geschwindigkeitx Ortz Ort (komplex)

B.1.2 Abkurzungen

BAU Business as usualDCT discrete Cosinus transform, diskrete Kosinus TransformationDFT diskrete Fourier TransformationDGL DifferentialgleichungDNLS defokussierende nichtlineare Schrodinger GleichungEDA Electronic Design AutomationFFT fast Fourier transform, schnelle Fourier TransformationFIR iinite impulse responseFNLS fokussierende nichtlineare Schrodinger GleichungFPU Fermi–Pasta–Ulam ProblemFT Fourier TransformationGCM Global Circulation ModelGES Global Environment and Society (GES) ModelGW Global Welfare (globales Wohlergehen)IIR infinite impulse responseIPCC Intergovernmental Panel on Climate Change, www.ipcc.chKdV Korteweg–de VriesIST Inverse Streu-TransformatioLTI linear time invariantNLS nichtlineare SchrodingergleichungODE ordinary differential equationPDE partial differential equationPDGL partielle DifferentialgleichungSG Sine–Gordon GleichungTFT Tit for TatVDP van der Pol

4. Februar 2008 c© M.-B. Kallenrode

Page 268: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.2. NUMERISCHE INTEGRATION 257

B.2 Numerische Integration

§ 952 Numerische Verfahren zur Losung gewohnlicher Differentialgleichungen werden aufkonventionelle Verfahren zur numerischen Integration zuruck gefuhrt. Eine homogene DGLerster Ordnung lasst sich analytisch mit Hilfe des Separationsansatzes losen:

x = f(x(t)) ⇒t+∆t∫t

dx =

t+∆t∫t

f(x(t)) dt ⇒ x(t + ∆t) = x(t) +

t+∆t∫t

f(x(t)) dt .

§ 953 Fur das numerische Verfahren wird die DGL diskretisiert: die Differentialgleichungwird in eine Differenzengleichung uberfuhrt:1

∆x

∆t=

xn − xn−1

∆t= f(x, t) .

Der dabei entstehende Fehler wird als Diskretisierungsfehler bezeichnet. Er wird, ebenso wiedie Stabilitat eines numerischen Schemas, durch die Schrittweite h bestimmt:

h = ∆x =b− a

M

mit dem Integrationsintervall [a, b] und M als der Zahl der Schritte.

§ 954 Differentialgleichungen nter Ordnung werden durch Substitution in n DGLs ersterOrdnung uberfuhrt; vgl. Abschn. 1.1.2.

B.2.1 Einfache Verfahren mit fester Schrittweite

§ 955 Verfahren fester Schrittweite sind die traditionellen Verfahren, das typische Beispielist das Euler Verfahren. Sie sind einfach (allerdings auch ungenau), auch die Fehler undUngenauigkeiten sind leicht abzuschatzen. Die hier vorgestellten Verfahren haben alle ihrePaten in den numerischen Integrationsverfahren:

• Gesucht:

I =

b∫a

f(x) dx .

Unabhangig vom Verfahren wird das Integrationsintervall [a, b] kann in M Schritte derLange ∆x eingeteilt: ∆x = (b− a)/M .• bei der Mittelpunktsformel wird jeweils der Funktionswert in der Intervallmitte zur be-

stimmung des Flachenelements verwendet:

IMP =M∑

k=1

f(xmk) ∆x =M∑

k=1

f

(xk−1 + xk

2

)∆x .

• bei der Trapezformel wird das Flachenstuck als durch die Funktionswerte an den Intervall-grenzen bestimmtes Trapez angenahert:

IT =M∑

k=1

12(f(xk) + f(xk−1))∆x .

• beim Simpson-Verfahren wird die Funktion durch ein Polynom angenahert, so dass sichfur das Flachenstuck ergibt

ISimpson =16

M∑k=1

(f(xk−1) + 4f(xmk) + f(xk))∆x .

1Die einfachere Interpretation der Differenzengleichung geht von der Differenzengleichung aus und ver-zichtet auf die Grenzwertbildung im Ubergang vom Differenzen- zum Differentialquotienten.

c© M.-B. Kallenrode 4. Februar 2008

Page 269: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

258 ANHANG B. NUTZLICHE ERGANZUNGEN

Euler Verfahren

§ 956 Das Euler Vorwarts Verfahren ist das einfachste Verfahren: aus dem bekannten An-fangswert x0(t0) wird mit Hilfe der bekannten Steigung f(t0, x0) der Funktionswert x1 amEnde des ersten Integrationsschrittes berechnet:

x1 = x0 + ∆t f(t0, x0) .

Dabei wird die Steigung im Anfangspunkt des Intervalls als fur das gesamte Intervall ∆tkonstant angenommen. Der so erhaltene Funktionswert am Ende des Intervalls ist gleichzeitigder Anfangswert fur das folgende Intervall; das Euler Vorwarts Verfahren ist damit gegebenals

x(ti+1) = x(ti) + ∆t f(ti, xi) mit x(t0) = x0 .

Da in diesem Verfahren der Wert x(ti+1) nur vom vorangegangenen Wert x(ti) abhangt,handelt es sich um ein explizites Verfahren.

§ 957 Alternativ konnen wir auch die (noch nicht bekannte) Steigung am Ende des Integra-tionsintervalls verwenden:

x(ti+1) = x(ti) + ∆t f(ti+1, xi+1)

mit x(t0) = x0 und ti = t0+i∆t. Dieses Verfahren wird als Ruckwarts Methode bezeichnet. ImGegensatz zum Vorwarts Verfahren hangt der Wert x(ti+1) nicht nur vom vorher bestimmtenWert x(ti) ab sondern auch vom zu bestimmenden Wert f(ti+1, xi+1). Das Verfahren ist daherein implizites.

§ 958 Die naherungsweise Berechnung erfolgt im sogenannten modifizierten Euler Verfahrenin zwei Schritten: (1) im Pradikatorschritt wird der Wert an der Stelle i+1 mit dem Vorwarts-Verfahren berechnet:

xP(ti+1) = x(ti) + ∆t f(ti, xi) .

Im Korrektorschritt wird dieser Wert zur Bestimmung der Steigung verwendet und damitder eigentlich gesuchte Wert an der Stelle i + 1 bestimmt:

x(ti+1) = x(ti) + ∆t f(ti+1, xPi+1) .

Das modifizierte Euler Verfahren ist noch ein explizites Verfahren. Ein echtes implizites Ver-fahren entsteht durch Iteration.

Crank–Nicolson Verfahren

§ 959 Das Crank–Nicolson Verfahren kombiniert die Vorwarts und Ruckwarts Methoden ausdem Euler Verfahren:

x(ti+1) = x(ti) +∆t

2(f(ti, xi) + f(ti+1, xi+1))

mit x(t0) = x0 und ti = t0 + i∆t. Durch die Kombination der beiden Euler Verfahren ist dasCrank–Nicolson Verfahren ein kombiniertes explizites/implizites Verfahren.

Leap-Frog

§ 960 Bei den bisherigen Verfahren, egal ob explizit oder implizit, wurde die Steigung jeweilsan einer Intervallgrenze (untere beim expliziten, obere beim impliziten Verfahren) bestimmtuber den gesamten Integrationschritt als konstant angenommen. Das Leapfrog Verfahrenverwendet die Steigung in der Intervallmitte, diese wird wieder uber den gesamten Integra-tionsschritt als konstant betrachtet. Dazu werden zwei Euler Verfahren parallel verwendet:eins an den Stutzstellen der Integrationsintervalle, das andere in deren Mitte. Diese werdenabwechselnd iteriert:

xi+ 12

= xi− 12

+ f(ti, xi)∆t mit x− 12

= x0 −12f(t0, x0)∆t

xi+1 = xi + f(ti+ 12, xi+ 1

2)∆t mit x0 = x0 .

4. Februar 2008 c© M.-B. Kallenrode

Page 270: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.2. NUMERISCHE INTEGRATION 259

Runge–Kutta

§ 961 Das Runge–Kutta Verfahren 4. Ordnung ist ein sehr genaues Rechenverfahren. Wiebeim Euler Verfahren wird die Losungskurve in jedem Teilintervall ∆t durch eine Geradeangenahert. Allerdings wird die Steigung dieser Geraden nicht am Anfang oder wie beimLeapfrog Verfahren in der Mitte des Intervalls bestimmt sondern es wird eine mittlere Stei-gung angenommen, die sich aus den Steigungen in den beiden Randpunkten und in derIntervallmitte zusammensetzt:

x(ti) = xi = xi−1 +16(k1 + 2k2 + 2k3 + k4)

mit

k1 = ∆t f(ti−1, xi−1) , k2 = ∆t f(ti− 1

2, xi−1 + k1

2

),

k3 = ∆t f(ti− 1

2, xi−1 + k2

2

), k4 = ∆t f(ti−1 + ∆t, xi−1 + k3) .

Dabei mussen die Wichtungsfaktoren ki fur jeden Rechenschritt ∆t neu berechnet werden.

B.2.2 Stabilitat und Fehler

Diskretisierung

§ 962 Diskretisierung kann formal uber die Taylor Entwicklung des Differentialquotientenhergeleitet werden. Dazu wird die Ausgangsfunktion an der Stelle xi entwickelt:

uk+1 = f(xk+1) = f(xk + h) = f(xk) + h f ′(xk) +h2

2!f ′′(xk) +

h3

3!f ′′′(xk) +O(h4) .

Mit f(xk) = uk lasst sich dies schreiben als

uk+1 − uk

h= f ′(xk) +

h

2!f ′′(xk) +

h2

3!f ′′′(xk) +O(h4) . (B.1)

Fur h→ 0 ist die linke Seite die Definition der Ableitung und kann daher als finite DifferenzenAnnaherung an die Ableitung f ′(xk) gelesen werden. Der fuhrende Term des Fehlers isthf ′′(xk)/2! = O(h); er ist von erster Ordnung in h. Daher wird eine derartige Diskretisierungauch als “genau von erster Ordnung” bezeichnet. Das Schema wird als Vorwarts Schemabezeichnet; es entspricht der Art von Diskretisierung, die wir auch anschaulich verwendethaben.

§ 963 Ersetzen wir h durch −h, so ergibt sich ein Ruckwarts Schema. Taylor Entwicklungliefert

uk−1 = f(xk−1) = f(xk − h) = f(xk)− h f ′(xk) +h2

2!f ′′(xk)− h3

3!f ′′′(xk) +O(h4)

und damit als Annaherung an die Ableitung

uk − uk−1

h= f ′(xk)− h

2!f ′′(xk)− h2

3!f ′′′(xk) +O(h4) . (B.2)

Auch dieses Verfahren ist einseitig und von erster Ordnung, nur eben ruckwarts gerichtet.

§ 964 Der Mittelwert dieser beiden Schemata liefert eine zentrale Differenz

uk+1 − uk−1

2h= f ′(xk) +

h2

3!f ′′′(xk) +O(h4) .

Hier heben sich die Terme mit der zweiten Ableitung f ′′(xk) heraus, der Fehler beginnt erstmit dem h2-Term. Das Verfahren ist daher von zweiter Ordnung und damit bei gleicherSchrittweite h genauer als das Vorwarts oder das Ruckwarts Schema.

c© M.-B. Kallenrode 4. Februar 2008

Page 271: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

260 ANHANG B. NUTZLICHE ERGANZUNGEN

§ 965 Die Differenz aus Vorwarts Schema (B.1) und Ruckwarts Schema (B.2) gibt eineAnnaherung an die zweite Ableitung:

uk+1 − 2uk + uk−1

h2= f ′′(xk) +

h2

4!f ′′′(xk) +O(h4) . (B.3)

Auch hierbei handelt es sich um ein zentriertes Schema mit einer Genauigkeit von zweiterOrdnung. Mit Hilfe dieser Diskretisierung lassen sich auch zweite Ableitungen fur ein numeri-sches Schema aufbereiten ohne dass die DGL zweiter Ordnung in zwei DGLs erster Ordnungzerlegt werden muss.

Konsistenz und Genauigkeit

§ 966 Der Fehler des numerischen Verfahrens entsteht durch die Vernachlassigung der hoherenTerme der Taylor Entwicklung bei der Diskretisierung. Quantifiziert wird dieser Fehler durchden Truncation Error TE (Abbruchfehler):

Definition 12 Der Truncation Error TE εi wird bestimmt, in dem die exakte Losung uk anStelle der angenaherten Losung in die Differenzengleichung eingesetzt wird.

§ 967 Zur Zerfallsgleichung

dN

dt= N = −λN

gehort die Differenzengleichung

Nk+1 −Nk

∆t+ λNk = 0 .

Der Truncation Error ist mit Nk als exakter Losung an Stelle der Losung N des numerischenSchemas

εk =Nk+1 − Nk

∆t+ λNk 6= 0 .

Taylor Entwicklung der Ausgangsgleichung (die Differenzengleichung kann nicht entwickeltwerden, da sie nur an diskreten Stutzstellen definiert ist) liefert

εk =

(Nk+1 − Nk

∆t+ λNk

)+

∆t

2d2Nk

dt2+O((∆t)2) .

Da die exakte Losung die DGL erfullt, verschwinden die Terme in der Klammer. Der verblie-benen Truncation Error ist

εk =∆t

2d2Nk

dt2+O((∆t)2)

und damit von erster Ordnung un ∆t.

§ 968 In den Abbruchfehler geht die gewahlte Schrittweite ein, ebenso wie die zweite Ablei-tung der exakten Losung, d.h. die Anderung der Steigung der gesuchten Funktion. Das istanschaulich verstandlich: im Idealfall einer konstanten Steigung im Intervall ∆t liefert dasEuler’sche Streckenzugverfahren fur den Wert am Intervallende nicht nur eine Naherung son-dern den exakten Wert. Dann ist εk = 0 weil Nk = 0. Je geringer die Anderung der Steigungin ∆t ist, um so starker nahert sich der Wert am Intervallende an die exakte Losung an,d.h. εk ∼ N ist zumindest plausibel. Die Abhangigkeit von ∆t ist ebenfalls anschaulich: jekleiner der Rechenschritt, um so fruher korrigieren wir die falschliche Annahme N = constdes numerischen Verfahrens.

4. Februar 2008 c© M.-B. Kallenrode

Page 272: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.2. NUMERISCHE INTEGRATION 261

§ 969 Die Qualitat eines numerischen Differenzenschemas hangt von der Große des Ab-bruchfehlers εk ab. Manchmal ist εk bei der Losung einer bestimmten DGL klein: allerdingsnicht, weil das verwendete Schema so gut ist, sondern weil die Eigenschaften oder Parameterder DGL so sind, dass der Fehler des Schemas durch teilweise kompensiert wird. Dann istdas Schema fur andere DGLs oder Parameter jedoch nicht geeignet; es ist in seinem Ver-halten nicht konsistent sondern von Parametern der DGL abhangig. In diesem fall ist εk

sehr variable. Die Veranderung von εk bei Variation der Schrittweite kann daher als Test furdie Qualitat eines numerischen Verfahrens verwendet werden und fuhrt auf den Begriff deskonsistenten Schemas:

Definition 13 Ein Differenzenschema wird als konsistent bezeichnet, wenn εk → 0 fur ∆t→0 fur alle Gitterpunkte k im Integrationsintervall.

Stabilitat

§ 970 Konsistenz und Genauigkeit sind wichtige Eigenschaften: sie beschreiben, ob ein Diffe-renzenschema konvergiert oder nicht. Dieser Zusammenhang wird durch das Lax’sche Aqui-valenztheorem beschrieben:

Satz 1 Gegeben ist ein wohl definiertes Anfangswertproblem und ein Differenzenschema,dass die Bedingung der Konsistenz erfullt. Dann ist Stabilitat sowohl eine notwendige alsauch eine hinreichende Bedingung fur Konvergenz.

§ 971 Dabei bedeutet Konvergenz dass die Differenz zwischen der exakten Losung uk(t) undder angenaherten Losung uk gegen Null strebt wenn der Diskretisierungsschritt gegen Nullstrebt:

|uk(t)− uk| → 0 wenn ∆t→ 0 .

Anwendung dieser Begriffe auf die diskutierten Schemata

§ 972 Die Euler Vorwarts Methode ist, wie bereits bei der Diskretisierung angemerkt, einVorwartsverfahren, da der Wert am Intervallende jeweils aus dem am Intervallanfang ermit-telt wird. Wie bei der Diskretisierung bereits angemerkt, ist dies ein Verfahren von ersterOrdnung in ∆t; auch der Truncation Error ist von erster Ordnung in ∆t.

§ 973 Die Euler Ruckwarts Methode ist als Ruckwartsverfahren aus Sicht der Diskretisie-rung ebenfalls von erster Ordnung in ∆t. Das Verfahren ist zweistufig, insbesondere wird imPradikatorschritt ein Zwischenwert berechnet. Beide Schritte waren einzeln nur von ersterOrdnung in ∆t. In der Kombination heben sich jedoch der Zwischenwert und die erste Ord-nung des ∆t heraus, so dass der sich ergebende Truncation Error von zweiter Ordnung in ∆tist.

§ 974 Die von uns betrachtete Variante des Runge–Kutta Verfahrens heißt so, da sie vonvierter Ordnung in ∆t ist. Sie konnen dies zeigen, in dem Sie den Truncation Error fur jedender Schritte aufstellen und dann die Gleichungen zusammen fugen: die Fehler geringererOrdnung als vier heben sich heraus.

Zwischenrechnung 38 Letzteres ist Qualkram, aber machen Sie es trotzdem.

B.2.3 Verfahren mit variabler Schrittweite – Idee

§ 975 Die Idee fur ein Verfahren mit variabler Schrittweite ist relativ einfach. Beim EulerVerfahren wird die Steigung im Anfangspunkt der Zeitintervalls bestimmt und dann fur dasgesamte Intervall als konstant angenommen. Dieser letzte Punkt, die Steigung ist im gesamtenZeitintervall konstant (oder stuckweise linear zusammen gesetzt wie bei Runge–Kutta) wirdin allen numerischen Verfahren gemacht; in den impliziten ebenso wie in den expliziten.

c© M.-B. Kallenrode 4. Februar 2008

Page 273: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

262 ANHANG B. NUTZLICHE ERGANZUNGEN

Abbildung B.1: Zentrale Differenz: der Funk-tionswert im k-ten Gitterpunkt bestimmt sichaus den beiden benachbarten Funktionswerten

−1 0 1 k−1 k k+1 n−1 n n+1

x=0 x=L

§ 976 Die Annahme einer konstanten Steigung ist korrekt, falls die Ableitung wirklich eineKonstante ist: dann ware die Ausgangsfunktion eine Gerade und diese konnen wir problemlosmit einer im gesamten zu betrachtenden Intervall konstanten Steigung rekonstruieren. Dasnumerische Verfahren kame also mit einem Zeitschritt aus.

§ 977 Verfahren mit variabler Schrittweite werden als adaptive Verfahren bezeichnet, weilsie versuchen, entsprechend der Anderung der Steigung die Schrittweite anzupassen: schnelleAnderungen der Schrittweite erfordern kleine Zeitschritte, da sonst der durch die Annahmekonstanter Schrittweite gemachte Fehler zu groß wird. Andert sich die Schrittweite mit derZeit dagegen nur geringfugig, so ist der durch die Annahme konstanter Schrittweite gemachteFehler auch nur gering.

B.2.4 Zentrale Differenz

§ 978 Da sich eine DGL nter Ordnung in n DGLs erster Ordnung zerlegen lasst, ist fur dieLosung einer gewohnlichen Differentialgleichung die Diskretisierung einer ersten Ableitungausreichend. Bei einer partiellen Differentialgleichung, z.B. der Diffusionsgleichung, treten dieerste zeitliche und die zweite raumliche Ableitung auf. Eine Separation von zeitlichem undraumlichem Anteil und anschließende Zerlegung der DGL zweiter Ordnung des raumlichenTeils in zwei DGLs erster Ordnung ist nut fur eingeschrankte Geometrien machbar. Außerdemist die Gleichung nur fur δ-Injektionen analytisch losbar – raumlich oder zeitlich ausgedehnteInjektionen fuhren automatisch auf eine Faltung.

§ 979 Fur die numerische Losung des Diffusionsterms (oder der Warmeleitungsgleichung)ist daher eine Diskretisierung der zweiten Ableitung wie in (B.3) sinnvoll: bei dieser zentra-len Differenz werden die beiden benachbarten Gitterpunkte zur Bestimmung des zentralenGitterpunktes heran gezogen. Das Verfahren ist damit implizit.

§ 980 Auch physikalisch ist die Verwendung des impliziten Verfahrens unter Berucksichtigungbeider Nachbarpunkte befriedigender als ein normalerweise bei der Diskretisierung der zeitli-chen Ableitung verwendetes explizites Verfahren: wahrend man bei der Zeit das explizite Ver-fahren noch anschaulich dadurch begrunden kann, dass die Zeit in eine Richtung fortschreitetund damit der folgende Zeitpunkt nur von den vorhergehenden beeinflusst wird, gibt es imRaum in der Regel keine Vorzugsrichtung. Stattdessen wird eine physikalische Große in einemRaumpunkt von der entsprechenden Große in den benachbarten Raumpunkten beeinflusst.Im eindimensionalen Fall wird dies genau durch die zentrale Differenz abgebildet.

Eindimensionaler Fall

§ 981 Beschranken wir uns auf eine Raumdimension, so ist die zentrale Differenz (B.3), sieheauch Abb. B.1, zur Diskretisierung ausreichend.

Stationarer Fall

§ 982 Im stationaren Zustand verschwindet die zeitliche Ableitung und die partielle Diffe-rentialgleichung reduziert sich auf eine gewohnliche Differentialgleichung zweiter Ordnung:

∂2u

∂x2= 0 .

Mit (B.3) ergibt sich aus dieser Differentialgleichung die Differenzengleichung

uk+1 − 2uk + uk−1

(∆(x))2= −Q

λ

4. Februar 2008 c© M.-B. Kallenrode

Page 274: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.2. NUMERISCHE INTEGRATION 263

mit Q als einer Warmequelle, die an der Stelle k auszuwerten ist, und λ als der thermischenLeitfahigkeit. Die Warmequelle benotigen wir, um die Randbedingungen stationar zu halten– mit der rechten Seite identisch Null wurde das numerische Schema eine recht triviale Losungliefern.

§ 983 Die Differential- und damit auch die Differenzengleichung sind auf einer eindimensio-nalen Geometrie definiert, z.B. fur einen Stab der Lange L, der fur die Diskretisierung inN = L/∆x Intervalle der Lange ∆x geteilt wird. Damit gibt es N +1 Gitterpunkte x0 . . . xN .An den inneren Gitterpunkten lasst sich die Differenzengleichung erfullen, am ersten undletzten Gitterpunkt, x0 und xN dagegen ist das Differenzenschema nicht zu losen, da diezentrale Differenz dann auf Gitterpunkte außerhalb des Stabes zuruck greifen musste. DerEinfluss der außeren Gitterpunkte lasst sich durch die Randbedingungen eliminieren. ....

Zeitabhangige Losung

§ 984 Die zeitabhangige Losung ist etwas weniger trivial. Die Differentialgleichung

∂u

∂t= D

∂2u

∂t2

wird diskretisiert als

ul+1k − ul

k

∆t= D

ul+1k+1 − 2ul+1

k + ul+1k−1

(∆x)2.

Umsortieren nach den einzelnen Gitterpunkten liefert

D

(∆x)1ul+1

k−1 −(

1∆t

+2D

(∆x)2

)ul+1

k +D

(∆x)1ul+1

k+1 = − 1∆t

ulk

bzw. in Kurzform

Aul+1k−1 + Bul+1

k + Cul+1k+1 = Eul

k

mit den Abkurzungen

A = C =D

(∆x)2, C = −

(1

∆t+

2D

(∆x)2

)und E = − 1

∆t. (B.4)

§ 985 Diese Gleichung gilt fur alle inneren Punkte, lediglich an den Randpunkten u0 undun mussen die Randbedingungen berucksichtigt werden um die (nicht existenten) außerenPunkte u−1 und un+1 zu eliminieren. Um einen Fluss uber die Umrandung (Neumann’scheRandbedingungen) zu beschreiben, werden die entsprechenden Punkte benotigt; bei Dirich-let’schen Randbedingungen dagegen

§ 986 Das System der Differenzengleichungen lasst sich in Matrixschreibweise zusammenfassen als

Bin Cin 0 0 . . . 0A B C 0 . . . 0 00 A B C . . . 0 0...

......

... . . ....

...0 0 0 0 . . . Aout Bout

u0

u1

u2...

cn

= E

c−0c−1c−2...

c−n

mit den Abkurzungen wie in (B.4).

Zweidimensionaler Fall

§ 987 Im zweidimensionalen Fall hat jeder Gitterpunkt nicht nur die beiden Nachbarn ent-lang der einen Koordinatenachse sondern auch zwei Nachbarn entlang der anderen Raumdi-mension. Daher wird die physikalische Große in einem Gitterpunkt von ihren Werten in denvier benachbarten Gitterpunkten bestimmt. Entsprechend lasst sich ....

c© M.-B. Kallenrode 4. Februar 2008

Page 275: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

264 ANHANG B. NUTZLICHE ERGANZUNGEN

Abbildung B.2: Zentrale Diffe-renz im 2D

i+1,k+1

T T T

T T T

TTT

i−1,k−1

i−1,k

i−1,k+1

i,k−1

i,k

i,k+1

i+1,k−1

i+1,k

Abbildung B.3: GeometrischeKonstruktion zur Newton–Raphson Methode

B.2.5 Nullstellenbestimmung: Newton–Raphson

§ 988 Gesucht ist die Nullstelle f(x) = 0 der Funktion f(x). Zwar haben wir eine grobeVorstellung, wo die Nullstelle liegen muss; wir haben auf Grund der Struktur der Funktionjedoch keine Moglichkeit, eine exakte Losung zu finden. Eine einfache Moglichkeit ist Inter-vallschachtelung: wir bestimmen Funktionswerte fur Argumente großer und kleiner als unserVerdachtswert. Wechselt das Vorzeichen der Funktionswerte, so machen wir das Intervall klei-ner, uberprufen den Vorzeichenwechsel und so weiter, bis wir die Nullstelle mit gewunschterGenauigkeit eingeschachtelt haben. Das Verfahren ist anschaulich aber aufwendig, da furjeden Schritt der Funktionswert an zwei Stellen (den beiden Intervallgrenzen) bestimmt wer-den muss. Außerdem scheitert das Verfahren bereits bei einer so einfachen Funktion wiex2: diese hat zwar bei x = 0 eine Nullstelle, es findet jedoch kein Vorzeichenwechsel statt.Intervallschachtelung versagt also, wenn die Nullstelle gleichzeitig Extremum der Funktionist.

§ 989 Allgemeiner ist die Newton–Raphson Methode. Sie basiert auf einer Iteration der Form

an+1 = an −f(an)f ′(an)

(B.5)

mit f ′ als der Ableitung von f . Der letzte Term ist das Verhaltnis aus Funktionswert undAbleitung an der Stelle an, d.h. er gibt an, wie weit der Schnittpunkt zwischen der Geradendurch (an, f(an)) mit Steigung f ′(an) und der Abszisse von an entfernt ist, vgl. Abb. B.3. Aufdiese Weise entsteht eine Folge von Werten a1, a2, a3, . . ., die sich immer weiter der gesuchtenNullstelle annahert.2

§ 990 Fur einige Funktionen lasst sich die Folge der ai explizitangeben. So ergibt sich fur

2Das gilt in unserem Beispiel, da die Funktion glatt, d.h. stetig und differenzierbar ist. Damit haben wirauch die Voraussetzung fur die Anwendbarkeit der Methode gegeben.

4. Februar 2008 c© M.-B. Kallenrode

Page 276: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.3. CHAOS ODER ALGEBRAISCHE SCHLEIFE? 265

Abbildung B.4: Feigenbaum Attraktor

das Polynom (x− 1)2 = 0 mit der Ableitung 2(x− 1) aus dem Bildungsgesetz der Newton–Raphson Methode eine Folge, deren Glieder nach der Rekursionsformel

an+1 = an −(an − 1)2

2(an − 1)=

an + 12

bestimmt werden. Mit einem geratenen Anfangswert a1 = 12 ergibt sich die Folge

12

,34

,78

,1516

, . . .2n − 1

2n, . . . .

Diese Sequenz entwickelt sich in Richtung auf den erwarteten Wert x = 1. Daher kann mansagen, dass diese Folge fur n→∞ gegen 1 konvergiert. Auch fur alle anderen Anfangswertea1 konvergiert diese Folge gegen 1, es kann nur etwas langer dauern.

Zwischenrechnung 39 Den Anfangswert fur die Newton–Raphson Methode haben wir will-kurlich auf 1/2 gesetzt. Wie andert sich das Ergebnis, wenn wir stattdessen z.B. a1 = −1/2oder a1 = 10 verwenden. Erklaren Sie das Ergebnis!

B.3 Chaos oder algebraische Schleife?

§ 991 In Abschn. 4.7.5 sind wir der algebraischen Schleife als einer Quelle moglicher Unsi-cherheit in einer Simulation begegnet. Dieses Problem ist nicht auf SimuLink beschrankt:algebraische Schleifen konnen auch in allen anderen Hochsprachen zu einem unerwunschtenSystemverhalten fuhren. Eine algebraische Schleife ist also kein Problem einer speziellen Rea-lisierung eines Algorithmus sondern bereits das Problem des Algorithmus.

B.3.1 Feigenbaum Attraktor und Apfelmannchen

§ 992 Dieses Systemverhalten ist nicht nur unerwunscht – es ist ein typisches Beispiel furChaos. Mathematisch bedeutet eine algebraische Ruckkopplung im einfachsten Fall nur dieDefinition einer Folge, z.B. an+1 = ban + c. Mitchell Feigenbaum [21, 22] hat sich intensivmit diesem Problem befasst. Bei der Untersuchung der Folge

xk+1 = αxk (1− xk) mit x0 = 0.5

fand er z.B. eine starke Abhangigkeit der Konvergenzeigenschaften vom Parameter α. Ab-bildung B.4 ist eine Reproduktion des nach ihm benannten Feigenbaum Attraktors. Auf derAbszisse ist der Parameter α aufgetragen. Dieser wurde in kleinen Schritten variiert. Furjeden der Werte von α sind auf der Ordinate die Werte der Folgenglieder x201 bis x300 auf-getragen. Fur α < 3 scheint die Folge zu konvergieren: die Werte von x201 bis x300 fallenalle in die enge Umgebung eines Punktes. Dieser wird als Attraktor bezeichnet. Bei einemα in der Nahe von 3 verzweigt sich die Losung. Hinter dieser Bifurkation gibt es nicht nur

c© M.-B. Kallenrode 4. Februar 2008

Page 277: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

266 ANHANG B. NUTZLICHE ERGANZUNGEN

Abbildung B.5: Apfelmannchen und Selbstahnlichkeit http://en.wikipedia.org/wiki/Fractal

einen Attraktor sondern zwei Punkte, in deren Nahe sich die Glieder der Folge sammeln. Mitzunehmendem α kommt es auf beiden Zweigen zu einer erneuten Bifurkation bis die Losungschließlich chaotisch wird. Ein physikalisches Beispiel, in dem die graphische Losung demFeigenbaum Attraktor ahnelt, ist der Duffing Oszillator.

§ 993 Das Apfelmannchen, auch bezeichnet als Mandelbrot Menge,3 ist eine andere Formder Darstellung von Konvergenz. Hier wird die bereits aus (??) bekannte Folge

zk+1 = z2k + c mit z0 = 0 und z, c ∈ C

betrachtet. In Abhangigkeit vom Wert des komplexen Kontrollparameters c liegt der Haufungs-punkt im Endlichen (dann gehort c zur Mandelbrot Menge) oder nicht (dann gehort c nichtzur Mandelbrot Menge). Das bedeutet, dass fur jeden Wert von c die Reihe gebildet und aufKonvergenz untersucht werden muss. Daher beschrankt man die Bildung der Reihe auf einebestimmt Zahl N von Schritten, z.B. 1000. Zwar kann man Konvergenz streng genommennicht zeigen, allerdings lasst sich mathematisch zeigen, dass die Folge auf jeden Fall divergiert,wenn fur ein Glied der Folge |zk| > 2 gilt. Ist dies nicht der Fall bevor zN erreicht wurde, sogeht man davon aus, dass die Folge fur dieses c konvergiert. In der komplexen Ebene lassensich so alle Punkte markieren, die zur Mandelbrot Menge gehoren. Fur das klassische Ap-felmannchen wird dabei der Ausschnitt <(c) ∈ [−2, 0.5] und =(c) ∈ [−1.25, 1.25] betrachtet –außerhalb dieses Bereiches divergiert die Folge sehr schnell. Unterscheidet man nur nach Di-vergenz und Konvergenz, so bietet sich eine Schwarz-Weiß-Darstellung des Apfelmannchensan. Bei Farbdarstellungen wie in Abb. B.5 wird die Farbkodierung abhangig davon gewahlt,bei welchem Index k fur das Folgeglied xk Divergenz sicher fest gestellt werden konnte. Mitzunehmendem N werden die Abbildungen immer Detail reicher.

§ 994 Apfelmannchen sind, wie fur Fraktale gefordert, selbstahnlich. Dies zeigt sich am deut-lichsten, wenn man immer weiter in ein Apfelmannchen hinein zoomt: uberall finden sich neueApfelmannchen, siehe Abb. B.5.

§ 995 Fur das Spielen mit Fraktalen konnen Sie die Testversion von Ultra Fractal (http://www.ultrafractal.com/) oder die leider nicht mehr gewartete Freeware FractInt (http://spanky.triumf.ca/www/fractint/fractint.html) verwenden. Auf der Seite finden Sieauch weitere Links. Oder Sie basteln sich ein Apfelmannchen in MatLab.

B.3.2 Selbstahnlichkeit

§ 996 Einen Aspekt von Fraktalen haben wir bereits im Zusammenhang mit Abb. 1.16angesprochen: die Selbstahnlichkeit. Angefangen hat alles, zumindest der Legende nach, miteinem einfachen Messproblem: bestimme die Kustenlange Großbritanniens. Das Ergebnishangt von der Methode ab: messen in einem Weltaltlas liefert auf Grund des großen Maßstabsvon ca. 1:4 Mio eine recht kurze Kustenlange. Auf einer Autokarte mit Maßstab 1:250 000 sindbereits mehr Details zu erkennen, entsprechend variierter ist die Kusten – und damit langer.Und auf einer topographischen Grundkarte im Maßstab 1:10 000 ist die Kuste noch langer.Auch in der moderneren Variante, dem Satellitenbild, bleibt dieses Problem bestehen, vgl.

3Falls Sie Literaturrecherche betreiben wollen: die Mandelbrot Menge ist ein Spezialfall einer Julia Menge,d.h. Sie sollten unter letzterem Stichwort suchen.

4. Februar 2008 c© M.-B. Kallenrode

Page 278: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.3. CHAOS ODER ALGEBRAISCHE SCHLEIFE? 267

Abbildung B.6: Rugen’s Kustenlange hangt vom verwendeten Maßstab ab; zwischen denAbbildungen wird der Maßstab jeweils um einen Faktor 4 verringert. Abbildungen aus einemalteren DLR Archiv (KOSMOS Satellit), fur neuere Bilder und eigene Spielereien hilft Google-Earth (http://earth.google.com/)

Abb. B.6 – mit einem Satelliten mit gutem Bodenauflosungsvermogen ergibt sich ein großererWert fur die Kustenlange als mit einem alten Satelliten mit schlechtem Auflosungsvermogen.

§ 997 Also ohne Karten mit Landvermessers. Normalerweise peilen Landvermesser. Damitnahern sie die Kustenlinie stuckweise linear an – die sich ergebende Gesamtlange nimmt mitabnehmender Lange der Peilstrecken zu. Immer noch zu ungenau, daher wird Messung mitkonventionellen Methoden, also einem Maßstab, angeordnet. Das Problem der Peilstreckebleibt erhalten: auch dieses Verfahren liefert stuckweise Diskretisierung. Allerdings werdenjetzt nicht mehr, wie beim Peilverfahren, kleinere Buchten ubersehen. Stattdessen beginnendie Landvermesser, jede Ausbeulung durch einen halb im Wasser liegenden Felsen mit zuvermessen.

§ 998 Eine Eigenschaften der Kustenlinie fuhrt zu diesem Problem: sie ist selbstahnlich.Selbstahnlichkeit bedeutet, dass sich Strukturen auf verschiedenen Großenskalen immer wie-der holen: Buchten und Landvorspunge sehen wir auf den unterschiedlichsten raumlichenSkalen. Da sind die Buchten der großen Flusse und die Halbinseln bei Betrachtung der gan-zen Insel; da sind die Einschnitte der Bache und die kleinen Landzungen bei Betrachtungeiner Bucht oder Halbinsel; da sind die Vorwolbungen von Felsen ins Wasser und die kleinenEinschnitte zwischen ihnen. Wir konnen dies bis auf die Ebene des Sandkorns fortsetzen.

§ 999 Selbstahnlichkeit ist ein verbreitetes Phanomen in der Natur. Ahnlich offensichtlich,jedoch auf deutlich kleinerem Maßstab, tritt sie bei Schneeflocken auf, siehe Abb. B.7. Ins-besondere dendritische Flocken zeigen eine hohe fraktale Dimension, bei eher hexagonalenFlocken (wie im Beispiel rechts unten) ist diese eher gering.

§ 1000 Die Koch’sche Schneeflocke, 1904 von H. von Koch [59] eingefuhrt, kann als ersterEinstieg in die mathematische Beschreibung von Fraktalen verwendet werden.4 Geometrischwird sie aus einem gleichseitigen Dreieck mit Seitenlange a konstruiert, siehe obere Zeile inAbb. 1.16. Selbstahnlichkeit ist das Leitmotiv, d.h. auf der jeweils kleineren Skala soll wiederein gleichseitiges Dreieck auftreten. Also Dritteln wir jede Seite und ersetzen das mittlereDrittel durch ein gleichseitiges Dreieck dessen Spitze nach außen weist. Dieser Vorgang wirdimmer wieder wiederholt. Wie groß ist der Umfang der Schneeflocke?

§ 1001 Da alle drei Seiten der Koch’schen Schneeflocke abgesehen von ihrer Orientierungidentisch sind, reicht es, eine Seite zu betrachten. Dieser Initiator wird mit einem Kochrezept,

4Koch hat bei seiner Arbeit weniger an Fraktale gedacht als vielmehr an die Konstruktion einer stetigenKurve, die an keiner Stelle differenzierbar ist: fuhrt man die Iteration unendlich oft aus, so ist jeder Punkt einEckpunkt, d.h. die Kurve ist an der Stelle nicht differenzierbar, da es keine eindeutige Tangente gibt. Trotzdemist sie stetig, da sie in einem Zug durchgezeichnet werden kann. Eingefuhrt (oder zumindest verbreitet) wurdeder Begriff Fraktal erst durch die Arbeiten Mandelbrots.

c© M.-B. Kallenrode 4. Februar 2008

Page 279: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

268 ANHANG B. NUTZLICHE ERGANZUNGEN

Abbildung B.7: Schneeflocken [64];viele weitere schone Bilder auch un-ter http://www.snowcrystals.com/

dem Generator, verandert. Aus der einen Strecke sind jetzt 4 Strecken geworden, allerdingsmit einer um den Faktor 1/3 reduzierten Lange. Die Lange der Ausgangsstrecke ist um denFaktor 4/3 vergroßert: L1 = 4

3a. Jede der neuen Teilstrecken kann als Initiator des nachstenSchritts verwendet werden. Nach Schritt 2 ist die Lange L2 = a (4/3)2. Allgemein erhaltenwir damit fur den Umfang Uk nach dem kten Schritt

13Uk = Lk =

43Lk−1 =

(43

)k

a . (B.6)

Da in dieser Reihe jeder Wert um einen festen Faktor großer ist als der voran gegangene,konvergiert diese Reihe nicht.

§ 1002 Setzen wir die Konstruktion weiter fort, so sind die Kurven ab einem bestimmten kkaum noch zu unterscheiden, da die mit jedem Schritt entstehenden Anderungen unter dieSichtbarkeitsgrenze fallen – bei einem schlechten Drucker erscheint das vielleicht als etwasausgefranste und verbreiterte Linie.

§ 1003 Zur Charakterisierung eines Fraktals wird die Hausdorff Dimension oder fraktaleDimension verwendet. Diese ist bestimmt durch die Zahl N der identischen Objekte, die mitjedem Schritt entsteht, und durch den Skalierungsfaktor s, um den das Objekt verkleinertwird. Fur die Koch’sche Schneeflocke ist N = 4 und s = 3: aus einer Geraden werden N = 4Geraden, allerdings betragt die Lange dieser Geradenstucke nur jeweils 1

s = 13 . In einer

selbstahnlichen Struktur ist der Zusammenhang zwischen den beiden Parametern durch einPotenzgesetz

N = sD

gegeben mit D als der Hausdorff Dimension. Fur die Koch’sche Schneeflocke ergibt sich ausdiesem Skalierungsgesetz eine fraktale Dimension D = 1.262.5

5Bei den meisten Objekten der klassischen Geometrie stimmen euklidische und Hausdorff Dimensionuberein. So gilt fur eine Strecke bei N = 4 auch s = 4 und damit N = sD = s1, also D = 1. Bei ei-nem Quadrat ergibt sich bei N = 16 ein Skalierungsfaktor von s = 4 und damit eine Hausdorff Dimension

4. Februar 2008 c© M.-B. Kallenrode

Page 280: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

B.4. ETWAS (HISTORISCHER) HINTERGRUND 269

§ 1004 Ein anderes bekanntes Fraktal ist das Sierpinski Dreieck, siehe dritte Zeile in Abb. 1.16.Hier werden in jedem Schritt drei identische Objekte erzeugt, d.h. N = 3. Diese sind mitdem Faktor s = 2 skaliert, so dass sich eine Hausdorff Dimension D = 1.585 ergibt.

§ 1005 Wie die Schneeflocke bereits nahe legt, bieten Fraktale einfache Verfahren zur Er-zeugung selbstahnlicher Strukturen wie Schneeflocken, Farne, Flussdeltas, Kustenlinien, Ge-birgszuge usw.6 Benoit Mandelbrot hat sich in seinem Buch The fractal geometry of nature[70] ausfuhrlich mit diesem Thema beschaftigt. Schone Beispiele finden Sie u.a. in Peitgenund Richter [88]; eine ausfuhrliche Darstellung uber Fraktale und ihren Bezug zum Chaosgeben die beiden Bande von Peitgen et al. [93, 94]. Mit der Verwendung der Selbstahnlichkeitzur Kompression der in einem Bild enthaltenen Information wird ebenfalls experimentiert,siehe z.B. [45]. Eine sich von den algebraischen Ansatzen entfernende, auf Beschreibungendurch Differentialgleichungen beruhende Darstellung von Fraktalen gibt Strichartz [123].

B.4 Etwas (historischer) Hintergrund

B.4.1 Block- und Flussdiagramme

§ 1006 Bereits in der Einfuhrung in Abschn. 1.1 sind wir den Begriffen Block- und Flussdia-gramm begegnet. Eine Unterscheidung zwischen den beiden Begriffen ist nicht unbedingt er-forderlich: zwar wird in der Informatik klassischerweise der Begriff Flussdiagramm verwendet,in der Systemdynamik werden jedoch die Begriffe Fluss- und Blockdiagramm gleichermaßenverwendet.

§ 1007 So gibt Wikipedia (http://de.wikipedia.org/wiki/Flussdiagramm) die folgendeErlauterung:

Das Wort Flussdiagramm bezeichnet• eine in der Informatik verwendete Darstellungsform von Ablaufplanen in Compu-

terprogrammen (http://de.wikipedia.org/wiki/Programmablaufplan)• eine in der Systemdynamik (http://de.wikipedia.org/wiki/System Dynamics)

verwendete Systematik zur Darstellung von kausalen Zusammenhangen• ein Sankey-Diagramm (http://de.wikipedia.org/wiki/Sankey-Diagramm) wird

auch als Massenflussdiagramm bezeichnet.

§ 1008 Im englischen Sprachraum wird der Begriff flowchart ebenfalls fur beide Anwendun-gen genutzt – dort bemuht sich Wikipedia (http://en.wikipedia.org/wiki/Flowchart)nicht einmal um obige sprachliche Feinheiten sondern gibt die Definition: ‘A flowchart is aschematic representation of an algorithm or a process.’

B.4.2 Flussdiagramme in der Informatik

§ 1009 Die wichtigsten, in Flussdiagrammen verwendeten Symbole, sind in Abb. B.8 zusam-men gefasst.

D = 2. Beim Wurfel ergibt sich bei N = 64 ein Skalierungsfaktor s = 4 und damit D = 3:

6Den Initiator der Schneeflocke hat bereits Koch selbst mit einem etwas anderen Generator behandelt,um daraus einen Bienenkorb zu erzeugen, vgl. zweite Zeile in Abb. 1.16.

c© M.-B. Kallenrode 4. Februar 2008

Page 281: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

270 ANHANG B. NUTZLICHE ERGANZUNGEN

Abbildung B.8: Sym-bole in Flussdiagram-men

4. Februar 2008 c© M.-B. Kallenrode

Page 282: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Abbildungsverzeichnis

1.1 Losungen gedampfte Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . 31.2 Erzwungene Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51.3 Flussdiagramm freie Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . 71.4 Freie Schwingung (numerische Losungen) . . . . . . . . . . . . . . . . . . . . 71.5 Erzwungene Schwingung (numerische Losungen) . . . . . . . . . . . . . . . . 91.6 Freie Schwingung in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . . 111.7 Freie Schwingung in SimuLink II . . . . . . . . . . . . . . . . . . . . . . . . . 111.8 Erzwungene Schwingung in SimuLink . . . . . . . . . . . . . . . . . . . . . . 121.9 Ein Seil gleitet reibungsfrei uber eine Tischkante in SimuLink . . . . . . . . . 141.10 Gekoppelte Federpendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151.11 Gekoppelte Pendel (numerische Losung) . . . . . . . . . . . . . . . . . . . . . 161.12 Gekoppelte Pendel in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . 171.13 Elektrischer Schwingkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181.14 Spezialisierung verschiedener Regionen der Großhirnrinde . . . . . . . . . . . 191.15 Purkinje-Zellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201.16 Barnsley Farn, Muschel mit Sierpinski Dreiecken und Koch’sche Schneeflocke 211.17 Belousov–Zhabotinsky-Reaktion . . . . . . . . . . . . . . . . . . . . . . . . . . 221.18 Selbstorganisation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231.19 Humunculus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24

2.1 Fourier Reihe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352.2 Periodische Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 362.3 Basisfunktionen der Fourier Transformation . . . . . . . . . . . . . . . . . . . 362.4 f(t) = cos2(t) als Beispiel fur Fourier Zerlegung . . . . . . . . . . . . . . . . . 362.5 Fourier Reihe fur x2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 392.6 Langsam und schnell veranderliche Funktion und ihr Fourier Spektrum . . . . 422.7 Fourier Reihe eines Rechtecks . . . . . . . . . . . . . . . . . . . . . . . . . . . 422.8 Gibbs’sches Phanomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.9 sin(x)/x . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 432.10 Lorentz Funktion als Fourier Transformiert . . . . . . . . . . . . . . . . . . . 442.11 Diskrete Fourier Transformation Winkelfunktionen . . . . . . . . . . . . . . . 502.12 Fourierkoeffizienten Winkelfunktionen . . . . . . . . . . . . . . . . . . . . . . 512.13 Sonnenfleckenzyklus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 542.14 Rechteck und FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552.15 Reduziertes Rechteck und FFT . . . . . . . . . . . . . . . . . . . . . . . . . . 562.16 Echtes Rechteck und FFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 562.17 Lange Datensatz und Genauigkeit Fourier . . . . . . . . . . . . . . . . . . . . 572.18 Verrauschtes Rechteck und FFT . . . . . . . . . . . . . . . . . . . . . . . . . 582.19 Multiplikation im Frequenzbereich statt Faltungsintegral im Zeitbereich . . . 59

271

Page 283: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

272 ABBILDUNGSVERZEICHNIS

2.20 Annaherung einer Funktion durch Rechteckfunktionen/δ-Funktionen . . . . . 60

3.1 RC-Netzwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 733.2 Harmonischer Oszillator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 783.3 Tiefpass: Ein- und Ausgangssignal fur unterschiedliche Frequenzen und Signal-

formen; Bode-Diagramm . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 803.4 Systeme in Serie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863.5 Parallele Systeme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 863.6 Ruckkopplung und offener Regelkreis . . . . . . . . . . . . . . . . . . . . . . . 863.7 Standarsregelkreis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87

4.1 Legor und Anspruch . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 934.2 Einfaches Modell in SimuLink: Tiefpass . . . . . . . . . . . . . . . . . . . . . 944.3 Bandpass in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 954.4 Bandpass: Signalverlauf fur verschiedenen Eingangsfrequenzen . . . . . . . . . 954.5 Gruppen von Blocken in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 964.6 Kontinuierliche Signale (SimuLink) . . . . . . . . . . . . . . . . . . . . . . . 974.7 Parameter des Integrators . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 984.8 Integration einer Rampe . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 994.9 Blocke fur mathematische Operationen in SimuLink . . . . . . . . . . . . . . 1014.10 Blocke zur Signaldarstellung in SimuLink . . . . . . . . . . . . . . . . . . . . 1034.11 Blocke zur Darstellung externer Antriebe in SimuLink . . . . . . . . . . . . . 1044.12 Simulationskontrolle in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . 1054.13 Parameter Gain . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1064.14 Parameter Integrator . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1074.15 Gedampfte Schwingung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1084.16 Freie Schwingung in SimuLink: Uberprufung der Losung . . . . . . . . . . . 1104.17 Erzwungene Schwingung mit Transfer Function . . . . . . . . . . . . . . . 1114.18 Erzwungene Schwingung mit State Space . . . . . . . . . . . . . . . . . . . . 1124.19 Kran als Fadenpendel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1154.20 SimuLink Modell zum Kran . . . . . . . . . . . . . . . . . . . . . . . . . . . 1164.21 Auslenkung des Containers . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1174.22 Doppelpendel im Phasenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 1194.23 Lissajous Figur . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1204.24 Gekoppelte Federpendel und Untersysteme: Geometrie . . . . . . . . . . . . . 1214.25 Subsystem fur eine einzelne Masse . . . . . . . . . . . . . . . . . . . . . . . . 1214.26 Gekoppelte Pendel und Untersysteme . . . . . . . . . . . . . . . . . . . . . . 1224.27 Simulationsergebnis Dreierpendel . . . . . . . . . . . . . . . . . . . . . . . . . 1224.28 Editor fur ein maskiertes Subsystem 1 . . . . . . . . . . . . . . . . . . . . . . 1234.29 Editor fur ein maskiertes Subsystem 2 . . . . . . . . . . . . . . . . . . . . . . 1244.30 Editor fur ein maskiertes Subsystem 4 . . . . . . . . . . . . . . . . . . . . . . 1254.31 Editor fur ein maskiertes Subsystem 3 . . . . . . . . . . . . . . . . . . . . . . 1254.32 Editor fur ein maskiertes Subsystem 5 . . . . . . . . . . . . . . . . . . . . . . 1264.33 System aus Abb. 4.24 mit maskierten Untersystemen . . . . . . . . . . . . . . 1264.34 Schrittweite ODE 45 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1294.35 Simulationskontrolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1314.36 Schrittweiten verschiedene ODEs . . . . . . . . . . . . . . . . . . . . . . . . . 1344.37 Springender Ball in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . . 1354.38 Modell eines elastischen Balls . . . . . . . . . . . . . . . . . . . . . . . . . . . 1354.39 Elastischer Ball in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . . . 1364.40 Zener-Diode . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1374.41 Schmitt Trigger . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1374.42 Simulationskontrolle: Im- und Exporte . . . . . . . . . . . . . . . . . . . . . . 1384.43 Simulationskontrolle: Optimierung . . . . . . . . . . . . . . . . . . . . . . . . 1384.44 Simulationskontrolle: Diagnostik . . . . . . . . . . . . . . . . . . . . . . . . . 139

4. Februar 2008 c© M.-B. Kallenrode

Page 284: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

ABBILDUNGSVERZEICHNIS 273

4.45 DGL erster Ordnung mit algebraischer Schleife . . . . . . . . . . . . . . . . . 1394.46 Wie Abb. 4.7.5 aber ohne algebraische Schleife . . . . . . . . . . . . . . . . . 1404.47 Memory Block zum Aufbrechen einer algebraischen Schleife . . . . . . . . . . 1404.48 Bewegung zweier Wagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1414.49 Algebraische Schleife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1424.50 Wie Abb. 4.49 aber mit Memory Block . . . . . . . . . . . . . . . . . . . . . . 142

5.1 Analoge Reprasentation eines digitalen Signals . . . . . . . . . . . . . . . . . 1455.2 Signalkette . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1465.3 Unterabtastung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1465.4 Typische Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1475.5 Hoch- und Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1495.6 Filter zweiter Ordnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1505.7 Serienschwingkreis in LTSpice . . . . . . . . . . . . . . . . . . . . . . . . . . . 1515.8 Butterworth Filter (Schaltung) . . . . . . . . . . . . . . . . . . . . . . . . . . 1525.9 Butterworth Filter (Ubertragungsfunktion) . . . . . . . . . . . . . . . . . . . 1535.10 Tschebyscheff Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1535.11 Tschebyscheff Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1545.12 Gleitendes Mittel als Tiefpass . . . . . . . . . . . . . . . . . . . . . . . . . . . 1575.13 Gleitendes Mittel: Zeit und Support . . . . . . . . . . . . . . . . . . . . . . . 1585.14 Gleitendes Mittel: Ramdpunkte . . . . . . . . . . . . . . . . . . . . . . . . . . 1595.15 Blockdiagramm digitaler Filter . . . . . . . . . . . . . . . . . . . . . . . . . . 1615.16 Blockdiagramm IIR Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1625.17 Butterworth Filter . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1635.18 Fehlende Pixel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1655.19 Kernel zur Korrektur fehlender Pixel . . . . . . . . . . . . . . . . . . . . . . . 1665.20 Fehlende Zeilen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1675.21 Poisson-Rauschen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1695.22 Kontrastanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1705.23 Helligkeitswerte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1715.24 Kontrastanreicherung in einem Kanal . . . . . . . . . . . . . . . . . . . . . . 1725.25 Histogramm Gletscher und Fels . . . . . . . . . . . . . . . . . . . . . . . . . . 1735.26 Kontrastanreicherung Fels–Gletscher . . . . . . . . . . . . . . . . . . . . . . . 1745.27 Ungerichtete Kantenanreicherung . . . . . . . . . . . . . . . . . . . . . . . . . 1755.28 Kantenanreicherung, Beispiel . . . . . . . . . . . . . . . . . . . . . . . . . . . 1755.29 JPEG-Kodierung und Zahl der Koeffizienten . . . . . . . . . . . . . . . . . . 180

6.1 Raketenstart: Main . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1856.2 Raketenstart: Subsystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1866.3 Raketenstart: Ergebnisse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1876.4 Fadenpenel nichtlinear (große Winkel) . . . . . . . . . . . . . . . . . . . . . . 1886.5 Fadenpendel im Phasenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . 1896.6 Vorhersageprobleme: Ubergang Schwingung – Rotation . . . . . . . . . . . . . 1906.7 Fadenpendel mit Feder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1906.8 Feder-Fadenpendel: Typen der Bewegung . . . . . . . . . . . . . . . . . . . . 1916.9 Feder-Fadenpendel in SimuLink . . . . . . . . . . . . . . . . . . . . . . . . . 1926.10 Feder-Fadenpendel: Typen der Bewegung II . . . . . . . . . . . . . . . . . . . 1926.11 Poincare Portrait Feder-Fadenpendel I . . . . . . . . . . . . . . . . . . . . . . 1926.12 Poincare Portrait Feder-Fadenpendel II . . . . . . . . . . . . . . . . . . . . . 1936.13 Fadenpendel an einer Rolle . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1936.14 Fadenpendel mit Rolle: Poincare Schnitt . . . . . . . . . . . . . . . . . . . . . 1946.15 Lineare Anordnung gekoppelter Pendel . . . . . . . . . . . . . . . . . . . . . . 1956.16 Weg–Zeit- und Geschwindigkeits–Zeit-Diagramme fur 10 gekoppelte Pendel . 1966.17 Darstellung Phasenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1976.18 Darstellung Phasenraum . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 198

c© M.-B. Kallenrode 4. Februar 2008

Page 285: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

274 ABBILDUNGSVERZEICHNIS

6.19 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1986.20 Entwicklung der Verteilung verschiedener Parameter gekoppelter Pendel . . . 1996.21 Diffusions–Reaktions-Modell schematisch . . . . . . . . . . . . . . . . . . . . . 2036.22 Relative Langenskalen bei Turing Mustern . . . . . . . . . . . . . . . . . . . . 2046.23 Muster auf Tierhauten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204

7.1 Kaninchenpaare (Fibonacci Zahlen) . . . . . . . . . . . . . . . . . . . . . . . 2097.2 Entwicklung der Kaninchenpopulation . . . . . . . . . . . . . . . . . . . . . . 2107.3 Nicht-lineares System: Ein- und Ausgang . . . . . . . . . . . . . . . . . . . . 2117.4 Abhangigkeit der Ausgangsgroße von der Eingangsgroße in einem komplexen

System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2127.5 NetLogo Simulation Forest Fire . . . . . . . . . . . . . . . . . . . . . . . . . 213

8.1 Global Environment and Society (GES) Model . . . . . . . . . . . . . . . . . 2248.2 Impulsantwort Klimasystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2258.3 Emissionsszenarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2268.4 Sensitivitat Kosten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2288.5 Discount und Vermeidungskosten . . . . . . . . . . . . . . . . . . . . . . . . . 2298.6 Schadenskostenfunktion und Discount . . . . . . . . . . . . . . . . . . . . . . 2308.7 Erweiterts GES-Modell . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2318.8 GES im Mehrspielerszeanrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2338.9 Nash-Gleichgewicht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2348.10 Nash Gleichgewicht und einzelner Vermeider . . . . . . . . . . . . . . . . . . . 2358.11 Konsument–Produzent fossiler Brennstoffe . . . . . . . . . . . . . . . . . . . . 236

A.1 Dampfung: Nullpunkt als Attraktor . . . . . . . . . . . . . . . . . . . . . . . 238A.2 The Prisoner . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241A.3 Russel’s Soliton modern . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244A.4 Soliton aus Dispersion und Nichtlinearitat . . . . . . . . . . . . . . . . . . . . 244A.5 Tsunami 2004 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 246A.6 Bright and Dark Soliton . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248A.7 Moderne Variante Huygen’s synchronisierte Uhren . . . . . . . . . . . . . . . 250A.8 Arnold’s Tongue und Devil’s Staircase . . . . . . . . . . . . . . . . . . . . . . 252A.9 Van Pol’s Gleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253

B.1 Zentrale Differenz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 262B.2 Zentrale Differenz im 2D . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264B.3 Newton–Raphson Methode . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264B.4 Feigenbaum Attraktor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265B.5 Apfelmannchen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266B.6 Kustenlange . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267B.7 Schneeflocken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 268B.8 Symbole in Flussdiagrammen . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

4. Februar 2008 c© M.-B. Kallenrode

Page 286: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Tabellenverzeichnis

2.1 Fourier Transformierte wichtiger Funktionen . . . . . . . . . . . . . . . . . . . 452.2 Laplace Transformierte wichtiger Funktionen . . . . . . . . . . . . . . . . . . 64

275

Page 287: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Literaturverzeichnis

[1] N. Ahmed, T. Natarajan und K.R. Rao: Discrete cosine transform, IEEE Trans. Com-puters, Januar 1974 179

[2] H.L. Anderson: Scientific Uses of the MANIAC, J. Stat. Phys. 43 Nos. 5/6, 1986 201[3] R. Axelrod: The evolution of cooperation, New York, Basic Books, 1984 217, 219, 236[4] P. Baccini and P.H. Brunner: Metabolism of the anthoposphere, Springer, 1991[5] M. Bacharach: Beyond individual choice – teams and frames in game theory, Princeton

University Press, 2006 220, 236[6] M. Barnsley: Fractals everywhere, Academic Press, 1985 20[7] B.P. Belousov: A periodic reaction and its mechanism (in russ.), Compilation of Ab-

stracts on Radiation Medicine, 147:145, 1959. Auf deutsch: B. P. Belousov: Eine peri-odische Reaktion und ihr Mechanismus. In: L. Kuhnert , U. Niedersen (Hrsg.): Selbst-organisation chemischer Strukturen. Verlag Harri Klein, Frankfurt/Main 2001, S. 73-8222

[8] K. Binmore: Fun and Games: a text von game theory, D.C. Heath, Lexington, MA 236[9] I.I. Blekham: Synchronization in science and technology, ASME Press, New York, 1988

254[10] Bronstein 42, 45, 63, 67[11] T. Butz: Fouriertransformation fur Fußganger, Teubner, 1998 43, 53[12] S. Campbell, J.-P. Chancelier, and R. Nikoukhah: Modeling and Simulation in

Scilab/Scicos, Springer, 2006 30[13] D. Chalmers: The conscious mind: in search of a fundamental theory, Oxford University

Press, 1996 242[14] T. Chang and D. Chang: Enhancing Learning Experience with Dynamic Simulation,

http://www.ni.com/pdf/academic/us/journals/lv02 23.pdf[15] J. W. Cooley und J. W. Tukey: An algorithm for the machine calculation of complex

Fourier series, Math. Comput. 19, 297–301, 1965 53[16] A.P. Cracknell und L.W.B. Hayes: Introduction to remote sensing, Taylor und Francis,

1991 173, 174[17] J.B. Dabney and T.L. Harman: Mastering SimuLink, Pearson, 2004 29, 141, 142[18] A.K. Dixit and B.J. Nalebuff: Spieltheorie fur Einsteiger, Schaffer-Poeschel, Darmstadt,

1995[19] G. Doetsch: Anleitung zum praktischen Gebrauch der Laplace Transformation, Olden-

bourg, 1956 67[20] C.L. Epstein: Introduction to the Mathematics of Medical Imaging, Cambridge Univer-

sity Press, 2007 181[21] M.J. Feigenbaum: Universality in complex discrete dynamical systems, Los Alamos

Theoretical Division Annual Report, 98-102, 1977 22, 265[22] M.J. Feigenbaum: Some characterizations of strange sets, J. Stat. Phys. 46, 919–924,

1987 22, 265

276

Page 288: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

LITERATURVERZEICHNIS 277

[23] E. Fermi, J.R. Pasta and S.M. Ulam: A study of nonlinear problems, Los AlaomsSci. Lab. rep. LA-1940, 1955, http://www.physics.utah.edu/∼detar/phycs6720/handouts/fpu/FermiCollectedPapers1965.pdf 199

[24] Y. Fisher (Hrsg.): Fractal image compression, Springer, 1996 21, 269[25] L. Glass: Synchronization and rhytmic processes in physiology, Nature, 410, 277–284,

2001 254[26] H. handels: Medizinische Bildverarbeitung, Teubner, 2000 181[27] S.P. Hargreaves Heap and Y. Varoufakis: Game theory – a critical text, Routledge, 2004

236[28] A. Hasagawa and F. Tappert: Transmission of stationary nonlinear optical pulses in

dispersive dielectric fibers, I. anomalous dispersion, II. normal dispersion, Appl. Phys.Lett., 23, 142–144, 171–172, 1973 249

[29] Hasselmann, K. and Hasselmann, S.: Multi-Actor Optimization of Greenhouse-GasEmission Paths Using Coupled Integral Climate Response and Economic Models’, inProc. Potsdam Symp. ‘Earth System Analysis: Integrating Science for Sustainability’,1994, 1996 236

[30] Hasselmann, K., Hasselmann, S., Giering, R., Ocana, V., and von Storch, H.: Optimi-zation of CO2 Emissions Using Coupled Integral Climate Response and Simplified CostModels. A Sensitivity Study, MPI Rep. 192, also IIASA workshop series (in press), 1996233, 234, 235, 236

[31] K. Hasselmann, S. Hasselmann, R. Giering, V. Ocana and H. von Storch: Sensitivitystudy of optimal CO2 emission paths using a simplified structural integrated assessmentmodel (SIAM). Clim. Change 37(2), 345–386, 1997 224, 225, 226, 228, 229, 230

[32] H. Haberle: Informationstheoretische Grundlagen der Digitaltechnik, VDI-Bildungswerk, 1966 145

[33] E. Herter und W. Lorcher: Nachrichtentechnik: Ubertragung - Vermittlung - Verarbei-tung, Hanser, Munchen, 1992 145

[34] A.L. Hodgkin and A.F. Huxley: A quantitative description of membrane current andits application to conduction and excitation in nerve, J. Physiology 117, 500–544, 1952205

[35] J. Hoffmann and U. Brunner: MatLab & Tools, Addison-Wesley, 2002 30, 135, 136[36] D.R. Hofstadter: Godel, Escher, Bach – an eternal golden braid, Vintage, 1980 216[37] D.R. Hofstadter: Metamagicum – fragen nach der Essenz von Geist und Struktur, Klett-

Cotta, 1988 216[38] D.r. Hofstadter: Fluid concepts and creative analogies, Basic Books, 1995 216[39] J.H. Holland: Emergence – from chaos to order, Oxford University Press, Oxford, 1998

242[40] M. Horn und N. Dourdoumas: Regelungstechnik, Pearson, 2004 90[41] M.E. Hosea and L.F. Shampine: Analysis and implementation of TR-BDF2, Appl. Num.

Math. 20, (1-2)21–37, 1996 132[42] B.R. Hunt, R.L. Lipsman, and J.M. Rosenberg: A guide to MatLab for beginners and

experienced users, Cambridge University Press, 2nded, 2006 30, 115, 116, 117, 143[43] K. Hutter (Hrsg.): Dynamik umweltrelevanter Systeme, Springer, 1991[44] Ch. Huygens: Horologium Oscillatorum, Muguet, Paris, 1673; englisch as The pendulum

clock, Iowa State University Press, Ames, 1986 250[45] Y. Fisher (ed.): Fractal image compression, Springer, 1995 21, 269[46] D.M. Imboden and S. Koch: Systemanalyse – Einfuhrung in die mathematische Model-

lierung naturlicher Systeme, Springer, 2003[47] P. Imkeller und J.-S. von Storch (eds.): Stochastic climate models, Birkhauser, 2001 208[48] B. Jahne: Digitale Bildverarbeitung, Springer, 2002 169, 174, 181[49] R.S. Johnson: Water waves and Korteweg–de Vries equations, J. Fluid Mech. 97, 701–

719, 1980 250[50] S. Johnson: emergence, Penguin Books, 2002 1, 23, 25, 242[51] M.-B. Kallenrode: Rechenmethoden der Physik, Springer, 2. Aufl., 2005 5, 131, 132

c© M.-B. Kallenrode 4. Februar 2008

Page 289: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

278 LITERATURVERZEICHNIS

[52] M.-B. Kallenrode: Physik der Atmosphare, Vorlesungsskript, Uni Osnabruck, Mai 2006,http://www.sotere.uni-osnabrueck.de/Lehre/skript/atmo-master.pdf 223

[53] M.-B. Kallenrode: Modeling transport, Vorlesungsskript, Uni Osnabruck, Januar 2007,http://www.sotere.uni-osnabrueck.de/Lehre/skript/transport-master.pdf 5,114

[54] M.-B. Kallenrode: Mathematik fur Physiker (2), Vorlesungsskript, Uni Osnabruck, Ja-nuar 2007, http://www.sotere.uni-osnabrueck.de/Lehre/skript/mathemaster.pdf 5, 131, 132

[55] E.R. Kandel, J.H. Schwartz and T.M. Jessell: Principles of neural science, 2nd ed.,Prentience Hall, 1991 24

[56] M. Kauke: Kooperative Intelligenz, Spektrum Akademischer Verlag, 1998[57] J. Kennedy and R.C. Eberhart: Swarm intelligence, Morgan Kaufmann Publ. 2001[58] J. Kim: Mind in a physical world, MIT Press, Cambridge, MA, 1999 242[59] H. von Koch: Sur une courbe continue sans tangente, obtenue par une construction

geometrique elementaire, Arkiv for Matematik 1, 681-704, 1904 22, 267[60] D. Kreß: Theoretische Grundlagen der Signal- und Informationsubertragung, Vieweg,

Braunschweig, 1977 145[61] Y. Kuramoto: Chemical oscillations, waves and turbulence, S pringer, Berlin, 1984 254[62] T. Leppannen: Computational studies of pattern formation in turing systems, Dis-

sertation, Univ. Helsinki, 2004; http://lib.tkk.fi/Diss/2004/isbn9512273969/isbn9512273969.pdf 202

[63] T. Leppaanen, The theory of Turing pattern formation, Imperial College Press, 2004.http://www.lce.hut.fi//////research/polymer/turing review.pdf 202, 205

[64] K. Libbrecht and P. Rasmussen: Snowflake, Colin Bexter, 2003; viels davon auch unterhttp://www.snowcrystals.com/ zu finden, insbesondere die Bilder 268

[65] E. Loffler: Geographie und Fernerkundung, Teubner, 1994 170[66] Lorentz, Deterministic Nonperiodic Flow, J. Atmospheric Sciences 20, Marz 1963 (hier

ist der Schmetterling zwar noch eine Mowe, aber sie/er entwickelt sich 202, 254[67] N. Luhmann: Einfuhrung in die Systemtheorie, Carl Auer, Heidelberg, 2006 18[68] H. Lutz und W. Wendt: Taschenbuch der Regelungstechnik, Harri Deutsch, 2003 30,

90, 184[69] D.P. Maki and M. Thompson: Mathematica modeling and computer simulation,

Brooks/Cole – Thomson Leanring, belmont, CA, 2006[70] B. B. Mandelbrot: The fractal geometry of nature, Freeman, 1983 22, 269[71] The mathworks: SimuLink 6, http://www.mathworks.com/access/helpdesk/help/

pdf doc/simulink/sl using.pdf, vers. 2007a, Marz 2007 143[72] J.H. McClellan, R.W. Schafer and M.A. Yoder: Signal processing first, Pearson, 2003

67[73] B. Meffert und O. Hochmuth: Werkzeuge der Signalverarbeitung, Pearson, 2004 67, 181[74] R. Meinel, G. Neugebauer, and H. Steudel: Solitonen, Akademie Verlag Berlin, 1991

244, 245[75] H. Meinhardt: Models of biological pattern formation, Academic Press, New York, 1982

202, 204[76] H. Meinhardt: The algorithmic beauty of sea shells, Springer, 1998 20, 21, 202[77] L. Mero: Die Logik der Unvernunft, rororo, 2003 217[78] A.S. Mikhailov and V. Calenbuhr: From Cells to Societies, Springer, 2002[79] R. Morris, L. Tarassenko and M. Kenward (eds): Cognitive Systems, Elsevier, 2006 280[80] L.F. Mollenauer, R.H. Stolen and J.P. Gordon: Experimental observations of picosecond

pulse narrowing and solitons in optical fibers, Phys. Rev. Lett. 45, 1095–1098, 1980 249[81] E. Moseklide and O.G. Mouritsen (eds): Modelling of the dynamics of biological systems

– Nonlinear phenomena and pattern formation, Springer, 1995 242[82] E. Mosekilde, Yu Maistrenko and D. Postnov: Chaotic synchronization: applications to

living systems, World Scientific, Singapore, 2002 254[83] R. Munch: Die akademische Elite, Suhrkamp, 2007 25

4. Februar 2008 c© M.-B. Kallenrode

Page 290: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

LITERATURVERZEICHNIS 279

[84] J.D. Murray: Mathematical biology, Springer, Berlin, 1983 202, 204, 242[85] S. Nettel: Wave physics, Springer, Berlin, 1992 244, 245[86] H. Nyquist: Certain Topics in Telegraph Transmission Theory, Trans. Amer. Inst. Elect.

Eng. 47, 617-644, 1928 52[87] M. Osterloh und B. frey: Die Krankheit der Wissenschaft, Forschung und Lehre 11/07,

670–673, 2007 25[88] H.-O. Peitgen und P. H. Richter: The beauty of fractals – images of complex dynamical

systems, Springer, 1986 22, 239, 269[89] E. Packel: The mathematitics of games and gambling, The Mathematical Association

of America, 2006 236[90] W.E. Parry: Three voyages for the discovery of the Northwest passage from the Atlantic

to the Pacific and narrative of an attempt to reach the North Pole, Vol. 1, Harper &Bro, New York, 1840 243

[91] T. Parsons: The social system, 1951 71[92] H.-O. Peitgen, H. Jurgens and D. Saupe: Chaos and Fractals – new frontiers of science,

Springer, 1992; Inhalt im wesentlichen zweibandig als deutsche Fassung in [93] und [94]22, 239

[93] H.-O. Peitgen, H. Jurgens und D. Saupe: Bausteine des Chaos – Fraktale, rororo 1998239, 269, 279

[94] H.-O. Peitgen, H. Jurgens und D. Saupe: Chaos – Bausteine der Ordnung, rororo 1998239, 269, 279

[95] A. Pikovsky, M. Rosenblum and J. Kurths: Synchronization: a universal concept innonlinear science, Cambridge University Press, Cambridge 2001 254

[96] S. Pinker: The language instinct, William Morrow & Co, 1994 25, 92[97] W.H. Press, A.S.A. Teukolsky, W.T. Vetterling and B.P. Flannery: Numerical Recipes

3rd Edition, Cambridge University Press, 2007; altere online Versionen (Fortran, C)unter http://www.nr.com/oldverswitcher.html 55, 58

[98] A. Rapoport: Kampfe, Spiele und Debatten, Verlag Darmstadter Blatter, 1976 217,219, 222, 236

[99] E. Rasmussen: Games and information, Blackwell, Cambridge MA, 1994 236[100] M. Remoissenet: Waves called solitons, Springer, 1999 247[101] H. Riedrich: Nukleation auf vikinalen Oberflachen, BA thesis, Osnabruck, 2006 205[102] J.S. Russell: Report on waves, British Association Reports, 1844 244[103] J.S. Russell: The wave of translation in the oceans of water, air and ether, trubner,

London, 1855 245[104] F.F. Sabins, Jr.: Remote sensing – Principles and interpretation, Freeman, 1996 181[105] M. Scheffer: Fish and nutrient interplay determines algal biomass: a minimal model,

OIKOS 62, 271–282, 1991 204[106] A.C. Scott: Stairways to the mind: the controversial new science of conscious, Springer,

Berlin, 1995 242[107] A. Scott: Neuroscience – A methamtical primer, Springer, New York, 2002 205, 242[108] A. Scott: Nonlinear Science – Emergence and dynamics of coherent structures, Oxford,

2003 25, 183, 200, 205, 242, 245[109] A. Scott: The nonlinear universe – chaos, emergence, life, Springer, 2007 183, 207, 245,

246[110] A.F. Seila, V. Ceric, and P. Tadikamalla: Applied simulation modeling, Brooks/Cole –

Thomson Learning, Belmont, CA, 2003[111] L.F. Shampine and M.W. Reichelt: The MATLAB ODE Suite, The Ma-

thWorks, INc., 1996, http://www.mathworks.com/access/helpdesk/help/pdf doc/otherdocs/ode suite.pdf 132

[112] C.E. Shannon: A mathematical theory of communication, Bell Syst. Tech. J. 27, 379-423und 623-656, 1948 145

c© M.-B. Kallenrode 4. Februar 2008

Page 291: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

280 LITERATURVERZEICHNIS

[113] C.E. Shannon and W. Weaver: The mathematical theory of information, Univers. Ill..Press, Urbana, 1949; deutsch Mathematische Grundlagen der Informationstheorie, Ol-denbourg, Munchen, 1976 145

[114] C. E. Shannon: Communication in the Presence of Noise, Proc. IRE 37, No. 1, Jan.1949 52

[115] Junping Shi: Turing patterns in animal coats, http://www.resnet.wm.edu/∼jxshix/Mathbiology-1.ppt 203, 204

[116] W. Sierpinski: Sur une coube cantorienne dont tout point est un point de ramification,C.R. Acad. Paris 160, 302, 1915 20

[117] W. Sierpinsky: Sur une courbe cantorienne qui contient une image biunivoquet et con-tinue detoute courbe donnee, C.R. Acad. Paris 162, 629–632, 1916 20

[118] L. Smith: Chaos – A Very Short Introduction, Oxford University Press, Oxford, 2007239

[119] M.R. Spiegel: Laplace Transformationen – Theorie und Anwendung, McGraw-Hill, 197767

[120] Stehr, N. and von Storch, H.: The Social Construct of Climate and Climate Change,Clim. Res. 5, 99–110, 1995 231

[121] N. Stehr und H. v. Storch: Klima, Wetter, Mensch, Beck, 1997 231, 236[122] Stoecker, H.: Taschenbuch mathematischer Formeln und moderner Verfahren, 4te Auf-

lage, Harri Deutsch, 1999 42, 45, 63, 67[123] R.S. Strichartz: Differential equations on fractals – a tutorial, Princeton University

Press, 2006 269[124] S. Strogatz: sync – the emerging science of spontaneous order, Penguin Books, 2003

25, 254[125] J. Swinton: Watching the daisies grow: Turing and Fibonacci phyllotaxis, Talk given

at Turing 2004, www.swintons.net/jonathan/turing.htm 203[126] T. Tel and M. Gruis: Chaotic Dynamics – An introduction based on classical mechanics,

Cambridge, 2006 192, 193, 194[127] D’Arcy Wentworth Thompson: Uber Wachstum und Form, Die Andere Bibliothek, 2006

242[128] M. Toda: Vibration of a chain with nonlinear interactions, J. Phys. Soc. Japan 22,

431–436, 1967 199[129] M. Toda: Theory of nonlinear lattices, Springer, Berlin, 1981 199, 200[130] A. Turing: Computing machinery and intelligence, Mind 59, 433, 1950 202, 254[131] A. Turing: The Chemical Basis of Morphogenesis, Phil. Trans. R. Soc. Lond., B237,

37-72, 1952 23, 202, 242[132] J. Tyndall: The forms of water in clouds and rivers, ice and glaciers, Appleton and

Co, New York, 1872 69[133] B. van der Pol: The nonlinear theory of electric oscillations, Proc. IRE 22, 1051–1086,

1934 252[134] E. van Groesen and J. Molenaar: Continuum modeling in the physical sciences, SIAM,

Philadelphia, 2007[135] R. van Gulick: reduction, emergence and other recent options on the mind/body pro-

blem, J. Consc. Stud. 8 (9-19)1–34, 2001 240, 241, 242[136] J.H. Weaver: Theory of discrete and continuous Fourier analysis, John Wiley & Sons,

1989 41[137] U. Wilensky: NetLogo Fire model, http://ccl.northwestern.edu/netlogo/models/

Fire, Center for Connected Learning and Computer-Based Modeling, NorthwesternUniversity, Evanston, IL, 1997 212

[138] D. Willshaw: Self-Organisation in the nervous system, in [79], p. 5–33 25, 204, 242[139] A.T. Winfree: The geometry of biological time, Springer, Berlin, 2000 252, 254[140] I.A. Witten, A. Moffat and T.C. Bell: Managing Gigabytes, 2nded., Morgan and Kauff-

man, 1999 180

4. Februar 2008 c© M.-B. Kallenrode

Page 292: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

LITERATURVERZEICHNIS 281

[141] D.J. Wollkind and L.E. Stephenson: Chemical Turing pattern formation analysos:comparison of theory with experiment, SIAM J. Appl. Math 61, 387–431; http://epubs.siam.org/sam-bin/dbq/article/32621 205

[142] Woltering, M.: Chaos und Turbulenz in der Belousov-Zhabotinsky-Reaktion, Diss., Dort-mund 2002, http://eldorado.uni-dortmund.de:8080/FB2/ls7/forschung/2002/Woltering/maWolteringunt.pdf 22

[143] Wupper: Elektronische Schaltungen 1, Springer, Berlin, 1996 90[144] Xin-She Yang: Turing pattern formation for catalytic reaction-diffusion systems in en-

gineering application, Modeling Simul. Mater. Sci. Eng. 11. 321, 2003; http://www.iop.org/EJ/abstract/0965-0393/11/3/305/ 205, 206

[145] A.M. Zhabotinsky: Periodic processes of malonic acid oxidation in a liquid phase (inruss.), Biofizika, 9:306–311, 1964. Auf deutsch: A. M. Zhabotinsky: Eine periodischeOxydationsreaktion in flussiger Phase. In: L. Kuhnert, U. Niedersen (Hrsg.): Selbstor-ganisation chemischer Strukturen. Verlag Harri Klein, Frankfurt/Main 2001, S. 83-8922

c© M.-B. Kallenrode 4. Februar 2008

Page 293: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

Index

z-Transformation, 163Ubertragbarkeit, 13Ubertragungsfunktion, 27, 28, 46, 47, 61, 69,

70, 79, 83–86, 88, 94, 95, 97, 100,111, 113, 114, 144, 147, 148, 162

allgemeine, 88Bildbereich, 83, 84diskretes System, 162faktorisiert, 85Frequenzgang, 89Nullstelle, 85, 89offener Regelkreis, 87Parallelschaltung, 86Pol, 85Polstelle, 89ruckgekoppelte Systeme, 87Serienschaltung, 86Standardregelkreis, 87Struktur, 85

AbsTol, 130Absolute Tolerance, 133Checkbox, 124Clock, 116, 185Dead Zone, 136Decimation, 130Derivative, 97Discrete, 132Divide, 101DstWorkspace, 130Fcn, 186FinalStateName, 130FixedStep, 130From File, 104From Workspace, 104Gain, 10, 102, 160IC, 135Initial step Size, 133InitialState, 130InitialStep, 130Integrator, 98Math Functions, 186Math Function, 102

Max Step Size, 133MaxOrder, 130MaxRows, 130MaxStep, 130Mux, 12ODE113, 131, 134ODE14x, 132ODE15S, 131ODE15s, 130ODE1, 132ODE23S, 132ODE23TB, 132ODE23T, 132ODE23, 131–133ODE2, 132ODE3, 132ODE45, 129, 131–133ODE4, 132ODE5, 132OutputPoints, 130Outputvariables, 130Popup, 124Refine, 130RelTol, 130Relative Tolerance, 133Relay, 137Scope, 10, 103Solver, 130SrcWorkspace, 130State Space, 99, 112, 113, 118, 155Sum, 102, 160Switch, 135To File, 103To Workspace, 103Trace, 130Transfer Fcn, 100Trigonometric Function, 103Unit Delay, 160ZeroCross, 130butter, 162conv2, 164conv, 164

282

Page 294: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

INDEX 283

filter2, 144filter, 144, 159, 164find system, 128gcs, 127get param, 128initial condition, 135memory Blocks, 140set param, 128simget, 130simplot, 128simset, 129sim, 128, 186sum, 12

abatement cost, 227Abschneidefrequenz, 52Abstraktion, 13Abtastfrequenz, 146Abtastintervall, 41Abtasttheorem, 43, 52AD-Wandler, 145, 146Adler Gleichung, 251, 252Aktionspotential, 205Albedo, 85Alfven-Welle, 49algebraische Schleife, 135, 139, 265Amplitudenspektrum, 38Analogfilterung, 147Anfangsbedingung, 98–100Anfangswert, 71Anfangszustand, 77Antisoliton, 249Apfelmannchen, 22, 139, 266Arnold’s Zunge, 251Attraktor, 238, 265, 266Ausgangsgroße, 71, 73, 77–79Ausgangsmatrix, 113Ausgangsvariablen, 129Autokorrelation, 47

Bandbegrenzung, 145Bandbreitenbegrenzung, 147bandbreitenlimitiert, 37Bandpass, 151Barnsley Farn, 20, 21Bartlett window, 58Basisfunktion, 38Basisvektor, 38Belousov–Zhabotinsky-Reaktion, 22, 201, 204,

206Bewusstsein, 241Beziehungsgeflecht, 18–20Bibliothek, 127Bibliotheksblock, 127Bifurkation, 265, 266

Bildfunktion, 63Bildkomprimierung

JPEG, 178Bildraum, 63Block

maskiert, 127maskiertes Untersystem, 123

Block Library, 127Blockdiagramm, 6, 9, 10, 17, 269Bode-Diagramm, 79, 80, 89Bogacki–Shampine Verfahren, 132Boomeron, 250Buisiness As Usual, 226butterfly effect, 254Butterworth Filter, 148, 152

vierte Ordnung, 162

Callback, 124Cauer Topologie, 152, 153Chaos, 183, 265

deterministisch, 239Chernobyl, 254Crank–Nicolson Verfahren, 258

damage cost, 227Dehnung, 170

bsondere, 170Histogramm angeglichene, 170lineare, 170

Delta Funktion, 44, 45Devil’s Staircase, 251DFT, 163Differentialgleichung

steif, 131Differentiator

idealer, 61Differenzengleichung, 156Diffusion, 239

Wirbeld., 240Diffusions–Reaktions-Modell, 201, 203, 205,

206, 239Diffusionsgleichung, 201, 240Diffusionskoeffizient, 201, 240Diffusionsstrom, 240Diffusionstensor, 201, 240Dimension

fraktal, 268Hausdorff, 268

Discontinuities Block Library, 136Discrete Transfer Function, 162Diskretisierung, 259, 260, 267

zweite Ableitung, 260Diskretisierungsfehler, 109, 257Dispersion, 240DNLS, 248

c© M.-B. Kallenrode 4. Februar 2008

Page 295: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

284 INDEX

Dormand–Prince Verfahren, 131, 132Drehmatrix, 78Druck—Temperatur–Ruckkopplung, 86Duffing Oszillator, 266Durchlassbereich, 148

ECHAM5, 226edge enhancement, 173Eigenfunktion, 83, 85, 87, 88

Tiefpass, 88Eigenvektor, 15, 89Eigenwert, 2, 3, 15Eigenwertgleichung, 15Eingabevektor, 99Eingangs–Ausgangs-Relation, 77, 83Eingangsgroße, 71, 73, 77Eingangsmatrix, 113Einheitsverzogerung, 160Einpersonenspiel, 223, 224Eis–Albedo-Feedback, 85emergence

modest, 241radical, 241specific value, 240

Emergenz, 25, 27, 183, 240schwache Form, 241starke Form, 241

Entersystem, 121Erhaltungsgroßen, 109Euler Ruckwarts Verfahren, 258Euler Verfahren, 8, 132

Korrektorschritt, 258modifiziertes, 258Pradikatorschritt, 258ruckwarts, 258, 261vorwarts, 258, 261

Euler Vorwarts, 6Euler Vorwarts Verfahren, 258explizites Verfahren, 258explizites/implizites Verfahren, 258Exponentialansatz, 2, 3, 15, 75, 76Exponentialfunktion

Matrix als Argument, 76exponentielles Wachstum, 209

Fadenpendel, 114, 188Faltung, 46, 47, 71, 75, 77, 164Faltungsintegral, 155Faltungsintegrale, 60Faltungsprodukt, 60, 162Faltungsregel, 46, 59Farbbild, 178Federpendel, 1, 131

gekoppelte, 14Feigenbaum, 265

Feigenbaum Attraktor, 22, 265Fermi–Pasta–Ulam, 195Fermi–Pasta–Ulam Problem, 201FFT, 146Fibonacci Folge, 209Filter, 39, 113

analog, 144, 145, 155Butterworth, 152Differenzengleichung, 156digital, 144, 146, 155, 156

Ordnung, 156Echtzeit, 156Glattung, 155gleitendes Mittel, 155kausal, 156nicht-kausal, 156Ordnung, 156rekursiv, 156, 161Tschebyscheff, 153

Filter-Kern, 160Finite Impulse Response, 155FIR, 155, 164flowchart, 269Flussdiagramm, 6, 9, 10, 17, 269FNLS, 248Folgekosten, 227Fourier, 71Fourier Analyse, 27, 28, 33Fourier Integral, 61Fourier Koeffizient, 37–39, 41Fourier Reihe, 33, 35, 38, 39, 41, 42, 61Fourier Transformation, 28, 32, 33, 39, 41, 62,

70, 148, 151, 178, 248diskret, 33, 50, 163kontinuierliche, 33

FPU, 201FPU Lattice, 199Fraktal, 21, 22, 266–268fraktale Dimension, 268Freerider, 233Frequency Entrainment, 250, 251Frequency Locking, 252Frequenz

komplex, 62Frequenzgang, 88, 89Frequenzspektrum, 42, 146Freundlichkeit, 222

Gauß Funktion, 44Gauß-Filter, 169Gauß-Verteilung, 168Gauß-Wichtung, 176GCM, 225Gefangenendilemma, 217–219

iteriertes, 221

4. Februar 2008 c© M.-B. Kallenrode

Page 296: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

INDEX 285

Gegenkopplung, 86Gemeindewiese, 221, 223, 231, 233Generator, 268, 269GES, 224Gesamtsystem, 15Gewichtsfunktion, 46, 77–79, 83, 84Gewinnmatrix, 218, 236Gibbs’sches Phanomen, 43Glattung, 155, 176

Gauß, 169linear, 169

Glattungsfilter, 169Gleichstromanteil, 36, 51, 179gleitendes Mittel, 155global circulation model, 225Global Environment and Society Model, 224Green’sche Funktion, 71, 225Grenzfall

aperiodisch, 3, 4Grenzfrequenz, 59, 80, 147, 148

HAMMONIA, 226Hann window, 58Hausdorff Dimension, 268Heun’s Verfahren, 132Hochpass, 28, 59, 148, 149Hodgkin–Huxley, 241Hodgkin–Huxley-Modell, 205, 207Hufmann-Codierung, 178Humunculus, 25Hyperzeichen, 145Hysterese, 137

Icon, 126IIR, 156, 161implizites Verfahren, 258Impulsantwort, 28, 60, 70, 71, 160, 225Impulsfunktion, 62Information, 40, 145Informationsgehalt, 40Initiator, 267, 269Integraltransformation, 11, 32integrate and fire, 252Integrator, 10, 12, 59

idealer, 61Interessenkonflikt, 216Intervallschachtelung, 264Iraqi war, 254Iteration, 264

Jager–Beute Modell, 203, 213Joint Photographic Experts Group, 178JPEG, 178–180Julia Menge, 266

Kustenlange, 266, 267Kantenanreicherung, 173, 175

gerichtete, 174ungerichtete, 174

Katrina, 254Kausalitat, 72Kernel, 160, 164, 166

Kantenanreicherung, 174Klima

Folgekosten, 227Vermeidungskosten, 227

Klimavektor, 225Koch’sche Schneeflocke, 21, 267, 268Konkurrenz, 219, 224, 231Konsistenz, 261Kontrastanreicherung, 169–172, 174Konvergenz, 261Konvergenzabszisse, 62Kooperation, 217, 219–221, 223, 224, 231Kopplungsfunktion, 251Kopplungsterm, 15, 16Korrektorschritt, 258Korrektur

Kontext bezogen, 165Pixel, 166

Korteweg–de Vries, 200Korteweg–de Vries Gleichung, 241, 245, 247

erweitert, 247modifizierte, 245

Kosinustransformation, 178, 179Kreuzkorrelation, 47Kriechfall, 3Kybernetik, 28

Lagrange Funktion, 116Laplace Transformation, 11, 27, 28, 32, 62, 70,

71, 75, 77, 111, 113, 118, 148, 150,163, 174

Differentiationsregel, 63Faltungsregel, 63Tabelle, 64

Laplace Transformierte, 62Laplace’scher Damon, 32Lax’sches Aquivalenztheorem, 261leakage, 57, 58Leapfrog Verfahren, 258Leben, 241Lempel–Ziv–Storer–Szymanski-Algorithmus, 178Library, 127Library Browser, 96Limit Output, 135Limit-cycle Oszillator, 243Linearitat, 72, 73Lissajous-Figur, 120logisch isomorph, 219

c© M.-B. Kallenrode 4. Februar 2008

Page 297: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

286 INDEX

Lorentz, 254Lorentz Funktion, 44, 45Lorentz’ butterfly, 254LTI-System, 70, 100

Makroebene, 27Mandelbrot, 269Mandelbrot Menge, 266MANIAC, 200Masken-Editor, 123

Dokumentation, 125Icon, 126Initialisierung, 124Parameter, 124

maskierter Block, 127maskiertes Untersystem, 123, 124Mehrpersonenspiel, 223Michaelis–Menton-Reaktionsrate, 202Mikroebene, 27Mischpixel, 166Mitkopplung, 85Mittel

gleitendes, 156, 157Mittelpunktsformel, 257Mixed Pixels, 166Modell, 27modest emergence, 241Morphogenese, 242multi-actor case, 223Multiplexer, 12Muster, 18

Nachricht, 145Nachsichtigkeit, 222Nash Gleichgewicht, 242Nash-Gleichgewicht, 218, 232, 233Neuron, 19Newton–Raphson Methode, 140, 264, 265NLS, 248Nullstelle, 85, 163, 264Nullsummenspiel, 216–218, 221, 223Nyquist Frequenz, 52

Optimierungsproblem, 224Originalfunktion, 63Oszillator

chemisch, 22relaxierend, 253stick–slip, 253

Output-Input-Relation, 28

Parallelschwingkreis, 18Parameter

Ubergabe aus Workspace, 122Untersystemmaske, 123

Parry, 243Parseval’s Theorem, 47Periodigramm, 54Phase, 251Phase Locking, 251, 252Phase Lockking, 250Phasenspektrum, 38Pixel, 164, 165

fehlende, 166PNG, 178Poisson Integral, 71Poisson Verteilung, 211Poisson-Rauschen, 168, 169Poisson-Statistik, 168Pol, 85, 163Pradikatorschritt, 258Prewitt-Operatoren, 176Projektion

gefiltert, 39Provozierbarkeit, 222Purkinje Fasern, 252

Ruckkopplung, 85, 138, 139negativ, 86positiv, 85

Ruckwarts Schema, 259radical emergence, 241rapid application development, 11rapid prototyping, 11Rauschen, 168Rauschunterdruckung, 147RC-Hochpass, 90Reaktion

chemisch, 201Rechteckfunktion, 35, 42Referenzblock, 127Regelkreis

Offener, 87Standard, 87

Rekursionsformel, 265Relaxation, 252Resolvente, 81–83, 85, 88Resonanz, 251Resonanzkatastrophe, 4Reynolds-Zahl, 191Reziprozitat, 222Runge–Kutta Verfahren, 131, 132, 259, 261Russell, 200, 244

Sagezahnfunktion, 35Schelling Spiel, 220Schleife

algebraisch, 135Schmetterlinsgeffekts, 202Schmitt-Trigger, 137

4. Februar 2008 c© M.-B. Kallenrode

Page 298: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

INDEX 287

Schneeflocke, 267, 268Koch’sche, 267, 268

Schrodinger Gleichungnichtlinear, 248

defokussierend, 248fokussierend, 248

Schwingfall, 3Schwingung

erzwungene, 4, 5freie, 2, 5, 10, 34

Selbstahnlichkeit, 22, 266, 267Selbstorganisation, 20, 25, 114, 183, 243Serienschwingkreis, 18, 78show state port, 135si, 41, 43Siebkette, 18Sierpinski Dreieck, 20, 21, 269Signal, 70, 145

diskret, 162Signalanalyse, 27Simpson-Verfahren, 257sinc, 41, 43sine cardinal, 41, 43single-actor case, 223, 224Sinks, 103Sinusknoten, 252Skalierungsgesetz, 268Skalierungssatz, 52, 54Sobel-Operator, 176Soliton, 195, 200, 201, 243–245

algebraisch, 247Anti-, 249dunkles, 248helles, 248nicht-topologisch, 247rational, 247topologisch, 249

Solver, 129, 131Spaltfunktion, 43specific value emergence, 240Sperrbereich, 148Sperrfrequenz, 148Sperrkreis, 18Spiel

isomorph, 219iteriertes, 223

Sprungantwort, 28, 62, 70Sprungfunktion, 42, 62Standardregelkreis, 87State Port, 135Stichling, 222stick–slip Oszillation, 253Strategie, 216

gemischte, 215

reine, 215Struktur, 18Subsystem, 27, 121Subsystems-Block, 121Summationspunkt, 102Superposition, 3, 75Superpositionsprinzip, 72, 73Switch, 136synchrones Regime, 251Synchronisation, 199, 250, 252Synchronizitat, 183Synergie, 243System, 18, 70

angeregt, 75Definition, 18dynamisch, 19frei, 75kausales, 72lineares, 73Makroebene, 27Mikroebene, 27Parallelschaltung, 86selbst-organisierend, 20Serienschaltung, 86statisch, 19

Systemantwort, 83Systemdynamik, 269Systemeigenschaften, 73Systemelement, 18–20, 27Systemgroße, 70, 71Systemgrenze, 27Systemmatrix, 73, 113

Eigenvektor, 89Systemmodul, 71Systemparameter, 10Systemtheorie, 28, 71

Grundaufgabe, 71Systemvariable, 28, 70

Taylor Entwicklung, 259, 260Teilsystem, 71Testfunktion, 70Tiefpass, 28, 59, 65, 72, 83, 88–90, 93, 94, 148,

149, 155, 157Ubertragungsfunktion, 83zweite Ordnung, 90, 151

Tit for Tat, 222Toda, 199Toda–Lattice, 199Transferfunktion, 94, 95Transformation, 74Transformations-Codierungsverfahren, 178Transformationsmatrix, 74Transitionsmatrix, 76, 78, 79, 82, 83Trapezformel, 257

c© M.-B. Kallenrode 4. Februar 2008

Page 299: Simple Simulation -  · PDF fileProf. Dr. May-Britt Kallenrode Fachbereich Physik Simple Simulation Systemtheorie und SimuLink Osnabr¨uck, 4. Februar 2008

288 INDEX

Trappon, 250Truncation Error, 260Tschebyscheff Filter, 153, 154Tsunami, 243Turing, 23, 254Turing’s avalanche, 254Turing’s Lawine, 202Turing-Muster, 23

Uberraschungswert, 40Unterabtastung, 146Untersystem, 121–123

maskiert, 123, 124User-Defined Functions, 186

van der Pol’s Gleichung, 252Variable

dimensionslos, 2, 7lokal, 125maskiertes Untersystem, 125

Vermeidungskosten, 227Verschiebungssatz, 73Verstandlichkeit, 222Vorwarts Schema, 259

Wechselstromanteil, 179Welch window, 58Wettrusten, 219Widerstandsverhaltnis, 74Windowing, 57, 58Wirbeldiffusion, 240

Zeichen, 145zeitinvariant, 72Zeitinvarianz, 73Zeitkonstante, 74Zeitserie, 33zellularer Automat, 22zellularer Automat, 206Zener-Diode, 136zentrale Differenz, 259zero crossings control, 135Zero Padding, 53, 58, 60, 158Zielkonflikt, 217–219, 221Zustand, 71Zustandsgroße, 73Zustandsvariable, 71, 74, 129Zustandsvektor, 71, 73, 99, 112, 225

4. Februar 2008 c© M.-B. Kallenrode