unscharfemengen - kit · unscharfe maße — motivation iv (1) charakteristische funktion µa einer...

Post on 19-May-2020

6 Views

Category:

Documents

0 Downloads

Preview:

Click to see full reader

TRANSCRIPT

Unscharfe Mengen

Prof. Dr. Gerhard Goos

Fakultat fur Informatik

Universitat Karlsruhe

Sommersemester 2002

c©Gerhard Goos 2002

http://i44www.info.uni-karlsruhe.de/∼i44www/lehre/unscharf.html

Einfuhrung und Ubersicht

Grundbegriffe

Unscharfe Regelung I: Grundbegriffe

Unscharfe Mengenoperationen

Unscharfe Relationen

Komposition, Erweiterungsprinzip

Unscharfe Arithmetik

Relationengleichungen

Unscharfe Maße

Unscharfe Maße — Motivation I

Konzepte der Unscharfe:

1. unprazise Pradikate; qualitative Aussagen; qualitatives, aber vollstandiges

Wissen:⇒ unscharfe Mengen⇒ graduelle Zugehorigkeit

µA : U → [0, 1] mit µA(x): Grad, zu dem x ∈ A

2. prazise Pradikate; unvollstandiges, unsicheres Wissen:⇒ unscharfe Maße⇒ mit Unsicherheit behaftete, prazise Aussagen

Qx : 2U → [0, 1] mit Qx(B): Unsicherheit, daß gesuchter Wert x ∈ B.

Plausibilitat, Glaubwurdigkeit, Moglichkeit, Notwendigkeit bzw. Wahrscheinlichkeit eines

Ereignisses B:

Belegung von B mit einer Maßzahl Qx(B) ∈ [0, 1], die das Maß der Unsicherheit angibt, daß

x ∈ B gilt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 157

Unscharfe Maße — Motivation II

Begriffsdeutung:

1. Ereignis A ist plausibel:⇒ Mit der Annahme von x ∈ A sind keine Widerspruche erkennbar

⇒ “Es spricht nichts dagegen, x ∈ A anzunehmen.”

2. Ereignis A ist glaubwurdig:⇒ Die Annahme von x ∈ A ergibt zusatzliche Konsistenz

⇒ “ Es spricht etwas dafur, x ∈ A anzunehmen.”

3. Ereignis A ist wahrscheinlich:⇒ Die statistische Untersuchung einer Fulle von Beobachtungen spricht fur

die Annahme x ∈ A.⇒ Die statistische Untersuchung einer Fulle von Beobachtungen wider-

spricht der Annahme x ∈ A nicht.

Wir werden feststellen, daß ein Wahrscheinlichkeitsmaß zugleich Glaubwurdigkeits- und

Plausibilitatsmaß ist.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 158

Unscharfe Maße — Motivation III

Zusammenhang:

A ist glaubwurdig gdw. das komplementare Ereignis {A von A nicht plausibel

ist.

“Es spricht etwas fur die Annahme x ∈ A gdw. etwas gegen die Annahme x ∈ {A spricht.”

A ist plausibel gdw. das komplementare Ereignis {A von A nicht glaubwurdig

ist.

“Es spricht nichts gegen die Annahme x ∈ A gdw. nichts fur die Annahme x ∈ {A spricht.”

Bemerkung: Wenn wir unvollstandiges Wissen uber ein Element x ∈ U ge-

eignet formalisieren, laßt sich immer ein zugehoriges Glaubwurdigkeits- bzw.

Plausibilitatsmaß konstruieren.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 159

Unscharfe Maße — Motivation IV

(1) charakteristische Funktion µA einer scharfen Menge A ⊂ U:

µA : U → {0, 1}

(2) sei ein x ∈ U gegeben. Qx gebe fur jedes B ∈ 2U an, ob x in B enthalten

ist:

Qx : 2U → {0, 1}

(Qx ist also die charakteristische Funktion der Menge aller Teilmengen von U, die x

enthalten)

(3) sei nun x ∈ U nur ungefahr bekannt.⇒ nur unscharfe Bewertung aller A ∈ 2U moglich:

Qx : 2U → [0, 1]

Durch das unscharfe Maß aus (3) laßt sich unser Wissen uber x beschreiben.

Außerdem verdeutlicht (3), daß die folgende Definition des unscharfen Maßes

sinnvoll ist:

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 160

Definitionen I

zur Erinnerung:

Definition: (σ-Algebra)

Ein System M von Teilmengen einer nicht-leeren Menge U heißt σ-Algebra

in U, falls gilt:

• ∅ ∈ M• A ∈M ⇒ {A ∈M• sei (An) eine Folge von Mengen aus M⇒ ⋃

nAn ∈M

Ist M eine σ-Algebra in U, so heißt (U,M) ein Meßraum. Die Elemente von

M heißen σ-meßbare Mengen oder auch Ereignisse.

Bemerkung 1:Mit A, B ∈M gilt somit {A ∈M, A ∪ B ∈M, A ∩ B ∈M

Bemerkung 2:

Die Potenzmenge 2U einer Grundmenge U ist eine σ-Algebra.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 161

Definitionen II

Definition: (Unscharfes Maß)

Sei M eine σ-Algebra in U. Eine Abbildung u : M → [0, 1] heißt (regulares)

unscharfes Maß auf M, falls gilt:

(U1) u(∅) = 0

(U2) u(U) = 1 (Grenzbedingungen)

(U3) ∀A, B ∈M : A ⊆ B ⇒ u(A) ≤ u(B) (Monotonie)

(U4) {An} ⊂M, A1 ⊂ A2 ⊂ · · · ,∞⋃

n=1An ∈M

⇒ limn

u(An) = u(∞⋃

n=1

An).

(Stetigkeit von unten)

(U5) {An} ⊂M, A1 ⊃ A2 ⊃ · · · ,∞⋂

n=1An ∈M

⇒ limn

u(An) = u(∞⋂

n=1

An).

(Stetigkeit von oben)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 162

Definitionen III

Weiterhin:

• gilt (U2) nicht, so ist U nicht regular .

• gilt (U5), aber nicht (U4), so nennt man u halbstetig bzw. nur stetig von

oben.

• gilt (U4), aber nicht (U5), so nennt man u halbstetig bzw. nur stetig von

oben.

Wir betrachten ausschließlich regulare unscharfe Maße, d. h. Maße u mit

u(U) = 1.

Aus der Monotonie von u folgt:

u(A ∩ B) ≤ min[u(A), u(B)] sowie

u(A ∪ B) ≥ max[u(A), u(B)]

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 163

Konstruktion unscharfer Maße I

Wie laßt sich unvollstandiges Wissen bzgl. eines gesuchten Elementes x ∈ U

formalisieren?⇒ Festlegung einer Maßbasis m:

Definition: (Maßbasis m)

Eine Maßbasis (body of evidence) m zu einer σ-Algebra M ist eine Abbildung

m : M → [0, 1],

mit m(∅) = 0 und∑

A∈Mm(A) = 1.

Interpretation: m(A) bezeichnet den Grad des Zutrauens, den wir der Aus-

sage beimessen, das gesuchte x gehore zur Menge A, aber zu keiner der

Untermengen A ′ ∈M, A ′ ⊂ A.

Man “verteilt” die “Gesamtheit” des Zutrauens auf Teilmengen A ∈M.

Beispiel: Setzen von Jetons am Roulette-Tisch.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 164

Konstruktion unscharfer Maße II

⇒ Maßbasis m beschreibt all unser Wissen uber x.⇒ Maßbasis m laßt die Formulierung jedes beliebigen Wissensstandes zu.

Beispiele:

volliges Unwissen:

m(U) = 1 und ∀A 6= U : m(A) = 0

vollstandiges Wissen:

m({x}) = 1 und ∀A 6= {x} : m(A) = 0

Definition: (fokales Element)

Eine Menge A ∈M heißt fokales Element von m, wenn m(A) > 0.

Die fokalen Elemente eines Maßbasis m sind demnach die Teilmengen von U, auf die unser

Zutrauen, sie konnten x enthalten, “fokussiert” ist.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 165

Konstruktion unscharfer Maße III

Beachte: m ist kein unscharfes Maß!

Mit

G(A) :=∑B⊆A

m(B) Pl(A) :=∑

B∩A6=∅m(B)

wird jedoch unserem intuitiven Verstandnis von Glaubwurdigkeit und Plau-

sibilitat Genuge getan, und es ergeben sich zwei unscharfe Maße.

[Beweis:] Ubung!

Jedes Glaubwurdigkeitsmaß G bzw. Plausibilitatsmaß Pl uber einer endlichen

Grundmenge U definiert umgekehrt genau eine Maßbasis m durch

m(A) =∑B⊆A

(−1)|A\B|G(B)

m(A) =∑B⊆A

(−1)|A\B|(1 − Pl({B)).

[Beweis:] Ubung!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Maße 166

Possibilitat und Evidenz

Glaubwurdigkeit und Plausibilitat I

Bezeichnung:

• G : M → [0, 1] heißt Glaubwurdigkeitsmaß

(belief measure) zur Maßbasis m.

• Pl : M → [0, 1] heißt Plausibilitatsmaß

(plausibility measure) zur Maßbasis m.

Aufgrund ihrer Konstruktion genugen G und Pl einer verscharften Monotonie-Bedingung:

G(A1 ∪A2) ≥ G(A1) + G(A2) − G(A1 ∩A2)⇔G(A1 ∩A2) ≥ G(A1) + G(A2) − G(A1 ∪A2)

Pl(A1 ∩A2) ≤ Pl(A1) + Pl(A2) − Pl(A1 ∪A2)⇔Pl(A1 ∪A2) ≤ Pl(A1) + Pl(A2) − Pl(A1 ∩A2)

[Beweis:] Ubung!

Dualitat:

falls G und Pl dieselbe Maßbasis m besitzen, gilt:

∀A ∈M : Pl(A) := 1 − G({A).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 167

Glaubwurdigkeit und Plausibilitat II

Definition: (minimale Elemente einer σ-Algebra M)Die minimalen Elemente Xi einer σ-Algebra M uber einem Universum U werden definiertdurch:

Xi, Xj 6= ∅ ⇒ Xi ∩ Xj = ∅

∀X ∈ M ∃i1, . . . , iX :⋃

j=i1,...,iX

Xj = X .

Lemma:Zu jeder endlichen σ-Algebra M auf einem Universum U1 existiert ein isomorphes UniversumU2:• |U2| ≤ |U1|• M ∼= 2U2

etwa: U2 := Menge der minimalen Elemente von M.

⇒ Satze uber Potenzmengen endlicher Universen lassen sich somit stets auch auf endlicheσ-Algebren anwenden.

Sind alle fokalen Elemente einer Maßbasis m minimale Elemente von M, so

fallen Glaubwurdigkeits- und Plausibilitatsmaß zu m zusammen:

∀A ∈ M : G(A) =∑B⊆A

m(B) =∑

B∩A6=∅

m(B) = Pl(A),

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 168

Glaubwurdigkeit und Plausibilitat III

∀A ∈ M : G(A) =∑B⊆A

m(B) =∑

B∩A6=∅

m(B) = Pl(A)

ist ein unscharfes Maß P, das zugleich Glaubwurdigkeits- und Plausibilitatsmaß

ist, d. h.:

Glaubwurdigkeit:

P(A1 ∪A2) ≤ P(A1) + P(A2) − P(A1 ∩A2)

Plausibilitat:

P(A1 ∪A2) ≥ P(A1) + P(A2) − P(A1 ∩A2)

damit

P(A1 ∪A2) = P(A1) + P(A2) − P(A1 ∩A2).

⇒ Maß P ist Wahrscheinlichkeitsmaß.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 169

Wahrscheinlichkeit I

Definition: (Wahrscheinlichkeitsmaß auf M)

Sei M eine σ-Algebra in U.

Eine Abbildung P : M → [0, 1] heißt Wahrscheinlichkeitsmaß auf M, falls

gilt:

• P(∅) = 0 und

P(U) = 1 (Grenzbedingungen)

• ∀A, B ∈M : A ∩ B = ∅⇒ P(A ∪ B) = P(A) + P(B) (Additivitat)

• fur jede abzahlbar unendliche Familie (Ai) paarweise fremder Mengen aus

M:

P(⋃

Ai) =∑

P(Ai) (Stetigkeit)

Man sieht leicht, daß ein Wahrscheinlichkeitsmaß stets ein unscharfes Maß ist:

Additivitat und Stetigkeit des Wahrscheinlichkeitsmaßes sind Verscharfungen der Monotonie

und Stetigkeit unscharfer Maße.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 170

Wahrscheinlichkeit II

Somit gilt das folgende

Theorem:

Ein Maß P auf der Potenzmenge 2U eines endlichen Universums U ist ein

Wahrscheinlichkeitsmaß genau dann, wenn alle fokalen Elemente der zu-

gehorigen Maßbasis m Elemente von U sind: ∀u ∈ U : m({u}) = P({u})

sowie: ∀A ∈ 2U : |A| > 1 ⇒ m(A) = 0,

(d.h.: die fokalen Elemente von m sind einelementig.

Beweis s. Klir & Folger 1988, S.119)

Sind aber die fokalen Elemente einelementig, so gilt:

G(A)=∑

B⊆A

m(B) =∑

u∈A

m({u})

Pl(A)=∑

B∩A6=∅m(B)=

∑u∈A

m({u})

Damit ist jedes Wahrscheinlichkeitsmaß Glaubwurdigkeits- und Plausibilitatsmaß

zugleich.

P(A) =∑u∈A

p(u) mit p(u) := m({u})

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 171

Moglichkeit und Notwendigkeit I

Eine Maßbasis m kann sich auch dadurch auszeichnen, daß ihre fokalen Ele-

mente eine monotone Mengenfamilie bilden:

A1 ⊂ A2 ⊂ · · · ⊂ An

∀A 6= Ai, i = 1, . . . , n : m(A) = 0.

m(A )m(A ) m(A )

m(A )

m(A )1

23 4

n

x x x x x1 2 3 4 n

Definition: (konsonante Maße)

Wenn die fokalen Elemente einer Maßbasis m monoton sind

(d.h. A1 ⊂ A2 ⊂ · · · ⊂ An), heißen die entsprechenden Maße konsonant.

(⇒ Wissen ohne Widerspruche)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 172

Moglichkeit und Notwendigkeit II

Theorem:

Ein Glaubwurdigkeitsmaß G ist konsonant genau dann, wenn gilt:

∀A, B ∈M : G(A ∩ B) = min[G(A), G(B)]

Ein Plausibilitatsmaß Pl ist konsonant genau dann, wenn gilt:

∀A, B ∈M : Pl(A ∪ B) = max[Pl(A), Pl(B)]

[Beweis: (Klir & Folger 1988, S.121f.)

Man nennt derartige Glaubwurdigkeits- bzw. Plausibilitatsmaße

Notwendigkeits- bzw. Moglichkeitsmaße

(necessity and possibility measures)

und bezeichnet sie mit N(A) bzw. Π(A).

Es handelt sich ebenfalls um zueinander duale Maße.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 173

Moglichkeit und Notwendigkeit III

Beispiel: (Moglichkeitsmaß Π)

Sei B ⊆ U ein fur sicher gehaltenes Ereignis. Damit folgt fur die Maßbasis m auf 2U

m(B) = 1 und ∀B ′ ∈ 2U, B ′ 6= B : m(B ′) = 0

Die fokalen Elemente von m sind somit trivialerweise monoton, B ist i.a. jedoch kein mini-

males Element.

Somit ist das zugehorige Plausibilitatsmaß ein Moglichkeitsmaß Π:

Π(A) =

{1 wenn A ∩ B 6= ∅0 sonst

Es gilt also beispielsweise:

Π(A ∪ {A) = max[Π(A), Π({A)] = 1,

was bedeutet, daß von zwei kontraren Ereignissen immer mindestens eines

vollstandig moglich ist. Diese Moglichkeit hat jedoch keinen Einfluß auf das

andere der beiden Ereignisse.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 174

Unscharfe Maße — Ubersicht

Klassifikation unscharfer Maße:

Glaubwürdigkeitsmaße

PlausibilitätsmaßeNotwendig-keitsmaße

Möglichkeits-maße

Wahrschein-lichkeits-maße

unscharfe Maße

Bemerkung: Es gibt Maße, die Notwen-digkeit und Moglichkeit zugleich, unddamit auch Wahrscheinlichkeit sind:

∃1x ∈ U : m({x}) = 1 ∧ ∀A ∈ 2U\{x} : m(A) = 0.

⇒ vollstandiges Wissen, keinerlei Unsi-

cherheit!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 175

Moglichkeit vs. Wahrscheinlichkeit

Diskussion bzgl. der Maßbasis:

1. Wahrscheinlichkeit:

fokale Elemente der Maßbasis sind einelementig, Dissonanz⇒ es liegt genaue, aber differenzierte Information vor⇒ Eignung fur objektive, sorgfaltige Beobachtung physikalischer Erschei-

nungen (Experimente)

2. Moglichkeit:

fokale Elemente sind monoton, Konsonanz⇒ es liegt ungenaue, aber koharente Information vor⇒ Eignung fur subjektive Einschatzungen (Befragung)

I.a. sind Informationen naturlich weder genau noch vollig koharent, d.h., es

liegen i.a. Glaubwurdigkeiten bzw. Plausibilitaten vor.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 176

Moglichkeit I

Theorem: [Beweis: (Klir & Folger 1988, S.122f.)

Jedes Moglichkeitsmaß Π auf 2U ist durch eine Moglichkeits-Verteilung πx

πx : U → [0, 1] mit ∃u0 ∈ U : πx(u0) = 1

eindeutig bestimmt:

∀A ∈ 2U : Π(A) := maxu∈A

πx(u)

Es gilt damit: πx(u) = Π({u}).

Interpretation:

πx(u) beschreibt den Grad der Moglichkeit, daß x = u gilt.

Oder: Der Wertebereich der Variablen x wird auf U flexibel eingeschrankt

(elastic constraint).

Formal: x ∈ B ⊆ U mit µB ≡ πx.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 177

Moglichkeit II

m(A )m(A ) m(A )

m(A )

m(A )1

23 4

n

1

2

3 4n

x x x x x1 2 3 4 n

pi(x )pi(x )pi(x )

pi(x )

pi(x )

Vollstandige Folge monotoner Teil-

mengen Ai eines Universums U =

{x1, x2, . . . , xn}

23

1

2

3 4

x x x x1 2 3 x x4 x5 6 7

6 7

=1

=1

5

6

7

=0.7 =0.3

pi(x )=0.2

m(A )=0.3m(A )=0.4

m(A )=0.1 m(A )=0.2

pi(x )

pi(x )

pi(x ) pi(x )

pi(x )=0.3

pi(x )=0.2

Moglichkeitsmaß Π auf U:

Π(A) =∑

B∩A6=∅

m(B).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 178

Moglichkeit III

Beispiel:

Betrachte Maßbasis m von Folie 178:

m = (0, 0.3, 0.4, 0, 0, 0.1, 0.2)

Mit

π(xi) = Π({xi}) =∑

B∩{xi} 6=0

m(B) =

n∑k=i

m(Ak)

folgt fur die Moglichkeitsverteilung π

π = (1, 1, 0.7, 0.3, 0.3, 0.3, 0.2).

Nun laßt sich fur beliebiges A ⊂ U = {x1, . . . , x7} Π(A) bestimmen, etwa:

Π({x1, . . . , xk}) = max[π(x1), . . . , π(xk)] = 1

Π({x3, x5}) = max[π(x3), π(x5)] = 0.7

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 179

Fehlerdiagnose I

Beispiel: Expertensystem zur unscharfen Fehlerdiagnose an Satelliten (Cayrac,

Dubois, Prade 1996). Aus Erfahrungen beim Bau des Satelliten werden Zu-

sammenhange zwischen Fehlern und ihren Symptomen hergestellt. Aus die-

sen Zusammenhangen und tatsachlich am Satelliten im Orbit beobachteten

Symptomen soll auf mogliche Fehler geschlossen werden.

Probleme:

• Meßmoglichkeiten an Bord des Satelliten sind eingeschrankt

• oft nur indirekte Schlusse auf Symptome moglich

• Ubermittlung der Meßdaten fehlerbehaftet und evtl. unvollstandig

• Wissen uber Zusammenhange zwischen Fehlern ihren Symptomen un-

vollstandig und unsicher→ Verarbeitung unvollstandiger, unsicherer Daten notig

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 180

Fehlerdiagnose II

Aufgabe: Aus der Beobachtung von Symptomen soll auf mogliche Fehler als

deren Ursache geschlossen werden.

• Menge moglicher Fehler (Ursachen)

F = {f1, f2, . . . fn}

• Menge moglicher Symptome S = {s1, s2, . . . sm}

Idee: Verbindung von positivem und negativem Wissen zur expliziten Model-

lierung von Unwissen

Wissensbasis:

• unscharfe Menge R+f auf S beschreibt die Sicherheit, mit der Symptom

s auftritt, falls ausschließlich Fehler f vorliegt

• unscharfe Menge R−f auf S beschreibt die Sicherheit, mit der Symptom

s nicht auftritt, falls ausschließlich Fehler f vorliegt

Beobachtung:

• unscharfe Menge S+ auf S beschreibt die Sicherheit, daß Symptom s

beobachtet wurde

• unscharfe Menge S− auf S beschreibt die Sicherheit, daß Symptom s

nicht beobachtet wurde

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 181

Fehlerdiagnose III

Theoretischer Hintergrund der Modellierung

• positive Aussagen R+f und S+ als Notwendigkeitsmaße auffassen:

µR+

f(s) = NRf

(s) und µS+(s) = NS(s)

• negative Aussagen R−f und S− als Moglichkeitsmaße auffassen:

µR−

f(s) = 1 − ΠRf

(s) und µS−(s) = 1 − ΠS(s)

Damit gelten insbesondere

• NRf(s) > 0 ⇒ ΠRf

(s) = 1 und

ΠRf(s) < 1 ⇒ NRf

(s) = 0

(analog fur NS,ΠS)⇒ R+f ∩ R−

f = ∅ und S+ ∩ S− = ∅

Bemerkung: Verschiedene Informationsquellen konnten inkonsistentes Wis-

sen liefern (gleichzeitiges Ausschließen und Unterstutzen von Aussagen) →diese Modellierung ist dann ungeeignet (vgl. Possibilitats- und Evidenzver-

teilungen)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 182

Fehlerdiagnose IV

Vorgehen: Eingrenzen der moglichen Ursachen in vier Schritten

Schritt 1: Bestimmung der Fehler, die den beobachteten Symptomen nicht

widersprechen (konsistente Fehler)

Definition: (scharfer Fall)

Ein Fehler f ∈ F ist konsistent mit den Beobachtungen S+ und S− gdw.

S− ∩ R+f = ∅ und S+ ∩ R−

f = ∅ ,

d.h. wenn

• keines der durch f verursachten Symptome s ∈ R+f mangels Beobachtung

durch S− ausgeschlossen wird und

• keines der durch f ausgeschlossenen Symptome s ∈ R−f beobachtet wurde,

also in S+ liegt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 183

Fehlerdiagnose V

R-

S-S+

R+

sym

Fehler konsistent mit Beobach-

tung

R-S+R+

S-

sym

Fehler inkonsistent mit Beobach-

tung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 184

Fehlerdiagnose VI

Die unscharfe Konsistenz zweier unscharfer Mengen A, B auf einem Univer-

sum U wird gemessen mit

kons(A, B) := maxu∈U

min{µA(u), µB(u)} .

kons(A, B) mißt, mit welchem Grad der Schnitt A ∩ B nichtleer ist. A ∩ B ist

also mit Grad 1 − kons(A, B) leer.

A B

cons(A^B)

Definition: (unscharfer Fall)

Der Grad der Konsistenz eines Fehlers f ∈ F mit den unscharfen Beobach-

tungen S+ und S− wird uber die unscharfe Menge F definiert:

µF(f) := min{1 − kons(S−, R+f ), 1 − kons(S+, R−

f )}

= 1 − max{kons(S−, R+f ),kons(S+, R−

f )} .

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 185

Fehlerdiagnose VII

Schritt 2: Bestimmung der konsistenten Fehler, die mit den Symptomen in

Zusammenhang stehen (relevante Fehler)

Definition: (scharfer Fall)

Ein Fehler f ∈ F ist relevant hinsichtlich der Beobachtungen S+ und S− gdw.

er konsistent ist und

S+ ∩ R+f 6= ∅ oder S− ∩ R−

f 6= ∅

gilt, d.h.

• ein durch f verursachtes Symptom s ∈ R+f tatsachlich beobachtet wird,

also in S+ liegt, oder

• ein durch f ausgeschlossenes Symptom s ∈ R−f mangels Beobachtung

durch S− ausgeschlossen wird.

Bemerkung: In der Praxis wird die zweite Bedingung (S− ∩ R−f 6= ∅) u.U.

weggelassen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 186

Fehlerdiagnose VIII

R-

S-S+

R+

sym

relevanter Fehler:einige der durch R+

f vorhergesagten Sympto-me wurden tatsachlich beobachtet

S+

symS-

R-R+

konsistenter nicht relevanter Fehler:keiner der durch R+

f oder R−f vorhergesagten

Effekte wurde beobachtet

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 187

Fehlerdiagnose IX

Definition: (unscharfer Fall)

Der Grad der Relevanz eines Fehlers f ∈ F bzgl. der unscharfen Beobach-

tungen S+ und S− wird uber die unscharfe Menge F∗ definiert:

µF∗(f) := min{µF(f),max{kons(R+f , S+),kons(R−

f , S−)}}

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 188

Fehlerdiagnose X

Schritt 3: Bestimmung der konsistenten Fehler, die die beobachteten Sym-

ptome uberdecken

Definition: (scharfer Fall)

Ein Fehler f ∈ F uberdeckt die Beobachtungen S+ und S− gdw. er konsistent

ist und

S+ ⊆ R+f und S− ⊆ R−

f

gilt, d.h.

• jedes beobachtete Symptom s ∈ S+ durch f verursacht wird, also s ∈ R+f ,

und

• jedes nicht beobachtete Symptom s ∈ S− durch f ausgeschlossen wird,

also s ∈ R−f .

Bemerkung: In der Praxis wird die zweite Bedingung (S− ⊆ R−f ) u.U. wegge-

lassen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 189

Fehlerdiagnose XI

sym

S-R-R+S+

uberdeckende Fehler: die Vorhersagen R+f und R−

f uberdecken die zugehorigen Beobachtun-

gen S+ und S−.

Definition: (unscharfer Fall)Der Grad der Uberdeckung eines Fehlers f ∈ F der unscharfen Beobachtun-gen S+ und S− wird uber die unscharfe Menge F∗∗ definiert:

µF∗∗(f) := min{µF(f), inkl(S+, R+f ), inkl(S−, R−

f )} .

mit einem Maß inkl fur den Wahrheitsgehalt der unscharfen Inklusion zweierMengen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 190

Fehlerdiagnose XII

Maß fur den Grad der unscharfen Inklusion A⊆B auf Universum U wird aus

dem Wahrheitsgehalt I(A ⊆ B) des scharfen Falls abgeleitet:

I(A ⊆ B) = I(∀u ∈ U [u ∈ A ⇒ u ∈ B])

= I(∧

u∈U[u ∈ A ⇒ u ∈ B]) .

unscharfe Modellierung:

• unscharfe Zugehorigkeiten I(u ∈ A) = µA(u), analog fur B

• Godelrelation als unscharfe Implikation:

I(a⇒b) = a α b

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 191

Fehlerdiagnose XIII

Definition: Der Grad der Inklusion, mit dem eine unscharfe Menge A in der

Menge B enthalten ist, wird gemessen durch die Funktion

inkl(A, B) := minu∈U

{µA(u) α µB(u)} .

inkl(A,B)

BA

AaB

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 192

Fehlerdiagnose XIV

Schritt 4: Bestimmung der uberdeckenden Fehler, deren vorhergesagte Sym-

ptome alle beobachtet werden (hinreichende Fehler)

Definition: (scharfer Fall)

Ein Fehler f ∈ F heißt hinreichend bzgl. der Beobachtungen S+ und S− gdw.

er konsistent ist und

S+ = R+f und S− = R−

f

gilt, d.h.

• die beobachteten Symptome s ∈ S+ mit den durch f verursachten Sym-

ptomen s ∈ R+f identisch sind und

• die nicht beobachteten Symptome s ∈ S− mit den durch f ausgeschlos-

senen Symptomen s ∈ R−f ubereinstimmen.

Bemerkung:

• In der Praxis wird die zweite Bedingung (S− ⊆ R−f ) u.U. weggelassen.

• Dieser 4. Schritt wird in der Praxis ausgelassen, falls die Forderung nach

Gleichheit der Mengen wegen der Unsicherheit und Unvollstandigkeit des

Wissen zu stark ist.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 193

Fehlerdiagnose XV

Ergebnis:

• naturliche Modellierung unscharfen Wissens

• machtiger als binare Logik→ bessere Ergebnisse als mit vorhandenem klassischen Expertensystem

Bemerkungen zum praktischen Vorgehen:

• Als Zugehorigkeitswerte werden statt [0, 1] meist nur Ordinalskalen wie

{sicher, ziemlich sicher, moglicherweise, denkbar, keine Anzeichen dafur}

benutzt

• Wegen der Unsicherheit und Unvollstandigkeit des Wissens konnte der

tatsachliche Fehler in den Schritten 2-4 verloren gehen. Eine sichere

Aussage liefert nur Schritt 1.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 194

Possibilitats-Theorie I

Possibilitatsmaß = Moglichkeitsmaß

Possibilitatsverteilung = Moglichkeitsverteilung

Possibilitatstheorie: Formalismus zur Verarbeitung unsicheren Wissens.

Definition: (Possibilitatsverteilung)

Sei U das Universum der Variablen x. Eine Possibilitatsverteilung der un-

scharfen Variablen x ist eine Funktion

πx : U → [0, 1].

πx(u) gibt den Grad der Moglichkeit an, daß x = u.

πx(u) = 0 ⇔ x = u ist unmoglich.

πx(u) = 1 ⇔ x = u ist uneingeschrankt moglich.

Mit der Normalisierungsbedingung ist immer zumindest ein u ′ ∈ U uneinge-

schrankt moglich:

∃u ′ ∈ U : πx(u′) = 1.

Dies ist eine Folge der closed world assumption: Wenn x ∈ U, dann muß ein solches u ′

existieren.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 195

Possibilitats-Theorie II

Beispiele:

“Peters Korpergroße x betragt et-

wa 175cm”

x175

“Peters Korpergroße x ist vollig

unbekannt”

x175

“Peter ist 175cm groß.”

x175

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 196

Possibilitats-Theorie III

Eine Possibilitatsverteilung πx stellt eine elastische Beschrankung

(elastic constraint, (Zadeh)) des Wertebereiches der Variablen x dar:

πx beschrankt x.

Deuten wir die unscharfen Pradikate des unscharfen Schließens

x is A

als elastische Beschrankungen πx

x is A :⇔ πx :≡ µA,

ergibt sich eine intuitive und einfache Semantik: A ist die Menge der fur x

moglichen Werte, d.h. der Werte, die nicht ausgeschlossen werden konnen.

Die Regel

IF x is A THEN y is B

bedeutet dann:

“Falls A die Menge der fur x moglichen Werte ist,

so sind fur y die Werte aus B moglich.”⇒ possibilistisches Schließen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 197

Possibilitats-Theorie IV

Definition: (Spezifitat)

Seien πx, π ′x Possibilitatsverteilungen von x. πx heißt mindestens so spezi-

fisch wie π ′x gdw.

∀u ∈ U : πx(u) ≤ π ′x(u).

Kombination von Possibilitatsverteilungen:

• Semantik: ausgehend von Unwissen schrankt neue Information die fur x

moglichen Werte weiter ein ⇒ negative Information: Ausschluß von

Fakten

• verschiedene Informationsquellen erganzen sich

• suche die am meisten spezifische Information, die aus der Wissensbasis

ableitbar ist

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 198

Possibilitats-Theorie V

Beispiel: mobiler Roboter erstellt unsichere Karte der Umgebung

• Position unsicher

• unsichere Sensordaten der Umgebung

• aktuelle Karte unsicher→ Kombination der Informationen zu einer neuen Information (Zugewinn

an Wissen)

Frage: Wie wird Wissen aus verschiedenen Quellen vereinigt?

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 199

Erkundung einer unbekannten Umgebung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 200

Possibilitats-Theorie VI

Possibilistisches Schließen = Sammeln und Zusammenfassen von possibili-

stischem Wissen, Extraktion von gesuchtem Teilwissen

Hier: Kombination von Possibilitatsverteilungen kann eindeutig als max-min-

Komposition identifiziert werden.

Aber: keine Kombination von Maßen bekannt, so daß das Diagramm kom-

mutiert!

Maße Π1, Π2?

−−−−−−−−−−→ Πy xVerteil. π1, π2 −−−−−−−−−−→

Kombinationπ

⇒ Zusammenfassen von Wissen auf der Basis von Verteilungen anstatt Ma-

ßen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 201

Possibilitats-Theorie VII

Beispiel: Heidi und Ehemann Peter suchen in ihrem Garten nach einer Quelle

unglaublichen Gestanks. Heidi riecht im linken Teil, Peter rechts.

Ort0

1HeidiPeter

PeterHeidi

Moglichkeit, daß sich Quelle an der Stelle u befindet: πHeidix (u) und πPeter

x (u).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 202

Possibilitats-Theorie VIII

Kombination:

geg.: π1x, π2

x

ges.: aus π1x und π2

x ableitbare Verteilung πx

Axiom p1:

∀u ∈ U : πx(u) ≤ π1x(u) ∧ πx(u) ≤ π2

x(u)⇒ Mit πx werden π1x und π2

x redundant.⇒ Gilt ∀u ∈ U : πx(u) < 1, so deutet dies auf Inkonsistenzen in π1x und/oder

π2x hin (⇒ unzuverlassige Quellen oder Verletzung der closed world as-

sumption, s. Beispiel)

Implizite Annahme: x ist zeitinvariant

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 203

Possibilitats-Theorie IX

Prinzip minimaler Spezifitat (PmS): πx darf keine zusatzliche Information

unterstellen, d.h. unzulassig spezifisch sein:

“More generally, when the available information stems from several sources

that can be considered as reliable, the possibility distribution that accounts

for it is the least specific possibility distribution that satisfies the set of cons-

traints induced by the pieces of information given by the different sources.”

(Dubois&Prade)

Anwendung auf Axiom p1:

∀u ∈ U : πx(u) := min{π1x(u), π2

x(u)}

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 204

Possibilitats-Theorie X

Gemeinsame Possibilitatsverteilungen:

Definition: (gemeinsame Possibilitatsverteilung)Seien U und V die Universen der Variablen x und y. Eine gemeinsame Possibilitatsverteilungder zusammengesetzten unscharfen Variablen (x, y) ist eine Funktion

πx,y : U× V → [0, 1].

πx,y(u, v) gibt den Grad der Moglichkeit an, daß

(x, y) = (u, v), d.h., daß x = u und y = v.

Kombination:geg.: unscharfe Variablen x ∈ U und y ∈ V

mit Verteilungen πx und πy

ges.: gemeins. Verteilg. πx,y : U× V → [0, 1],die πx und πy gerecht wird.

Axiom p2:

∀(u, v) ∈ U× V : πx,y(u, v) ≤ πx(u)

∀(u, v) ∈ U× V : πx,y(u, v) ≤ πy(v)

Anwendung des PmS:

∀(u, v) ∈ U× V : πx,y(u, v) := min {πx(u), πy(v)}.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 205

Possibilitats-Theorie XI

Beispiel:

• πK beschranke Peters Korpergroße:

πK(k) gibt den Grad der Moglichkeit an, daß Peter k cm groß ist.

• analog beschranke πG Peters Gewicht:

πG(g) gibt den Grad der Moglichkeit an, daß Peter g kg wiegt.

• gesucht ist eine Aussage der Form:

“Peter ist k cm groß und wiegt g kg.”

• der Moglichkeitsgrad der Gesamtaussage kann den der Einzelaussagen

nicht ubersteigen:

πK,G(k, g) ≤ min {πK(k), πG(g)}.

• ohne Zusatzinformation gilt mit PmS:

πK,G(k, g) = min {πK(k), πG(g)}.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 206

Possibilitats-Theorie XII

zylindrische Erweiterung:

geg.: Verteilung πx auf Uges.: ableitbare Verteilung πx,y fur die zusam-

mengesetzte Variable (x, y) aus U× VDer Wert von y ist vollig unbekannt: πy ≡ 1⇒ ∀(u, v) ∈ U× V : πx,y(u, v) = min {πx(u), 1}

= πx(u)

Definition: (zylindrische Erweiterung)

Sei πx eine Possibilitatsverteilung auf U. Dann heißt die Possibilitatsverteilung

[πx ↑ U× V] mit

∀(u, v) ∈ U× V : [πx ↑ U× V](u, v) := πx(u)

zylindrische Erweiterung von πx auf U× V.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 207

Possibilitats-Theorie XIII

Beispiel:

• πK beschranke wiederum Peters Korpergroße K.

• Peters Gewicht G sei uns unbekannt.

• unsere Gesamtaussage der Form

“Peter ist k cm groß und wiegt g kg.”

darf somit Peters Gewicht nicht einschranken:

πK,G(k, g) = min {πK(k), 1} = πK(k).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 208

Possibilitats-Theorie XIV

Projektion:

geg.: gemeinsame Verteilung πx,y auf U× Vges.: ableitbare Verteilung πx fur Variable x

• πx,y(u, v) gibt den Grad der Moglichkeit an, daß x = u und y = v.

• da πx die Variable y nicht einschrankt, darf y (im Rahmen von πx,y)

beliebig sein.

Mit dem PmS folgt

∀u ∈ U : πx(u) := maxv∈V

{πx,y(u, v)}.

Definition: (Projektion)

Sei πx,y eine Possibilitatsverteilung auf U×V. Dann heißt die Possibilitatsverteilung

[πx,y ↓ U] mit

∀u ∈ U : [πx,y ↓ U](u) := maxv∈V

{πx,y(u, v)}

Projektion von πx,y auf U.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 209

Possibilitats-Theorie XV

Beispiel:

• πK,G(k, g) beschreibe den Grad der Moglichkeit, daß ein Mensch k cm

groß ist und g kg wiegt.

• Wie schwer konnen demnach Menschen sein?

⇒ Projektion von πK,G auf das Universum G der Gewichte:

[πK,G ↓ G](g) = maxk∈K

{πK,G(k, g)}.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 210

Possibilitats-Theorie XVI

Beispiel:

• πK,G(k, g) beschreibe den Grad der Moglichkeit, daß Peter k cm groß ist

und g kg wiegt.

• πG,B(g, l) beschreibe den Grad der Moglichkeit, daß Peter g kg wiegt und

l Liter Bier am Abend trinkt.

Frage: Was kann daraus fur πK,G,B, πG, πK,B usw. geschlossen werden?

Die Axiome p1 und p2 liefern keine Antwort!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 211

Possibilitats-Theorie XVII

Theorem: Sei U := U1 × U2 × · · ·Un n-dimensionales Produktuniversum, π1,

. . . πm Verteilungen auf Unterraumen Vi = ×j∈Ji⊆{1,2,...n}

Ui von U. Dann ist die

auf einem Unterraum V von U definierte Verteilung π mit

π(v) = maxu∈U\V

mini∈{1,2,...m}

{[πi ↑ U](u, v)}

die am meisten spezifische Verteilung auf V, die aus den gegebenen Vertei-

lungen ableitbar ist.

Beweisskizze: Verallgemeinerung des Begriffes Spezifitat. Notwendige Bed.: π mindestens

so spezifisch wie jedes πi.

Idee: Leite aus π1, . . . πm spezifischere Verteilungen ab. Benutze diese zur Berechnung von

π.

Anschaulich: Erfullung der notwendigen Bedingung bedeutet nur, daß der gezogene Schluß

jeder einzelnen Information nicht widerspricht. Vorherige Kombination der Informationen

aber laßt prazisere Schlusse zu.

Das Verfahren heißt

Prinzip von Kombination/Projektion

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 212

Possibilitats-Theorie XVIII

Wir erhalten wieder die max-min-Komposition!

Unscharfe Mengen: Kompatibilitat zu Komposition von scharfen Relationen

als Motivation fur max-min. War die Wahl wirklich eindeutig? (betrachte

max-Produkt-Komposition als Alternative)

Moglichkeitsverteilungen: Einfache, intuitive Semantik als Modellierung un-

sicherer Informationen fuhrt zu eindeutiger Wahl der max-min-Komposition!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 213

Possibilitats-Theorie XIX

Beispiel:

• πK,G(k, g) beschreibe wiederum den Grad der Moglichkeit, daß ein Mensch

k cm groß ist und g kg wiegt.

• Peters Korpergroße sei durch πK spezifiziert.

• Was laßt sich nun uber Peters Gewicht sagen?

Vorgehen:

(1) Kombination aller Information auf kleinstem gemeinsamen Universum(Vereinigung):

∀(k, g) ∈ UK ×UG : π ′K,G(k, g) := min {πK(k), πK,G(k, g)}.

(2) Projektion auf interessierendes Universum:

∀g ∈ UG : πG(g) := [π ′K,G ↓ UG](g)

= maxk∈UK

{π ′K,G(k, g)}

= maxk∈UK

{min {πK(k), πK,G(k, g)}}.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 214

Possibilitats-Theorie XX

Anwendungen des Prinzips:

1 Gewinnung von Wissen als Lernvorgang

• Sammeln und Zusammenfassen von Informationen

Beispiele:

• Diagnosestellung:

Sammle Informationen uber ein Krankheitsbild bei verschiedenen Arzten.

Zugewinn von Wissen verfeinert die Gesamtinformation.

• adaptive Regler (spatere Vorlesung)

2 regelbasiertes possibilistisches Schließen:

- Aufstellen einer festen Regelbasis

- variable Pramissen als Eingabe

- Bearbeiten mit der Regelbasis

- Ausgabe von Konklusionen

Beispiel: klassische unscharfe Regler

In der Anwendung Mischformen von 1 und 2 (z.B. lernende Regler)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 215

Possibilistische Regelwerke I

Erinnerung: naturlichsprachliche Regeln

IF x is Ai THEN y is Bi,

deren Pradikate mit Hilfe unscharfer Mengen beschrieben sind, d.h.

[Ai → Bi] (i = 1, . . . , n).

Possibilistische Interpretation von Pradikaten:

Deute “x is Ai” als πx ≡ µAi. Auf diese Weise schrankt Ai die Variable x

flexibel ein.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 216

Possibilistische Regelwerke II

Wahl der Inferenzrelation πR(x,y)

Mindestanforderung:

πx ≡ µAi⇒ πy ≡ µBi

,

wobei πy = πx ◦ πR(x,y).

Losung ist bekannt! (vgl. unscharfe Relationengleichungen)

Falls eine Losung existiert, so schreibt das PmS die Wahl der großten Losung

— der Godelrelation — vor:

R(x, y) :=n⋂

i=1

(Ai α Bi)

∀(u, v) ∈ Ux ×Uy : πR(x,y)(u, v) =

= mini=1,...,n

{1, falls µAi

(u) ≤ µBi(v)

µBi(v), falls µAi

(u) > µBi(v)

.

⇒ Die possibilistische Inferenzrelation ist eindeutig festgelegt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 217

Evidenztheorie I

Beispiel: Quelle ublen Geruchs

Ort0

1

Peter Heidi

Possibilitatsverteilung: Keine Moglichkeit, zu erkennen, ob Ort mit hohem

Moglichkeitsgrad die Quelle enthalt (positive Argumente) oder einfach nicht

besucht wurde (Unwissen).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 218

Evidenztheorie II

Idee: Ein Typ von Information, der Aussagen bei Vorhandensein von Wissen

unterstutzt.

Definition: (Evidenzverteilung)

Sei x unscharfe Variable auf einem Universum U. Eine Evidenzverteilung von

x ist eine Funktion

σx : U → [0, 1].

σx(u) gibt den Grad der Unterstutzung der Aussage x = u an.

σx(u) = 0 ⇔ x = u wird nicht gestutzt.

σx(u) = 1 ⇔ x = u wird uneingeschrankt unterstutzt.

Volliges Unwissen uber x: σx ≡ 0.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 219

Evidenztheorie III

In der Possibilitatstheorie werden Verteilungen durch Hinzunahme von Wis-

sen spezifischer (kleiner). Im Gegensatz dazu werden in der Evidenztheorie

positive Argumente gesammelt, die Verteilungen werden vollstandiger (wach-

sen).

Definition: (vollstandig)

Eine Evidenzverteilung σx einer unscharfen Variablen x auf dem Universum

U heißt genau dann mindestens so vollstandig wie σx‘, wenn fur alle u ∈ U

σx(u) ≥ σx‘(u) .

Analog zum PmS wird in der Evidenztheorie die Gultigkeit des Prinzips der

minimalen Komplettierung (PmK) angenommen:

Evidenzverteilungen sollten zwar immer so vollstandig wie moglich angege-

ben werden, aber nie vollstandiger, als es das vorhandene Wissen erlaubt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 220

Evidenztheorie IV

Kombination von Evidenzverteilungen:

geg.: σ1x, σ2

x

ges.: aus σ1x und σ2

x ableitbare Verteilung σx

Axiom e1:

∀u ∈ U : σx(u) ≥ σ1x(u) ∧ σx(u) ≥ σ2

x(u)

mit PmK: σx(u) = max{σ1x(u), σ2

x(u)}

geg.: σx, σy

ges.: aus σx und σy ableitbare gemeinsame Verteilung σx,y

Axiom e2: ∀(u, v) ∈ U × V

σx,y(u, v) ≥ σx(u) ∨ σx,y(u, v) ≥ σy(v)

mit PmK: σx,y(u, v) = min{σx(u), σy(v)}⇒ Kein duales Konzept zu Possibilitatsverteilungen (sonst max in Axiom

e2)!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 221

Evidenztheorie V

Allgemeine Kombination von Evidenzverteilungen:

geg.: σx, σx,y

ges.: ableitbare Verteilung σy

Mit ahnlicher Argumentation wie in der Possibilitatstheorie erhalt man den

wegen des PmK eindeutigen Kombinationsmechanismus

∀v ∈ Uy : σy(v) = maxu∈Ux

min{σx(u), σx,y(u, v)}

kurz: σy = σx ◦ σx,y

Trotz unterschiedlicher Semantik liefern Possibilitats- und Evidenztheorie

denselben Mechanismus zur Kombination von Verteilungen!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 222

Evidenztheorie VI

Possibilitatsverteilung EvidenzverteilungBedeutung πx(u) ist Grad der σx(u) ist Grad der

Moglichkeit, daß x = u Unterstutzung, daß x = u

Bedeutung πx(u) = 0 σx(u) = 0Grenzfall x = u unmoglich x = u nicht unterstutztBedeutung πx(u) = 1 σx(u) = 1Grenzfall x = u uneingeschrankt moglich x = u uneingeschr. unterstutztUnwissen πx ≡ 1 σx ≡ 0

Aggregation I π1x, π

2x gegeben σ1

x, σ2x gegeben⇒ πx ≤ min{π1

x, π2x} ⇒ σx ≥ max{σ1

x, σ2x}

Aggregation II πx, πy gegeben σx, σy gegeben⇒ πx,y ≤ min{πx, πy} ⇒ σx,y ≥ min{σx, σy}

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 223

Possibilitat und Evidenz I

Entstehen durch Kombination nicht normalisierte Moglichkeitsverteilungen,

so weist dies auf inkonsistentes Wissen hin.⇒ An Moglichkeitsverteilungen kann der Grad der Konsistenz des Wissens

abgelesen werden:

πx ist ε-konsistent :⇔ H(πx) = ε

Entstehen durch Kombination nicht normalisierte Evidenzverteilungen, so

weist dies auf unvollstandiges Wissen hin.⇒ An Evidenzverteilungen kann der Grad der Vollstandigkeit des Wissens

abgelesen werden:

σx ist ε-vollstandig :⇔ H(σx) = ε

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 224

Evidenzgestutzte Regelwerke I

Modellierung naturlichsprachlicher Regeln in der Evidenztheorie:

IF x is Ai THEN y is Bi,

deren Pradikate mit Hilfe unscharfer Mengen beschrieben sind, d.h.

[Ai → Bi] (i = 1, . . . , n).

Evidenzgestutzte Interpretation von x is Ai

als σx ≡ µAi

Folge: Modellierung der Regeln durch

σx ≡ µAi⇒ σy ≡ µBi

,

wobei σy = σx ◦ σR(x,y).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 225

Evidenzgestutzte Regelwerke II

Beschrankung auf eine Regel:

Frage: Wie muß bei vorgegebenen A und B die Regel σR(x,y) gewahlt werden?

Gesucht ist wieder eine Losung der Relationengleichung A ◦ R = B.

Das PmK schreibt als Wahl die kleinste Losung der Gleichung vor.

Wiederholung: Es existieren im allgemeinen nur verschiedene minimale Losungen,

die bzgl. ihrer Komplettheit nicht vergleichbar sind.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 226

Evidenzgestutzte Regelwerke III

Beobachtung: Wenn σy die Unterstutzung von Werten fur y darstellt, dann

ist diese Aussage auch fur alle σ ′y richtig, die hochstens so vollstandig sind

wie σy:

σy ⇒ σ ′y, falls ∀v ∈ V σ ′y(v) ≤ σy(v) .

Folge: Die Regel σx ⇒ σy enthalt implizit die Regel σx ⇒ σ ′y fur alle σ ′y, die

hochstens so vollstandig sind wie σy.

Die gesuchte Relation σR(x,y) muß damit auch alle Gleichungen A◦ R = B ′ fur

alle B ′ ⊆ B losen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 227

Herleitung Minimum-Relation I

Ableitung der Minimum-Relation aus Relationengleichung:

Satz: Die Vereinigung aller minimalen Losungen fur R aller Gleichungen A ◦R = B ′ mit B ′ ⊆ B ist die Minimum-Relation Rc aus A und B. Sie lost alle

Gleichungen, wenn A ◦ R = B losbar ist und ist dann auch minimal.

Bedeutung: Wegen der Maximalitats- und Minimalitatseigenschaft von Godel-

Relation und Minimum-Relation werden diese in Possibilitats- und Evidenz-

theorie eindeutig als Inferenzrelationen fur negative und positive Regeln iden-

tifiziert.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 228

Herleitung Minimum-Relation II

Gegeben: Unscharfe Mengen A, B

0

0.2

0.4

0.6

0.8

1

0 2 4 6 8 10

A

0

0.2

0.4

0.6

0.8

1

0 2 4 6 8 10

B

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 229

Herleitung Minimum-Relation III

Beispiele fur minimale Losungen von A ◦ R = B fur R

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 230

Herleitung Minimum-Relation IV

Vereinigung der minimalen Losungen fur R

von A ◦ R = B

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 231

Herleitung Minimum-Relation V

Vereinigung der minimalen Losungen fur R

von A ◦ R = B ′, wobei B ′ ⊆ B

0

0.2

0.4

0.6

0.8

1

0 2 4 6 8 10

B’

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 232

Herleitung Minimum-Relation VI

Vereinigung der minimalen Losungen fur R von A ◦ R = B ′, wobei B ′ ⊆ B

0

0.2

0.4

0.6

0.8

1

0 2 4 6 8 10

B’

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 233

Herleitung Minimum-Relation VII

Die minimale Relation R, die alle Gleichungen A ◦ R = B ′ mit B ′ ⊆ B lost, ist

die Vereinigung der Vereinigungen der minimalen Losungen jeder einzelnen

obiger Gleichungen. Es gilt

µR(u, v) = min{µA(u), µB(v)} .

0

2

4

6

8

10

x

0

2

4

6

8

10

y

0

0.2

0.4

0.6

0.8

1

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 234

Evidenzgestutzte Regelwerke IV

Ergebnis:

∀(u, v) ∈ Ux ×Uy : σR(x,y)(u, v) := min{µA(u), µB(v)}

ist die vollstandigste Losung des Gleichungssystems

A ◦ R = B ′ fur alle B ′ ⊆ B ,

die ohne Zusatzinformation abgeleitet werden darf.

Mehrere Regeln:

Sei σRi(u, v) := min{µAi

(u), µBi(v)} die Relation fur die i-te Regel. Jede Kon-

sequenz σyi= σx ◦ σRi

stellt eine gultige Information fur y dar. Nach Axiom

e1 und PmK werden sie also kombiniert:

∀v ∈ Uy : σy(v) = maxi∈{1,2,...n}

{σyi(v)}

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 235

Evidenzgestutzte Regelwerke V

Dies ist identisch mit [Ubung]

∀(u, v) ∈ Ux ×Uy : σR(u, v) := maxi∈{1,2,...n}

{σRi(u, v)}

σy = σx ◦ σR

Anschaulich: Es macht keinen Unterschied, ob jede Regel einzeln angewandt

und das Ergebnis kombiniert wird, oder, ob die Regeln zu einer Metaregel

kombiniert und diese angewandt wird.

Auf diese Weise wird der populare Mamdani-Regler (s. spatere Vorlesung)

auf das theoretische Fundament der Evidenztheorie gestellt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Possibilitatstheorie 236

Unscharfes Schließen

Unscharfes Schließen I

Unscharfes Schließen: Konstruktion von Schlußfolgerungen aus unscharfenWissensbasen, z.B. unscharfen Regelsystemen. Scharfes Schließen als Spe-zialfall berucksichtigen!

Regel IF x is A THEN y is B

spezifiziert Relation R[A→B] im Produktraum U × V.Dabei sind x, y linguistische Variable, dielinguistische Werte A, B annehmen konnen.

3 Betrachtungsebenen:1. syntaktische Ebene:

Anwendung der Max-Min-Komposition auf R[A→B] liefert zu Eingabe ausU eine Ausgabe aus V (und umgekehrt).

2. semantische Ebene:Auf der syntaktischen Ebene berechnete Ergebnisse entsprechen der Er-wartung des Entwerfers.

3. Meta-Ebene:Anwendung des Modus Ponens bzw.Modus TollensProf. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 237

Unscharfes Schließen II

Semantik von Regeln der Form ”Wenn .. dann ..”

Beispiele fur mogliche Schlußfolgerungen:

Falls eine Tomate rot ist, so ist sie reif.Diese Tomate ist sehr rot.

Diese Tomate ist sehr reif.

Falls eine Tomate rot ist, so ist sie reif.Diese Tomate ist nicht rot.

Diese Tomate ist nicht reif.

Falls ich eine Erkaltung habe, bin ich krank.Ich bin nicht erkaltet.

Ich bin krank oder ich bin gesund.⇒ Erwartungen an Inferenz nicht eindeutig.⇒ Erwartungen an Inferenz kontextabhangig.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 238

Unscharfes Schließen III

Verallgemeinerter Modus Ponens (GMP):

IF u is A THEN v is B

u is A ′

v is B ′

Verallgemeinerter Modus Tollens (GMT):

IF u is A THEN v is B

v is B ′

u is A ′

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 239

Unscharfes Schließen IV

Realisiert man GMP bzw. GMT durch die allgemeinere

compositional rule of inference (CRI)

mit geeigneter Inferenz-Relation R[A→B], so bestimmt R[A→B] die Eigenschaf-

ten der Regelauswertung.

Wiederholung der CRI:

u und v stehen in der Beziehung R[A→B] und u hat den Wert A ′. Was kann dann uber v

ausgesagt werden?

(u, v) is R[A→B]

u is A ′

v is B ′ = A ′ ◦ R[A→B]

mit der max-min oder max-t-Komposition ◦.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 240

Ubersicht Inferenz-Relationen I

gegeben:

A mit µA : U → [0, 1] und B mit µB : V → [0, 1]

Inferenz-Relationen:Rc: Minimum-Relation: (Mamdani)

Rc := [A ↑ U× V] ∩ [B ↑ U× V]

µRc(u, v) := min [µA(u), µB(v)]

(t-Norm: Minimum.)

Rp: Produkt-Relation: (Larsen)

Rp := [A ↑ U× V] ∩ [B ↑ U× V]

µRp(u, v) := µA(u) · µB(v)

(t-Norm: Produkt.)

Ra: arithmetische Relation: (Zadeh)

Ra := [{A ↑ U× V] ∪ [B ↑ U× V]

µRa(u, v) := min [1, 1 − µA(u) + µB(v)]

(co-t-Norm: begrenzte Summe min [1, x + y].)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 241

Ubersicht Inferenz-Relationen II

Rb: boolesche Relation:

Rb := [{A ↑ U× V] ∪ [B ↑ U× V]

µRb(u, v) := max [1 − µA(u), µB(v)]

(co-t-Norm: Maximum.)

Rs: Standard-Relation:

Rs := [A ↑ U× V] → [B ↑ U× V]

µRs(u, v) :=

{1 falls µA(u) ≤ µB(v)0 falls µA(u) > µB(v)

RG: Godel-Relation:

RG := [A ↑ U× V] → [B ↑ U× V]

µRG(u, v) :=

{1 falls µA(u) ≤ µB(v)µB(v) falls µA(u) > µB(v)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 242

Unscharfes Schließen V

Ausgezeichnete Inferenz-Relationen:

Godelrelation RG = A α B

• ist die großte Losung von A ◦ R[A→B]

= B, falls eine Losung existiert.

• stellt als Implikation negatives Wissen uber R[A→B]

dar.

Betrachte modus ponens mit klassischer Implikation a → b:

I a → b (“wenn a wahr, dann nur b moglich”)

I ¬a → b ∨ ¬b (“wenn a falsch, dann ist fur b alles moglich”)⇒ negative Interpretation als Ausschluß von ¬b unter der Vorbedingung

a

Minimum-Relation Rc und Produkt-Relation Rp

• stellen als Konjunktionen (t-Normen) positives Wissen uber R[A→B]

dar.

Betrachte modus ponens mit klassischer Konjunktion a ∧ b:

I a → b (“wenn a wahr, dann nur b moglich”)

I ¬a erlaubt fur b keinen gultigen Schluß⇒ positive Interpretation als Unterstutzung von b unter der Vorbedin-

gung a

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 243

Unscharfes Schließen VI

Beispiel:

Wenn der Himmel wenig bewolkt ist, regnetes nicht.Es regnet nicht.

Der Grad der Bewolkung ist beliebig.

0

10

20

wenig bewoelkt 210

20regnet nicht

00.20.40.60.8

1

Implikation, Godel-Relation

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 244

Unscharfes Schließen VII

Beispiel:

Wenn die Tomate rot ist, dann ist sie reif.Die Tomate ist rot.

Die Tomate ist reif.

2

10

20

rot

0

10

20

reif

00.20.40.60.8

1

Aquivalenz, Godel-Relation in beide Richtungen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 245

Unscharfes Schließen VIII

Beispiel:

Wenn x ungefahr 8, dann y ungefahr 14.x ist ungefahr 8.

y ist ungefahr 14.

2

8

20

ungefaehr 8

05

1015

20

ungefaehr 14

00.20.40.60.8

1

Unscharfe Abbildung oder Konjunktion, Minimum-Relation

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 246

Einfache Regelanwendung I

Wir betrachten im folgenden drei Falle anhand eines Beispiels:

1. allgemeines Vorgehen am Beispiel der Minimum-Relation (Rc).

2. vereinfachtes Vorgehen nach Umformung (nur moglich bei Minimum-

Relation und Produkt-Relation Rp).

3. Fall 2. mit der zusatzlichen Einschrankung, daß die Eingabe A ′ ein schar-

fer Wert ist.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 247

Einfache Regelanwendung II

1. allgemeiner Ansatz: Darstellung der beiden unscharfen Mengen A und B

aus Regel [A → B] in U× V × [0, 1].

0

1

0.8

0.6

0.4

0.2

0

u

0

10

8

6

4

2

0

v

0

10

8

6

4

2

0

Praemisse A und Konsequenz B

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 248

Einfache Regelanwendung III

Darstellung der unscharfen Eingabe A ′

0

0.8

0.6

0.4

0.2

0

u

0

10

8

6

4

2

0

v

0

10

8

6

4

2

0

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 249

Einfache Regelanwendung IV

Minimum-Relation Rc zur Regel [A → B]:

µR(u, v) = min [µA(u), µB(v)]:

0

1

0.8

0.6

0.4

0.2

0

u

0

10

8

6

4

2

0

v

0

10

8

6

4

2

0

Minimum-Relation

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 250

Einfache Regelanwendung V

Bestimmung von

µB ′(v) = maxu

min [µA ′(u), µR(u, v)]

:= maxu

µR ′(u, v).

geometrisch gedeutet:

• Bestimmung von

µR ′(u, v) := min [µA ′(u), µR(u, v)]

entspricht Schnitt von R mit der zylindrischen Erweiterung von A ′ aufU× V:

R ′ = R ∩ [A ′ ↑ (U× V)].

• Maximierung dieses Ergebnisses uber alle u ∈ U entspricht Projektiondes entstandenen Volumens auf V × [0, 1]:

B ′ = [R ′ ↓ V],

d.h.:

µB ′(v) = maxu

µR ′(u, v).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 251

Einfache Regelanwendung VI

Zylindrische Erweiterung der Eingabe A ′:Zyl(A ′) = [A ′ ↑ (U× V)]:

0

1

0.8

0.6

0.4

0.2

0

u

0

10

8

6

4

2

0

v

0

10

8

6

4

2

0

Zyl(A’)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 252

Einfache Regelanwendung VII

Schnitt von Zyl(A ′) mit R:

µR ′(u, v) = min [µA ′(u), µR(u, v)].

0

1

0.8

0.6

0.4

0.2

0

u

0

10

8

6

4

2

0

v

0

10

8

6

4

2

0

Schnitt von Zyl(A’) und R(A,B)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 253

Einfache Regelanwendung VIII

Projektion von R ′ auf V × [0, 1]:

µB ′(v) = maxu

µR ′(u, v).

0

1

0.8

0.6

0.4

0.2

0

v010 8 6 4 2 0

B’ = A’ o R(A,B)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 254

Einfache Regelanwendung IX

Dieser allgemeine Ansatz ist auf beliebige

Inferenz-Relationen anwendbar, jedoch immens rechenaufwendig.

Wahlt man jedoch die Minimum-Relation Rc (bzw. die Produkt-Relation Rp

mit Produkt als T-Norm), so laßt sich die Bestimmung von B ′ vereinfachen:

(am Beispiel von Rc)

µB ′(v) = maxu

[min [µA ′(u), µRc(u, v)]]

= maxu

[min [µA ′(u),min [µA(u), µB(v)]]]

= maxu

[min [min [µA ′(u), µA(u)], µB(v)]]

= min [maxu

[min [µA ′(u), µA(u)]], µB(v)]

:= min [maxu

µA ′∩A(u), µB(v)]

:= min [H(A ′ ∩ A), µB(v)]

D.h.:

• Bestimmung des Schnittes von A ′ und A:

A ′′ := A ′ ∩ A.

• Bestimmung der Hohe von A ′′: H := h(A ′′).• “Abschneiden” von B an Hohe H.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 255

Einfache Regelanwendung X

2. vereinfachte Regelanwendung:

(⇒ Minimum- oder Produkt-Relation!)

µB ′(v) = min

[max

u[min [µA ′(u), µA(u)]], µB(v)

]

vu

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 256

Einfache Regelanwendung XI

3. vereinfachte Regelanwendung bei scharfer Eingabe:

gegeben: scharfe Eingabe a ∈ U, d.h. A ′ = 1/a:

µB ′(v) = min

[max

u[min [µA ′(u), µA(u)]], µB(v)

]= min [ µA(a), µB(v)]

u v

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 257

Anwendung allg. Regeln I

Anwendung einer allgemeinen Regel:

• negierte Pramisse ¬A wird durch Komplementbildung realisiert:

[¬A → B] ≡ [{A → B].

• ODER-verknupfte Pramisse A ∨ B wird durch Aufspaltung in zwei Regeln

realisiert:

[(A ∨ B) → C] ≡ [A → C] ∧ [B → C].

• UND-verknupfte Pramisse A ∧ B wird durch Verbund A ∗ B realisiert:

[(A ∧ B) → C] ≡ [(A ∗ B) → C],

wobei

A ∗ B = [A ↑ (U× V)] ∩ [B ↑ (U× V)],

d.h.:

µA∗B(u, v) = min [µA(u), µB(v)].

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 258

Anwendung allg. Regeln II

UND-verknupfte Pramisse:

Die Anwendung der Regel [(A ∧ B) → C] auf Eingaben A ′ und B ′ erfolgt

wiederum mit Max-Min Komposition:

C ′ = (A ′ ∗ B ′) ◦ S,

wobei S nun eine drei-stellige Relation

µS : U× V ×W → [0, 1]

darstellt.

S ist jedoch durch die Wahl der zwei-stelligen Relationen R fur die einfache

Regel bereits eindeutig bestimmt:

µS(u, v, w) := µR(µA∗B(u, v), µC(w))

= µR(min [µA(u), µB(v)], µC(w)).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 259

Anwendung allg. Regeln III

Wiederum erweist sich die Wahl von Rc oder Rp als vorteilhaft.

µC ′(w)

= maxu,v

[min [µA ′∗B ′(u, v), µS(u, v, w)]]

= maxu,v

[min [min [µA ′(u), µB ′(v)], µRc(min [µA(u), µB(y)], w)]]

= maxu,v

[min [min [µA ′(u), µB ′(v)],min [µA(u), µB(v), µC(w)]]]

= . . .

= min[maxu

[min [µA ′(u), µA(u)]],maxv

[min [µB ′(v), µB(v)]],

µC(w)]⇒Regelauswertung analog zur einfachen Regel:

• Bestimmung von A ′′ und B ′′

• “Abschneiden” von C bei min [h(A ′′), h(B ′′)]

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 260

Anwendung allg. Regeln IV

am Beispiel zweier scharfer Eingaben a und b:

u v w

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 261

Anwendung mehrerer Regeln I

Anwendung mehrerer Regeln:

(1) lokale Regelanwendung:

Die Anwendung mehrerer Regeln [Ai → Bi] auf die Eingabe A ′ erfolgt zumeist

durch Bestimmung der Teilergebnisse

B ′i = A ′ ◦ Ri

und geeignete Verknupfung dieser Teilergebnisse B ′i.

Im Falle von Minimum- und Produkt-Relation wird die Vereinigung gebildet:

(expansion inferences)

B ′lokal =⋃i

B ′i =⋃i

(A ′ ◦ Ri).

Fur alle anderen vorgestellten Inferenz-Relationen wird der Durchschnitt be-

stimmt:

(reduction inferences)

B ′lokal =⋂i

B ′i =⋂i

(A ′ ◦ Ri).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 262

Anwendung mehrerer Regeln II

(2) globale Regelanwendung:Alle Inferenz-Relationen Ri ≡ [Ai → Bi] uber gemeinsamem Produktraum

werden zu einer einzigen Relation R aggregiert

R =⋃i

Ri (expansion inferences)

bzw.

R =⋂i

Ri (reduction inferences)

Anwendung der Max-Min Komposition auf R liefert Ergebnis:

B ′global = A ′ ◦ R

Zusammenhang zwischen (1) und (2):

1. Expansions-Inferenzen: B ′global = B ′lokal

Distributivitat von ◦ uber ∪: R ◦ (S ∪ T) = (R ◦ S) ∪ (R ◦ T)

2. Reduktions-Inferenzen: B ′global ⊆ B ′lokal

schwache Distributivitat von ◦ uber ∩: R ◦ (S ∩ T) ⊆ (R ◦ S) ∩ (R ◦ T)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 263

Anwendung mehrerer Regeln III

Motivation fur Differenzierung von Expansions- und Reduktions-Inferenzen:

Seien Eingabe A ′ und Pramisse A einer Regel komplett unkorreliert: A ′∩ A =

∅.

Das Ergebnis B ′ dieser Regel sollte demnach keinen Einfluß auf das Gesam-

tergebnis haben, i.e. neutrales Element der Uberlagerung sein.

• Anwendung von Rc und Rp liefert B ′ = ∅. ∅ ist neutrales Element von ∪.

• Anwendung der ubrigen Relationen liefert B ′ = UB. UB ist neutrales Ele-

ment von ∩.

Beachte: In Possibilitats- und Evidenztheorie spiegelt sich die Differenzierung

in Expansions- und Reduktionsinferenzen in den Semantiken wider (Axiome

p1 und e1).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 264

Anwendung mehrerer Regeln IV

Somit ergibt sich fur die (lokale) Auswertung zweier UND-verknupfter Regeln (Minimum-

Relation Rc)

[(A1 ∧ B1) → C1] und [(A2 ∧ B2) → C2]

mit unscharfen Eingaben A ′ und B ′:

u v w u v w

u v w

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 265

Anwendung mehrerer Regeln V

Somit ergibt sich fur die (lokale) Auswertung zweier UND-verknupfter Regeln (Minimum-

Relation Rc)

[(A1 ∧ B1) → C1] und [(A2 ∧ B2) → C2]

mit scharfen Eingaben a und b:

u v w u v w

u v w

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfes Schließen 266

Unscharfe Regelung II

Unscharfe Regelung I

Regelung:

Herstellung oder Erhaltung einer angestrebten Situation an einem vorge-

gebenen, zeitabhangigen System. Die angestrebte Situation wird durch die

Fuhrungsgroße definiert.

Regler Regelstrecke-

Störungen

StellgrößeFührungs- Regel-

Regelgröße

größe abweichung

Regelungsziele:

• konstante Fuhrungsgroße

• Fuhrungsgroße als Funktion der Zeit

• ein Gebiet als Fuhrungsgroße, in dem die Regelgroße zu halten ist

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 267

Unscharfe Regelung II

Klassische Regelungstechnik

• Modellierung der Regelstrecke (meist System von Differentialgleichun-

gen)

• Berechnung des Reglers (Verfahren abhangig von Modell der Regel-

strecke)

Probleme bei scharfer Regelung:

1 Verfugbarkeit des mathematischen Modells

2 Entwicklungsaufwand fur Modellierung

3 Berechnungsaufwand

4 Ungenauigkeiten bei Messung, Stellgliedern und Berechnung

5 Stabilitat bei nicht-linearer Regelung

(Beschreibungsfunktionen, Popow-Kriterium, Methode von Ljapunow:

Einschrankungen bzgl. Anwendbarkeit, Aussagekraft)

6 Reglerentwurf und Stabilitatsprufung auf Grundlage des Modells→ Qualitat der Ergebnisse abhangig von Qualitat des Modells

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 268

Unscharfe Regelung III

Unscharfe Regelung:

• Sammeln qualitativen Wissens uber Prozeß und seine Regelung: intuitive

Zusammenhange, Expertenwissen

• Formulierung eines regelbasierten Reglers (umgangssprachlich)

• regelbasiertes Modell wird durch unscharfes Schließen “berechenbar”

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 269

Beispiel: Miniatur-Roboter KHEPERA

• Motorola 68331 Mikro-Controller• 256 KByte RAM, 256 KByte ROM• 2 Schrittmotoren, 600 Schrit-

te/Umdrehung, d.h. ein Schrittentspricht 1/12 mm

• 8 Entfernungs- und Umgebungslicht-Sensoren Siemens SFH900: primitiv,aber kompakt

• 2 Akkus fur autonomen Betrieb

0 2 3 4 5 6 70

100

200

300

400

500

600

700

800

900

1000

1100

1

Abstand zum Objekt [cm]

grauer

Holz

weisser

schwarzerKunststoff

Kunststoff

Kunststoff

typische Kennlinieneines Entfernungssensors

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 270

KHEPERA – lokale Kollisionsvermeidung

Eingabe: Entfernungs-Sensorik

Ausgabe: Motor-Geschwindigkeiten

Ziel: Kollisionsvermeidung, d. h.

moglichst”

sanftes“ Umfahren von

Hindernissen

prox_lbk

prox_l10 prox_r10prox_r45prox_l45

prox_l90 prox_r90

prox_rbk

speed_l speed_r

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 271

Grundidee unscharfer Regelung

• Beschreibung des gewunschten Reglerverhaltens mit Hilfe umgangssprach-

licher, qualitativer Regeln.

• Quantifizierung linguistischer Werte durch unscharfe Mengen.

• Regel-Auswertung durch Verfahren der unscharfen Logik.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 272

Anwendung

10 Regeln fur das KHEPERA-System:

1. Wenn prox l45, prox l10, prox r10 und prox r45 alle nicht nah, dann setze speed l undspeed r auf einen hohen Wert.

2. Wenn prox l45, prox l10, prox r10 und prox r45 alle nah, dann setze speed l und speed rauf einen negativen Wert.

3. Wenn prox l45 nah, jedoch prox l10, prox r10 und prox r45 alle nicht nah, dann setzespeed l auf einen hohen und speed r auf einen niedrigen Wert.

4. Wenn prox r45 nah, jedoch prox l45, prox l10 und prox r410 alle nicht nah, dann setzespeed r auf einen hohen und speed l auf einen niedrigen Wert.

5. Wenn prox l45 und prox l10 nah, jedoch prox r45 nicht nah, dann setze speed l aufeinen niedrigen und speed r auf einen negativen Wert.

6. Wenn prox r45 und prox r10 nah, jedoch prox l45 nicht nah, dann setze speed r aufeinen niedrigen und speed l auf einen negativen Wert.

7. Wenn prox l10 nah, jedoch prox l45, prox r10 und prox r45 alle nicht nah, dann setzespeed l auf einen hohen und speed r auf einen niedrigen Wert.

8. Wenn prox r10 nah, jedoch prox l45, prox l10 und prox r45 alle nicht nah, dann setzespeed r auf einen hohen und speed l auf einen niedrigen Wert.

9. Wenn prox l90 nicht nah und prox r90 nah, dann setze speed l auf einen niedrigen undspeed r auf einen negativen Wert.

10. Wenn prox r90 nicht nah und prox l90 nah, dann setze speed r auf einen niedrigen undspeed l auf einen negativen Wert.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 273

Verwandte unscharfe Mengen:

1

00

250 500 750 1023

1

0 1023250 500 7500

0

1

0 1023250 500 750

prox_l10

0

1

-15 3010 15 20-10 -5 0 5 25

prox_l90

prox_l45

speed_l

HOCHNIEDRIGNEGATIV

NAH10

NAH45

NAH90

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 274

vereinfachte(!) Regelauswertung

aktuelle Eingabe sei l90, l45, l10, r10, r45, r90:

1. Regel: Wenn prox l45, prox l10, prox r10, prox r45 nicht nah, dann speed l hoch

µ1speed l(s) = min [1 − µNAH45(l45), 1 − µNAH10(l10), 1 − µNAH10(r10), 1 − µ NAH45(r45), µHOCH(s)]

...

...

10. Regel: Wenn prox r90 nicht nah und prox l90 nah, dann speed l negativ

µ10speed l(s) = min [1 − µNAH90(r90), µNAH90(l90), µNIEDRIG(s)]

Gesamtergebnis: µspeed l =10⋃i=1

µispeed l.

(Beachte: µspeed l ist eine unscharfe Menge, die noch in einen scharfen Stellwert umgewan-delt werden muß, etwa mit Schwerpunktmethode.)

Der allgemeine Ansatz ist weitaus komplexer!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 275

Alternative: Interpolationsverfahren

• Reduktion von Regeln auf Punkte: aus

”Wenn Temperatur hoch, dann Kaltwasserhahn weit auf“

wird

”Wenn Temperatur 50◦C, dann Kaltwasserhahn auf Winkel 270◦“.

• Unscharfe durch Ahnlichkeit:

”Wenn Temperatur ungefahr 50◦C, dann Kaltwasserhahn ungefahr auf Winkel 270◦“.

• mehrere Regeln: Interpolation zwischen Punkten

Vorteile:

• analytisches Verhalten der interpolierenden Funktion kann vorgegeben

werden (linear, quadratisch, Glattheit ...)

• oftmals sind direkt scharfe Daten vorhanden⇒”

naher an den Anforderungen des Ingenieurs“

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 276

Einsatzgebiete unscharfer Regler

• direkte Regelung:

oft nur einfache einstufige Regelwerke

• ubergeordnete Regelung

supervisory control

I Ablaufsteuerungen

I Auswahl direkter Regler

I Adaption direkter Regler

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 277

Regelungsmechanismen

Strecke

Mechanismus

Schärfung- Abstumpfung

Inferenz-

unscharfer Regler

Wissens-Basis

BedingungAktion

Regelbasis

Strecke

MechanismusInferenz-

Referenz-Mengen

unscharfer Regler

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 278

Komponenten eines unscharfen Reglers

1. Abstumpfung (fuzzification):

I Messung und Skalierung der Eingabewerte

I Umsetzung in geeignete unscharfe Mengen

2. Regelbasis bzw. Regelbasis + Referenz-Mengen:

I Festlegung der in der Modellierung verwendeten Begriffe, sowie

I Relationen zwischen diesen Begriffen (in Form von Regeln)

3. Inferenz-Mechanismus:

I Kern des Reglers

I Verknupfung der unscharfen Eingaben mit Regeln zur Bestimmung

unscharfer Stellgroßen

4. Scharfung (defuzzification):

I Bestimmung scharfer Stellgroßen und deren Skalierung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 279

Abstumpfung

Abbildung vom beobachteten Eingabe-Raum U in den Raum der unscharfen

Menge uber U.

• konzeptionelle Abstumpfung:

x ∈ U wird zur unscharfen Menge 1/x ∈ 2U

(reiner Reprasentationswechsel!)

• bewertende Abstumpfung:

Einbringen von Kenntnissen bzgl. der Qualitat der Messungen (z.B.

Wahrscheinlichkeit).

Zumeist liegt rein konzeptionelle Abstumpfung vor.

Grunde:

• Einfachheit der Berechnung

• Robustheit des unscharfen Mechanismus

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 280

Regelbasis und Referenzmengen

linguistische Variable F = (N, U, W):

N: Name von F, (etwa “Geschwindigkeit”)

U: Wertebereich von F, (etwa [0, 100])

W: Menge der linguistischen Werte, die fur F definiert sind.

linguistischer Wert AF = (N, A) zur ling. Variablen F:

N: Name von AF, (etwa “niedrig”)

A: unscharfe Menge auf dem Wertebereich U von F, quantitative Beschrei-

bung von AF.

Basis-Regel eines unscharfen Reglers:

IF F is A THEN S is B,

wobei

F, S: linguistische VariableA, B: unscharfe Mengen linguistischer Werte AF und BS

sind.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 281

Regelbasis

1 Formulierung von Expertenwissen: Notieren aller Situationen, die quali-

tativ unterschieden werden konnen. Legt die Granularitat der Regelbasis

fest (Anzahl der linguistischen Werte und Regeln).

2 Beobachtung eines erfahrenen Bedieners: Sammeln von Meßdaten

3 Lernvorgang

• Clusterbildung auf Meßdaten

• Satz von Meta-Regeln zur Regel-Generierung/-Modifikation

4 Ableitung aus unscharfem Prozeß-Modell

(3. und 4.: aktuelle Forschung)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 282

Eine Regel

IF F is Ai THEN S is Bi

ist i.a. positiv formuliert:

,,Wenn die (modifizierte) Fuhrungsgroße F den (scharfen, unscharfen) Wert

Ai annimmt, dann setze die Stellgroße S auf den (scharfen, unscharfen) Wert

Bi.”

,,Wenn die Temperatur (≡ F) hoch (≡ Ai) ist, dann fuhre viel (≡ Bi)

Kuhlwasser (≡ S) zu.”

Negative Regeln kommen seltener vor, erweisen sich dann aber als sehr

nutzlich:

,,Wenn sich rechts (≡ Ai) ein Hindernis (≡ F) befindet, dann fahre (≡ S)

nicht nach rechts (≡ {Bi).”

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 283

Datenbasis

Quantifizierung der in der Regelbasis verwendeten unscharfen Werte: un-

scharfe Mengen uber den betroffenen Universen.

(a) evt. Diskretisierung / Normalisierung:

I Diskretisierung: Wahl der Abtastrate δ: Effizienz vs. Sensibilitat (aber

meist von der Technik vorgegeben)

I Normalisierung: a-priori-Wissen uber Wertebereiche notig

(b) unscharfe Partitionierung:

I Anzahl der ling. Werte einer ling. Variablen (Granularitat)⇒ bestimmt maximale Anzahl von Regeln.

(c) Wahl der linguistischen Werte:

I Form der Zugehorigkeitsfunktionen (Dreieck, Trapez, Gauss-Kurve,

. . .)

I Grad der Uberlappung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 284

Vollstandigkeit der Datenbasis

Regler muß auf jeden Zustand mit geeigneter Aktion antworten!

• Datenbasis-Strategie:

ε-Vollstandigkeit:

I fur Vereinigung A :=⋃i

Ai aller ling. Werte Ai eines Universums gilt:

∀x ∈ U : µA(x) ≥ ε. oder:

I fur die Summe der Zugehorigkeitsfunktionen aller Ai gilt: ∀x ∈ U :∑i

µAi(x) ≥ ε,

meist∑i

µAi(x) = 1.

• Regelbasis-Strategie:

(siehe spatere Folie)

⇒ Die Wahl der Datenbasis besitzt entscheidende Bedeutung fur Gute der

Regelung.⇒ Sie wird zumeist wiederholt optimiert.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 285

Regelbasis

Vollstandigkeit der Regelbasis:

Regelbasis-Strategie:

inkrementelle Erweiterung einer initialen Regelbasis, falls

I eine beobachtete Situation nicht durch bestehende Regeln abgedeckt

I die Reglerantwort unbefriedigend/falsch ist

I die Reglerantwort zu unzuverlassig ist. (etwa Abszisse πv0des Schwer-

punktes v0 < ε)

Konsistenz der Regelbasis:

Uberprufung auf der Ebene der Regel-Formulierung – hier durfen keine qua-

litativen Widerspruche existieren.

Problem: Wechselwirkungen der Regeln

Beispiel: System mit n Regeln Ri

Ri : IF F is Ai THEN S is Bi,

liefert bei Eingabe von Aj nicht unbedingt Bj.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 286

Inferenz-Mechanismus

(siehe auch Abschnitt Unscharfes Schließen)

(a) Festlegung der Inferenz-Relation:

I pragmatisch festgelegt (Anforderungen an Verhalten, Effizienz)

I theoretisch fundiert (Possibilitats- und Evidenztheorie)⇒ in der Praxis meist Rc, Rp (positive Regeln) oder RG (negative Regeln)

(b) Verarbeitung mehrstelliger Pramissen:

Wahl der t-Norm fur die UND-Verknupfung, i.a. Minimum oder Produkt.

Wahl der Komplementfunktion fur die Negation, i.a. 1 − x.

(c) Anwendung mehrerer Regeln:

I Aggregation der Ergebnisse einzelner Regeln

Aggregation: Vereinigung, Durchschnitt, . . .

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 287

Scharfung des unscharfen Stellwertes B ′

Ziel: plausibelster Punkt v0, in dem B ′ konzentriert wird;wichtigste Methoden:

1 Schwerpunkt (COA)Bestimmung des Flachenschwerpunktes:

v0 :=

∫V

v · µB ′(v)dv∫V

µB ′(v)dvbzw. v0 :=

∑v∈V

µB ′(v) · v∑v∈V

µB ′(v)⇒ zusatzliche Information uber Verlaßlichkeit πv0von v0:

πv0:=

∑v∈V

µB ′(v) · v∑v∈V

v

2 Mittelwert der Maxima (MOM)Bestimmung des Mittels der Werte mit maximaler Zugehorigkeit:

V := {v | µB ′(v) = maxv ′∈V

[µB ′(v′)]}, v0 :=

∫V

µB ′(v)dv∫V

dvbzw. v0 :=

∑v∈V

v

|V |.

3 Maximum (MAX)Auswahl eines v ∈ V mit maximaler Zugehorigkeit.Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 288

Scharfungsmethoden

MOM COA

COAMOM

MAX

Meist Wahl des COA-Verfahrens, aber Vorsicht bei nichtkonvexen Mengen

(inkonsistente Schlusse)!

Problembeispiel: Ausweichen vor Hindernissen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 289

Entwurf eines unscharfen Reglers

Ablauf des Reglerentwurfs

1 Wahl der Eingangsgroßen (Meßgroßen und daraus ableitbare Werte)

Wahl der Ausgangsgroßen (Stellgroßen)

2 Festlegen der Wertebereiche und evtl. der Diskretisierung

3 Festlegen der Abstumpfung, des Inferenzmechanismus und des Scharfungs-

verfahrens

4 Definition der linguistischen Terme (vollstandig?)

5 Aufstellen der Regelbasis (konsistent und vollstandig?)

6 Simulation, Test, Bewertung ⇒ zuruck zu Punkt 4 (evtl. auch Pkt. 3)

⇒ keine Modellbildung des Prozesses,

sehr viele Freiheitsgrade!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 290

Zusammenfassung

(1) Abstumpfungs-Strategie:

konzeptionelle Abstumpfung (reiner Reprasentationswechsel):

x ∈ Ux → 1/x ∈ 2Ux

(2) Datenbasis (Referenz-Mengen, ling. Werte):

Polygone (Dreiecke, Trapeze)

(3) Regelbasis:

einschichtig, keine Hierarchie, keine unscharfen Zwischenergebnisse

(4) Inferenz-Mechanismus:

Minimum- bzw. Produkt-Relation (einfach und effizient), selten Godel-

Relation

(5) Scharfungs-Strategie:

zumeist Schwerpunktverfahren

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 291

Automatikschaltung I

Anwendungsbeispiel: Regulierung einer Automatikschaltung (VW, Gruppe

Kruse, 1995)

In Abhangigkeit von der Geschwindigkeit des Autos, der Stellung des Gas-

pedals und des aktuellen Gangs wird bestimmt, ob ein Gangwechsel durch-

gefuhrt wird.

Stellung des Gaspedals

Geschwindigkeit

3 − 4

4 − 3

3 − 2

2 − 3

1 − 2

2 − 1

Kennlinien der Schaltpunkte

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 292

Automatikschaltung II

Situation: Automatikschaltung hat zwei Modi, die manuell gewahlt werden:

Sport oder Eco. Der Modus beeinflußt die Schaltzeitpunkte:

• niedrige Drehzahlen fur okonomische Fahrweise

• hohere Drehzahlen fur sportliche Fahrweise

Stellung des Gaspedals

Geschwindigkeit

3 − 4 SPORT

4 − 3 SPORT

3 − 4 ECO

4 − 3 ECO

Kennlinien der Schaltpunkte zwischen drittem und vierten Gang in Sport- und Eco-Modus

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 293

Automatikschaltung III

Ziel: Stufenlose Regulierung der Schaltzeitpunkte, die

• automatisch erfolgt

• dem Fahrertyp angepaßt ist

Vorgehen:

1 Einteilung von Testpersonen in normale, sportliche, vorsichtige und nervose

Fahrer

2 einstundige Testfahrten mit Aufzeichnung verschiedener Meßgroßen

Ergebnis: maßgebliche Große zum Unterscheiden der Fahrertypen ist die

Geschwindigkeit der Gaspedalbewegung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 294

Automatikschaltung IV

Histogramme als unscharfe Klasseneinteilung der Fahrer

Geschwindigkeit der Gaspedalbewegung

vorsichtig

normal

nervös

sportlich

Problem: bei nervosen Fahrern soll ahnlich wie bei vorsichtigen geschaltet

werden⇒ Unterscheidung zwischen nervosen und sportlichen Fahrern: Anzahl der

Vorzeichenwechsel bei der Pedalbewegung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 295

Automatikschaltung V

Regler: Ableiten eines Sportfaktors aus

• Gaspedalstellung (Fahrsituation)

• Geschwindigkeit und Anzahl der Vorzeichenwechsel der Gaspedalbewe-

gung (Fahrertyp)

• “altem” Sportfaktor

Interpolation zwischen Schaltkurven:

• Sportfaktor = 0%: Eco-Stellung

• Sportfaktor = 100%: Sport-Stellung

• Sportfaktor ∈ (0, 100)%: linear interpolieren zwischen Eco- und Sport-

Stellung

Pedalstellung

Pedalgeschwindigkeit

Vorzeichenwechselder Pedalbewegung

Sportfaktor(t−1)

Sportfaktor(t)

VerschiebungderSchaltpunkte inAbhängigkeitdesSportfaktors

Berechnung der Schaltpunkte

Gangwahl

Klassifikation des Fahrers und der Fahrsituation

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 296

Automatikschaltung VI

Zusammenfassung des Vorgehens:

• unscharfe Klassifikation von Fahrertypen aufgrund statistischer Meßda-

ten⇒ Histogramme als Zugehorigkeitsfunktionen

• Vorzeichenwechsel der Gaspedalbewegung zur Unterscheidung nervoser

und sportlicher Fahrer

• Glattung der Regelung durch Berucksichtigung alter Sportfaktoren und

bestimmter Fahrsituationen (z.B. wenn ein sportlicher Fahrer den Fuß

vom Gas nimmt, soll der Sportfaktor groß bleiben)

Ergebnis:

• einfacher, intuitiver Entwurf

• gemeinsame Verarbeitung von Meßdaten und unscharfen Regeln von Ex-

perten

• keine neuen Sensoren notwendig⇒ einfache, effektive Anpassung des Schaltverhaltens an verschiedene Fahrer-

typen, wird seit 1995 serienmaßig bei VW eingebaut (z.B. auch im neuen

Kafer)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 297

Regler von Takagi Sugeno

Feststellung: Regler ist eine Abbildung

f : U −→ V

Unscharfer Regler: Realisierung von f durch Abstumpfung, Inferenz, Scharfung

Deutung eines Mamdani-Reglers (mit Godel-Inferenz ahnlich):

• eine Regel ist ein unscharfer Punkt in U × V (wenn wie ublich konvexe

Zugehorigkeitsfunktionen fur A, B gewahlt werden)

• die Aggregation aller Regeln ist eine unscharfe Uberdeckung von f

• ein unscharfer Regler interpoliert zwischen unscharfen Punkten

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 298

Regeln des Takagi Sugeno-Reglers

ρi: if F1 is Ai and F2 is Bi and ...

then S = fi(F1, F2, . . .)

mit scharfen Abbildungen fi : U −→ V. fi sind meist Polynome; es reichen

oft konstante oder lineare Funktionen, also

fi(F) = ai + bi · F

bei einer Fuhrungsgroße.

Der Takagi Sugeno-Regler wird nur mit scharfen Fuhrungsgroßen Fi = xi

eingesetzt (konzeptionelle Abstumpfung).

Zusammenfassen der Regelergebnisse

S = fi(F1, F2, . . .) durch gewichtetes Mitteln gemaß der Erfullungsgrade

hi = min(µAi(F1), µBi

(F2), . . .):

S =

∑i

hi · fi(F1, F2 . . .)∑i

hi

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 299

Takagi Sugeno vs. Mamdami

Deutung des Takagi Sugeno-Reglers:

• eine Regel ρi ist lokale Kennlinie des Reglers im unscharfen Bereich Ai

• die Aggregation aller Regeln entspricht dem Zusammensetzen lokaler

Kennlinien fi zu der globalen Kennlinie f

• in den Uberlappungsbereichen gehen lokale Kennlinien weich ineinander

uber

Mamdani-Regler versus Takagi Sugeno-Regler:

• Mamdani-Regler beschreibt unscharfe Punkte oder lokale Bereiche

• Takagi Sugeno-Regler beschreibt lokale Verlaufe⇒ es wird unterschiedliches Wissen uber die Regelungsstrategie vorausge-

setzt

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 300

Mamdani Regler

A1 A2 A3 A4 A5

B1

B2

B3

B4

B5

U

V

Unscharfe Uberdeckung der Reglerkennlinie f mit unscharfen Regeln nach

Mamdani.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 301

Takagi Sugeno Regler

A1 A2 A3 A4

U

V

f1

f2

f3

f4

Unscharfes Zusammensetzen lokaler Kennlinien fi zu globaler Kennlinie f

nach Takagi Sugeno.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 302

Interpolation I

meist genutzter Spezialfall des Reglers nach

Takagi Sugeno:

konstante Funktionen fi := si:

ρi : if F is Ai then S = si

(hier nur eindimensionales F betrachtet)

Theorem: Gegeben sei ein Regler nach Takagi Sugeno mit n Regeln, ein-

dimensionaler Fuhrungsgroße und konstanten Konklusionen fi := si. Sei-

en a1, a2, . . . an Stutzpunkte mit ai < ai+1. Die Pramissen Ai seien Drei-

ecksfunktionen mit Punkten (ai−1, 0), (ai, 1), (ai+1, 0) bzw. Rampenfunktionen

(a1, 1), (a2, 0) und (an−1, 0), (an, 1) fur A1 und An. Dann ist der Regler identisch

mit einer stuckweise linearen Interpolation zwischen der Folge von Punkten

(ai, si).

Beweis: Ubung.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 303

Interpolation II

��� ��� ��� ���

� � � � � � � �

Bemerkung: Das Ergebnis laßt sich leicht verallgemeinern• auf mehrdimensionale Fuhrungsgroßen. Man erhalt dann eine multilineare Interpolation.• auf andere Zugehorigkeitsfunktionen fur die Pramissen. So kann man z.B. quadratisch,

kubisch usw. interpolieren.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 304

Interpolation IIIDeutung von Interpolation als Inferenzverfahren auf Grundlage einer Regel-

basis

ρi: Wenn F ungefahr gleich ai, dann S ungefahr gleich si.

Inferenz:

• Interpretation von µAi(F) als Maß hi fur die Gleichheit von F und ai

• Gewichtung der zugehorigen Konklusionen si mit µAi(F)

• Ergebnis S als gewichtete Summe

S =

n∑i=1

hi · si =

n∑i=1

µAi(F) · si .

Da nach Konstruktion im Theoremn∑

i=1

µAi(F) = 1 gilt, ist dies identisch mit dem Vorgehen

von Takagi Sugeno.

• mehrdimensionale Fuhrungsgroßen: Ahnlichkeit von (F1, F2, F3 . . .) mit

Stutzpunkten (ai, bi, ci . . .) wird durch

hi = µAi(F1) · µBi

(F2) · µCi(F3) · · ·

berechnet.

Vergleich mit Takagi Sugeno: ersetze Multiplikation durch “min” als verknupfende t-

Norm.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 305

Interpolation IV

Einsatz von Interpolation bietet sich an, wenn

1 Wissen uber die Reglerfunktion in Form von Stutzpunkten (ai, si) gege-

ben ist;

2 die Unscharfe eines vagen Ausdrucks wie “warm” nicht quantifiziert wer-

den kann→ z.B. Reduktion von “warm” auf “ungefahr 30 Grad”→ scharfer Stutzpunkt ai = 30

3 Wissen uber Reglerabbildung f der Bauart “f ist annahernd linear, qua-

dratisch usw.” vorhanden ist;

4 analytisches Forderungen an f wie Monotonie vorhanden sind.

Wissen aus 3. und 4. kann nicht in einen Mamdani-Regler integriert werden.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 306

Unscharfe Regelung — Fazit

Vorteile:

• Reglerentwurf ohne besondere Modell-Kenntnisse moglich

• Reglerentwurf in vielen Fallen deutlich vereinfacht und schneller (“Zeit

ist Geld!”)

• hohere Regelgute moglich (bei bestimmten Prozessen)

Nachteile:

• Nachweis der Stabilitat

(wie bei allen nicht-linearen Systemen)

• Auswahl und Quantifizierung der ling. Werte erfordert i.a. Erfahrung

• keine einheitliche Theorie, viele Freiheitsgrade beim Entwurf

(Inferenz-Relation, Inferenz-Mechanismen, Abstumpfungs- und

Scharfungsstrategie,. . .)→ Feineinstellung unscharfer Regler durch Lern- bzw. Optimierungsverfahren

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 307

Beispiel: Inverses Pendel

Aufgabe: Balancieren eines Stabes durch Krafteinwirkung auf den Wagen

• intuitiv modellierbar

• “gesunder Menschenverstand” mit gewisser Feinabstimmung vollig aus-

reichend.

F

θ

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 308

Inverses Pendel

Beispiel-Regel:WENN der Winkel θ in seinem mittleren negativen Bereich ist

UND die Winkelgeschwindigkeit _θ ungefahr Null ist,

DANN sollte die Kraft F in ihrem mittleren positiven Bereich sein

Matrix aller benotigten Regeln:θ

ng nm nk uN pk pm pg

ng pg pk

nm pm

nk pk nk nm

_θ uN pg pm pk uN nk nm ng

pk pm pk nk

pm nm

pg nk ng

mit:

ng=“negativ groß”

nm=“negativ mittel”

uN=“um Null”

pk=“positiv klein”

...

⇒ robuste und leistungsfahige Regelung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 309

Beispiel Inverses Pendel

s

θ

Zustandsraum X = Xs ×X _s ×Xθ ×X _θ:

• Winkel θ und Winkelgeschwindigkeit _θ

• Wagenposition s und -geschwindigkeit _s

Stellgroße u: Kraft F an Wagen

dynamisches System Pendel: xt+1 = f(xt, ut)

Ziel der Regelung

• Stab ausbalancieren, Wagen in Bahnmitte (s = _s = θ = _θ = 0)

• Vorgabe eines Optimalitatskriteriums

zeitoptimale, energieoptimale, ... Regelung

hier: zeitoptimal

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 310

Inverses Pendel: Zweischichtiger Entwurf

Sieben Regeln je Schicht

Struktur des Reglers:

Schichterste

zweiteSchicht

F

θ θ s s

d

..

F

_θ \ θN 0 P

P 0 P P0 N 0 PN N N 0

Regeln der ersten Schicht

Fd N 0 P

_s\s

N 0 P

P N N N0 N N NN N N N

_s\s

N 0 P

P N P P0 N 0 PN N N P

_s\s

N 0 P

P P P P0 P P PN P P P

Regeln der zweiten Schicht

linguistische Werte: N = “negativ”, 0 = “um Null”, P = “positiv”

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 311

Inverses Pendel: Takagi Sugeno Regler

Reglermodell:

• dreieckige Zugehorigkeitsfunktionen

• scharfe Konklusionen

• Multiplikation als t-Norm fur Konjunktion von Pramissen→ multilineare Interpolation

Wahl der Zugehorigkeitsfunktionen:

rl

negativNull

0

positiv

fur jede der vier Zustandsgroßen

• drei linguistische Werte

• eigene Parameter l und r

mogliche Werte fur F und Fd: {−10N, 0N, +10N}

Einstellen der acht Parameter: gezieltes Experimentieren

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 312

Inverses Pendel: Reglerverhalten

-0.5-0.4-0.3-0.2-0.1

00.10.20.30.40.5

s [m

]

Zeit

Wagenposition

-0.2

-0.15

-0.1

-0.05

0

0.05

0.1

0.15

0.2

thet

a [ra

d]

Zeit

Winkel

vier aufeinander folgende Trajektorien (vier Startpositionen)

Dauer jeder Trajektorie: 15s

Entwicklungszeit: 2 Stunden

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 313

Inverses Pendel: Ergebnis

Einfacher unscharfer Regler

+ Zielbereich wird grob erreicht

+ Stab fallt nicht mehr um

− starke Oszillationen

− lange Einschwingzeiten

Beobachtung: Hierarchie schließt einige Kombinationen von Pramissentermen

aus

Alle Kombinationen von θ, _θ, die auf identisches Fd abgebildet werden, konnen

in der zweiten Schicht nicht unterschieden werden.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 314

Inverses Pendel: Einschichtiger Entwurf

Neuentwurf: mit 59 Regeln

_s\s

N 0 P

P

_θ\θN 0 P

P 0,N 0 P0 N 0 0,PN N N 0

_θ\θN 0 P

P N,0 P P0 N P PN N N 0,P

_θ\θN 0 P

P 0 P P0 N P PN N 0 0,P

0

_θ\θN 0 P

P N,0 0 P0 N N P,0N N N 0,N

_θ\θN 0 P

P 0,N P P0 N 0 PN N N 0,P

_θ\θN 0 P

P 0,P P P0 N,0 P PN N 0 P,0

N

_θ\θN 0 P

P 0,N 0 P0 N N PN N N 0

_θ\θN 0 P

P 0,N P P0 N N PN N N P,0

_θ\θN 0 P

P 0 P P0 0,N 0 PN N 0 0,P

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 315

Inverses Pendel: Reglerverhalten

-0.5

-0.4

-0.3

-0.2

-0.1

0

0.1

0.2

0.3

0.4

0.5

s [m

]

Zeit

Wagenposition

-0.2

-0.15

-0.1

-0.05

0

0.05

0.1

0.15

0.2

thet

a [ra

d]

Zeit

Winkel

vier aufeinander folgende Trajektorien (vier Startpositionen)

Dauer jeder Trajektorie: 7s

Entwicklungszeit: 20 Stunden

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 316

Inverses Pendel: Ergebnis

Aufwendiger unscharfer Regler

+ Zielbereich wird erreicht und gehalten

+ Stab fallt nicht mehr um

o schwache Oszillationen

o Einschwingzeiten akzeptabel

o Uberschwingen akzeptabel→ relativ gute Qualitat

Problem: abstrakte Optimierungsziele wie Zeitoptimalitat, Energieoptima-

litat, geringes Uberschwingen usw. konnen nur durch Experimentieren an-

genahert werden.→ per Hand keine vernunftige Optimierung moglich.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: unscharfe Regelung 317

Lernende unscharfe Regler

Lernende Regler I

Warum lernen?

1 Problem konventioneller Regelungstechnik

• Modell in angemessener Form notwendig (i.a. System von Differenti-

algleichungen)

• Genauigkeit des Modells?

2 Problem unscharfer Regler

• Optimierung notwendig

3 Adaption an Veranderungen des Prozesses (z.B. Verschleiß) oder der

Umgebung (z.B. Temperatur)

Karlsruher Projekt Fynesse: FuzzY-NEuro-SyStEm

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 318

Merkmale von Fynesse

• selbstandiges Lernen von Regelstrategien

• kein Prozeßmodell notwendig

• Vorgabe abstrakter Optimierungsziele wie Zeitoptimalitat, Energieopti-

malitat usw.

• Integration von Vorwissen

I scharfe Regelgesetze (Kennfelder, PID-Regler, lineare Regler usw.)

I unscharfe Regler

• Interpretation der gelernten Strategie in Form unscharfer Regeln

I Verstandnis

I Plausibilitatsprufung (qualitativ Fehlverhalten erkennen)

I Ubertragen auf ahnliche Problemstellung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 319

Architektur von Fynesse

uRegler

xProzeß

xt ut

����

����

Inter-pretation

Neuron.

X PE

REE

Wissen

vorschlagen

wählen

Kritiker

UnscharfeRegeln

Regel-Aktionen

T

• Strategiekomponente schlagt Ak-

tionen vor

• Kritikerkomponente wahlt beste

Aktion

• Kritikerkomponente lernt aus Ak-

tionen

• Adaption der Strategiekomponen-

te

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 320

Fynesse: Strategiekomponente

Aufgabe der Strategiekomponente: in jedem Zustand x Vorschlag einer Men-

ge U moglicher Stellwerte (Aktionen)

Definition von U• scharfe Aktionenmenge

U(x) = {u1(x), u2(x), . . . um(x)}

• scharfes Regelgesetz U(x) = {ua priori(x)}

• unscharfer Regler U(x) = u(x)

oder Kombinationen.

Beispiel inverses Pendel:

• globale Aktionenmenge U = {−10N, 0N, +10N} (unabhangig von x)

• “hybrider” Regler

U(x) = {−10N, ua priori(x), +10N}

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 321

Fynesse: Kritikerkomponente

Aufgabe der Kritikerkomponente: Bewertung der vorgeschlagenen Aktionen

Regelstrategie von Fynesse: Kritiker wahlt die bestbewertete Aktion

Lernvorgang: Kritiker

• ist a priori unwissend

• lernt allein aus Erfolg/Mißerfolg vergangener Regelungsvorgange (lear-

ning by doing)→ Lernen am realen Prozeß moglich

Technik:

• dynamisches Programmieren

• Verstarkungslernen (reinforcement learning)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 322

Fynesse: Lernverfahren

Vorbemerkung: System ist zeitdiskret

Regelziele:

• Erreichen eines Zielgebiets X+ ⊆ X• Nichtbetreten einer verbotenen Zone X− ⊆ X

wobei X+ ∩ X− = ∅.

Beispiel Pendel:

• X+ = {(s, _s, θ, _θ)| s ∈ [−0.05m, 0.05m] ∧ θ ∈ [−2.3◦, 2.3◦]}• X− = {(s, _s, θ, _θ)| s ∈ {s| |s| > 1.0m} ∨ θ ∈ {θ| |θ| > 40◦}}

lokale Kosten r(x, u) fur Anwendung der Aktion u in Zustand x

• r(x, u) = 0 fur x ∈ X+

• r(x, u) = c fur x ∈ X−, wobei c”

sehr groß“ gewahlt wird (theoretisch

unendlich)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 323

Fynesse: Lernverfahren Fortsetzung

Optimierungsziel: Wahl von r(x, u) in X\(X+ ∪ X−)

• zeitoptimal: rz(x, u) = cz

• energieoptimal: beim Pendel re(x, u) = ce · u2

globale Kosten:

Qπ(xt, ut) =

∞∑s=t

r(xs, π(xs)) mit xt+1 := f(xt, ut)

Regelstrategie:

π(x) := arg minu∈U(x)

Q(x, u)

Lernen: Annaherung an optimale Kosten Q∗

• Q ist a priori unbekannt

• Minimieren von Q→ Minimieren der Strategiekosten→ Optimieren der Strategie bzgl. Optimierungskriterium

Beispiel: (rz(x, u) als lokale Kosten)

Minimierung von Q bedeutet, die Anzahl der Schritte außerhalb des Zielbe-

reichs X+ zu minimieren → zeitoptimale Regelung

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 324

Fynesse: Lernverfahren Fortsetzung 2

Ziel

Start

1

3

12 13

11

10

9 8 7 4 2

56

Optimalitatsprinzip: (Bellman)

Die Kosten der optimalen Strategie setzen sich zusammen aus lokalen Kosten

fur die nachste Entscheidung und den Kosten der optimalen Strategie fur

die nachfolgenden Entscheidungen.

Adaption der Kostenfunktion: (Grundform Q-Lernen)

Qm+1(xt, ut) := minu

{Qm(xt+1, u)} + r(xt, ut)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 325

Optimale Kostenfunktion

Ziel

2

3

5

5

9

32

1 2

11

2 1

33

4 3 4

45678

8

9 8 10Barriere9

988 7

67 7 8

6 5

7 6 5 4

34 2

67

2

Varianten der Adaption: synchron, asynchron

Ergebnis: Im Fall einer endlichen Zustandsmenge kann unter gewissen Vor-

aussetzungen Konvergenz gegen optimale Kostenfunktion Q∗ bewiesen wer-

den.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 326

Probleme bei der Adaption von Q

Probleme:

• Zustandsraum ist oft kontinuierlich (z.B. Pendel)

I Tabellenreprasentation von Q zu aufwendig

I Adaption von Q nicht auf allen Zustanden moglich→ Approximation der Kostenfunktion (in Fynesse neuronales Netz als

Funktionsapproximator)→ Generalisierung des Gelernten durch Interpolation

• kein Prozeßmodell vorhanden

I Adaption von Q entlang realer Trajektorien

I Exploration, um moglichst alle Bereiche im Zustandsraum zu besu-

chen (wichtig fur Konvergenz)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 327

Ergebnisse am Beispiel Pendel

Wagen-

position

-0.5-0.4-0.3-0.2-0.1

00.10.20.30.40.5

s [m

]

Zeit

Winkel

-0.2

-0.15

-0.1

-0.05

0

0.05

0.1

0.15

0.2

thet

a [ra

d]

Zeit

vier aufeinander folgende Trajektorien (vier Startpositionen), Dauer jeder Trajektorie: 7s

schwarz: aufwendiger unscharfer Regler, blau: optimierter hybrider Regler

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 328

Ergebnisse 2

Anzahl der Zeitschritte außerhalb des Zielbereichs fur jeweils vier Trajektorien mit 175Schritten Lange

Vorwissen #Trainingsseq. #Schritte Ø#Schritte

— 41000 37 16 26 59 34.5fuzzy (einfach) initialer Regler 149 101 101 149 125fuzzy (einfach) 44000 45 16 17 42 30

fuzzy (aufwendig) initialer Regler 48 38 38 48 43fuzzy (aufwendig) 54000 37 17 17 38 27.25

linear initialer Regler 46 37 37 46 41.5linear 58000 46 12 12 38 27

-10-8-6-4-202468

10F

[N]

Zeit

gewahlte Kraft des hybriden Reglers bei vier Trajektorien

optimierte Wahl von• extremen Aktionen ±10N zur Beschleunigung• unscharfem Regler im Zielbereich

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 329

Ergebnisse: Interpretation

00.050.1

0.150.2

0.250.3

0.350.4

0.450.5

0.55

0 20000 40000 60000 80000 100000

Kos

ten

# Trainingssequenzen

Lernverlauf: durchschnittliche Kosten (=”Schritte außerhalb Zielbereich mal 0.002”) uber

Anzahl der Trainingssequenzen

rot: mit Vorwissen, blau: ohne Vorwissen

Ergebnis:

• selbstandiges Lernen von Regelstrategien moglich

• Vorwissen

I beschleunigt Lernvorgang

I stabilisiert Lernvorgang

I fuhrt zu besseren Regelstrategien

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 330

Folgerungen

Beobachtung: Q(x, u) ermoglicht Gutevergleich von Aktionen in einem Zu-

stand

Idee: Transformation von Q in unscharfe Relation q

• us = argmaxu

Q(x, u)→ us schlechteste Aktion in Zustand x→ µq(x, us) := 0

• ub = argmaxu

Q(x, u)→ ub beste Aktion in Zustand x→ µq(x, ub) := 1

• lineare Skalierung aller anderen Aktionen

Regelextraktion: finde Pramissen Ai und Konklusionen Bi, so daß

• Aggregation von R[Ai→Bi]gleich q ist, z.B.⋃

i

Rci= q oder

⋂i

RGi= q

• Ai und Bi als linguistische Werte interpretiert werden konnen (verstandlich

sind)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 331

Verfeinertes Vorgehen

Problem: I.a. existiert keine Losung

Vorgehen: Approximation von q→ nichtlineares, nichtstetiges (im Falle der Godelrelation) Optimierungspro-

blem

Alternative: Interpolationsverfahren zur Approximation

Ergebnis: (s = _s = 0)

_θ \ θN 0 P

P 0 P P0 N 0 PN N N 0

einf. Fuzzy-Regler

_θ \ θN 0 P

P 0P 0P 0P0 N0 N0P 0PN N0 N0 N0

optimierter Regler

Pramissen und Konklusionen wie bei initialem Fuzzyregler, Gewichtungen von Regeln ein-gefuhrt und optimiert.→ Optimierung der Flanke zwischen ±10N

• Flanke gedreht

• Flanke steiler

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 332

Beispiel Ruhrkesselreaktor

Regelung eines Ruhrkesselreaktors (chemische Zerfallsreaktion)

• starke Kopplung zwischen Zerfallsreaktion (Stoffkonzentration) und Tem-

peratur im Kessel

• Ziel der Regelung: Einstellung der Stoffkonzentration uber Regelung der

Temperatur auf Sollwert Null.

Ergebnis:

-0.05

0

0.05

0.1

0.15

0 1 2 3 4 5 6 7 8

x2

Zeit (min)

linearFynesse

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 333

Beispiel: Interpretation

• Vorgabe von Pramissen

• Optimierung von Konklusionen

• Mamdani-Regler

rot: Pramissen, blau: Konklusionen

0

0.2

0.4

0.6

0.8

1

-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04x, u

rule 1

’negativ_x’’leicht_positiv_u’

x negativ → u leicht positiv

0

0.2

0.4

0.6

0.8

1

-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04x, u

rule 2

’null_x’’um_null_u’

x Null → u um Null

0

0.2

0.4

0.6

0.8

1

-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04x, u

rule 3

’positiv_klein_x’’negativ_klein_u’

x positiv klein → u negativ klein

0

0.2

0.4

0.6

0.8

1

-0.04 -0.03 -0.02 -0.01 0 0.01 0.02 0.03 0.04x, u

Regel 4

’positiv_gross_x’’negativ_mittel_u’

x positiv groß → u negativ mittel

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 334

Beispiel: Folgerungen

’qual’

-0.03-0.0100.01

0.03

-0.05

0

0.05

0

0.5

1

x

u

unscharfe Relation q

’approximation’

-0.03-0.0100.01

0.03

-0.05

0

0.05

0

0.5

1

x

u

Approximation von q durch extrahierte Regeln nach Mamdani

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 335

Beispiel: Schatzung isoseismischer Gebiete

Aufgabe: Interpolation von Daten durch unscharfe Interpretation und neu-

ronales Lernen

Quelle: Chongfu Huang, Yee Leung: Estimating the Relationship between Isoseismal Areaand Earthquake Magnitude by a Hybrid Fuzzy Neural Network Method Fuzzy Sets andSystems 107(1999),131-146

Problem: gegeben Erdbebenstarke M auf der Richterskala, bestimme iso-

seismische Gebiete S(I) gleicher Intensitat. Sei g = log S.

In einfachen Fallen gilt g = a + bM, a,b empirische Konstanten.

Anwendungsaufgabe: Bestimme aus der Serie von n Meßwerten (mi, gi) eine

bessere Approximation als lineare Interpolation

Schwierigkeit: Die Meßwerte streuen und konnten auch inkonsistent sein. In

jedem Fall sind sie eine nicht unbedingt reprasentative Stichprobe.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 336

Vorgehensweise

• Ersetze Meßwerte (mi, gi) durch unscharfe Mengen, benutze Normalver-

teilung (Glockenkurve), keine Dreiecke.

• Ersetze Zuordnung mi → gi durch unscharfe Regel if m is mi then g is gi

• Benutze Produkt statt Minimum als t-Norm fur die Implikation (empiri-

scher Befund), gewichtete Mittel zur Zusammenfassung der Regeln.

Problem: alle bekannten Methoden der Scharfung des Gesamtergebnisses

sind unzureichend.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 337

Vorgehensweise und Ergebnis

Benutze ein neuronales Netz (back-

propagation), um aus den gegebenen

Werten (mi, gi) zu lernen, wie man das

unscharfe Endergebnis richtig scharft.

Ergebnis (am Beispiel): Die Summe

der Fehlerquadrate sinkt im Vergleich

zum linearen Verfahren von 0.27 auf

0.196.5 5.5 6 6.5 7 7.5 8

0.659

1.318

1.977

2.636

3.295

3.954

M

Log(

S(I>

VII)

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: lernende Regler 338

Ahnlichkeit, Ballungsanalyse

Ahnlichkeit: Aufgabe

Aufgabe:

• Gegeben: Paare (Falle) (xi, yi) ∈ X× Y, i ∈ {0, 1, . . . n}

• Gesucht: Interpolierende Funktion

g : X −→ Y mit g(xi) = yi

• Anschaulich: WENN x ahnlich zu xi DANN y ahnlich zu yi

Anwendung 1: Klassische Interpolation

Verbinde (xi, yi) durch vorgegebenen Satz von Basisfunktionen (Vorwissen

in der Wahl der Basis)

Anwendung 2: Fallbasiertes Schließen

• Fallbasis {(xi, yi)}i∈I mit Problemen xi und Losungen yi

• Suche zu gegebenem Problem x ahnlichstes Problem xi

• Schließe auf Losung yi

Interpolation auf Y?

• Vorwissen: Ahnlichkeitsmaß

Idee: Modelliere den Begriff ahnlich durch eine unscharfe Ahnlichkeitsrelation

A.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 339

Ahnlichkeitsrelation

Definition: (Ahnlichkeitsrelation)

Eine unscharfe Relation A(X ,X ) heißt Ahnlichkeitsrelation, wenn A reflexiv,

symmetrisch und transitiv ist.

⇒ unscharfe Version der Aquivalenzrelation

µA(x, y) gibt den Grad der Ahnlichkeit von x und y an.

Jeder α–Schnitt Aα von A stellt eine Aquivalenzrelation dar: gilt (x, y) ∈ Aα,

so ahneln sich x und y mindestens mit Grad α.

Aα definiert eine Partition Π(Rα) von X . Es gilt:

α ≥ β ⇔ Π(Aα) ist Verfeinerung von Π(Aβ)

Damit ist eine Ahnlichkeitsrelation A durch eine Folge geschachtelter

Aquivalenzrelationen 〈Aα〉 festgelegt (und umgekehrt).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 340

Ahnlichkeitsrelation als Graph: Beispiel

A(X ,X ) , X = {a, b, c, d, e, f, g}

A =

1 0.8 0 0.4 0 0 00.8 1 0 0.4 0 0 00 0 1 0 1 0.9 0.5

0.4 0.4 0 1 0 0 00 0 1 0 1 0.9 0.50 0 0.9 0 0.9 1 0.50 0 0.5 0 0.5 0.5 1

aa

g

d

b

c

f

e

α=0.4

α=0.5

α=0.8

α=0.9

α=1.0

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 341

Ahnlichkeitsrelation: Partitionsbaum

A(X ,X ) , X = {a, b, c, d, e, f, g}

A =

1 0.8 0 0.4 0 0 00.8 1 0 0.4 0 0 00 0 1 0 1 0.9 0.5

0.4 0.4 0 1 0 0 00 0 1 0 1 0.9 0.50 0 0.9 0 0.9 1 0.50 0 0.5 0 0.5 0.5 1

Zugehoriger Partitionsbaum:a b c e f gd

a

a

a

b

b

b

d

d

d

c

c

c e

e

e

f

f

f

g

g

g

a b d c e f gR

R

R

R

R

1.0

0.9

0.8

0.5

0.4

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 342

Ahnlichkeitsklassen

Aquivalenzklassen sind scharfe Mengen.

Analog sind Ahnlichkeitsklassen zu A unscharfe Mengen.

Die Ahnlichkeitsklasse eines Elementes x ∈ X ist die unscharfe Menge Ax mit

µAx(y) = µA(x, y).

Ist µA(x, y) als Matrix gegeben, so ist µAx(y) die x–Zeile (x–Spalte) dieser

Matrix.

Im Beispiel der vorigen Folie gibt es fur die sieben Elemente a, b, c, d, e, f und g sechs

Ahnlichkeitsklassen, da Ac = Ae.

Verallgemeinerung:

Quasi–Aquivalenzrelation (symmetrisch und transitiv).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 343

Ahnlichkeit: Beispiel

Unscharfe Relation R(X, X) “ist ungefahr gleich” induziert durch die Stan-

dardmetrik d(x, y) = |x − y| auf IR ist mit der t–Norm i(a, b) = max{a + b − 1, 0}

eine Ahnlichkeitsrelation:

∀x, y ∈ IR : µR(x, y) = max (0, 1 − |x − y|) .

x

0

10

8

6

4

2

0

y

0

10

8

6

4

2

0

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 344

Anwendung

Modellierung der unscharfen Menge

xi = ahnlich zu xi:

Vorgehen: Definiere µxi(x) = µA(xi, x) mit einer Ahnlichkeitsrelation A.

Forderungen:

(a1) µxi(xi) = 1

(a2) xi ist konvex

(a3) Wenn x und y ahnlich, dann µxi(x) und µxi

(y) ahnlich:

∀x, y ∈ X : t(µxi(x), µA(x, y)) ≤ µxi

(y)

Ergebnis: Die mit A definierten unscharfen Mengen xi, i ∈ {0, 1, . . . n} erfullen

(a1) und (a3).

Konvexitat ubertragt sich von A auf xi.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 345

Ahnlichkeit mit Interpolation

Idee fur unscharfe Interpolation: Seien x, x ′ ∈ X, g : X −→ Y.

Erhaltung der Ahnlichkeit von x und x ′ bei Anwendung der interpolierenden

Abbildung g:

WENN x ′ ahnlich zu x DANN g(x ′) ahnlich zu g(x)

Forderung: µAX(x, x ′) ≤ µAY

(g(x), g(x ′))

mit Ahnlichkeitsrelationen AX, AY auf X bzw. Y.(Extensionalitat)

Extensionalitat einer unscharfen Relation g(X, Y):∀x, x ′ ∈ X, y, y ′ ∈ Y : t(µg(x, y), µAX

(x, x ′)) ≤ µg(x ′, y) undt(µg(x, y), µAY

(y, y ′)) ≤ µg(x, y ′)

Lemma: Die extensionale Hulle

µg(x, y) = supx ′∈X

min{µAX(x, x ′), µAY

(y, g(x ′))}

ist die kleinste extensionale unscharfe Relation, die den Graphen G = {(x, g(x))| x ∈X} enthalt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 346

Konstruktion einer Interpolation

Gegeben: Paare (xi, yi) ∈ X× Y, i ∈ {0, 1, . . . n} und Ahnlichkeitsrelationen AX,

AY auf X bzw. Y.

Gesucht: Unscharfe interpolierende Relation g mit µg(xi, yi) = 1

Verfahren:

Bilde die extensionale Hulle des Graphen G0 = {(xi, yi)| i ∈ {0, 1, . . . n}. Sie ent-

spricht der kleinsten Erweiterung der bekannten Wertepaare bzgl. der gege-

benen Ahnlichkeitsrelationen und stellt in diesem Sinne die beste Annaherung

an die interpolierende Relation g dar.

Ergebnis:

µg(x, y) ≥ µg0(x, y)

= maxi∈{0,1,...n}

min{µAX(x, xi), µAY

(y, yi)}

= maxi∈{0,1,...n}

min{µxi(x), µyi

(y)}

Der klassische unscharfe Regler [Mamdani] stellt eine untere Schranke fur

die interpolierende Relation g dar!

Literatur: Kruse, Gebhardt, Klawonn: Fuzzy-Systeme

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 347

Nachbarschaftsrelation

Definition: Eine unscharfe Relation R(X ,X ) heißt Nachbarschaftsrelation (pro-

ximity relation), wenn R reflexiv und symmetrisch ist.

⇒ unscharfe Version der Kompatibilitatsrelation.

Die Kompatibilitatsklasse A ⊆ X eines Elementes x ∈ X bezuglich einer

(scharfen) Kompatibilitatsrelation R enthalt alle Elemente y ∈ X mit (x, y) ∈R.

Eine Kompatibilitatsklasse ist maximal, wenn sie in keiner anderen Kompa-

tibilitatsklasse vollstandig enthalten ist.

Die Familie aller maximalen Kompatibilitatsklassen heißt vollstandige Uberdeckung

von X bezuglich R.

Die α–Kompatibilitatsklasse von x ∈ X bezuglich der Nachbarschaftsrelation

R ist die Menge Aα ⊆ X , so daß

∀y ∈ aα : µR(x, y) = µR(y, x) ≥ α.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 348

Nachbarschaftsrelationen als Graph

Beispiel:

R =

1 0.8 0 0 0 0 0 0 00.8 1 0 0 0 0 0 0 00 0 1 1 0.8 0 0 0 00 0 1 1 0.8 0.7 0.5 0 00 0 0.8 0.8 1 0.7 0.5 0.7 00 0 0 0.7 0.7 1 0.4 0 00 0 0 0.5 0.5 0.4 1 0 00 0 0 0 0.7 0 0 1 00 0 0 0 0 0 0 0 1

R als Graph:

aa

α=0.4

α=0.5α=1.0

α=0.7

α=0.8

b

c

f

d

e

g

h

i

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 349

Nachbarschaftsrelationen: vollstandige α-Uberdeckung

R =

1 0.8 0 0 0 0 0 0 00.8 1 0 0 0 0 0 0 00 0 1 1 0.8 0 0 0 00 0 1 1 0.8 0.7 0.5 0 00 0 0.8 0.8 1 0.7 0.5 0.7 00 0 0 0.7 0.7 1 0.4 0 00 0 0 0.5 0.5 0.4 1 0 00 0 0 0 0.7 0 0 1 00 0 0 0 0 0 0 0 1

zugehorige vollstandige α–Uberdeckungen Rα:

ca

b dc e f gR

d e

a

b

a b

a b

a b

c d e

c d e

f

d e f

d e f

c d e

g

g

d e

gd e f

g

e h

e h

e h

h

i

i

i

i

ih

R

R

R

R

0.8

0.7

0.5

0.4

1.0

Beachte: i.a. bilden die Rα keine Partition von X .

Falls die Rα fur alle α eine Partition bilden, liegt eine Ahnlichkeitsrelation vor.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 350

Unscharfe Ballungsanalyse

Aufgabe: Einteilen von Daten in Gruppen, z. B. bei

• Mustererkennung

• Bildverarbeitung, Finanzdatenanalyse

Idee:

• Teile den Raum in eine geeignete Anzahl von Kugeln (Ballen) ein

• Ordne jeden Datenpunkt Moglichkeitsgrade zu - die Zugehorigkeit zu

den Ballen

• Iteratives Optimieren der Anordnung der Kugelmittelpunkte

Probleme:

• Maßstab

• Nachbarschaft in nicht kontinuierlichen Universen

• Ballungen in hochdimensionalen Raumen

• Startwerte des iterativen Verfahrens

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 351

Abhangigkeit vom Maßstab

Zwei gleiche Datensatze, verschiedene Maßstabe

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 352

Unscharfe Ballungsanalyse: Alternativen

Verfahren:

• deterministisch

jeder Datenpunkt wird einer Ballung zugeordnet, fuhrt zur Partitionierung

• probabilistisch

jedem Datenpunkt wird fur jeden Ballen i eine Wahrscheinlichkeit zugeordnet,∑

pi = 1,

pi als Moglichkeit interpretierbar

• possibilistisch

jedem Datenpunkt wird fur jeden Ballen i ein Moglichkeitsgrad zugewiesen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 353

Unscharfe Ballungsanalyse: Alternativen 2

• hierarchisch

Einteilung wird stufenweise durchgefuhrt

• mit Bewertungsfunktion

Optimierungsproblem, finde Ballungseinteilung, so daß Bewertungsfunktion maximal/minimal

wird

Alle vorangehenden Falle lassen sich als Spezialfalle hiervon auffassen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 354

Analyseraum, Bewertungsfunktion, Distanzfunktion

Definition: Sei D der Datenraum, E der Ergebnisraum (E ⊆ P(D)), dann

heißt:

• A(D, E) := {FK(D)|K ∈ E} unscharfer Analyseraum

• φ : A(D, E) → R Bewertungsfunktion

• δ : D × K → R+ Distanzfunktion

Als Distanzfunktion wahlt man i.d.R. den euklidischen Abstand. Auch andere

Normen sind moglich. L1, d. h.∑i

|xi − yi|, spart Rechenzeit.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 355

Possibilistische Ballungseinteilung

Definition: Sei A(D, E) ein unscharfer Analyseraum, X ⊆ D,

f : X× K → FK(D) heißt possibilistische Ballungseinteilung, wenn

∀k ∈ K :∑x∈X

f(x, k) > 0

Das Ergebnis f(x, k) ∈ FK(D) wird als Zugehorigkeitsgrad µk(x) aufgefaßt,

mit dem x ∈ X zu der unscharfen Ballung k ∈ FK(D) gehort.

Bemerkung:

falls∑x∈X

f(x, k) = 1, heißt die Einteilung probabilistisch

f(x, k) heißt Grad der Reprasentativitat des Datums x ∈ X fur die Ballung k

∈ K

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 356

Unscharfe Ballungsanalyse: Grundalgorithmus

Gegeben: {x1, . . . , xn} = X ⊆ D, {k(i)1 , . . . , k

(i)c } ⊆ D

1 Wahle m > 1, Fehlertoleranz ε, maximale Anzahl von Iterationen i0

Großes m erhoht die Unscharfe, siehe nachste Folie.

2 i = 0, initialisiere Kugelmittelpunkte k(i)

3 REPEAT

bestimme k(i) mit φ(f(x, k(i−1)), δ(x, k(i))) minimal;

i = i + 1;

UNTIL ‖f(x, k(i)) − f(x, k(i−1))‖ ≤ ε oder i > i0

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 357

Konkrete Auspragung: FCM

FCM (fuzzy c means), probabilistisch entwickelt von J.C. Dunn 1974, gene-

ralisiert von Jim Bezdek 1981

Ix := {j ∈ K|d(x, j) = 0} und δ(x, k) = ‖x − k‖

Analysefunktion: f(x, k) =

1∑j∈K

(δ2(x,k)

δ2(x,j))

1m−1

: fur Ix = ∅

∑i∈Ix

f(x, i) = 1 : fur Ix 6= ∅, k ∈ Ix

0 : sonst

Bewertungsfunktion: φ(f, δ) =∑x∈X

∑k∈K

fm(x, k)δ2(x, k)

Ballungsmittelpunkte: k(i+1)j =

∑f(x,k

(i)j

)m x∑f(x,k

(i)j

)m

Die Terme in der Analysefunktion und beim Ballungsmittelpunkt benutzen

Fehlerquadrate δ2(x, k).

Nachteile: Anzahl Ballungen mussen vorher bekannt sein,

Ballungen sind gleich große Kugeln

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 358

Unscharfe Ballungsanalyse: Beispiel

Datensatz soll in drei Ballungen eingeteilt werdenProf. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 359

Unscharfe Ballungsanalyse: Beispiel Fortsetzung

Zwei Testlaufe fuhren zum gleichen Ergebnis

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 360

Unscharfe Ballungsanalyse: Beispiel Fortsetzung

00.2

0.40.6

0.81

0

0.2

0.4

0.6

0.8

10

0.2

0.4

0.6

0.8

1

XY

MF

0

0.2

0.4

0.6

0.8

1

00.10.20.30.40.50.60.70.80.91

0

0.2

0.4

0.6

0.8

1

X

Y

MF

Zugehorigkeitsfunktion zweier Ballungen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 361

Unscharfe Ballungsanalyse: Beispiel Fortsetzung

00.2

0.40.6

0.81

0

0.2

0.4

0.6

0.8

10

0.2

0.4

0.6

0.8

1

XY

MF

Schlechtes Ballen bei Zufallsdaten, Ballungsmittelpunkte haben maximalen

Abstand

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 362

Minimale possibilistische Bewertung

Notwendige Bedingung fur minimale Bewertung(possibilistisch):

Satz: Sei A(D, E) ein Analyseraum X ⊆ D, K ⊆ E, φ eine Bewertungsfunktion

mit Distanzfunktion δ, m > 1. Ist φ(f) minimal so gilt

f(x, k) =1

1 + (δ2(x,k)

ηk)

1m−1

mit ηk ∈ R und k ∈ K

Mit ηk steuert man die Große einer Ballung.

m steuert den Grad der Unscharfe, je großer, desto unscharfer.

Beweis bei Kruse: Fuzzy Clusteranalyse

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 363

Konkrete Auspragung: PCM

PCM (possibilistic c means) von R. Krishnapuram und J. Keller 1993

Analysefunktion: f(x, k) = 1

1+(δ2(x,k)

ηk)

1m−1

Bewertungsfunktion: φ(f) =∑x∈X

∑kK

f(x, k)δ2(x, k) +∑k∈K

ηk

∑x∈X

(1 − f(x, k))m

Ballungsmittelpunkte: wie bei FCM

Abstandsfunktion: beliebige Norm (Euklid ublich)

Vorteil: Ballungsgroße ist mit ηk steuerbar.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 364

Wahl von ηk

Ansatze fur die Wahl von ηk:

ohne jegliches Zusatzwissen uber die Große der Ballung:

ηk =

∑x∈X

fm(x, k)δ2(x, k)∑x∈X

fm(x, k)

mit Vorwissen uber die zu erwartende Große der Ballungen:

√ηk als mittleren Durchmesser der Ballungen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 365

Weitere Algorithmen

Gustafson-Kessel Algorithmus 1979

Jeder Ballung wird mit einer individuellen Norm bewertet. Die Ballungen sind somit

Ellipsoide statt Kugeln.

Gath-Geva Algorithmus 1989

variable Ballungsgroßen, die Dichte der Daten wird anhand einer Statistik ermittelt und

so die Anzahl der Daten pro Ballung geschatzt.

Beide Verfahren neigen zu lokalen Minima, weshalb man FCM zum Bestim-

men eines geeigneten Startvektors benutzen sollte.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 366

Initialisierung der Verfahren

Die Initialisierung hangt vom Vorwissen ab. Gibt es keines, bleiben nur

zufallige Startwerte. Haufig verwendet man einfache Verfahren, um geeig-

nete Startwerte zu erhalten, beispielsweise FCM fur PCM.

Die Anzahl der Ballungen zu bestimmen, ist schwierig. In hochdimensiona-

len Raumen hilft die visuelle Vorbereitung nicht. Entweder ergibt sich die

Anzahl der Ballungen aus der Aufgabe, oder man muß die Anzahl mit einem

Gutemaß iterativ bestimmen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 367

Gutemaße fur Ballungsalgorithmen

Ziel: ’Optimale’ Partition, jeder Datenpunkt ist mindestens einer Ballung

zugeordnet

Idee: Bestimme ein Gutemaß abhangig von der Anzahl der Ballungen

Bewertungsfunktion φ ist zwar geeignet, aber es gilt limc→∞ φc(f) = 0.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 368

Partitionskoeffizienten und Partitionsentropie

In der Praxis haben sich die folgenden Maße durchgesetzt:

Partitionskoeffizient (Bezdek)

PC(f) =

∑x∈X

∑k∈K

f2(x,k)

|X|

Partitionsentropie (Bezdek)

PE(f) = −

∑x∈X

∑k∈K

f(x,k)ln(f(x,k))

|X|

Partitionskoeffizient ist i.d.R. wegen des geringeren Rechenaufwands vorzu-

ziehen

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 369

Anzahl der Ballungen

typischer Verlauf

Auswahl der Anzahl der Ballungen mit mehreren Verfahren

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Ahnlichkeit, Ballungsanalyse 370

unscharfe Entscheidungsfindung

Aufgabenstellungen (Auswahl)

• MADM: multiple attribute decision making: Auswahl unter vorgegebenen

Alternativen bei mehreren eventuell widerspruchlichen Attributen

• Gruppenentscheidung: gesucht ist eine Teilmenge C ⊆ A von Optionen

auf der Grundlage der Meinung von m Experten, von denen jeder seine

eigene Relation Rj benutzt.

• MODM: multiple objective decision making: Auswahl unter einer un-

beschrankten Anzahl von Alternativen, die implizit durch Bedingungen

beschrieben sind.

• Optimierungsprobleme mit Randbedingungen (mathematische Program-

mierung)

• Entscheidungsfindung mit Wechselwirkungen zwischen Zielen und Attri-

buten (interacting goals).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 371

MADM: mehrere Attribute, eine Entscheidung

Beispiel: Arbeitsplatzsuche: mehrere Angebote (Alternativen) x, jedes cha-

rakterisiert durch eine unscharfe Menge Ai, die Attribute Gehalt, Lebens-

qualitat, Art der Arbeit und Nahe zur Familie bewertet. Jedes Attribut Ai

besitzt ein Gewicht wi mit Summe∑i

wi = 1.

Verfahren: gewichtete Zusammenfassung (Aggregation):

Sei ai = µAi(x).

Bestimme gewichtete Bedeutung ai = g(wi, ai).

Bestimme gewichtete Zusammenfassung µA(x) = f(a1, . . . , an).

Die Wahl von g hangt von der Wahl des Aggregationsoperators f ab.

Forderungen an g:

g(w, a) monoton in beiden Argumenten,

g(1, a) = a,

g(0, a) so gewahlt, daß a ohne Bedeutung: f(a1, g(0, a2)) = f(a1).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 372

MADM: Aggregation durch Minimumbildung

Sei f ≡ min.

Attribute mit geringer Bedeutung mussen große Werte ai haben:

g(wi, ai) = S(1 − wi, ai), S Co-t-Norm (Yager, 1994)

z. B.

g(wi, ai) = max(1 − wi, ai),

g(wi, ai) = 1 − wi + aiwi, (S(x, y) = x + y − xy),

g(wi, ai) = min(1, 1 − wi + ai), (S(x, y) = min(1, x + y)).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 373

Aggregation durch Minimumbildung: Anwendung

Gegeben:

w aiGehalt 0.4 0.1Lebensqualitat 0.1 0.2Art der Arbeit 0.3 0.2Nahe zur Familie 0.2 0.4

Mit g(wi, ai) = max(1 − wi, ai) gilt a = g(w, a) = (0.6, 0.9, 0.7, 0.8) und

min a = min(a1, . . . , a5) = 0.6.

Mit g(wi, ai) = 1 − wi + aiwi gilt a = g(w, a) = (0.64, 0.91, 0.76, 0.88)

und min a = min(a1, . . . , a5) = 0.64.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 374

MADM: Aggregation durch Maximumbildung

Sei f ≡ max.

Attribute mit geringer Bedeutung mussen kleine Werte ai haben:

g(wi, ai) = T(wi, ai), T t-Norm (Yager, 1994)

z. B.

g(wi, ai) = min(wi, ai),

g(wi, ai) = aiwi, (probabilistisch),

g(wi, ai) = max(0, wi + ai − 1), ( Lukasiewicz).

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 375

Aggregation durch Minimumbildung: Anwendung

Gegeben:w ai

Gehalt 0.4 0.1Lebensqualitat 0.1 0.2Art der Arbeit 0.3 0.2Nahe zur Familie 0.2 0.4

Mit g(wi, ai) = min(wi, ai) gilt a = g(w, a) = (0.1, 0.1, 0.1, 0.2, 0.2) und

max a = max(a1, . . . , a5) = 0.2.

Mit g(wi, ai) = wiai gilt a = g(w, a) = (0.04, 0.01, 0.06, 0.08) und

max a = max(a1, . . . , a5) = 0.08.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 376

Baas und Kwakernaak

Diese Methode basiert auf dem Optimieren der durchschnittlichen Bewer-

tung aller Alternativen und aller Ziele:

Wahle Alternative xi, so daß

Ri =

∑j

wjrij(xi)∑j

wj

rij ist eine Bewertung der Alternative i unter der Annahme des Ziels j.

Die unscharfe Version von Baas und Kwarkernaak benutzt eine unscharfe

Bewertung ~rij und eine unscharfe Gewichtung ~wj. So wird jede Alternative

mit einer unscharfen Menge bewertet. Diese werden nicht gescharft, sondern

mit einem Reihungsalgorithmus verglichen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 377

Yager

Wie zuvor seien X = {x1, . . . , xn} die Alternativen und G = {g1, . . . , gm} die zu

erreichenden Zielkriterien. Die gj sind mit unscharfen Mengen charakterisiert:

gj = {xi, µgj(xi)}

Eine unscharfe Entscheidung leiten wir aus dem Schnitt aller gj ab:

µD(xi) = minj

µgj(xi) i = 1, . . . , n

und wahlen die Losung x ′, damit folgende Gleichheit gilt

µD(x ′) = maxi

minj

µgj(xi) i = 1, . . . , n, j = 1, . . . , m

Eine Gewichtung der Ziele gj ist nach Yager durch Gewicht wj moglich:

µ ′gi= (µgj

(xi))wj

Bemerkung: an dieser Stelle wird deutlich, wie Yager seine t-Norm motiviert.

Der Gewichtungsfaktor findet sich dort wieder.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 378

MADM: Attributhierarchie, eine Entscheidung

Ziel: Auswahl unter Alternativen mit einer Hierarchie von Kriterien, die paar-

weise verglichen werden.

Vorgehen: Auf jeder Ebene Attributpaaren relative Bedeutung aij zuordnen

(unscharf auf Ordinalskala), aji := 1aij

.

Skala z. B. (Saaty, 1980):

rel. Bedeutung Interpretation1 gleich wichtig3 schwach wichtiger5 wichtiger7 nachweisbar wichtiger9 sehr wichtig2,4,6,8 Zwischenwerte

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 379

Beispiel Arbeitsplatzwahl (Saaty)

Gegeben die Vergleichsmatrix:

Gehalt Lebensq. Art d. Arbeit Nahe z. FamilieGehalt 1 5 2 4

Lebensqualitat 15 1 1

212

Art der Arbeit 12 2 1 2

Nahe zur Familie 14 2 1

2 1

Paarweiser Vergleich ist inkonsistent: Wegen a13 = 2 (Gehalt ist doppelt so

wichtig wie Art der Arbeit) und a32 = 2 mußte a12 = 4 sein.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 380

Konsistente Bewertung

Gegeben n Attribute und zugeordnete Gewichte wi, Vergleichsmatrix:

W =

w1w1

w1w2

· · · w1wn

w2w1

w2w2

· · · w2wn

... ... · · · ...

wnw1

wnw2

· · · wnwn

Da die Matrix gegeben ist, muß der Vektor w bestimmt werden. Offensicht-

lich ist fur eine konsistente Matrix w ein nicht trivialer Eigenvektor (es kann

sogar gezeigt werden, daß es der einzige ist). Der zugehorige Eigenwert ist

n: W ·w = n ·w

Ist die Matrix inkonsistent, nahert man w durch den Eigenvektor zum großten

Eigenwert ∆ an. (∆ − n) kann man als Maß der Konsistenz betrachten.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 381

Naherungslosung

1. Normieren der Spalten

2. geometrisches oder arithmetisches Mittel als Naherung fur w, da jeder

Eintrag in der normierten Matrix als prozentuales Votum interpretiert

werden kann.

Beispiel Folie 380 Fortsetzung:

normierte Matrix:

W =

0.5128 0.5000 0.5000 0.53330.1026 0.1000 0.1250 0.06670.2564 0.2000 0.2500 0.26670.1282 0.2000 0.1250 0.1333

Gewichtsvektor

w1=0.5128+0.5000+0.5000+0.5333

4 =0.5115

w2=0.1026+0.1000+0.1250+0.0667

4 =0.0986

w3=0.2564+0.2000+0.2500+0.2667

4 =0.2433

w4=0.1282+0.2000+0.1250+0.1333

4 =0.1466

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 382

Konsistenztest

1. Berechne den durchschnittlichen Eigenwert ∆

2. Berechne den Abstand zum theoretischem Wert CI = ∆−nn−1

3. Vergleiche CI (consistency index) mit RI (random index

n 2 3 4 5 6 7 8 9 10RI 0 0.58 0.90 1.11 1.24 1.32 1.41 1.45 1.51

(RI ergibt sich aus einer Simulation bei gegebener Matrixgroße.)

4. Falls CIRI > 0.10 geht man von starker Inkonsistenz aus.

In unserem Beispiel gilt CI = 0.0159 und CIRI = 0.0176, d.h. die Matrix ist zwar

inkonsistent, aber nicht zu stark, um sie zu benutzen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 383

Bewerten der Alternativen

Das Vorgehen ist ahnlich. Zuerst wird je Attribut eine Matrix zum paarweisen

Vergleich der Alternativen erstellt.

Angenommen wir hatten zwischen drei Arbeitsangeboten zu wahlen:

Gehalt Angebot1 Angebot2 Angebot3Angebot1 1 2 4

Angebot2 12 1 2

Angebot3 14

12 1

Der Gewichtsvektor ist (0.5714, 0.2857, 0.1429), d.h. das Angebot1 ist das Beste

in Bezug auf das Gehalt.

Gleiches fuhrt man fur die anderen Attribute durch. Zum Schluß mittelt man

die Angebotsbewertungen mit den Attributsbewertungen und erhalt so eine

Reihenfolge der Angebote.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 384

Alternativer Ansatz (Yager)

Gegeben Alternativen A1, . . . , An und Kriterien C1, . . . , Ck mit Zuordnungen

(Ai, cj) → aij. Berechne relative Gewichte pj mit Saatys Methode und dann

den Wert fur die i-te Alternative mit

min{ai1, . . . , aik}, aij = apj

ij

Aus dieser Anwendung stammt Yagers t-Norm!

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 385

Beispiel

Sei p = (0.16, 0.19, 0.19, 0.05, 0.12, 0.30) und

a1 = (1, 0.6, 1, 0.5, 1, 0.2) Alternative A

a2 = (0.2, 1, 0.7, 0.5, 0.8, 1) Alternative B

a3 = (0.8, 1, 0.4, 0.6, 0.2, 1) Alternative C

Dann gilt

A : min{1, 0.60.19, 1, 0.50.05, 1, 0.20.30} = min{0.90, 0.96, 0.61} = 0.61

B : min{0.20.16, 1, 0.70.19, 0.50.05, 0.80.12, 1} = min{0.77, 0.93, 0.96, 0.97} = 0.77

C : min{0.80.16, 1, 0.40.19, 0.60.05, 0.20.12, 1} = min{0.96, 0.84, 0.97, 0.82} = 0.82⇒ Wahl von Alternative C.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 386

MODM: mehrere Zielfunktionen

Aufgabe: maximiere maxx∈X

{f1(x), . . . , fk(x)}

• fi : IRn → IR, Zielfunktionen (objectives), IRk : Kriterienraum.

• x = (x1, . . . , xn)T ∈ IRn : Entscheidungsvariable, IRn : Entscheidungsraum.

• X ⊆ IRn : mogliche Alternativen (wird eventuell durch Bedingungen ein-

geschrankt).

• ZX = {z ∈ IRk | zi = fi(x), i = 1, . . . , k, x ∈ X} : mogliche Ergebnisse.

x∗ ∈ X heißt effizient oder Pareto optimal, wenn es kein y ∈ X mit fi(y) ≥fi(x

∗), i = 1, . . . , k gibt, bei dem fur mindestens ein i fi(y) > fi(x∗) gilt. X∗ :

Menge aller Pareto optimalen Losungen.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 387

Beispiel

k = 3, gesucht Pareto optimale Losung fur maxx∈X

{f1(x), f2(x), f3(x)}.

Sei X = {u, v, w}. ZX = {(1, 3, 3), (2, 2, 3), (1, 2, 2)} Menge moglicher Ergebnisse.

Dann sind u und v Pareto optimal.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 388

Unscharfes MODM

Seien zusatzlich Funktionen µi : IR → [0, 1] gegeben, die den Erfullungsgrad

der i-ten Zielfunktion fi messen. Hi(x) = µi(f(x)). Hi(x∗) = 1 fur Pareto opti-

male Losungen.

gleichzeitige Optimierung aller Ziele bedeutet dann Berechnung von

maxx

t(H1(x), . . . , Hk(x)),

wo t eine t-Norm ist, die die Konjunktion der Ziele reprasentiert.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 389

Beispiel

Berechne max{x, 1 − x}, x ∈ [0, 1] mit H1(x) = x, H2(x) = 1 − x.

Mit der Minimum-Norm als t-Norm erhalt man x∗ = 12, f1(x

∗) = f2(x∗) = 1

2.

Mit der Lukasiewicz-Norm statt min gilt jedoch X∗ = [0, 1].

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 390

Unscharfes Lineares Programmieren

cTx≤z

Ax≤b

x ≥ 0

≤ ist die unscharfe Variante von ≤

Faßt man die beiden ersten Gleichungen zusammen, lautet die Aufgabe:

Bx≤d

x ≥ 0

Eine unscharfe Entscheidung wird mit µD(x) = min{µ1 . . . µn} beschrieben,

wobei µi(x) den Grad beschreibt, mit dem x die Zeile i der Ungleichung

erfullt.

Prof. Dr. Gerhard Goos Unscharfe Mengen, SS2003: Entscheidungsfindung 391

Ende der VorlesungIch wunsche Ihnen erholsame und erfolgreiche Semesterferien,

insbesondere viel Erfolg bei etwaigen Prufungen

top related