![Page 1: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/1.jpg)
Learning to Map between Learning to Map between Ontologies on the Sematic Web Ontologies on the Sematic Web
Seminar „ Data Mining“Seminar „ Data Mining“
SS 2005SS 2005
Grigori BabitskiGrigori Babitski
12.07.200512.07.2005
![Page 2: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/2.jpg)
• Internet: Unmenge von Information
• Daten maschinell erfasst syntaktische Suche möglich
• Info-Gehalt maschinell erfasst semantische Suche möglich
ONTOLOGIEONTOLOGIE
Beschreibt Wissen über eine Domäne indem
-Bedeutungen von Konzepten
-Beziehungen (Relationen) zw. Konzepten
formal definiert und damit maschinell nutzbar macht.
Ontologie
![Page 3: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/3.jpg)
Konzepte
Instanzen
Attribute
Relationen
• Spezialisierung / Generalisation
+
+
+
Zusätzl. Relationen
• Instanz – Instanz
• Konzept – Konzept
• Instanz - Konzept
Ontologie
+
geführt von
Taxonomie
= Fachgebiet
Ontologie: Begriffe
![Page 4: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/4.jpg)
Semantische Suche
Nützlichkeit, einfaches und überzeugendes Beispiel:Nützlichkeit, einfaches und überzeugendes Beispiel:
Anfrage: „Exportproblem der Automobilindustrie in Ostasien“
Ergebnis: auch Dokumente mit „Thailand“ und „Ford“ oder „VW“
z.B. „Exportprobleme von VW in Thailand“
![Page 5: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/5.jpg)
• Viele Ontologien in Web • ähnliche Domäne, aber unterschiedliche Terminologie
• überlappende Domänen
• Integration zur gemeinsamen Nutzung
• Semantische Korrespondenz zw. Elementen (Mapping-Problem)
Semantische Suche, Mapping
![Page 6: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/6.jpg)
Aufgabenstellung
Geg. 2 Taxonomiebäume (mit Instanzen)
Finde für jeden Knoten (d.h. Konzept) einer Taxonomie den, Finde für jeden Knoten (d.h. Konzept) einer Taxonomie den, bzgl. vordefinierten Ähnlichkeitsmaßes, ähnlichsten Knoten bzgl. vordefinierten Ähnlichkeitsmaßes, ähnlichsten Knoten in anderer Taxonomiein anderer Taxonomie (1-1) Mapping
• Mapping zw. anderen, auch verschiedenen Ontologieelementen (Instanzen, Relationen, Attributen) möglich, aber
Taxonomie – zentrale Komponenete; Rest ergibt sich daraus
• Mapping zw. Mengen von Elementen möglich? Sinnvoll?
Mapping entscheidend für semantische Suche, sonst Babelturm
![Page 7: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/7.jpg)
FuturesFutures
Probabilistische Ähnlichkeitsmaße
• Viele verschiedene verwendbar
Techniken des maschinellen Lernens
• Lernen aus verschiedenen Informationen
Instanzen
Taxonomische Struktur
Einbeziehung zusätzlichen Wissens
• Allgemeinwissen
Beziehungen, die generell in Taxonomien gelten
• Domänenabhängige Constrains
GLUE
![Page 8: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/8.jpg)
• Konzept definiert als Menge
• Ähnlichkeit von 2 Konzepten definiert über irgendeinen Zusammenhang zw. den Mengen
• Beispiele der möglichen/sinnvollen Zusammenhänge – später
• Zusammenhang oft beschreibbar durch gemeinsame Verteilung
Vorüberlegung
Gemeinsame Wahrsch.-Verteilung der KonzepteGemeinsame Wahrsch.-Verteilung der Konzepte
P(A,B), P(P(A,B), P(A,B), P(A,A,B), P(A,B), P(B), P(A, A, B)B)
Wahrsch., dass eine Instanz in Konzept A, aber nicht in B liegt
![Page 9: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/9.jpg)
Gegeben: Y Senior Lecturer
Problem: Y Assoc. Prof.?Ja P(Assoc.Prof, Senior Lecturer) relativ hoch
Faculty
Asst. Prof.
Assoc. Prof.
Prof. Dr.X
Acad. Staff
Lecturer Senior LecturerProf. Dr.Y
Vorüberlegung
1.1. Lerne Klassifikator für Lerne Klassifikator für Assoc. Prof.Assoc. Prof.
Als Tainingsdata Instanzen vonAls Tainingsdata Instanzen von Assoc.Prof. Assoc.Prof.
2.2. Klassifiziere damit Klassifiziere damit YY
Lösung:
![Page 10: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/10.jpg)
GLUE: Architektur
![Page 11: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/11.jpg)
Ähnlichkeitsmaß• Soll sein:
wohldefiniert
intuitiv nachvollziehbar, d.h. mit semantischem Hintergrund
• Keine Festlegung auf einen bestimmten Ähnlichkeitsmaß
soll möglich sein je nach Situation eine passende zu definieren
• Bsp.: Einfügen neuen Konzepts in Taxonomie
{1,2,3,4,5}
{2,3,4}
{3,4}
{2,4}
{2,5}
{3,5}
{1,4}
{2,3,5}
most-specific-parent
most-general-child
exact
3 Ähnlichkeits-
maße
![Page 12: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/12.jpg)
Verteilungsbasierte Ähnlichkeitsmaße„exact“
A,B
A,B
A, B
P(A,B) + P(A,B) + P(A,B)
P(A,B)=
P(A B)
P(A B)Sim(A,B) =
[Jaccard, 1908]
Je stärker sich die Mengen (von Instanzen) schneiden, desto ähnlicher Konzepte
![Page 13: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/13.jpg)
sonst
wenn
0
1A)|P(B B)|P(AB)MSP(A,
• P(Prof | Staff) < P(Prof | Acad Staff)
d.h., im Sinne von MSP Prof ähnlicher zu Acad Staf als zu Staff
Verteilungsbasierte Ähnlichkeitsmaße „most-specific-parent“
• P(Staff | Prof) = 1Academic Staff Technical
Professor SeniorLecturer
Lecturer
Staff
…• P(Acad Staff | Prof) = 1
• P(Tech Staff | Prof ) = 0
Beispiel: Sei A „Professor“. Welches B maximiert MSP(A,B)
Definition von „most-specific-child“ ähnlich
![Page 14: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/14.jpg)
GLUE: Architektur
![Page 15: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/15.jpg)
K
L
M
N G
H
F J
B
A
T1T1 T2T2
2U1U
A,B2UA,B
1U A,B P
liegen B und A in
die ,iT von Instanzen -B,AiU
• Betrachte Instanzen von T2T2 (also U2)
• Welche davon in B liegen – trivial
• Welche genügen A? Abschätzen!
• Benutze dafür maschinelles Lernen!
VerteilungsschätzerWollen: P(A,B) bestimmenWollen: P(A,B) bestimmen
![Page 16: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/16.jpg)
VerteilungsschätzerWas macht Lerner?
Wollen Konzept „Professor“ lernenWollen Konzept „Professor“ lernen
1. Training:
• Eingabe:
Positive Instanzen/Beispiele (Professoren)
Negative Instanzen (keine Professoren)
• Internes „Zusammenrechnen“ der Merkmale
2. Test (Benutzung):
• Eingabe: Irgendeine Instanz
• Ausgabe: geschätzte Wahrsch., sie ist ein Professor Vergleiche Merkmale von Instanz mit gelernten Merkmalen von „Professor“
Es sei ein Lerner ist gegeben. Wie damit UiAB bestimmen?
![Page 17: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/17.jpg)
Bestimmen von Bestimmen von UU22AB AB mit Lerner L:mit Lerner L:
1. Unterteile U1 in U1
A und U1A (pos./neg. Beispiele)
2. Trainiere damit L (= lerne Konzept A)
3. Unterteile U2 in U2
B und U2B
4. Benutze L um aus U2B U2
AB zu erhalten
2U1U
A,B2UA,B
1U A,B P
• Um U1AB zu erhalten vertausche: 12 und AB
• Um P(A,B) zu erhalten negiere in Formel und Algorithmus B
K
L
M
N G
H
F J
B
A
T1T1 T2T2
Verteilungsschätzer: Algorithmus
![Page 18: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/18.jpg)
Content Learner• Lernt ein Konzept A
• Lernt aus Textinhalt der Instanzen:
„R.Cook, Ph.D., University of Sidney, Australia“
• Lernverfahren: Naive Bayes (passt besonders gut zu Lerninfo)
• Vorbereitung: parsing und stemming der Textinhalte
• Ergebnis: bag of tokens, also d ={w1,...,wk}
d – bag of tokens einer Instanz
wi – token dieser Instanz
• Eingabe: d einer beliebigen Instanz
• Ausgabe: P(A|d)
![Page 19: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/19.jpg)
Bayes von Satz P(d)
P(A)A)|P(dd)|P(A
Normalisierungskonstante (auf 1); kann weggelassen werden
Wie oft solche token-Menge d vorkommt ist
unwichtig um zu entscheiden, ob sie zu A
gehört
Anteil der Trainingsinstanzen, die zu A gehören (wird im Vorfeld berechnet)
berechnet Training)(in Vorfeld im wird
A)|kP(wA)|2P(wA)|1P(wA)|P(dkw1wd
Wegen Annahme, wi
unabhängig won wj. (dann nach Def. P(wi,wj)=P(wi)P(wj) )
Naive Bayes
Annahme
naive, aber
funkzioniert
![Page 20: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/20.jpg)
Name Learner
Name einer Instanz = ihr Name + Name der Konzepte bis zum Wurzel
Name von „R.Cook“:
„CS Dept US, People, Faculty, Associate Professor, R.Cook“
Lernen eines Konzepts aus anderer Information
full name statt content
Als Lernverfahren Naive Bayes (vermutlich)
![Page 21: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/21.jpg)
Multi-Strategy Learning
• Viele Informationen aus denen man lernen kann
Inhalt, Name, Wortfrequenz, Format...
• Viele Lernverfahren (spezifisch, je nach Lerninfo)
• Lerne aus verschiedenen Informationen! (erhöht Qualität)
• Ergebnisse einzelner Lerner kombinieren. METALERNERMETALERNER
• Momentan: gewichtetes Vertrauen in einzelne Lerner (manuell)
Lerner1: Ja 0.8 Gewicht: 0.6 Ja 0.8*0.6+0.3*0.4=0.6
Lerner2: Ja 0.3 Gewicht: 0.4 Nein 0.2*0.6+0.7*0.4=0.4
• Besser: z.B. stackingstacking
Metalerner:
![Page 22: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/22.jpg)
Stacking
Basislerner
Test-
Instanz1 2 3 korrekte
Klassifik.
1 + + + +
2 + – + –
3 – – + +
4 – – + –
1. Trainingsinstanzen in 2 Gruppen teilen
2. Mit 1. Gruppe Basislerner trainieren
3. Mit 2. Basislerner testen (Tabelle)
4. Z.B. Regellernverfahren anwenden
Metalerner:
2. Basislerner „ –“ 3. Basislerner „+“ „ –“
+: Basislerner sagt „ja“ mit Wahrsch. 0.5
Aus der Tabelle auch mit Naive Bayes Metalerner trainierbar!
![Page 23: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/23.jpg)
ZwischenergebnisÄhnlichkeitsmatrix der Konzepte für einen gewählten Ahnlichkeitsmaß
.
.
.. .. .
.
..
A1
A2....
B1 B2 . . . .
Taxonomie 1Taxonomie 1
Taxonomie 2Taxonomie 2
Einträge zw.
0 und 1
![Page 24: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/24.jpg)
GLUE: Architektur
![Page 25: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/25.jpg)
• Unabhängig von der Domäne, z.B.
Two nodes match if their children also match
Constraints
• Domänenspezifisch, z.B.
If node Y is a descendant of node X, and Y matches PROFESSOR, then it is unlikely that X matches ASST-PROFESSOR
Asst-Prof.
Prof.
![Page 26: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/26.jpg)
Modellierung der Constraints
Für je ein Constraint
f: ( ) [0,1]X,
X – Konzept, das man matchen (labeln) will
L
L – Kandidat für matching mit X
Δk,
Δk – Gesammtwissen über die Domäne (Taxanomiestruktur, Instanzen...) und Domain Constraints
MX,
MX – Bisheriges matching aller Konzepte außer X
![Page 27: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/27.jpg)
Anwendung der Constraints
Wollen prüfen, ob X mit L gematcht werden kann/soll: P(X=L)
f1(MX,Δk,X,L)
f2(MX,Δk,X,L)
f3(MX,Δk,X,L)
...
Wert P(X=L)
+
+1
2
3
i – Gewichte der Constrains; wenn negativ, Constrain gegen matchen X mit Y
i positiv je höher fi desto höher P(X=L)
i negativ je höher fi desto niedriger (PX=L)
![Page 28: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/28.jpg)
Modellierung der Constrains: Beispiele
Two nodes match if their children also match
f(MX,Δk,X,L) := % der X‘ Kinder, die (bei geg. MX) matchen Kind von L;
je höher, desto höher P(X=L), d.h positiv
If node L is a descendant of node X, and L matches PROFESSOR, then it is unlikely that X matches ASST-PROFESSOR
Asst-Prof.
Prof.
f(MX,Δk,X,ASST-PROFESSOR) :=1, wenn Nachfolger von X, der PROFESSOR ist, sonst 0; negativ, weil f=1 im Fall, der zu vermeiden ist
![Page 29: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/29.jpg)
Sigmoidfunktion
xe1
1)x(
ifix :
0
1P(x)
0-5-10 5 10
...gewichtete Summe der Consraints in [0,1] bringen:
![Page 30: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/30.jpg)
Relaxation Labeling• Allgemein:Allgemein: Den Knoten eines Graphs Labels zuzuweisen bei
gegebenen Constraints
• Idee:Idee: Label eines Knoten abhängig von Eigenschaften der Knoten in der Nachbarschaft (deren Labels, Erfüllen bestimmter Constraints...)
• In Anwendung hier:In Anwendung hier:
Knoten – Konzepte 1. Taxonomie
Labels – Konzepte 2. Taxonomie
Initialisierung der Labels: gemäß der Ähnlichkeitsmatrix (vermutlich)
Aktualisierung der Labels (ausgehend von aktualisierten Labels der Nachbarknoten) bis Kriterium fürs Ende erfüllt
• Brauchen:Brauchen: Formel zur Aktualisierung der Labels P(X=L|Δk)=...
![Page 31: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/31.jpg)
Relaxation Labeling
X
X
MkXkX
MkXk
Δ|MPΔ,M|LXP
Δ|ML,XPΔ|LXP
Summiere über alle Rest-Matchings
Nach Def. bedingter Wahrsch.: P(A,B)=P(A|B)*P(B)
Xii MLX
kiikX Δ|LXPΔ|MP
Annahme: Labels von Rest-Matsching unabhängig voneinander Def. von Unabhängigkeit: P(A|B)=P(A)*P(B)
n1kX f,,f|LXPΔ,M|LXP MX,Δk – Alles Wissen ü. X‘ Nachbarn; P(X=L) abhängig nur von Constraints
nn11n1 fαfασf,,f|LXP Qualitativer Vergleich möglich!
XiiX MLXkii
n
1kkXkk
Mk Δ|LXPLX,,Δ,MfασΔ|LXP
![Page 32: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/32.jpg)
Evaluierung
![Page 33: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/33.jpg)
•Taxonomies on the web–University classes (UW and Cornell)–Companies (Yahoo and The Standard)
•For each taxonomy–Extracted data instances – course descriptions, and company profiles–Trivial data cleaning–100 – 300 concepts per taxonomy–3-4 depth of taxonomies–10-90 average data instances per concept
•Evaluation against manual mappings
Real World Experiments
![Page 34: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/34.jpg)
Daten für die Experimente
Manual mappings – nicht alle Konzepte gematcht
Matching accuracy = #Knoten, korrekt gematcht von GLUE#manuell gematchte Knoten
GLUE nutzt nur 30-90 Instanzen pro Konzept, weil es reicht
![Page 35: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/35.jpg)
0
10
20
30
40
50
60
70
80
90
100
Cornell to Wash. Wash. to Cornell Cornell to Wash. Wash. to Cornell Standard to Yahoo Yahoo to Standard
Ma
tch
ing
ac
cu
rac
y (
%)
Name Learner Content Learner Meta Learner Relaxation Labeler
University I University II Companies
Ergebnisse
Name Lerner schlecht, weil (volle) Konzeptnamen zu ähnlich (unspezifisch) Nützlichkeit von multi-strategy learning!
![Page 36: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/36.jpg)
Relaxation Labeling Stoppkruterium
• Typisch: Genauigkeit steigt während weniger Iterationen am Anfang und dann sinkt
• Finde richtiges Stoppkriterium!
1. Mappings ändern sich nicht
2. Wahrscheinlichkeiten ändern sich nicht
3. #Iterationen
• Oft bei 2 und 3: Genauigkeit zuerst steigt und dann sinkt
• Bei 1: steigt höher, sinkt fast nie
• Folglich: GLUE benutzt 1
GLUE
![Page 37: Learning to Map between Ontologies on the Sematic Web](https://reader036.vdocument.in/reader036/viewer/2022062409/56814bad550346895db88375/html5/thumbnails/37.jpg)
• An automated solution to taxonomy matching– Handles multiple notions of similarity
– Exploits data instances and taxonomy structure
– Incorporates generic and domain-specific constraints
– Produces high accuracy results
• Future Work– More expressive models
– Complex Mappings
– Automated reasoning about mappings between models
Conclusions & Future Work