[Erschienen in: Friemel, H.J./Müller-Schönberg, G./Schütt, A. (Hrsg.): Forum '90 - Wissenschaft und Technik. Neue Anwendungen mit Hilfe aktueller Computer Technologien. [Informatik-Fachberichte 259] Berlin/Heidelberg/New York/London/Paris/Tokyo (Springer) 1990, S. 80-104]

Rieger: Unscharfe Semantik

Unscharfe Semantik:
numerische Modellierung von Wortbedeutungen als 'Fuzzy'-Mengen

Burghard Rieger
Linguistische Datenverarbeitung/Computerlinguistik
Universität Trier

Abstract

Analyse und Repräsentation lexikalisch-semantischer Vagheit von Bedeutungen in natürlichsprachlichen Texten stellen ein Problem der Wortsemantik dar. Dies läßt sich mithilfe der Theorie der unscharfen Mengen in einer formal adäquaten, empirisch fundierbaren und prozeduralen Modellbildung lösen. Nach kurze Einführung der wesentlichen Charakteristika dieses die Unschärfe einbeziehenden Modells werden seine formalen Eigenschaften zunächst anhand einer denotativ-referenziellen Bedeutungsdarstellung gegeben, deren Kritik die Bedingungen liefert, welche eine empirisch-operationale Rekonstruktion und numerische Modellierung von stereotypischen Wortbedeutungen zu erfüllen hat. Für diese wird eine formale Struktur entwickelt, in der die systematischen Restriktionen von Lexemverwendung (ihre syntagmatischen und paradigmatischen Relationen) über eine zweistufige Abstraktion sich darstellen lassen. Sie können als konsekutive Abbildung der beobachtbaren Unterschiede von Verwendungsregularitäten von Lexemen in Texten auch empirisch rekonstruieren werden, was zur algorithmischen Repräsentation von Wortbedeutungen als einem System von unscharfen Mengen des Vokabulars bzw. von Vektoren im semantischen Raum führt. Dessen Topologie bildet die Grundlage dafür, unterschiedliche semantische Zusammenhänge so repräsentierter Bedeutungen unter verschiedenen inhaltlichen Perspektiven algorithmisch zu generieren und als Dispositionelle Dependenzstrukturen (DDS) organisiert zugänglich zu machen.

1  Einleitung

One cannot pursue linguistic meanings very far before discovering that words have the meanings they do as a consequence of the ways they are used in sentences. We can think of understanding a sentence as a form of information processing, as if the sentence were a program being fed into a computer. A listener, if he knows the language, has a variety of mental routines and subroutines that he can call and execute. Our problem is to specify in as much detail as possible what these routines might be, how they could be assembled into plans, how their assembly depends on the contexts in which they are used, what kind of representational system they entail, how they might relate to one another and to the perceptual world.

Für die linguistischen Theorien und Methoden, die zur Beschreibung und Analyse sprachlich-kommunikativer Phänomene des Sprachvermögens (der Kompetenz) wie der aktuellen Sprachverwendung (der Performanz) entwickelt wurden, ist die kategoriale Sicht noch weitgehend bestimmend. Die einschlägigen Modellbildungen gehen davon aus, daß sprachliche Einheiten - auf welcher der möglichen (phonologisch, morphologisch, syntaktisch, semantisch, pragmatisch bestimmten) Ebenen ihrer Beschreibung auch immer - diskret, invariant, qualitativ unterschiedlich, konjunktiv definierbar und aus atomaren Bausteinen aufgebaut sind. Sie scheinen damit im Prinzip genau denjenigen Grundstrukturen zu entsprechen, deren wir uns bedienen, wenn immer wir Sätze produzieren und verstehen.

Die Zugehörigkeit solcher Einheiten zu Kategorien bzw.  relationale Verknüpfungen dieser Kategorien untereinander wurden daher auch weitgehend durch binär entscheidbare Regeln streng deterministischer Art repräsentiert. Diese können Regularitäten kontinuierlicher Übergänge von bestimmt angebbaren zu nur mehr möglichen oder wahrscheinlichen Zugehörigkeiten nicht abbilden. Sie erweisen sich folglich als ungeeignet, Erscheinungen gerade jenes Bereichs adäquat zu erfassen, der seit etwa Mitte der 70er Jahre unter Begriffen wie sprachlicher Variation bzw.  Variabilität einerseits, unter semantischer Unschärfe oder Vagheit andererseits im Rahmen eines nicht mehr auf die Untersuchungseinheit 'Satz' fixierten sprachwissenschaftlichen Forschungsinteresses gerückt ist und sich seither als Textlinguistik etabliert hat. Dabei handelt es sich einmal um den - durch individuelle, situative, soziale, edukative, historische, etc. Einflüsse hervorgebrachten - Bereich möglicher Varianten, die bestenfalls als Abweichungen jener starren Regelsysteme erschienen, welche sich erst durch regide Reduktion der Vielfalt performativen Sprachgebrauchs hatten formulieren lassen. Zum anderen geht es um die für alle semiotischen Ebenen natürlichsprachlicher Zeichen- und Symbolkonstitution charakteristischen formalen Unschärfen und Ungenauigkeiten, die für ein kompetentes Verstehen jeder - nicht nur für die im engeren Sinne linguistisch-semantische - Bedeutung konstitutiv genannt werden müssen.

Beide, Variabilität und Vagheit von Bedeutungen erscheinen so als diejenigen Eigenschaften der natürlichen Sprache, deren möglicherweise konstitutive Funktion innerhalb der und für die kommunikativen Interaktionen eine Ausklammerung oder bloß marginale Berücksichtigung nicht nur nicht erlaubt, sondern geradezu fordert, diese Eigenschaften sowohl formal wie auch empirisch zur Grundlage einer performanz-orientierten Linguistik zu machen. Sie können daher als entscheidend für die Lösung der anstehenden Probleme lexikalisch-semantischer Analyse von Bedeutungen in Texten sowie der Repräsentation und Modifikation des in ihnen vermittelten Wissens gelten. Diese Eigenschaften, die - nach einigen frühen Ansätzen im 19.Jahrhundert - Gegenstand einer ersten philosophisch akzentuierten Phase intensiveren Studiums schon während der Zwanziger und Dreißiger Jahre unseres Jahrhunderts waren, wurden erst mit dem Erscheinen der mathematischen Theorie der unscharfen Mengen (fuzzy set theory) als ein auch linguistisch interessanter Phänomenbereich erkannt, welcher in der Folge zu einem übergreifenden Neuansatz führte. Ausgehend von Zadehs grundlegenden Ideen und den daraus sich entwi"ckelnden Modellbildungen, stehen inzwischen Notationen bereit, die es möglich erscheinen lassen, den semiotischen Zusammenhang der Bedeutungskonstitution und Zeichenverwendung als Zusammenhang der numerischen Analyse sprachlichen Materials, der formalen Abbildung seiner Strukturen und der prozeduralen Darstellung ihrer Veränderbarkeit zu modellieren.

2  Unscharfe (fuzzy) Mengen

2.1  

Der Grundgedanke der Theorie der unscharfen Mengen, die die traditionelle Mengentheorie als einen Grenzfall enthält, ist denkbar einfach und plausibel. Denn er erscheint wie eine Formalisierung der fundamentalen kognitiven Einsicht, wonach alle Wahrnehmung und Verarbeitung von vermeintlich scharf unterschiedenen, kategorialen Entitäten (Diskreta) auf einer abstrahierenden Wahrnehmung und Verarbeitung von ihnen zugrundeliegenden unscharfen Übergängen (Kontinua) beruhe.

Im Unterschied zur klassischen oder scharfen (crisp) Mengentheorie, in der ein Individuum alternativ im Hinblick auf eine Menge entweder Element ist oder nicht, kann man in der neuen Theorie die Zugehörigkeit eines Individuums zu einer deswegen unscharf genannten Menge graduell angeben. Das geschieht vermöge der charakteristischen Funktion mA(x), die für ein Element x der Menge A nicht nur - wie im Sinne der klassischen Mengen - die Werte 0 (für nicht-zugehörig) oder 1 (für zugehörig) annehmen kann, sondern auch jeden beliebigen anderen Wert zwischen 0 und 1, wobei etwa mA(x) = 0.2 eine geringere Zugehörigkeit des Elements x zur Menge A anzeigt, als mA(x) = 0.8.

Allgemein wird eine unscharfe Teilmenge A von X charakterisiert durch die Zugehörigkeitsfunktion

die jedem x X einen (und nur einen) Zugehörigkeitswert mA(x) aus dem Intervall [ 0,1 ] zuordnet, der den Grad angibt, mit dem das Inidividuum x als Element der unscharfen Menge A zu gelten hat. Die unscharfe Menge A besteht also aus der Menge der geordneten Paare

2.2  

Den Definitionen von Verknüpfungsoperationen klassischer Mengen entsprechend wird man auch für die Operationen mit beliebigen unscharfen Mengen A und B fordern müssen, daß die Zugehörigkeitswerte der neu entstehenden unscharfen Menge C sich bei Durchschnittsbildung nicht erhöhen und bei Vereinigung nicht vermindern. Zadeh setzte daher (1965) die jeweils niedrigst bzw. höchst möglichen Werte in deren Definitionen für jeweils alle x wie folgt an

Für die Komplementbildung wird dabei folgende Anweisung gegeben

wobei sich Gleichheit und Enthaltensein wie folgt definieren

Diese Definitionen reduzieren sich auf die für klassische Mengen, wenn man die graduellen Werte der kontinuierlichen Zugehörigkeitsfunktion auf die einzig zulässigen binären Werte 0 und 1 der diskreten charakteristischen Funktion einschränkt.

Damit werden auch solche Gegenstandsbereiche im Prinzip mengentheoretisch erfaßbar, deren fließende Übergänge oder mangelnde Abgrenzbarkeit - ob nun aus unvollständiger Kenntnis ihrer Gegebenheit oder aufgrund ihrer besonderen Eigenschaften - als Hauptcharakteristika ihrer Verschwommenheit und Vagheit eine exaktwissenschaftliche, empirisch-quantitative Behandlung bisher verhinderte.

2.3  

Zur Verdeutlichung dieser Möglichkeit wird im folgenden die Semantik eines Begriffs anhand eines schon früher verwendeten Standardbeispiels illustriert. Ihm liegt eine allgemein gebräuchliche Bezeichnung wie die des Mittelklassewagens zugrunde, deren begriffliche Bedeutung extensional zwar nicht als Klasse, wohl aber als unscharfe Menge derjenigen Entitäten expliziert werden kann, die der sprachliche Term "Mittelklassewagen" denotiert. Die Bedeutung dieses Begriffs ist vage oder unscharf in bezug auf den Umfang der Menge derjenigen Fahrzeugtypen, die gemeint sind, wenn von "Mittelklassewagen" die Rede ist. "Mittelklassehaftigkeit" kann daher aufgrund der die Bedeutung dieses Begriffs explizierenden unscharfen Menge erklärt und anhand der verschiedensten (extensionalen und intesionalen) Dimensionen beschrieben werden, nach denen unterschiedliche Fahrzeugtypen als dieser Menge (mehr oder weniger) zugehörig eingeschätzt werden.

Abb1

Greift man etwa aus dieser Vielzahl solcher charakterisierenden Dimensionen nur das Motorvolumen heraus, um die Zugehörigkeit eines Wagentyps zur Mittelklasse aufgrund seines Hubraums zu bewerten, so liefe dies auf ein Urteil über die größere oder kleinere Entsprechung mit den für einen Mittelklassewagen typischen Zylindervolumina hinaus, was - je nach Ähnlichkeit mit dem hierbei herangezogenen Stereotyp bzw. Prototyp - zu unterschiedlichen, den verschiedenen Wagentypen entsprechenden numerischen Werten führt. Beispielsweise würde einem Fiat 500 in dieser Menge M der Mittelklassewagen - wenn überhaupt - ein äußerst geringer Zugehörigkeitswert deshalb zukommen müssen, weil er als ein ausgesprochener Kleinwagen gilt, dessen (hier subjektiv vorgenommene) Bewertung etwa einen Wert von 0.0 ergeben möge. Einem VW-Golf, der zumindest seinem Motorvolumen nach beinahe schon ein Mittelklassewagen ist, käme ein deutlich höherer Wert, etwa 0.5 zu, ein Opel-Rekord erreichte als typischer Mittelklassewagen den Wert 1.0, ein Mercedes-Benz mit deutlicher Tendenz zur Luxusklasse bekäme wiederum einen deutlich niedrigeren Wert, etwa 0.3, und einem Rolls-Royce, der als klassische Luxuslimousine gilt, könnte deshalb auch nur ein Zugehörigkeitswert von 0.0 zur unscharfen Menge M der Mittelklassewagen zugeschrieben werden.

Trägt man nun den Individuenbereich X der Einfachheit halber als Skala - nach kontinuierlich anwachsenden Hubraumvolumina geordnet - von links nach rechts auf der Abszisse und die einzelnen den verschiedenen Fahrzeugtypen (subjektiv) zugeschriebenen Zugehörigkeitswerte mA(x) auf der Ordinate ab, so ergibt die unscharfe Menge M eine Kurve (Abb. 1), die als graphische Darstellung der (subjektiv) referenziellen Bedeutung des (eindimensional) vagen Begriffs "Mittelklassewagen" über X gelten kann.

Als Zadeh (1971) sein Konzept der unscharfen Mengen erstmals zur Explikation linguistischer Bedeutungsphänomene der natürlichen Sprache anwandte, bewegte er sich zunächst im Rahmen strikt referenztheoretischer Modellvorstellungen. Danach läßt sich die Vagheit eines natürlichsprachlichen Ausdrucks folgerichtig als Name einer solchen Klasse von Entitäten erklären, deren Extension eine unscharfe Teilmenge aller möglichen Denotate bildet, auf die der Ausdruck referiert.

3  Bedeutung als Referenz

3.1  

Aufgrund dieses Ansatzes kann die Semantik einer natürlichen Sprache formal als unscharfe Relation L zwischen sprachlichen Ausdrü"cken und Elementen eines Referenzuniversums erklärt werden. Dazu wird - nach Zadeh - zunächst eine endliche Menge der sprachlichen Ausdrücke

und eine Menge von gegebenen Entitäten (aus dem potentiellen universe of discourse)

eingeführt, die hier informell als Ansammlung von (sprachlich identifizierten) Objekt- oder Konzeptpunkten charakterisiert sein mag.

In referenzsemantischem Sinne läßt sich nun die Bedeutung eines Terms einer Sprache als jene Beziehungstruktur verstehen, durch die eine Korrespondenz hergestellt wird zwischen Ausdrücken x in T und (möglicherweise unscharfen) Mengen M(x) in U. Zumindest für natürliche Sprachen erscheint diese Korrespondenz aber als eine nicht-eindeutige Beziehung. Sie wird deshalb formal eingeführt als eine unscharfe binäre Relation L, die sich über die Zugehörigkeitsfunktion

definieren läßt (Abb. ). Damit wird - entsprechend (1) und (10) - jedem geordneten Paar (x,z) genau ein Zugehörigkeitswert mL(x,z) zugeordnet, so daß

Abb.2

3.2  

Die unscharfe Relation L (Abb. 2) induziert demnach eine zweiseitige Korrespondenz zwischen Elementen x T und Objektpunkten z U, welche Vagheit als Unschärfe sowohl von Bedeutungen als auch von Begriffen referenziell zu explizieren erlaubt:

  • betrachtet man ein bestimmtes Element x aus T, so stellt die unscharfe Relation L die Beziehung zwischen diesem sprachlichen Ausdruck x und einer unscharfen Teilmenge M(x) in U her, die seine (referenzielle) Bedeutung ausmacht. Diese wird erklärt über die auf x eingeschränkte unscharfe Relation L

    welche die Zugehörigkeitswerte mM(x)(zj) jeden Objektpunktes zj aus U zur unscharfen Menge M(x) liefert

  • betrachtet man umgekehrt ein bestimmtes Element z aus U, dann stellt die inverse unscharfe Relation L-1 eine Beziehung zwischen diesem Objektpunkt z und einer unscharfen Teilmenge D(z) in T her, die seinen Begriff als Kennzeichnung der für ihn konstitutiven (sprachlichen) Komponenten beschreibt. Diese Beschreibung wird erklärt über die auf z eingeschränkte inverse unscharfe Relation L-1

    welche die Zugehörigkeitswerte D(z)(xi) jeden Terms xi in T zur unscharfen Menge D(z) liefert

  • Zadeh nennt D(z) unscharfe Deskriptormenge ( descriptor set), weil sie geeignet ist, für jeden Term xi in T den jeweiligen Grad zu spezifizieren, mit dem er zur Beschreibung eines bestimmten Objekts oder Begriffs z in U beiträgt.

    In summary, a language, L, is a fuzzy relation from T to U characterized by a membership function mL(xi,zj). As a relation, L associates with each term x in T its meaning, M(x), which is a fuzzy set in U defined by mM(x)(zj) = mL(x,zj). Furthermore, L associates with each element z in U a fuzzy descriptor set D(z), defined by mD(z)(xi) = mL(xi,z).

    3.3  

    Damit ist eine Abbildung von referenziellen Bedeutungen über unscharfe Mengen M(x) U von Objektpunkten z U bzw. eine sprachliche Beschreibung von Begriffen über unscharfe Mengen D(z) T von Deskriptoren x T erklärt. Auf beide lassen sich die oben unter (3) bis (7) gegebenen Definitionen für Operationen mit unscharfen Mengen anwenden, was der Unterscheidung von Bedeutungsrelationen zwischen sprachlichen Termen einerseits und von begrifflichen Beziehungen zwischen außersprachlichen Elementen andererseits entspricht.

    So kann die Synonymie zweier Terme x,x T über die Gleichheit der zwei ihre referenzielle Bedeutung repräsentierenden unscharfen Teilmengen M(x) und M(x) aus U erklärt werden

    Analog dazu kann partielle Synonymie über ein Ähnlichkeitsmaß definiert werden, das einen - je nach Geltungsbereich unterschiedlichen - Schwellenwert s einführt

    Hyperonymie eines Ausdrucks x relativ zu x bzw.  Hyponymie eines Ausdrucks x relativ zu x läßt sich als echtes Enthaltensein der ihre Bedeutungen repräsentierenden unscharfen Teilmengen bestimmen

    Für die Generierung neuer Bedeutungen, welche mögliche aber (noch) nicht lexikalisierte unscharfe Teilmengen in U denotieren, lassen sich die den Komplement-, Durchschnitts- und Vereinigungsmengen entsprechenden Operationen ansetzen.

    Hieraus hat sich erst in den letzten Jahren eine Diskussion ergeben, in der die von Zadeh ursprünglich vorgeschlagenen Definitionen sowohl auf der Grundlage experimenteller Forschungen als auch formal-theoretischer Erwägungen vielfach kritisiert und modifiziert wurden.

    3.4  

    Was das Phänomen der Vagheit natürlichsprachlicher Bedeutungen und das Problem ihrer rekonstruktiven Abbildung betrifft, muß Zadehs Satz-orientierte Initiative - gerade auch vor dem Hintergrund vorangegangener Versuche in Referenz-theoretischen Semantikmodellen - schon als adäquatere Darstellung gelten, zumal ihr das allgemeinere Konzept unscharfer Mengen zugrundeliegt, das die traditionelle, binär entscheidbare Mengendefinition als Klasse äquivalenter Elemente nur mehr als Sonderfall enthält. Obwohl dieser Neuansatz daher zumindest formal durchaus befriedigend ist, erweist sich seine Grundannahme über den referenziellen Charakter natürlichsprachlicher Bedeutung als jener Prüfstein, der eine auch empirische Anwendbarkeit dieser Rekonstruktion verhindert.

    Die Einführung des Konzepts der unscharfen Mengen erfüllt die Forderung nach adäquateren Beschreibungen vager Bedeutungen natürlichsprachlicher Wörter und Ausdrücke nur zum Teil. Die Möglichkeit einer sowohl formal befriedigenden als auch empirisch erfolgreichen Rekonstruktion hängt nämlich entscheidend ab

  • von der Bekanntheit oder Zugänglichkeit der Struktur der jeweils zugrundegelegten Individuenbereiche im Diskursuniversum U, die als mögliche Deskriptormengen fungieren können (z.B.  Skala der Motorvolumina), über der ein Konzept eines Ausdrucks in T als die unscharfe Menge (z.B. Mittelklassewagen) erklärt wird, und
  • von der Verfügbarkeit oder Entwi"cklung von Verfahren, aufgrund deren einem Individuum (z.B. Golf = 0.5) ein Zugehörigkeitswert in bezug auf die zu definierende unscharfe Menge (z.B. Mittelklassewagen) zugeschrieben wird.
  • Beides, die Bestimmung des Individuenbereichs als Deskriptormenge wie das Verfahren zur Ermittlung von Zugehörigkeitswerten wird in referenzsemantischen Modellierungen der Bedeutungsunschärfe nicht systematisch, sondern weitgehend introspektiv und/oder ad hoc vorgenommen. In strukturalen Bedeutungsmodellen, in denen der Prozeß der Bedeutungskonstitution die Grundlage der Analyse wie der Repräsentation bildet, kann dagegen eine systematische und zeichentheoretisch motivierte Lösung angeboten werden. Sie basiert auf dem - die informationelle Bedeutung lexikalischer Einheiten konstituierenden - Zusammenhang von Zeicheninventar, Anwendungsregularität und kommunikativem Kon- und Kotext, von dem auch Sprecher/Schreiber bzw. Hörer/Leser immer schon Gebrauch machen (müssen), wenn sie sprachliche Äußerungen produzieren bzw. verstehen (wollen).

    Abb.3

    Da aber die durch die Zugehörigkeitsfunktion mL definierte unscharfe Relation L als Vor- oder Definitionsbereich nicht nur die Menge der sprachlichen Ausdrücke T, sondern als Nach- oder Bildbereich auch die Menge der Objekte und/oder Prozesse enthält, welche durch diese Ausdrücke im Referenzuniversum U denotiert werden, müßten schon beide Mengen, T und U, zugänglich sein, wenn mL eine auch auf natürlichsprachliche Texte tatsächlich anwendbare empirische Operation soll zugeordnet werden können. Denn um die Zugehörigkeitsgrade der Elemente einer unscharfen Menge oder Relation zu bestimmen, bedarf es sowohl relevanter, empirisch zugänglicher Daten, die diese Mengen definitionsgemäß ausmachen, als auch operabler Verfahren, die aus solchen Daten die numerischen Werte zu berechnen gestatten. Beides fehlt den referenssematischen Modellen in bezug auf die Struktur der Mengen T und U ebenso wie auf das Verfahren zur Bestimmung von mL (Abb. 3).

    4  Bedeutung als Struktur

    4.1  

    Die zunächst überzeugende Klarheit des denotativen Bedeutungskonzepts in referenztheoretischen Semantikmodellen der natürlichen Sprache, welche in ihren Analyse schritten dem Aufbau prinzip formaler Sprachen naiv folgen, wird freilich empfindlich dadurch getrübt, daß der größere Teil der in diesen Modellen verwendeten strukturellen Informationen keine von der (natürlichen) Sprache und ihrer Beherrschung unabhängige Weise des (verstehenden) Zugangs erlaubt, geschweige denn eine von Sprache und ihrer (kommunikativen) Vermittlungsleistung unabhängige Form der (operationalen) Überprüfung. Angesichts dieses offensichtlichen Mangels an (nicht-sprachlichen) Daten über die Wirklichkeit kann daher die Strukturierung der außersprachlichen Realität (Referenzuniversum) in Objekte, Relationen und/oder Prozesse nicht - wie in den semantischen Referenztheorien - vorausgesetzt, sondern muß als variables Resultat gerade jener Prozesse gedeutet werden, die als Bedeutungskonstitution der natürlichen Sprache - im subjektiven wie objektiven Sinne dieses Genitivs - die Bedingung dafür bilden, daß Strukturen zu erkennen, Systeme zu analysieren und als Zusammenhänge zu interpretieren überhaupt möglich ist.

    Hieraus ergibt sich denn auch die methodologische Begründung für die Abwendung von referenziellen Ansätzen im Rahmen lexikalisch-semantischer Analysen und für die Hinwendung zu einer strukturalen Modellbildung. Während erstere neben dem Zeicheninventar und den Regularitäten seines Gebrauchs durch die Verwender auch das Referenzuniversum (universe of discourse) als strukturierte Menge nicht-sprachlicher Gegebenheiten (Realität) schon voraussetzen müssen, unternimmt es die letztere, eine in sprachlichen Äußerungen tatsächlicher Sprecher/Hörer in konkreten Kommunikationssituationen geleistete (durchaus nicht immer einheitliche) Strukturierung von (nur mehr potentiell) außersprachlichem Referenzuniversum (Realität) als Resultat und Folge der regelgeleiteten Verwendung des Zeicheninventars zu analysieren und zu beschreiben. Eben diese Leistung bildet aber das Fundament des hier entwickelten Ansatzes, allerdings nicht so, als wäre der semiotische Prozeß der Bedeutungskonstitution selber schon simulativ repräsentierbar, aber doch insofern, als die in ihm vermuteten prozeduralen Prinzipien zur Grundlage der empirischen Analyse und formalen Beschreibung des strukturalen Systemzusammenhangs lexikalisch-semantischer Gegebenheiten gemacht werden sollen.

    4.2  

    Die Theorie der unscharfen Mengen kann einer auf ihr aufbauenden lexikalisch-semantischen Bedeutungsnotation einen übergreifenden - von einem jeweils gewählten referenziellen, strukturalen oder auch prozeduralen Semantikmodell unabhängigen - Formalismus bieten. Ihm lassen sich aber einzig im Falle der strukturalen Bedeutungsmodelle gerade jene empirisch-quantitativen Verfahren der Bedeutungsanalysen zuordnen, die es im Rahmen der referenztheoretischen Semantikmodelle bisher nicht gibt.

    Der direkte Rückgriff auf die in kommunikativen Akten spontaner Sprachproduktion entstandenen Äußerungen scheint daher noch am ehesten ein verläßliches Datenmaterial liefern zu können. Anders als erfragte Urteile und Auskünfte von Sprechern über deren eigene (vermeintliche) Sprachverwendung in (vorgestellten) Kommunikationssituationen bilden die in tatsächlicher Kommunikation produzierten Sprachäußerungen eine objektivere Grundlage zur Ermittlung jener Regularitäten, die wirkliche Sprecher/Schreiber bzw. Hörer/Leser befolgen und/oder neu einführen, wenn sie in natürlichsprachlichen Texten Bedeutungen intendieren und verstehen. Und da eine der wenigen unter Semantikern nahezu unkontroversen Annahmen die ist, daß natürlichsprachliche Bedeutungen sich im Sprachgebrauch konstituieren, für den natürlichsprachliche Texte ein Beleg sind, sollten eben solche Texte auch die benötigten Daten liefern können, welche zudem empirisch zugänglich, d.h. intersubjektiv überprüfbar sind.

    Anders als bei den herkömmlichen, durch Introspektion gewonnen Daten zur semantischen Beschreibung von Wortbedeutungen ist der empirische Ansatz auf die algorithmische Analyse von Texten gestützt, die von wirklichen Sprechern/""Schreibern in realen Situationen tatsächlich vollzogener (oder doch intendierter) Kommunikation über bestimmte Sachgebiete produziert wurden. Hierbei wurde schon früher unter Begriffsbildungen wie lexikalischer Relevanz und semantischen Dispositionen ein System zur konzeptbasierten Bedeutungsrepräsentation entwickelt, das aufgrund quantitativer Analysen und numerischer Präzisierung von in natürlichsprachlichen Texten co-okkurrierenden Wörtern nicht nur deren syntagmatische und paradigmatische Einschränkungen bestimmt, sondern diese constraints gleichzeitig zur Modellierung der Bedeutungskonstitution benutzt.

    4.3  

    Dieser Ansatz ist eng mit gebrauchssemantischen Vorstellungen wie den Wittgensteinschen Sprachspielen verbunden und auf deren Grundannahme gestützt, daß die Analyse und Beschreibung der syntagmatischen und paradigmatischen Regularitäten, mit denen Wörter in Mengen von Sprachspielen oder ihnen entsprechenden pragmatisch homogenen Texten verwendet werden, auch wesentliche Teile dessen zu erfassen vermag, was diese Texte an Begrifflichkeiten und Bedeutungen vermitteln. An anderer Stelle konnte gezeigt werden, daß selbst in sehr großen Corpora pragmatisch homogener Texte nur sehr begrenzte Anzahlen unterschiedlicher Wörter verwendet werden, wie umfassend die persönlichen (aktiven) Wortschätze ihrer jeweiligen Autoren auch sein mögen. Diejenigen Wörter, die zur Übermittlung bestimmter Informationen innerhalb eines Sachgebiets Verwendung finden, werden sich deswegen - den mit ihnen verbundenen konventionalisierten kommunikativen Eigenschaften entsprechend - in den betreffenden Texten verteilen und demgemäß lexikoßemantische Regelhaftigkeiten gehorchen und ausbilden, die empirischßtatistisch ermittelbar sind.

    Dabei kann bei gegebenen Elementen von der Ausbildung von Regularitäten (des Gebrauchs) über Unterschiedlichkeiten (der Verwendungsweisen) zur Rekonstruktion von Zusammenhängen (der Struktur) und Neudefinition von Einheiten (des Systems) fortgeschritten werden mit dem Ziel, Bedeutung eines Lexikoneintrags formal-theoretisch zu erklären und empirisch-quantitativ zu bestimmen als Funktion aller Unterschiede aller seiner Verwendungsregularitäten zu sämtlichen anderen Einheiten des verwendeten Vokabulars in den analysierten Texten eines Gegenstandsbereichs.

    Während die Darstellung vager Bedeutungen, die auf der Theorie der unscharfen Mengen und referenziell-semantischer Modellbildung basiert, bisher über keine adäquate Methode zur Bestimmung von Zugehörigkeitswerten verfügte, bietet ein struktural-semantisches Modell eine solche Möglichkeit der empirischen Ermittlung unscharfer (Teil-)Mengen des Vokabulars zur Darstellung der Bedeutungszusammenhänge von Wörtern.

    4.4  

    Zur formal-theoretischen Erklärung der unscharfen Relationen wird dazu - anstelle von (8) - aus dem Gesamtwortschatz einer Sprache T zunächst ein bestimmtes Vokabular V T als scharfe Teilmenge aller Wörter/Lexeme einer Sprache eingeführt

    und - anstelle des extensional - semantischen Referenzuniversums in (9) - sowohl ein lexikalisch - syntagmatisches System C, das Corpusraum heiße,

    wie auch ein semantisch-paradigmatisches System S, das semantischer oder Bedeutungs-Raum heiße

    Beide Systeme, C und S, werden dabei nicht nur anhand des Gebrauchs definiert, den wirkliche Sprecher/Schreiber in tatsächlichen Texten zum Zweck der Kommunikation über bestimmte Gegenstandsbereiche und in bestimmten Anwendungskontexten von V machen, sondern diese Systemzusammenhänge lassen sich aufgrund zuordenbarer Meßvorschriften auch quantitativ-"ëmpirisch bestimmen.

    Während man daher C informell als eine die Verwendungsregularitäten der Wörter aus V repräsentierende strukturierte Ansammlung von Corpuspunkten kennzeichnen kann, die es erlaubt, mit jeder durch Verwendung von Elementen von V ausdrückbaren Bedeutung eine unscharfe Teilmenge von Elementen von C zu identifizieren, läßt sich S etwa charakterisieren als ein durch die Unterschiede dieser unscharfen Mengen bestimmtes System von Bedeutungspunkten, die ihrerseits je unscharfe Mengen von Corpuspunkten repräsentieren und den Zusammenhang der lexikalisch-semantischen Struktur des Vokabulars anhand des Gebrauchs deutlich werden lassen, den Sprachverwender von ihm in Texten machen. Die Definition und Erklärung der Corpuspunkte und der Bedeutungspunkte lassen sich formal als eine zweistufige Abbildung des Vokabulars, seines Gebrauchs in Texten und der sich daraus ergebenden Bedeutungsdifferenzierungen anhand zweier Abstraktionsschritte entwickeln. Sie entsprechen den syntagmatischen und paradigmatischen Einschränkungen der beobachtbaren Lexemkombinationen in einer Vielzahl von Texten. Diese Einschränkungen (Constraints) lassen sich in Form von mengentheoretischen Restriktionen rekonstruieren, denen überdies Maßfunktionen zugeordnet werden können, welche die Entstehung von Bedeutung als Funktion des Gebrauchs von Wörtern in Texten über deren numerische Analyse quasi zu simulieren gestatten.

    Abb.4

    Als Resultat dieses zweifachen Abstraktionsschritts (Tab. 1) läßt sich die Lage und Position jedes Bedeutungspunkts im semantischen Raum S, auch als Funktion aller Unterschiede (d- oder Distanzwerte) aller Verwendungsregularitäten (a- oder Korrelationswerte) deuten, die sich für jedes Wort zu sämtlichen anderen aus den analysierten Texten ergeben und in Form einer Komposition der beiden Abbildungsrelationen d | yn   a | xn (Abb. ) berechnet werden können. Als Zuordnung von Wörtern (xi V) zu ihren Bedeutungspunkten (zi S) beruht diese Abbildung auf einer Operationalisierung der syntagmatischen und paradigmatischen Restriktionen, denen kohärente Folgen von Wörtern in Texten pragmatisch homogener Corpora unterliegen, und deren numerische Spezifizierung es erst erlaubt, sie als Komposition der beiden restringierten Relationen d | y und a | x nicht nur formal sondern auch empirisch zu bestimmen.

    Tabelle 1

    4.5  

    Die hierzu auf der Wortebene verwendeten textstatistischen Verfahren sind deskriptiv. In einem Corpus

    pragmatisch-homogener Texte mit einer Gesamtlänge

    gemessen in der Anzahl von Worttoken per Text, und einem Vokabular

    von Worttypen mit den Häufigkeiten der entsprechenden Worttoken

    erlaubt der modifizierte Korrelations-Koeffizient ai,j die paarweisen Beziehungen zwischen Worttypen (xi,xj) V ×V in numerischen Ausdrücken des reell-wertigen Intervalls [-1,+1] nach folgender Formel zu berechnen

    Danach werden ersichtlich solche Wörter-Paare, die in zahlreichen Texten häufig entweder beide vorkommen oder nicht, positiv korreliert sein und deswegen affin genannt werden, während solche Paare, von denen nur eines der Wörter (nicht aber das andere) häufig in zahlreichen Texten vorkommt, negativ korrelieren und repugnant heißen. Affinität und Repugnanz erscheinen als Struktur- und Verteilungs-konstitutive Eigenschaften der Zeichenverwendung.

    Durch den modifizierten Korrelationskoeffizienten ist dabei eine erste Abbildungsfunktion a gegeben. Als eine unscharfe, binäre Relation kann a: V ×V I auf xn V eingeschränkt werden, was zu einer scharfen Abbildung führt

    in der die resultierenden unscharfen Mengen (xn,1,a(n,1)), , (xn,N,a(n,N)) die numerisch spezifizierten, syntagmatischen Verwendungsregularitäten darstellen, die für jeden Worttyp xi zu allen anderen xn V beobachtet wurden. Sie können deswegen in bezug auf jeweils dieses identische Glied in jedem der geordneten Paare zusammengefaßt werden, womit - durch diese sogenannte a-Abstraktion - jeweils ein neues Element yi als Vektor oder N-Tupel

    erklärt ist. Auf diese Weise werden die Verwendungsregularitäten jedes Worttyps durch das N-Tupel seiner Affinitäts- bzw. Repugnanz-Werte zu sämtlichen anderen Wörtern des Vokabulars bestimmt, die es ihrerseits - als Koordinaten interpretiert - erlauben, jedem Wort xi aufgrund dieser Verwendungsregularitäten einen Punkt yi in einem Vektorraum C zuzuordnen, der durch die den Wörtern des Vokabulars entsprechenden N Achsen aufgespannt wird.

    4.6  

    Betrachtet man C derart als eine strukturelle Repräsentation abstrakter Entitäten, die sich aufgrund syntagmatischer Regelhaftigkeiten der Vorkommen von Worttoken in pragmatisch-homogenen Texten ergeben, dann werden deren paradigmatische Regelhaftigkeiten durch die potentielle Substituierbarkeit der zugehörigen Worttypen bestimmt. Sie läßt sich aufgrund der Ähnlichkeiten und/oder Unterschiede von Verwendungsregularitäten paarweise betrachteter Corpuspunkte yi,yj ermittel un über ein geeignetes Maß numerisc präzisieren. Da der Abstand zwischen Corpuspunkten umso geringer sein wird, je weniger sich die Verwendungsweisen (Token) der ihnen entsprechenden Wörter (Typen) xi, xj unterscheiden, können diese Unterschiede durch ein (hier Euklidisches) Distanzmaß d wie folgt bestimmt werden


    Damit wird d zur zweiten Abbildungsfunktion, welche die Unterschiede der Verwendungsregularitäten jeden Worts gegenüber allen übrigen Wörtern repräsentiert.

    Als eine unscharfe, binäre Relation kann nun - wie in (30) - auch d: C ×C I auf yn C eingeschränkt werden, was wiederum zu einer scharfen Abbildung führt

    in der die resultierenden unscharfen Mengen (yn,1,d(n,1)), , (yn,N,d(n,N)) die numerisch spezifizierte paradigmatische Struktur repräsentieren, wie sie sich aus den syntagmatischen Verwendungsregularitäten yj zu allen anderen yn C berechnen läßt. Daher können auch diese Distanzwerte - wie die Korrelationswerte in (31) - wieder zusammengefaßt werden, diesmal jedoch - als sogenannte d- Abstraktion - in bezug auf das jeweils andere gemeinsame Glied yj in jedem der geordneten Paare, womit eine neue abstrakte Entität als Element zj S erklärt ist, die Bedeutungspunkt heißt

    Durch die Identifikation der so repräsentierten abstrakten Entitäten zn S mit numerisch spezifizierten Elementen eines potentiellen Paradigmas, läßt sich die Menge der möglichen Kombinationen S ×S strukturell einschränken und gewichten, ohne hierzu (direkt oder indirekt) auf eine vor-strukturierte, System-externe Welt zurückgreifen zu müssen. Durch Einführung einer - aus Einfachheitsgründen - wiederum Euclidschen Metrik

    wird so eine N-dimensionale Hyperstruktur S, als semantischer Raum (SR ) konstituiert. Er stellt den systematischen Zusammenhang der Bedeutungspunkte bereit, deren Positionen die semantischen Stereotypen zu generieren erlauben, welche den ihnen entsprechenden Wörtern als Interpretationen zukommen.

    4.7  

    Damit läßt sich nun auch eine Frage beantworten, die für herkömmliche Modelle der Wissens- und Bedeutungsrepräsentation insbesondere der künstlichen Intelligenzforschung zu stellen bisher gar nicht sinnvoll schien: woher nämlich die natürlichsprachlichen Kennzeichnungen (labels) kommen, welche die graphentheoretischen Entitäten (Knoten, Kanten) in den referenzsemantischen Modellen als Repräsentationen von Bedeutungen oder ihrer Denotate (Objekte, Relationen, Sachverhalte, etc.) erscheinen lassen, die sie darzustellen vorgeben? Sie beruhen auf der Identifikation von Modellelement und seiner Interpretation, die der Designer und/oder Benutzer einer solchen Darstellung leistet aufgrund seines Sprach- und Welt-Wissens, das deswegen nicht Teil des im Modell repräsentierten Wissens ist.

    Während diese Identifikation auf der vom Entwickler bzw. Benutzer schon verstandenen Bedeutung des natürlichsprachlichen Ausdrucks beruht - und damit von Referenzsemantiken schon vorausgesetzt nicht aber modelliert wird - leistet das hier vorgestellte Modell einer strukturalen Bedeutungsrepäsentation genau dies: den Prozeß der Bedeutungskonstitution selbst durch den TextanalyseAlgorithmus des Systems zu modellieren. Er liefert die Systeminterne Repräsentation in Form von sprachlich gekennzeichneten Bedeutungspunkten, die nach Lage und Konfigurationen im semantischen Raum je nach textueller Umgebung, in der das System arbeitet, automatisch ermittelt, aufgebaut, angewandt und verändert werden. Das geschieht im wesentlichen durch die hier entwickelte zweistufige, kompositorische Abbildung des Vokabulars auf sich selbst. Sie läßt sich - ohne dabei auf das Wort- und Welt-Wissen (die semantische Kompetenz) von Systementwicklern oder Testpersonen zurückgreifen zu müssen-empirisch überprüfen anhand der Verwendungsregularitäten von Wörtern, wie sie von wirklichen Sprechern/""Schreibern in natürlichsprachlichen Texten zum Zweck tatsächlicher (oder zumindest intendierter) Kommunikation (kommunikative Performanz) befolgt und/oder auch verändert werden.

    Auf diese Weise wird durch den Analysealgorithmus modelliert, was - als Verarbeitung einer Vielzahl pragmatisch-homogener natürlichsprachlicher Texte - die Fähigkeit eines informationsverarbeitenden Systems ausmacht, nämlich vermöge der ihm jeweils verfügbaren strukturellen Information sowohl seine (textuelle) Umgebung zu erkennen und aufgrund seines (semantischen) Wissen zu interpretieren, als auch dieses eigene (semantische) Wissen zu repräsentieren und aufgrund veränderter (textueller) Umgebung zu modifizieren. Beides zusammen - obwohl bisher auf eine vor-prädikative, nicht-propositionale, assoziative Bedeutungsebene beschränkt-läßt das Verstehen eines solchen informationsverarbeitenden Systems als Prozeß seiner Bedeutungskonstitution erscheinen.

    5  Semantischer Raum

    5.1  

    Die Topologie des semantischen Raums S, , der auch durch mengentheoretische Operationen - wie und- und oder-Verknüpfungen gemäß (20) und (21) im Corpusraum C,d - entstandene Elemente enthält, kann dabei zur Ableitung und Erklärung von Eigenschaften der modellierten lexikalischßemantischen Zusammenhangsstrukturen dienen. So gibt etwas die Lage der Bedeutungspunkte z Aufschluß über sehr grundlegende Bedeutungsbeziehungen, die sich als assoziativ-semantische Abstände der entsprechenden Worttypen x oder als Konnotationen der mit diesen Worttypen verbundenen gebrauchssemantischen Bedeutungen ergeben, wie sie aufgrund der systematischen Unterschiede ihrer Verwendungsregularitäten in Texten bestimmbar sind.

    Anhand verschiedener Corpora natürlichsprachlicher Texte und der daraus berechneten semantischen Räume wurde überprüft, ob das entwickelte und angewandte Analyse- und Repräsentationsverfahren tatsächlich die über Wortverwendungen in Texten konstituierten semantischen Zusammenhänge zu ermitteln vermag. Hierzu wurden zum einen die semantischen Umgebungen E(zi,r) derjenigen Bedeutungspunkte z berechnet und aufgelistet, die sich in der topologischen Nachbarschaften von sowohl einzelnen Bedeutungspunkten zi als auch von durch konjunktive und adjunktive und/oder-Verknüpfungen entstandenen Bedeutungspunkten zij (20) bzw. zij (21) finden. Zum anderen konnte anhand diverser, die Punktverteilungen in S, untersuchender Clusteranalysen, welche auf der Grundlage einzig numerisch-statistischer Kriterien der Positionen von Punkten im semantischen Raum Ähnlichkeitsklassen von Bedeutungspunkten ermitteln lassen, der Beleg erbracht werden, daß sich eben jene Bedeutungspunkte in Cluster versammeln, die auch intuitiv semantisch ähnliche Bedeutungen repräsentieren. Es ließ sich derart nachweisen, daß das vorgelegte, einzig auf der Analyse von Wortverwendungsweisen in natürlichsprachlichen Texten basierende automatische Verfahren zur Repräsentation von Wortbedeutungen und ihrer Beziehungen in pragmatisch homogenen Textcorpora zum Aufweis semantischer Zusammenhänge führt, die ihrerseits als Basis des in und durch Texte vermittelten (lexikalisierten, nicht-propositionalen) Wissens gelten können.

    Tabelle 2

    5.2  

    Die derart repräsentierten lexikalischen Bedeutungszusammenhänge bilden eine relationale Datenstruktur, dessen sprachlich etikettierte Elemente (Bedeutungspunkte) und dessen wechselseitigen Abstände (Bedeutungsunterschiede) sich als ein System von einander überdeckenden Stereotypen darstellen. Die Bedeutung eines Elements kann daher sowohl als unscharfe Teilmenge des Vokabulars, als Vektor eines Bedeutungspunkts als auch durch die topologische Umgebung eines Bedeutungspunkts dargestellt werden. Letztere besteht aus allen Namen und Werten der nach zunehmenden Abständen aufgelisteten Bedeutungspunkte, die sich innerhalb einer Hyperkugel des Radius r um einen Bedeutungspunkt zi S, finden (Tab. 2) . Sie repräsentieren die Bedeutung des betreffenden Wortes daher indirekt als Stereotyp, d.h. als Zustand, Muster oder Verteilung von Bedeutungspunkt-Wert-Paaren.

    Folgt man einer eher semiotischen Auffassung von Bedeutungskonstitution, dann könnte die bisher dargelegte Struktur des semantischen Raums als Basis und Kern für ein mehrstufiges System zum Erwerb und zur Repräsentation (1. Stufe) sowie zur Organisation und Verabeitung (2. Stufe) von lexikalischem Wissen sich erweisen. Seine Mehrstufigkeit besteht im wesentlichen in der Trennung des Darstellungsformats, in welchem die als grundlegend verstandenen Wortbedeutungen als Stereotypen repräsentiert werden, von seiner latenten Ordnungsstruktur, durch welche sich deren konzeptueller Zusammenhang als dispositionelle Dependenzen organisieren. Während ersteres eine weitgehend statische, Distanz-relationale, assoziative Datenstruktur ist, kann letztere als eine Sammlung von Verarbeitungsprozeduren charakterisiert werden, die es nicht nur erlauben, diese Daten nach unterschiedlichen semiotischen Prinzipien unter verschiedenen Aspekten dynamisch und flexible zu organisieren, sondern deren Resultate darber hinaus geeignet erscheinen, auf diese Daten selbst modifizierend zurückzuwirken.

    5.3  

    Im Rahmen der experimental-psychologischer Modellierung von Wissens- und Gedächtnisstrukturen, sowie der in diesen Modellen definierten Operationen (spreading activation, priming), welche die zuweilen schnellere Identifikation bzw. höhere Erinnerungsleistung konzeptuell verbundener Wortbedeutungen verständlich zu machen suchten, vermag ein zweistufiges Repräsentations- und Lernsystem eine weiterführende Heuristik zu liefern. Sie legt nämlich nahe, die zwischen Konzepten bestehenden Relationen, welche für eine temporale Voraktivierung (priming) wie für die assoziative Aktivierung der Konzepte selbst (activation) vorausgesetzt werden, nicht mehr als vorgegebene statische Struktur sondern als Resultat von Struktur-"ïnduzierenden Prozessen dynamisch zu modellieren. Für diese konnten zumindest Algorithmen gefunden und als Prozeduren in ersten systematischen Modellierungen implementiert werden.

    Da der semantische Raum zunächst als eine distanzrelationale Struktur vorliegt, können wohlbekannte algorithmische Suchstrategien nicht unmittelbar eingesetzt werden. Denn sie arbeiten nur auf nicht-ßymmetrischen, relationalen Datenstrukturen, wie sie etwa im Format der gerichteten Graphen in der traditionellen Bedeutungs- und Wissensrepräsentation als semantische Netzwerke geläufig sind. Für die Umwandlung der topologischen Raumstruktur in eine solche Knoten-Zeiger-Struktur kann der semantische Raum als eine Art assoziativer Basisstruktur nurmehr potentieller konzeptueller Zusammenhänge verstanden werden. Bestimmte Prozeduren übernehmen es dabei - je nach Aufgabenstellung, Bedeutung und/oder auslösender Situation - diese Basiskomponenten so zu reorganisieren, daß sie als konzeptuelle Zusammenhänge überhaupt in Erscheinung treten und als Wege oder Leitungsbahnen nachfolgender Verarbeitung zur Verfügung stehen. Was daher zunächst als ein Nachteil der verteilten Bedeutungsrepräsentation im Modell des semantischen Raums erschien, erweist sich nun im Hinblick auf die Modellierung der dynamischen Veränderbarkeit von begrifflich-konzeptuellen Zusammenhangsstrukturen als ein Vorteil gegenüber den traditionellen symbolischen Repräsentationsformaten. Ungleich den vorgegebenen, präfixierten und unelastischen Strukturen semantischer Netze zur Modellierung prädikativen Wissens, können nicht-prädikative Bedeutungsrelationen als bloße Dispositionen konzeptueller Zusammenhänge aus lexikalischer Relevanz und semantischer Dependenz abgeleitet werden. Da sie in hohem Maße von situativen Bedingungen bestimmt sind, lassen sie sich besser prozedural modellieren, und zwar durch generative Algorithmen, die derartige dispositionellen Dependenzstrukturen (DDS) aufgrund sich verändernder Basisdaten immer erst dann induzieren, wenn sie benötigt werden. Das wird erreicht durch Aufruf einer rekursiv definierten Prozedur, die Hierarchien von Bedeutungspunkten als Baumgraphen unter bestimmten Aspekten generiert, je nach Dependenz und Relevanz der darin repräsentierten Bedeutungszusammenhänge.

    5.4  

    Anders als in vergleichbaren Wissens- und Gedächtnismodellen, in denen die Knoten einzelne Konzepte und die Kanten die zwischen ihnen bestehenden Beziehungen dessen repräsentieren, was die Modellbauer über Aufbau und Struktur konzeptueller Informationen im Gedächtnis zu wissen meinen, kann das hier vorgestellte mehrstufige Modell die vorgegebene, strukturelle Statik traditioneller Wissensrepräsentationen durch geeignete Verarbeitungsprozeduren ergänzen und ersetzen. Diese könnten sich dabei als geeignet erweisen, nicht nur die Struktur der Basisdaten, sondern diese selbst insofern zu verändern, daß die auf ihnen operierenden, im übrigen unveränderten Prozeduren gleichwohl zu kontinuierlich modifizierten Resultaten führen.

    So wurde beispielsweise ein Algorithmus gefunden, der auf den Daten des semantischen Raums operiert und dessen konzeptuell verbundene Elemente, d.h. unscharfe Teilmengen von benachbarten Bedeutungspunkten, als Baumstrukturen semantisch abhängiger Bedeutungen reorganisiert. Durch diesen die Daten des semantischen Raums abarbeitenden Minimal-Spanning-Tree -Algorithmus werden die unter einem bestimmten inhaltlichen Aspekt (Wurzelknoten) jeweils gefundenen stereotypischen Zusammenhänge (Nachfolgerknoten) in einem Dependenz-Baum abnehmender konzeptueller Relevanz darstellt.

    Abb.5

    Der rekursiv aufgebaute Algorithmus ermittelt dabei - je nach Lage des Bedeutungspunkts, von dem er gestartet wird und je nach Größe der Distanzen zwischen den Bedeutungspunkten, die er abarbeitet - ein Fragment des im semantischen Raum repräsentierten lexikalisierten Wissens. Zwischen dessen Elementen wird dabei eine reflexive, nicht-symmetrische Abhängigkeitsrelation induziert, die den Baumgraph zu generieren erlaubt. Dessen Knoten bilden jene Bedeutungspunkte, die der Algorithmus nach abnehmender Relevanz zum Wurzelknoten bemißt (Kriterialitätswerte) und anordnet (Dependenzrelation). Diese Bäume liefern die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen (Abb. 1). Sie bilden die perspektivischen, je nach inhaltlichem Aspekt varierenden Zusammenhängen zwischen Bedeutungspunkten als konzeptuelle Komponenten auf eine Modellstruktur ab, welche die - je nach Aspekt - unterschiedliche, konzeptuelle Relevanz gleicher Lexeme in verschiedenen Bedeutungs- und/oder Interpretationszusammenhängen als Modelleigenschaft abzulesen gestattet.

    5.5  

    Semantische Dispositionen in Form von DDS -Bäumen sind aber nicht nur eine Voraussetzung für die erfolgreiche Automatisierung perspektivischer und inhaltsgesteuerter Such- und Retrieval-Prozesse, die derart auf Strukturen des semantischen Raums durchgeführt werden können. Wegen der prozeduralen Definition der DDS, die die Ermittlung veränderlicher, konzeptueller Abhängigkeiten von lexikalisch identischen Knoten in Dependenzbäumen unter unterschiedlichen, perspektivischen Aspekten erlaubt, können diese dynamischen Strukturen dispositioneller Abhängigkeiten darüber hinaus als Grundlage dienen zur Modellierung konzeptueller, vor-prädikativer und semantischer Folgerungen im Unterschied zu propositionalen, prädikativen und logischen Schlüssen, die statischen Regeln folgen.

    Tabelle 3

    Hierzu wurde eine Prozedur entwickelt und getestet, die gleichzeitig auf zwei (oder mehr) DDS -Bäumen in einer Art (simulierter) Parallelverarbeitung operiert. Der Algorithmus wird dabei durch Eingabe der Namen von zwei (oder mehr) Bedeutungspunkten gestartet, die als quasi konzeptuelle Prämissen fungieren. Die ihnen entsprechenden DDS -Bäume werden aus den Bedeutungspunkten des semantischen Raums Knoten für Knoten generiert, während die eigentliche Folgerungsprozedur diese beiden (oder mehr) Teilbäume (breadth-first, depth-first oder nach höchster Kriterialität) abarbeitet, wobei jeder abgearbeitete Knoten und der ihm entsprechende Bedeutungspunkt markiert wird. Die Verarbeitungprozedur kommt zu einem Halt, sobald ein schon markierter Bedeutungspunkt angetroffen wird, dessen entsprechender Knoten im Baum einer (der) anderen Prämisse(n) schon aktiviert wurde. Er gilt als konzeptuelle Konklusion, von dem aus die Pfade zurück zu den jeweiligen konzeptuellen Prämissen die inhalts-semantischen Folgerungsschritte erkennen lassen, die - von den Startknoten aus - entlang der hierzu aktivierten semantischen Dependenzen (wie in Tab. 3) zu dem betreffenden analogen oder semantischen Schluß geführt haben.

    6  Zusammenfassung und Ausblick

    Auf der Basis des bisher erarbeiteten Modells zur (algorithmischen) Analyse und (verteilten) Repräsentation (vor-prädikativer) Bedeutungen in Texten bieten sich die besonderen (formalen und inhaltlichen) Modelleigenschaften an, die lexikalisch-"ßemantischen Beziehungen als Teil des in natürlichsprachlichen Texten vermittelten, konzeptuellen Wissens mit denjenigen Prozeduren zu identifizieren, die - auf einer Menge von strukturierten Basisdaten (Textkorpora) operierend - eben diese Prozeduren als (dynamisch) sich ändernde, variable Verarbeitungsresultate zu liefern vermögen.

    Anders als in den (propositionalen) Formaten zur (prädikativen) Bedeutungs- und Wissensrepräsentation der bisherigen KI-Forschung werden die vorgestellten Prozeduren als Analysealgorithmen unterschiedlicher (z.T. noch zu testender) Aufgabenstellungen und Operationscharakteristiken weiterzuentwickeln sein,

  • welche semantische Beziehungen zwischen Konzepten nicht voraussetzen müssen, sondern diese induktiv aus den Strukturen der analysierten Corpora als Funktion des Gebrauchs von Wörtern in Texten zu berechnen gestatten;
  • welche - durch die Trennung von Basisstruktur und den auf dieser Basis operierenden Prozeduren - es erlauben, semantische Beziehungen zwischen den stereotypischen Repräsentationen (Bedeutungspunkten im semantischen Raum) von deren - je nach Aspekt, Perspektive, Kontext-variablen konzeptuellen Abhängigkeiten untereinander zu unterscheiden;
  • welche - auf der Grundlage dieser konzeptuellen Hierarchien und der sie aktivierenden Prozeduren - assoziativ-analoges im Unterschied zu deduktiv-logischem Schließen als semantische Inferenzen modellieren;
  • welche schließlich - durch ihre teils rekursiven, teils rückbezüglichen Strukturen - die Resultate solcher Verarbeitungsprozesse eben diesen Verarbeitungsprozessen zu unterwerfen vermögen.
  • Literatur

    Bailey, C.J./Shuy, R. (1973) (Hrsg) : New Ways of Analysing Variation in English. Washinton, DC (Georgetown UP)

    Collins, A.M./Loftus, E.F. (1975) : "A Spreading Activation Theory of Semantic Processing", Psychological Review, 82, 6: 407-428

    Klein, W. (1976) : "Einige wesentliche Eigenschaften natürlicher Sprachen und ihre Bedeutung für die linguistische Theorie", Zeitschr. f. Literaturwiss. u. Linguistik 23/24: 11-31

    Labov, W. (1973) : "The Boundaries of Words and their Meaning" in: Bailey, C.J./""Shuy, R.W. (Hrsg) : New Ways of Analyzing Variation in English. Washington (Georgetown UP), S. 340-373; dtsch.: in Labov, W.: Sprache im sozialen Kontext, Bd.1. Kronberg/Ts. (Scriptor) 1976, S. 223-254

    Miller, G.A./Johnson-Laird, P.N. (1976) : Language and Perception. Cambridge, U.K. (CUP)

    Prim, R.C. (1957) : "Shortest connection networks and some generalizations", Bell Systems Technical Journal 36: 1389-1401

    Quillian, M.R. (1966) : Semantic Memory (PhD-Diss) Carnegie Inst. of Technology; Teilabdruck in: Minsky (1968), S. 216-270

    Rieger, B. (1974) : "Eine 'tolerante' Lexikonstruktur. Zur Abbildung natürlich-sprachlicher Bedeutung auf unscharfe Mengen in Toleranzräumen", Zeitschr. f. Literaturwiss. u. Linguistik 16: 31-47

    Rieger, B. (1977) : "Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems", Zeitschr. f. Literaturwiss. u. Linguistik 27/28: 55-68

    Rieger, B. (1981) : "Feasible Fuzzy Semantics. On Some Problems of How to Handle Word Meaning Empirically" in: Eikmeyer, H.J./""Rieser, H. (Hrsg): Words, Worlds, and Contexts. New Approaches in Word Semantics. Berlin/""New York (de Gruyter), S. 193-209

    Rieger, B. (1985) : "Lexical Relevance and Semantic Disposition. On stereotype word meaning representation in procedural semantics" in: Hoppenbrouwes, G./Seuren, P./Weijters, T. (Hrsg) : Meaning and the Lexikon, Dordrecht (Foris Publications), S. 387-400

    Rieger, B. (1989a) : Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Frankfurt/Bern/New York/Paris (Peter Lang)

    Rieger, B. (1989b) : "Relevance of Meaning, Semantic Dispositions, and Text Coherence. Modelling Reader Expectations from Natural Language Discourse." in: Conte, M.E./Petöfi, J.S./Sözer, E. (Hrsg): Text and Discourse Connectedness. Amsterdam/Philadelphia (John Benjamins), S. 153-173

    Rieger, B. (1990) : "Distributed Semantic Representation of Word Meanings" in: Becker, J. (Hrsg).: WOPPLOT-Proceedings 89. Works on Parallel Processing, Logic, Organization, and Technology. Berlin/Heidelberg/New York (Springer) [im Druck]

    Schank, R.C. (1982) : Dynamic Memory. A theory of reminding and learning in computers and people. Cambridge/London/New York (CUP)

    Wittgenstein, L. (1958) : The Blue and Brown Books. Ed. bzzy R. Rhees, Oxford (Blackwell)

    Wittgenstein, L. (1969) : Über Gewißheit- On Certainty. New Zork/San Francisco/London (Harper & Row)

    Zadeh, L.A. (1965) : "Fuzzy Sets", Information and Control 8: 338-353

    Zadeh, L.A. (1971) : "Quantitative Fuzzy Semantics", Information Science 3: 159-176