[Erschienen in: Friemel, H.J./Müller-Schönberg, G./Schütt, A. (Hrsg.): Forum '90 - Wissenschaft und Technik. Neue Anwendungen mit Hilfe aktueller Computer Technologien. [Informatik-Fachberichte 259] Berlin/Heidelberg/New York/London/Paris/Tokyo (Springer) 1990, S. 80-104]
One cannot pursue linguistic meanings very far before discovering that words have the meanings they do as a consequence of the ways they are used in sentences. We can think of understanding a sentence as a form of information processing, as if the sentence were a program being fed into a computer. A listener, if he knows the language, has a variety of mental routines and subroutines that he can call and execute. Our problem is to specify in as much detail as possible what these routines might be, how they could be assembled into plans, how their assembly depends on the contexts in which they are used, what kind of representational system they entail, how they might relate to one another and to the perceptual world.
Für die linguistischen Theorien und Methoden, die zur Beschreibung und Analyse sprachlich-kommunikativer Phänomene des Sprachvermögens (der Kompetenz) wie der aktuellen Sprachverwendung (der Performanz) entwickelt wurden, ist die kategoriale Sicht noch weitgehend bestimmend. Die einschlägigen Modellbildungen gehen davon aus, daß sprachliche Einheiten - auf welcher der möglichen (phonologisch, morphologisch, syntaktisch, semantisch, pragmatisch bestimmten) Ebenen ihrer Beschreibung auch immer - diskret, invariant, qualitativ unterschiedlich, konjunktiv definierbar und aus atomaren Bausteinen aufgebaut sind. Sie scheinen damit im Prinzip genau denjenigen Grundstrukturen zu entsprechen, deren wir uns bedienen, wenn immer wir Sätze produzieren und verstehen.
Die Zugehörigkeit solcher Einheiten zu Kategorien bzw. relationale Verknüpfungen dieser Kategorien untereinander wurden daher auch weitgehend durch binär entscheidbare Regeln streng deterministischer Art repräsentiert. Diese können Regularitäten kontinuierlicher Übergänge von bestimmt angebbaren zu nur mehr möglichen oder wahrscheinlichen Zugehörigkeiten nicht abbilden. Sie erweisen sich folglich als ungeeignet, Erscheinungen gerade jenes Bereichs adäquat zu erfassen, der seit etwa Mitte der 70er Jahre unter Begriffen wie sprachlicher Variation bzw. Variabilität einerseits, unter semantischer Unschärfe oder Vagheit andererseits im Rahmen eines nicht mehr auf die Untersuchungseinheit 'Satz' fixierten sprachwissenschaftlichen Forschungsinteresses gerückt ist und sich seither als Textlinguistik etabliert hat. Dabei handelt es sich einmal um den - durch individuelle, situative, soziale, edukative, historische, etc. Einflüsse hervorgebrachten - Bereich möglicher Varianten, die bestenfalls als Abweichungen jener starren Regelsysteme erschienen, welche sich erst durch regide Reduktion der Vielfalt performativen Sprachgebrauchs hatten formulieren lassen. Zum anderen geht es um die für alle semiotischen Ebenen natürlichsprachlicher Zeichen- und Symbolkonstitution charakteristischen formalen Unschärfen und Ungenauigkeiten, die für ein kompetentes Verstehen jeder - nicht nur für die im engeren Sinne linguistisch-semantische - Bedeutung konstitutiv genannt werden müssen.
Beide, Variabilität und Vagheit von Bedeutungen erscheinen so als diejenigen Eigenschaften der natürlichen Sprache, deren möglicherweise konstitutive Funktion innerhalb der und für die kommunikativen Interaktionen eine Ausklammerung oder bloß marginale Berücksichtigung nicht nur nicht erlaubt, sondern geradezu fordert, diese Eigenschaften sowohl formal wie auch empirisch zur Grundlage einer performanz-orientierten Linguistik zu machen. Sie können daher als entscheidend für die Lösung der anstehenden Probleme lexikalisch-semantischer Analyse von Bedeutungen in Texten sowie der Repräsentation und Modifikation des in ihnen vermittelten Wissens gelten. Diese Eigenschaften, die - nach einigen frühen Ansätzen im 19.Jahrhundert - Gegenstand einer ersten philosophisch akzentuierten Phase intensiveren Studiums schon während der Zwanziger und Dreißiger Jahre unseres Jahrhunderts waren, wurden erst mit dem Erscheinen der mathematischen Theorie der unscharfen Mengen (fuzzy set theory) als ein auch linguistisch interessanter Phänomenbereich erkannt, welcher in der Folge zu einem übergreifenden Neuansatz führte. Ausgehend von Zadehs grundlegenden Ideen und den daraus sich entwi"ckelnden Modellbildungen, stehen inzwischen Notationen bereit, die es möglich erscheinen lassen, den semiotischen Zusammenhang der Bedeutungskonstitution und Zeichenverwendung als Zusammenhang der numerischen Analyse sprachlichen Materials, der formalen Abbildung seiner Strukturen und der prozeduralen Darstellung ihrer Veränderbarkeit zu modellieren.
Im Unterschied zur klassischen oder scharfen (crisp) Mengentheorie, in der ein Individuum alternativ im Hinblick auf eine Menge entweder Element ist oder nicht, kann man in der neuen Theorie die Zugehörigkeit eines Individuums zu einer deswegen unscharf genannten Menge graduell angeben. Das geschieht vermöge der charakteristischen Funktion mA(x), die für ein Element x der Menge A nicht nur - wie im Sinne der klassischen Mengen - die Werte 0 (für nicht-zugehörig) oder 1 (für zugehörig) annehmen kann, sondern auch jeden beliebigen anderen Wert zwischen 0 und 1, wobei etwa mA(x) = 0.2 eine geringere Zugehörigkeit des Elements x zur Menge A anzeigt, als mA(x) = 0.8.
Allgemein wird eine unscharfe Teilmenge A von X charakterisiert durch die Zugehörigkeitsfunktion
Diese Definitionen reduzieren sich auf die für klassische Mengen, wenn man die graduellen Werte der kontinuierlichen Zugehörigkeitsfunktion auf die einzig zulässigen binären Werte 0 und 1 der diskreten charakteristischen Funktion einschränkt.
Damit werden auch solche Gegenstandsbereiche im Prinzip mengentheoretisch erfaßbar, deren fließende Übergänge oder mangelnde Abgrenzbarkeit - ob nun aus unvollständiger Kenntnis ihrer Gegebenheit oder aufgrund ihrer besonderen Eigenschaften - als Hauptcharakteristika ihrer Verschwommenheit und Vagheit eine exaktwissenschaftliche, empirisch-quantitative Behandlung bisher verhinderte.
Greift man etwa aus dieser Vielzahl solcher charakterisierenden Dimensionen nur das Motorvolumen heraus, um die Zugehörigkeit eines Wagentyps zur Mittelklasse aufgrund seines Hubraums zu bewerten, so liefe dies auf ein Urteil über die größere oder kleinere Entsprechung mit den für einen Mittelklassewagen typischen Zylindervolumina hinaus, was - je nach Ähnlichkeit mit dem hierbei herangezogenen Stereotyp bzw. Prototyp - zu unterschiedlichen, den verschiedenen Wagentypen entsprechenden numerischen Werten führt. Beispielsweise würde einem Fiat 500 in dieser Menge M der Mittelklassewagen - wenn überhaupt - ein äußerst geringer Zugehörigkeitswert deshalb zukommen müssen, weil er als ein ausgesprochener Kleinwagen gilt, dessen (hier subjektiv vorgenommene) Bewertung etwa einen Wert von 0.0 ergeben möge. Einem VW-Golf, der zumindest seinem Motorvolumen nach beinahe schon ein Mittelklassewagen ist, käme ein deutlich höherer Wert, etwa 0.5 zu, ein Opel-Rekord erreichte als typischer Mittelklassewagen den Wert 1.0, ein Mercedes-Benz mit deutlicher Tendenz zur Luxusklasse bekäme wiederum einen deutlich niedrigeren Wert, etwa 0.3, und einem Rolls-Royce, der als klassische Luxuslimousine gilt, könnte deshalb auch nur ein Zugehörigkeitswert von 0.0 zur unscharfen Menge M der Mittelklassewagen zugeschrieben werden.
Trägt man nun den Individuenbereich X der Einfachheit halber als Skala - nach kontinuierlich anwachsenden Hubraumvolumina geordnet - von links nach rechts auf der Abszisse und die einzelnen den verschiedenen Fahrzeugtypen (subjektiv) zugeschriebenen Zugehörigkeitswerte mA(x) auf der Ordinate ab, so ergibt die unscharfe Menge M eine Kurve (Abb. 1), die als graphische Darstellung der (subjektiv) referenziellen Bedeutung des (eindimensional) vagen Begriffs "Mittelklassewagen" über X gelten kann.
Als Zadeh (1971) sein Konzept der unscharfen Mengen erstmals zur Explikation linguistischer Bedeutungsphänomene der natürlichen Sprache anwandte, bewegte er sich zunächst im Rahmen strikt referenztheoretischer Modellvorstellungen. Danach läßt sich die Vagheit eines natürlichsprachlichen Ausdrucks folgerichtig als Name einer solchen Klasse von Entitäten erklären, deren Extension eine unscharfe Teilmenge aller möglichen Denotate bildet, auf die der Ausdruck referiert.
In referenzsemantischem Sinne läßt sich nun die Bedeutung eines Terms einer Sprache als jene Beziehungstruktur verstehen, durch die eine Korrespondenz hergestellt wird zwischen Ausdrücken x in T und (möglicherweise unscharfen) Mengen M(x) in U. Zumindest für natürliche Sprachen erscheint diese Korrespondenz aber als eine nicht-eindeutige Beziehung. Sie wird deshalb formal eingeführt als eine unscharfe binäre Relation L, die sich über die Zugehörigkeitsfunktion
betrachtet man ein bestimmtes Element x¢ aus T, so stellt die unscharfe Relation L die Beziehung zwischen diesem sprachlichen Ausdruck x¢ und einer unscharfen Teilmenge M(x¢) in U her, die seine (referenzielle) Bedeutung ausmacht. Diese wird erklärt über die auf x¢ eingeschränkte unscharfe Relation L welche die Zugehörigkeitswerte mM(x¢)(zj) jeden Objektpunktes zj aus U zur unscharfen Menge M(x¢) liefert betrachtet man umgekehrt ein bestimmtes Element z¢ aus U, dann stellt die inverse unscharfe Relation L-1 eine Beziehung zwischen diesem Objektpunkt z¢ und einer unscharfen Teilmenge D(z¢) in T her, die seinen Begriff als Kennzeichnung der für ihn konstitutiven (sprachlichen) Komponenten beschreibt. Diese Beschreibung wird erklärt über die auf z¢ eingeschränkte inverse unscharfe Relation L-1 welche die Zugehörigkeitswerte D(z¢)(xi) jeden Terms xi in T zur unscharfen Menge D(z¢) liefert
Zadeh nennt D(z¢) unscharfe Deskriptormenge ( descriptor set), weil sie geeignet ist, für jeden Term xi in T den jeweiligen Grad zu spezifizieren, mit dem er zur Beschreibung eines bestimmten Objekts oder Begriffs z¢ in U beiträgt.
In summary, a language, L, is a fuzzy relation from T to U characterized by a membership function mL(xi,zj). As a relation, L associates with each term x in T its meaning, M(x), which is a fuzzy set in U defined by mM(x)(zj) = mL(x,zj). Furthermore, L associates with each element z in U a fuzzy descriptor set D(z), defined by mD(z)(xi) = mL(xi,z).
So kann die Synonymie zweier Terme x,x¢ Î T über die Gleichheit der zwei ihre referenzielle Bedeutung repräsentierenden unscharfen Teilmengen M(x) und M(x¢) aus U erklärt werden
Analog dazu kann partielle Synonymie über ein Ähnlichkeitsmaß definiert werden, das einen - je nach Geltungsbereich unterschiedlichen - Schwellenwert s einführt
Hyperonymie eines Ausdrucks x relativ zu x¢ bzw. Hyponymie eines Ausdrucks x¢ relativ zu x läßt sich als echtes Enthaltensein der ihre Bedeutungen repräsentierenden unscharfen Teilmengen bestimmen
Für die Generierung neuer Bedeutungen, welche mögliche aber (noch) nicht lexikalisierte unscharfe Teilmengen in U denotieren, lassen sich die den Komplement-, Durchschnitts- und Vereinigungsmengen entsprechenden Operationen ansetzen.
Hieraus hat sich erst in den letzten Jahren eine Diskussion ergeben, in der die von Zadeh ursprünglich vorgeschlagenen Definitionen sowohl auf der Grundlage experimenteller Forschungen als auch formal-theoretischer Erwägungen vielfach kritisiert und modifiziert wurden.
Die Einführung des Konzepts der unscharfen Mengen erfüllt die Forderung nach adäquateren Beschreibungen vager Bedeutungen natürlichsprachlicher Wörter und Ausdrücke nur zum Teil. Die Möglichkeit einer sowohl formal befriedigenden als auch empirisch erfolgreichen Rekonstruktion hängt nämlich entscheidend ab
von der Bekanntheit oder Zugänglichkeit der Struktur der jeweils zugrundegelegten Individuenbereiche im Diskursuniversum U, die als mögliche Deskriptormengen fungieren können (z.B. Skala der Motorvolumina), über der ein Konzept eines Ausdrucks in T als die unscharfe Menge (z.B. Mittelklassewagen) erklärt wird, und von der Verfügbarkeit oder Entwi"cklung von Verfahren, aufgrund deren einem Individuum (z.B. Golf = 0.5) ein Zugehörigkeitswert in bezug auf die zu definierende unscharfe Menge (z.B. Mittelklassewagen) zugeschrieben wird.
Beides, die Bestimmung des Individuenbereichs als Deskriptormenge wie das Verfahren zur Ermittlung von Zugehörigkeitswerten wird in referenzsemantischen Modellierungen der Bedeutungsunschärfe nicht systematisch, sondern weitgehend introspektiv und/oder ad hoc vorgenommen. In strukturalen Bedeutungsmodellen, in denen der Prozeß der Bedeutungskonstitution die Grundlage der Analyse wie der Repräsentation bildet, kann dagegen eine systematische und zeichentheoretisch motivierte Lösung angeboten werden. Sie basiert auf dem - die informationelle Bedeutung lexikalischer Einheiten konstituierenden - Zusammenhang von Zeicheninventar, Anwendungsregularität und kommunikativem Kon- und Kotext, von dem auch Sprecher/Schreiber bzw. Hörer/Leser immer schon Gebrauch machen (müssen), wenn sie sprachliche Äußerungen produzieren bzw. verstehen (wollen).
Da aber die durch die Zugehörigkeitsfunktion mL definierte unscharfe Relation L als Vor- oder Definitionsbereich nicht nur die Menge der sprachlichen Ausdrücke T, sondern als Nach- oder Bildbereich auch die Menge der Objekte und/oder Prozesse enthält, welche durch diese Ausdrücke im Referenzuniversum U denotiert werden, müßten schon beide Mengen, T und U, zugänglich sein, wenn mL eine auch auf natürlichsprachliche Texte tatsächlich anwendbare empirische Operation soll zugeordnet werden können. Denn um die Zugehörigkeitsgrade der Elemente einer unscharfen Menge oder Relation zu bestimmen, bedarf es sowohl relevanter, empirisch zugänglicher Daten, die diese Mengen definitionsgemäß ausmachen, als auch operabler Verfahren, die aus solchen Daten die numerischen Werte zu berechnen gestatten. Beides fehlt den referenssematischen Modellen in bezug auf die Struktur der Mengen T und U ebenso wie auf das Verfahren zur Bestimmung von mL (Abb. 3).
Hieraus ergibt sich denn auch die methodologische Begründung für die Abwendung von referenziellen Ansätzen im Rahmen lexikalisch-semantischer Analysen und für die Hinwendung zu einer strukturalen Modellbildung. Während erstere neben dem Zeicheninventar und den Regularitäten seines Gebrauchs durch die Verwender auch das Referenzuniversum (universe of discourse) als strukturierte Menge nicht-sprachlicher Gegebenheiten (Realität) schon voraussetzen müssen, unternimmt es die letztere, eine in sprachlichen Äußerungen tatsächlicher Sprecher/Hörer in konkreten Kommunikationssituationen geleistete (durchaus nicht immer einheitliche) Strukturierung von (nur mehr potentiell) außersprachlichem Referenzuniversum (Realität) als Resultat und Folge der regelgeleiteten Verwendung des Zeicheninventars zu analysieren und zu beschreiben. Eben diese Leistung bildet aber das Fundament des hier entwickelten Ansatzes, allerdings nicht so, als wäre der semiotische Prozeß der Bedeutungskonstitution selber schon simulativ repräsentierbar, aber doch insofern, als die in ihm vermuteten prozeduralen Prinzipien zur Grundlage der empirischen Analyse und formalen Beschreibung des strukturalen Systemzusammenhangs lexikalisch-semantischer Gegebenheiten gemacht werden sollen.
Der direkte Rückgriff auf die in kommunikativen Akten spontaner Sprachproduktion entstandenen Äußerungen scheint daher noch am ehesten ein verläßliches Datenmaterial liefern zu können. Anders als erfragte Urteile und Auskünfte von Sprechern über deren eigene (vermeintliche) Sprachverwendung in (vorgestellten) Kommunikationssituationen bilden die in tatsächlicher Kommunikation produzierten Sprachäußerungen eine objektivere Grundlage zur Ermittlung jener Regularitäten, die wirkliche Sprecher/Schreiber bzw. Hörer/Leser befolgen und/oder neu einführen, wenn sie in natürlichsprachlichen Texten Bedeutungen intendieren und verstehen. Und da eine der wenigen unter Semantikern nahezu unkontroversen Annahmen die ist, daß natürlichsprachliche Bedeutungen sich im Sprachgebrauch konstituieren, für den natürlichsprachliche Texte ein Beleg sind, sollten eben solche Texte auch die benötigten Daten liefern können, welche zudem empirisch zugänglich, d.h. intersubjektiv überprüfbar sind.
Anders als bei den herkömmlichen, durch Introspektion gewonnen Daten zur semantischen Beschreibung von Wortbedeutungen ist der empirische Ansatz auf die algorithmische Analyse von Texten gestützt, die von wirklichen Sprechern/""Schreibern in realen Situationen tatsächlich vollzogener (oder doch intendierter) Kommunikation über bestimmte Sachgebiete produziert wurden. Hierbei wurde schon früher unter Begriffsbildungen wie lexikalischer Relevanz und semantischen Dispositionen ein System zur konzeptbasierten Bedeutungsrepräsentation entwickelt, das aufgrund quantitativer Analysen und numerischer Präzisierung von in natürlichsprachlichen Texten co-okkurrierenden Wörtern nicht nur deren syntagmatische und paradigmatische Einschränkungen bestimmt, sondern diese constraints gleichzeitig zur Modellierung der Bedeutungskonstitution benutzt.
Dabei kann bei gegebenen Elementen von der Ausbildung von Regularitäten (des Gebrauchs) über Unterschiedlichkeiten (der Verwendungsweisen) zur Rekonstruktion von Zusammenhängen (der Struktur) und Neudefinition von Einheiten (des Systems) fortgeschritten werden mit dem Ziel, Bedeutung eines Lexikoneintrags formal-theoretisch zu erklären und empirisch-quantitativ zu bestimmen als Funktion aller Unterschiede aller seiner Verwendungsregularitäten zu sämtlichen anderen Einheiten des verwendeten Vokabulars in den analysierten Texten eines Gegenstandsbereichs.
Während die Darstellung vager Bedeutungen, die auf der Theorie der unscharfen Mengen und referenziell-semantischer Modellbildung basiert, bisher über keine adäquate Methode zur Bestimmung von Zugehörigkeitswerten verfügte, bietet ein struktural-semantisches Modell eine solche Möglichkeit der empirischen Ermittlung unscharfer (Teil-)Mengen des Vokabulars zur Darstellung der Bedeutungszusammenhänge von Wörtern.
Beide Systeme, C und S, werden dabei nicht nur anhand des Gebrauchs definiert, den wirkliche Sprecher/Schreiber in tatsächlichen Texten zum Zweck der Kommunikation über bestimmte Gegenstandsbereiche und in bestimmten Anwendungskontexten von V machen, sondern diese Systemzusammenhänge lassen sich aufgrund zuordenbarer Meßvorschriften auch quantitativ-"ëmpirisch bestimmen.
Während man daher C informell als eine die Verwendungsregularitäten der Wörter aus V repräsentierende strukturierte Ansammlung von Corpuspunkten kennzeichnen kann, die es erlaubt, mit jeder durch Verwendung von Elementen von V ausdrückbaren Bedeutung eine unscharfe Teilmenge von Elementen von C zu identifizieren, läßt sich S etwa charakterisieren als ein durch die Unterschiede dieser unscharfen Mengen bestimmtes System von Bedeutungspunkten, die ihrerseits je unscharfe Mengen von Corpuspunkten repräsentieren und den Zusammenhang der lexikalisch-semantischen Struktur des Vokabulars anhand des Gebrauchs deutlich werden lassen, den Sprachverwender von ihm in Texten machen. Die Definition und Erklärung der Corpuspunkte und der Bedeutungspunkte lassen sich formal als eine zweistufige Abbildung des Vokabulars, seines Gebrauchs in Texten und der sich daraus ergebenden Bedeutungsdifferenzierungen anhand zweier Abstraktionsschritte entwickeln. Sie entsprechen den syntagmatischen und paradigmatischen Einschränkungen der beobachtbaren Lexemkombinationen in einer Vielzahl von Texten. Diese Einschränkungen (Constraints) lassen sich in Form von mengentheoretischen Restriktionen rekonstruieren, denen überdies Maßfunktionen zugeordnet werden können, welche die Entstehung von Bedeutung als Funktion des Gebrauchs von Wörtern in Texten über deren numerische Analyse quasi zu simulieren gestatten.
Als Resultat dieses zweifachen Abstraktionsschritts (Tab. 1) läßt sich die Lage und Position jedes Bedeutungspunkts im semantischen Raum áS,¶ñ auch als Funktion aller Unterschiede (d- oder Distanzwerte) aller Verwendungsregularitäten (a- oder Korrelationswerte) deuten, die sich für jedes Wort zu sämtlichen anderen aus den analysierten Texten ergeben und in Form einer Komposition der beiden Abbildungsrelationen d | yn ° a | xn (Abb. ) berechnet werden können. Als Zuordnung von Wörtern (xi Î V) zu ihren Bedeutungspunkten (zi Î S) beruht diese Abbildung auf einer Operationalisierung der syntagmatischen und paradigmatischen Restriktionen, denen kohärente Folgen von Wörtern in Texten pragmatisch homogener Corpora unterliegen, und deren numerische Spezifizierung es erst erlaubt, sie als Komposition der beiden restringierten Relationen d | y und a | x nicht nur formal sondern auch empirisch zu bestimmen.
Durch den modifizierten Korrelationskoeffizienten ist dabei eine erste Abbildungsfunktion a gegeben. Als eine unscharfe, binäre Relation kann a: V ×V ® I auf xn Î V eingeschränkt werden, was zu einer scharfen Abbildung führt
Als eine unscharfe, binäre Relation kann nun - wie in (30) - auch d: C ×C ® I auf yn Î C eingeschränkt werden, was wiederum zu einer scharfen Abbildung führt
Durch die Identifikation der so repräsentierten abstrakten Entitäten zn Î S mit numerisch spezifizierten Elementen eines potentiellen Paradigmas, läßt sich die Menge der möglichen Kombinationen S ×S strukturell einschränken und gewichten, ohne hierzu (direkt oder indirekt) auf eine vor-strukturierte, System-externe Welt zurückgreifen zu müssen. Durch Einführung einer - aus Einfachheitsgründen - wiederum Euclidschen Metrik
Während diese Identifikation auf der vom Entwickler bzw. Benutzer schon verstandenen Bedeutung des natürlichsprachlichen Ausdrucks beruht - und damit von Referenzsemantiken schon vorausgesetzt nicht aber modelliert wird - leistet das hier vorgestellte Modell einer strukturalen Bedeutungsrepäsentation genau dies: den Prozeß der Bedeutungskonstitution selbst durch den TextanalyseAlgorithmus des Systems zu modellieren. Er liefert die Systeminterne Repräsentation in Form von sprachlich gekennzeichneten Bedeutungspunkten, die nach Lage und Konfigurationen im semantischen Raum je nach textueller Umgebung, in der das System arbeitet, automatisch ermittelt, aufgebaut, angewandt und verändert werden. Das geschieht im wesentlichen durch die hier entwickelte zweistufige, kompositorische Abbildung des Vokabulars auf sich selbst. Sie läßt sich - ohne dabei auf das Wort- und Welt-Wissen (die semantische Kompetenz) von Systementwicklern oder Testpersonen zurückgreifen zu müssen-empirisch überprüfen anhand der Verwendungsregularitäten von Wörtern, wie sie von wirklichen Sprechern/""Schreibern in natürlichsprachlichen Texten zum Zweck tatsächlicher (oder zumindest intendierter) Kommunikation (kommunikative Performanz) befolgt und/oder auch verändert werden.
Auf diese Weise wird durch den Analysealgorithmus modelliert, was - als Verarbeitung einer Vielzahl pragmatisch-homogener natürlichsprachlicher Texte - die Fähigkeit eines informationsverarbeitenden Systems ausmacht, nämlich vermöge der ihm jeweils verfügbaren strukturellen Information sowohl seine (textuelle) Umgebung zu erkennen und aufgrund seines (semantischen) Wissen zu interpretieren, als auch dieses eigene (semantische) Wissen zu repräsentieren und aufgrund veränderter (textueller) Umgebung zu modifizieren. Beides zusammen - obwohl bisher auf eine vor-prädikative, nicht-propositionale, assoziative Bedeutungsebene beschränkt-läßt das Verstehen eines solchen informationsverarbeitenden Systems als Prozeß seiner Bedeutungskonstitution erscheinen.
Anhand verschiedener Corpora natürlichsprachlicher Texte und der daraus berechneten semantischen Räume wurde überprüft, ob das entwickelte und angewandte Analyse- und Repräsentationsverfahren tatsächlich die über Wortverwendungen in Texten konstituierten semantischen Zusammenhänge zu ermitteln vermag. Hierzu wurden zum einen die semantischen Umgebungen E(zi,r) derjenigen Bedeutungspunkte z berechnet und aufgelistet, die sich in der topologischen Nachbarschaften von sowohl einzelnen Bedeutungspunkten zi als auch von durch konjunktive und adjunktive und/oder-Verknüpfungen entstandenen Bedeutungspunkten ziÙj (20) bzw. ziÚj (21) finden. Zum anderen konnte anhand diverser, die Punktverteilungen in áS,¶ñ untersuchender Clusteranalysen, welche auf der Grundlage einzig numerisch-statistischer Kriterien der Positionen von Punkten im semantischen Raum Ähnlichkeitsklassen von Bedeutungspunkten ermitteln lassen, der Beleg erbracht werden, daß sich eben jene Bedeutungspunkte in Cluster versammeln, die auch intuitiv semantisch ähnliche Bedeutungen repräsentieren. Es ließ sich derart nachweisen, daß das vorgelegte, einzig auf der Analyse von Wortverwendungsweisen in natürlichsprachlichen Texten basierende automatische Verfahren zur Repräsentation von Wortbedeutungen und ihrer Beziehungen in pragmatisch homogenen Textcorpora zum Aufweis semantischer Zusammenhänge führt, die ihrerseits als Basis des in und durch Texte vermittelten (lexikalisierten, nicht-propositionalen) Wissens gelten können.
Folgt man einer eher semiotischen Auffassung von Bedeutungskonstitution, dann könnte die bisher dargelegte Struktur des semantischen Raums als Basis und Kern für ein mehrstufiges System zum Erwerb und zur Repräsentation (1. Stufe) sowie zur Organisation und Verabeitung (2. Stufe) von lexikalischem Wissen sich erweisen. Seine Mehrstufigkeit besteht im wesentlichen in der Trennung des Darstellungsformats, in welchem die als grundlegend verstandenen Wortbedeutungen als Stereotypen repräsentiert werden, von seiner latenten Ordnungsstruktur, durch welche sich deren konzeptueller Zusammenhang als dispositionelle Dependenzen organisieren. Während ersteres eine weitgehend statische, Distanz-relationale, assoziative Datenstruktur ist, kann letztere als eine Sammlung von Verarbeitungsprozeduren charakterisiert werden, die es nicht nur erlauben, diese Daten nach unterschiedlichen semiotischen Prinzipien unter verschiedenen Aspekten dynamisch und flexible zu organisieren, sondern deren Resultate darber hinaus geeignet erscheinen, auf diese Daten selbst modifizierend zurückzuwirken.
Da der semantische Raum zunächst als eine distanzrelationale Struktur vorliegt, können wohlbekannte algorithmische Suchstrategien nicht unmittelbar eingesetzt werden. Denn sie arbeiten nur auf nicht-ßymmetrischen, relationalen Datenstrukturen, wie sie etwa im Format der gerichteten Graphen in der traditionellen Bedeutungs- und Wissensrepräsentation als semantische Netzwerke geläufig sind. Für die Umwandlung der topologischen Raumstruktur in eine solche Knoten-Zeiger-Struktur kann der semantische Raum als eine Art assoziativer Basisstruktur nurmehr potentieller konzeptueller Zusammenhänge verstanden werden. Bestimmte Prozeduren übernehmen es dabei - je nach Aufgabenstellung, Bedeutung und/oder auslösender Situation - diese Basiskomponenten so zu reorganisieren, daß sie als konzeptuelle Zusammenhänge überhaupt in Erscheinung treten und als Wege oder Leitungsbahnen nachfolgender Verarbeitung zur Verfügung stehen. Was daher zunächst als ein Nachteil der verteilten Bedeutungsrepräsentation im Modell des semantischen Raums erschien, erweist sich nun im Hinblick auf die Modellierung der dynamischen Veränderbarkeit von begrifflich-konzeptuellen Zusammenhangsstrukturen als ein Vorteil gegenüber den traditionellen symbolischen Repräsentationsformaten. Ungleich den vorgegebenen, präfixierten und unelastischen Strukturen semantischer Netze zur Modellierung prädikativen Wissens, können nicht-prädikative Bedeutungsrelationen als bloße Dispositionen konzeptueller Zusammenhänge aus lexikalischer Relevanz und semantischer Dependenz abgeleitet werden. Da sie in hohem Maße von situativen Bedingungen bestimmt sind, lassen sie sich besser prozedural modellieren, und zwar durch generative Algorithmen, die derartige dispositionellen Dependenzstrukturen (DDS) aufgrund sich verändernder Basisdaten immer erst dann induzieren, wenn sie benötigt werden. Das wird erreicht durch Aufruf einer rekursiv definierten Prozedur, die Hierarchien von Bedeutungspunkten als Baumgraphen unter bestimmten Aspekten generiert, je nach Dependenz und Relevanz der darin repräsentierten Bedeutungszusammenhänge.
So wurde beispielsweise ein Algorithmus gefunden, der auf den Daten des semantischen Raums operiert und dessen konzeptuell verbundene Elemente, d.h. unscharfe Teilmengen von benachbarten Bedeutungspunkten, als Baumstrukturen semantisch abhängiger Bedeutungen reorganisiert. Durch diesen die Daten des semantischen Raums abarbeitenden Minimal-Spanning-Tree -Algorithmus werden die unter einem bestimmten inhaltlichen Aspekt (Wurzelknoten) jeweils gefundenen stereotypischen Zusammenhänge (Nachfolgerknoten) in einem Dependenz-Baum abnehmender konzeptueller Relevanz darstellt.
Der rekursiv aufgebaute Algorithmus ermittelt dabei - je nach Lage des Bedeutungspunkts, von dem er gestartet wird und je nach Größe der Distanzen zwischen den Bedeutungspunkten, die er abarbeitet - ein Fragment des im semantischen Raum repräsentierten lexikalisierten Wissens. Zwischen dessen Elementen wird dabei eine reflexive, nicht-symmetrische Abhängigkeitsrelation induziert, die den Baumgraph zu generieren erlaubt. Dessen Knoten bilden jene Bedeutungspunkte, die der Algorithmus nach abnehmender Relevanz zum Wurzelknoten bemißt (Kriterialitätswerte) und anordnet (Dependenzrelation). Diese Bäume liefern die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen (Abb. 1). Sie bilden die perspektivischen, je nach inhaltlichem Aspekt varierenden Zusammenhängen zwischen Bedeutungspunkten als konzeptuelle Komponenten auf eine Modellstruktur ab, welche die - je nach Aspekt - unterschiedliche, konzeptuelle Relevanz gleicher Lexeme in verschiedenen Bedeutungs- und/oder Interpretationszusammenhängen als Modelleigenschaft abzulesen gestattet.
Hierzu wurde eine Prozedur entwickelt und getestet, die gleichzeitig auf zwei (oder mehr) DDS -Bäumen in einer Art (simulierter) Parallelverarbeitung operiert. Der Algorithmus wird dabei durch Eingabe der Namen von zwei (oder mehr) Bedeutungspunkten gestartet, die als quasi konzeptuelle Prämissen fungieren. Die ihnen entsprechenden DDS -Bäume werden aus den Bedeutungspunkten des semantischen Raums Knoten für Knoten generiert, während die eigentliche Folgerungsprozedur diese beiden (oder mehr) Teilbäume (breadth-first, depth-first oder nach höchster Kriterialität) abarbeitet, wobei jeder abgearbeitete Knoten und der ihm entsprechende Bedeutungspunkt markiert wird. Die Verarbeitungprozedur kommt zu einem Halt, sobald ein schon markierter Bedeutungspunkt angetroffen wird, dessen entsprechender Knoten im Baum einer (der) anderen Prämisse(n) schon aktiviert wurde. Er gilt als konzeptuelle Konklusion, von dem aus die Pfade zurück zu den jeweiligen konzeptuellen Prämissen die inhalts-semantischen Folgerungsschritte erkennen lassen, die - von den Startknoten aus - entlang der hierzu aktivierten semantischen Dependenzen (wie in Tab. 3) zu dem betreffenden analogen oder semantischen Schluß geführt haben.
Auf der Basis des bisher erarbeiteten Modells zur (algorithmischen) Analyse und (verteilten) Repräsentation (vor-prädikativer) Bedeutungen in Texten bieten sich die besonderen (formalen und inhaltlichen) Modelleigenschaften an, die lexikalisch-"ßemantischen Beziehungen als Teil des in natürlichsprachlichen Texten vermittelten, konzeptuellen Wissens mit denjenigen Prozeduren zu identifizieren, die - auf einer Menge von strukturierten Basisdaten (Textkorpora) operierend - eben diese Prozeduren als (dynamisch) sich ändernde, variable Verarbeitungsresultate zu liefern vermögen.
Anders als in den (propositionalen) Formaten zur (prädikativen) Bedeutungs- und Wissensrepräsentation der bisherigen KI-Forschung werden die vorgestellten Prozeduren als Analysealgorithmen unterschiedlicher (z.T. noch zu testender) Aufgabenstellungen und Operationscharakteristiken weiterzuentwickeln sein,
welche semantische Beziehungen zwischen Konzepten nicht voraussetzen müssen, sondern diese induktiv aus den Strukturen der analysierten Corpora als Funktion des Gebrauchs von Wörtern in Texten zu berechnen gestatten; welche - durch die Trennung von Basisstruktur und den auf dieser Basis operierenden Prozeduren - es erlauben, semantische Beziehungen zwischen den stereotypischen Repräsentationen (Bedeutungspunkten im semantischen Raum) von deren - je nach Aspekt, Perspektive, Kontext-variablen konzeptuellen Abhängigkeiten untereinander zu unterscheiden; welche - auf der Grundlage dieser konzeptuellen Hierarchien und der sie aktivierenden Prozeduren - assoziativ-analoges im Unterschied zu deduktiv-logischem Schließen als semantische Inferenzen modellieren; welche schließlich - durch ihre teils rekursiven, teils rückbezüglichen Strukturen - die Resultate solcher Verarbeitungsprozesse eben diesen Verarbeitungsprozessen zu unterwerfen vermögen.
Bailey, C.J./Shuy, R. (1973) (Hrsg) : New Ways of Analysing Variation in English. Washinton, DC (Georgetown UP)
Collins, A.M./Loftus, E.F. (1975) : "A Spreading Activation Theory of Semantic Processing", Psychological Review, 82, 6: 407-428
Klein, W. (1976) : "Einige wesentliche Eigenschaften natürlicher Sprachen und ihre Bedeutung für die linguistische Theorie", Zeitschr. f. Literaturwiss. u. Linguistik 23/24: 11-31
Labov, W. (1973) : "The Boundaries of Words and their Meaning" in: Bailey, C.J./""Shuy, R.W. (Hrsg) : New Ways of Analyzing Variation in English. Washington (Georgetown UP), S. 340-373; dtsch.: in Labov, W.: Sprache im sozialen Kontext, Bd.1. Kronberg/Ts. (Scriptor) 1976, S. 223-254
Miller, G.A./Johnson-Laird, P.N. (1976) : Language and Perception. Cambridge, U.K. (CUP)
Prim, R.C. (1957) : "Shortest connection networks and some generalizations", Bell Systems Technical Journal 36: 1389-1401
Quillian, M.R. (1966) : Semantic Memory (PhD-Diss) Carnegie Inst. of Technology; Teilabdruck in: Minsky (1968), S. 216-270
Rieger, B. (1974) : "Eine 'tolerante' Lexikonstruktur. Zur Abbildung natürlich-sprachlicher Bedeutung auf unscharfe Mengen in Toleranzräumen", Zeitschr. f. Literaturwiss. u. Linguistik 16: 31-47
Rieger, B. (1977) : "Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems", Zeitschr. f. Literaturwiss. u. Linguistik 27/28: 55-68
Rieger, B. (1981) : "Feasible Fuzzy Semantics. On Some Problems of How to Handle Word Meaning Empirically" in: Eikmeyer, H.J./""Rieser, H. (Hrsg): Words, Worlds, and Contexts. New Approaches in Word Semantics. Berlin/""New York (de Gruyter), S. 193-209
Rieger, B. (1985) : "Lexical Relevance and Semantic Disposition. On stereotype word meaning representation in procedural semantics" in: Hoppenbrouwes, G./Seuren, P./Weijters, T. (Hrsg) : Meaning and the Lexikon, Dordrecht (Foris Publications), S. 387-400
Rieger, B. (1989a) : Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Frankfurt/Bern/New York/Paris (Peter Lang)
Rieger, B. (1989b) : "Relevance of Meaning, Semantic Dispositions, and Text Coherence. Modelling Reader Expectations from Natural Language Discourse." in: Conte, M.E./Petöfi, J.S./Sözer, E. (Hrsg): Text and Discourse Connectedness. Amsterdam/Philadelphia (John Benjamins), S. 153-173
Rieger, B. (1990) : "Distributed Semantic Representation of Word Meanings" in: Becker, J. (Hrsg).: WOPPLOT-Proceedings 89. Works on Parallel Processing, Logic, Organization, and Technology. Berlin/Heidelberg/New York (Springer) [im Druck]
Schank, R.C. (1982) : Dynamic Memory. A theory of reminding and learning in computers and people. Cambridge/London/New York (CUP)
Wittgenstein, L. (1958) : The Blue and Brown Books. Ed. bzzy R. Rhees, Oxford (Blackwell)
Wittgenstein, L. (1969) : Über Gewißheit- On Certainty. New Zork/San Francisco/London (Harper & Row)
Zadeh, L.A. (1965) : "Fuzzy Sets", Information and Control 8: 338-353
Zadeh, L.A. (1971) : "Quantitative Fuzzy Semantics", Information Science 3: 159-176