Bedeutungskonstitution Bedeutungskonstitution
und semantische Granaluation

Burghard Rieger
Lehrstuhl für Computerlinguistik
Fachbereich II: Linguistische Datenverarbeitung
Universität Trier

Abstrakt

Die Konzeption der semiotischen, kognitiven Informationsverarbeitung (SCIP) setzt eine situierte Verwendung natürlichsprachlicher Ausdrücke zu kommunikativen Zwecken voraus. Natürliche Sprachen sind nicht nur durch sie charakterisierende (linguistische) Strukturen ausgezeichnet, welche u.a. Sprachverstehen ermöglichen, sondern sie liefern auch entscheidende Hinweise darauf, wie diese Strukturen konstituiert und als Prozesse ihres Aufbaus, ihrer Aktualisierung und ihrer Veränderung operationalisiert werden können. Diese Prozesse spezifizieren die Zerlegung von Ganzheiten in ihre konstitutiven Teile (Granulation), die Zusammenstellung oder Komposition von Teilen zu Ganzheiten (Organisation) und eine semiotische Form von Ursache-Wirkung-Zusammenhang ( Bedeutungskonstitution). Im Rahmen der Zadeh'schen Theorie der Informations-Granulation lassen sich Teile dieser Spezifikationen formal explizieren, prozedural modellieren und algorithmisch realisieren sowohl in ihrer scharfen (crisp) als auch unscharfen (fuzzy) Form der Repräsentation und Verarbeitung sprachlicher Einheiten und Strukturen, die sich ihrerseits als Resultate empirisch-quantitativer Analysen der Regularitäten in großen Mengen pragmatisch homogener Korpora natürlichsprachlicher Texte ergeben. Beispiele unscharfer semantische Granularität, die sich als mit Kontext und Perspektive wechselnde, dynamische Zusammenhangsstruktur von Bedeutungspunkten berechnen läßt, illustrieren diesen Teil der Implementation des Systems.

1  Einleitung

Menschen in alltäglichen Situationen sind ständig konfrontiert mit unsicheren, ungenauen, vagen und/oder unvollständigen Informationen, die sie ohne großen Aufwand und in kurzer Zeit offenbar sehr effizient und leicht verarbeiten. Sie leiten daraus wie selbstverständlich ein jeweils plausibles bis optimales Situationsverständnis ab, das sie in die Lage setzt, angemessen zu reagieren, weitgehend vernünftig zu entscheiden und/oder zu handeln1. Angesichts dieser erstaunlichen Eigenschaften der menschlichen Informationsverarbeitung wird das Ungenügen traditioneller Logiken und ihrer Kategorisierungen offensichtlich, wenn immer sie zur Grundlage der Modellierung solcher Eigenschaften in künstlichen Systemen gemacht werden, um eine effiziente Steuerung und Kontrolle von Maschinen und Robotern zu ermöglichen oder gar ein dem menschlichen kognitiven Vermögen vergleichbares intelligentes  Verhalten zu simulieren2.

Die Entwicklung neuer Theorien und Methoden hat inzwischen realistische Chancen eröffnet, die Kluft zwischen den traditionellen Erklärungsmodellen und ihren Umsetzungen in künstlichen Systemen einerseits und dem offensichtlichen Vermögen des Menschen zu effizientem Problemlösungsverhalten bei ungefähren Kenntnislagen andererseits zu überbrücken. Dabei erweisen sich Zadehs Theorie der unscharfen Mengen (fuzzy set theory - FST) [Zad65] und die unscharfe Logik (fuzzy logic - FL) [Zad75a] mit ihren Weiterentwicklungen als besonders fruchtbar. Sie bieten die Möglichkeit, harte Daten wissenschaftlicher Beobachtung der Welt, die meist in Form numerischer Ausdrücke vorliegen, mit sprachlich-symbolischen Ausdrücken dieser Wahrnehmungen in einer Weise zu verbinden, die es erlaubt, die vage Bedeutung von Wörtern als unscharfe Mengen von Elementen der Welt zu interpretieren. Mit FST und FL stehen formal befriedigende Grundlagen und methodologische Prinzipien zur Verfügung, welche die Entwicklung praktikabler Methoden der (wissenschaftlich) präzisen Analyse und Verarbeitung unpräzisen Wissens und seiner Strukturen erlauben, ohne dabei dessen Unschärfen und Vagheiten hinweg präzisieren zu müssen. Das machte beide Theorien - trotz schleppender Rezeption durch die Linguisten - zu erfolgreichen Kandidaten bei der Grundlegung und Neufundierung einer unscharfen Semantik der natürlichen Sprache, die als referenztheoretische [Zad71] und strukturale [Rie74] Bedeutungsanalyse natürlichsprachlicher Strukturen angegangen wurde.
Da wesentliche Teile der Weiterentwicklung des strukturalen Ansatzes und seiner Umsetzung als computerlinguistische Neuorientierung der Semantik im Rahmen dieser Konferenzreihe3 in einem früheren Beitrag [Rie99a] schon ausführlich dargestellt wurden, werden die folgenden Ausführungen zur semantischen Granulation auf dem Hintergrund dieser Darstellung gemacht, auf die hier deshalb ausdrücklich verwiesen wird.

2  Bedeutung als Beschränkung

Wenn man annimmt, daß Bedeutungen sprachlicher Einheiten als Resultate von Prozessen verstanden werden können, die nach dem Grundsatz meaning implies choice Beschränkungsfunktion haben, dann ist zu ihrer Modellierung zunächst zu klären, auf welcher Grundlage welche Wahlmöglichkeiten durch welche Prozesse eingeschränkt werden. Sodann ist - in einem nachfolgenden Überblick - aufzuzeigen, welche Möglichkeiten der Analyse und Repräsentation sich hierzu anbieten.

2.1  Grundlagen (systemtheoretischer Ansatz)

Geht man von einer Theorie informationsverarbeitender Systeme aus, dann können Agenten in situativ spezifizierten Umgebungen diese Grundlage bilden. Als ein kognitiver Agent ist dabei die Summe der Verarbeitungsprozesse definiert, durch die er Informationen seiner Umgebung wahrnimmt, erkennt und so verarbeitet, daß dieser Verarbeitungsprozeß gleichzeitig auch eine Veränderung seines jeweiligen Zustands bewirkt. Für eine prozedurale Modellierung4 sprachverarbeitender kognitiver Prozesse können Agenten dabei zunächst vereinfachend als Programmsysteme (software agents)5 konzipiert werden, die ausschließlich6 natürlichsprachliche Daten ( Eingabe) akzeptieren und in solche Datenstrukturen ( Ausgabe) überführen, die Aufschluß geben können sollen über Inhalte des verarbeiteten Sprachmaterials, welche sie damit repräsentieren. Die Grundhypothese dabei ist, daß derartige Repräsentationen eine - unter anderen mögliche - Form des Verstehens darstellen, die ein Agent realisiert. Für diese Eingabe-Ausgabe-Transformation wird deswegen nicht erwartet werden können (wenigstens zunächst nicht), daß die im Modell realisierten einzelnen Verarbeitungsschritte den kognitiven (Teil-)Prozessen entsprechen, die das sprachverstehende Original (Mensch) auszeichnen. Daß die vorgegebene Strukturiertheit der Eingabedaten - Korpora pragmatisch-homogener Texte als sprachliches Kondensat und Stichprobe7 situierter Kommunikation - dabei nahelegt, sie auch als Repräsentation einer situierten Agent-Umgebung-Relation zu explorieren [Rie96], soll hier immerhin angedeutet werden.

2.2  Wahlmöglichkeiten (qualitative Bestimmung)

Für eine erste Eingrenzung der semiotischen - also auf die Zeichen- und Symbol-basierte Informationsverarbeitung zentrierten - Modellierung kognitiver Prozesse der Bedeutungskonstitution [Rie77a] war schon der Grundgedanke leitend, daß eine wechselseitig sich korrigierende Verbindung formal-theoretischer mit experimentell-simulierender Verfahren nötig sein würde. Es fehlt allerdings bisher eine umfassende Theorie semiotischer Prozesse, die diese Verbindung noch am ehesten in den Stand setzen könnte, natürlichsprachliche Bedeutung als Prozeß zunehmender Einschränkung noch vorhandener Wahlmöglichkeiten 8 zu (re)konstruieren, was überdies mit dem informationstheoretisch-kybernetischen Ansatz [Sha49] nicht nur vereinbar ist, sondern sogar eine gewisse Verallgemeinerung desselben darstellt.
Während jener nämlich zu einer quantitativen Bestimmung von Information als Funktion der Anzahl der ausgeschlossenen Wahlmöglichkeiten Anlaß gab, geht es bei einer semiotischen Verallgemeinerung gerade um den qualitativen Aspekt, d.h. um die [inhaltliche] Frage nach Bedeutung als Funktion jener Wahlmöglichkeiten, die in Abhängigkeit von bestimmten Bedingungen, Voraussetzungen und Umständen überhaupt abgebaut werden können. (Rieger 1977, S.60)

2.2.1  Das läuft auf eine Zweistufigkeit hinaus, welche die (Re-)Konstruktion von Wissensbasen betrifft, die Inhalte nicht mehr symbolisch, sondern nach Struktur und Umfang solcher Wahlmöglichkeiten repräsentieren, und geeignete, auf ihnen operierende Prozeduren vorsehen, die durch relevante Auswahl Struktur und Umfang einschränken und als Ergebnis entsprechend repräsentieren. Derartige Repräsentationen unterliegen dabei Veränderungen, die sich zum einen als das Ergebnis der Einwirkung äußerer Einflüsse9 in den (re-)konstruierten Wissensbasen niederschlagen und zum anderen auch als interne Auswirkungen10 von Auswahlprozessen ergeben, die als Algorithmen auf den Wissensbasen operieren. Sowohl extern als auch intern angestoßene Einflüsse bewirken derart Zustandsveränderungen (der Wissensbasis) des künstlichen informationsverarbeitenden Systems, die in ihrem Zusammenwirken Teil und Eigenschaft der Modellierung dessen sind, was - im Original möglicherweise durchaus anders realisiert - den semiotischen Prozeß der Konstitution und des Verstehens von (natürlichsprachlichen) Bedeutungen durch Menschen ausmacht.

2.2.2  Daß die formale Repräsentation von Wissen eines der zentralen Problembereiche bildete, die auch in der automatischen Sprachverarbeitung der künstlichen Intelligenzforschung (KI) thematisiert wurden, hat meist übersehen lassen, daß KI nicht Sprachverstehen modelliert, sondern die maschinelle Verarbeitung von komplexer Information, die ebenfalls als wissensbasierte Prozesse konzipiert wurde. Zur Repräsentation des hierzu erforderlichen (Welt- und/oder Sprach-)Wissens, das erstmals als Kombination von Typen von Datenstrukturen mit den sie interpretierenden Typen von Prozeduren modelliert wird, wurden - und werden bis heute - die verschiedensten Formate, Strukturen und Prozeduren als ihre Instantiierungen entwickelt und eingesetzt, die in ebenso unterschiedlichen programmiersprachlichen Implementationen intelligentes Systemverhalten simulieren sollen11. Wissensrepräsentation erscheint so als ein unterschiedlich instantiierbarer Typus von Organisationsstruktur, durch die Paare ontisch verschiedener Entitäten, die zueinander in Beziehung stehen oder treten (können), formal als (binäre) Relationen repräsentiert werden. Während aber Aufbau und Veränderungen von statischen (nicht-lernenden) Wissensbasen mit symbolischen Repräsentationsformaten durch die Systementwickler vorgenommen werden (müssen), sind die auf verteilten, sub-symbolischen Repräsentationen von Wissen operierenden Verarbeitungsprozesse in den dynamischen (selbst-lernenden) Strukturen geradezu durch die Zustandsänderung charakterisiert, die sie als Ergebnis und Resultat in der Wissensbasis bewirken.

Frühere Untersuchungen zur Analyse vager Bedeutungen [Rie81b, Rie81c] sowie zur prozeduralen Verarbeitung unscharfer ( fuzzy) Bedeutungsrepräsentationen [Rie84, Rie85] verwenden solche verteilten Repräsentationen aber mit symbolischer Identifikation. Sie waren dabei von einer strukturalsemantischen Möglichkeit der Verwendung der FST ausgegangen, die Zadeh in einem seiner weniger zitierten Aufsätze [Zad71] auch für seinen referenzsemantischen Ansatz schon angedeutet hatte. Danach erlauben natürliche Sprachen - im Unterschied zu formalen Sprachen und Notationssystemen - zwar keine präzise Kennzeichnung ihrer Funktionen, weder auf der syntaktischen noch auf der semantischen, geschweige denn auf der pragmatischen Beschreibungsebene. Sie werden aber implizit von Äquivalenten dieser Funktionen strukturiert, die als unscharfe Beschränkungen (fuzzy constraints) im Rahmen eines dynamischen Organisationsprinzips (elastic constraints, granulation) expliziert werden können.

2.3  Unscharfe Modellierung

Der in der FST begründete methodologische Ansatz, numerisch präzisierte (Beobachtungs- und Meß-) Daten von - meist nur ungenau wahrgenommene - Entitäten der außersprachlichen Welt mit den natürlichsprachlichen Ausdrücken und Aussagen zu verbinden, die über diese Entitäten vernünftigerweise gemacht werden (können) und sie konzeptuell strukturieren, versucht sprachlich-linguistische Kategorisierungen für die Systematisierung des wissenschaftlichen Umgangs mit Phänomenen des Unexakten, der Ungewißheit und Vagheit zu nutzen. Dem liegt ein Sprachmodell zugrunde, das die Bedeutung eines Ausdrucks realistisch und relational definiert als Menge der Elemente der außersprachlichen Welt, auf die er verweist.

2.3.1  Eine Sprache L besteht danach aus der Menge ihrer sprachlichen Terme12 z Î T und den außersprachlichen Entitäten13 des Diskursuniversums x Î U, auf die diese Terme referieren. Bedeutung wird - wie üblich - zunächst referenziell verstanden und durch die Abbildung T® U erklärt, aber auf der Basis der FST nicht als scharfe, sondern als unscharfe Relation L definiert [Zad71], die über die Zugehörigkeitsfunktion charakterisiert wird:

Diese unscharfe Relation L:={((z,x), mL(z,x))} induziert dabei eine zweiseitige Korrespondenz (Abb. 1) der unscharfen Beschränkungen, über die

2.3.2  Die Operationalisierung dieser formalen Rekonstruktion stößt aber auf Schwierigkeiten, weil sie die empirische Zugänglichkeit von T und U voraussetzt und die Kenntnis der als mL bezeichneten Funktion. Diese sind in aller Regel nicht gegeben, da außer für kleine Fragmente einer natürlichen Sprache sowohl die Menge aller Terme als Potenzmenge P(T) der grammatikalischen Verkettungen A(z) ihrer Elemente z Î T als auch die (Teil-)Mengen X der Entitäten x des Diskursuniversums x Î X Ì U, auf die mittels L verwiesen wird, weder beobachtbar vorliegen noch generierbar sind. Deshalb fehlen konkrete Vorstellungen auch darüber, welche Koeffizienten den Funktionen mL und mL-1 zugeordnet werden (können), die die faktische Messung von Zugehörigkeitswerten ermöglichten14. Eine Operationalisierung der FST-basierten, referenzsemantischen Modellierungen steht jedenfalls noch aus, obwohl (oder weil) diese zunächst ingenieurwissenschaftliche Anwendungsbereiche betrafen, in denen ad hoc Festlegungen von m-Werten mit (bestenfalls) intersubjektiver Plausibilität schon zu beachtlichen Erfolgen gegenüber konkurrierenden klassischen Modellierungen führten15.
Anwendungen der FST in der linguistischen Semantik ließen dagegen früh vermuten [Rie74], daß M(z¢) bzw. D(x¢) referenzsemantisch nicht unmittelbar gemessen werden könnten und deswegen als mengentheoretische Komposition solcher unscharfer Relationen zu rekonstruieren seien, für die empirisch-operationale Korrelate in Form von zugänglichen Daten und operablen Meßfunktionen gefunden werden können. Deren Ergebnisse [Rie89] funktionieren dabei - was der Annahme einer granularen Struktur entspricht - wie Zwischenrepräsentationen, aus denen sich die Relationen der Referenz Ref Í L und der Beschreibung Dsc Í L-1 kompositorisch ableiten lassen (vgl. unten unter 3.3.1).

2.4  PRUF und TEST

Die in beiden Richtungen unterschiedlich wirksamen unscharfen Beschränkungen auf L bildet die Grundlage der formalen Rekonstruktion von Bedeutung als Restriktion oder Einschränkung. Sie beruht auf der Beziehung zLx, die zwischen Elementen z Î T und x Î U besteht und über L als unscharfer Relation expliziert wird.

2.4.1  Zu ihrer Modellierung, die eine Wissensrepräsentation erfordert, deren Strukturiertheit eben diese Unschärfe abzubilden und deren Beschränkungen als Auswahlprozesse zu implementieren erlaubt, hat Zadeh [Zad78] die Bedeutungsrepräsentationssprache PRUF (Possibilistic, Relational, Universal, Fuzzy) ausgearbeitet. Ihren Kern bilden die sog. erklärenden Datenbasen (explanatory database - ED). Als Sammlungen von benannten (aber leeren) Relationen16 enthalten sie in tabellarischer Form Relations-Namen R, Relations-Attribute A(R) und deren Attribut-Bereiche D(A(R)), die den netzartigen Zusammenhang lexikalisierter Konzepte typisierend repräsentieren und zur strukturellen Explikation der (Bedeutungen von) Propositionen benötigt werden. Durch die instantiierende Wertebelegung17 dieser Datenstruktur (EDI) über benannte (labeled) unscharfe Mengen mR:U® [0,1] und disjunktive Variable18 X in U wird deren Kontextualisierung bewirkt, welche die (zweiseitige) unscharfe Korrespondenz herstellt zwischen den sprachlichen Termen z Î R Ì T als Kennzeichnungen (labels) dieser Relation und den (Teil-)Bereichen x Î X Ì U des Diskursuniversums U, die sie strukturieren. Durch die Verwendung gleicher sprachlicher Zeichenketten A(z) in den Instantiierungen unterschiedlicher Typen R, A(R), D(A(R)), etc. wird nicht nur deren unterschiedlich restringierende Wirkung charakterisiert, sondern gleichzeitig ein Strukturmoment der Konzeptualisierung und Begriffsbildung, das für die Effizienz natürlicher Sprachen verantwortlich ist, entfaltet: Unterschiedliches bedeuten zu können aufgrund unterschiedlicher struktureller Positionen19.

2.4.2  Damit wird die Identifikation der semantischen Bedeutung von Wörtern, Prädikaten, Propositionen etc. mit sog. linguistischen Variablen (linguistic variables)20 plausibel, die wie unscharfe Beschränkungen funktionieren. Durch Aggregationen von - in ED explizierten - Konzeptualisierungen und deren - in EDI instantiierten - Kontextualisierungen können über sog. aggregierte Prüfwerte (test-scores) [Zad81] zu übergreifenden Beschränkungen (overall fuzzy constraints) der allgemeinen Form X is R kondensiert werden.
Erklärende Datenbasen (ED und EDI) übernehmen damit in PRUF und TEST eine vergleichbare Funktion, wie sie die Wissensrepräsentationsstrukturen (knowledge representation - KR) in der KI oder die Gedächtnis- bzw. Konzeptstrukturen (CS) in der Psychologie erfüllen. All diese Strukturmodelle erscheinen wie Instantiierungen des allgemeineren Strukturtyps der intensionalen Zwischenrepräsentation (intermediate mapping - MS), die durch sog. Konzeptualisierung die sprachlichen Ausdrücke R Ì T mit den außersprachliche Entitäten X Ì U, auf die sie verweisen, vermittelt. Während Konzeptualisierungen erfahrbar nur in Form natürlichsprachlicher Ausdrücke (Wörter, Prädikate, Propositionen, Texte) und deren situativen Einbettungen begegnen, erscheinen ED wie deren typisierte Abstraktionen, welche - mit sprachlichen Werten instantiiert - die interpretierenden Strukturen bereitstellen, die es erlauben, die Bedeutung natürlichsprachlicher Ausrücke in Propositionen sog. kanonischer Formen zu überführen. Allerdings sind (bisher) weder der Aufbau noch die Wertebelegung von ED algorithmisiert oder als (Teil-)Prozesse der Bedeutungskonstitution menschlichen Sprachverstehens prozedural definiert.

2.4.3  Die Überführung beliebiger Propositionen pros in diese sog. kanonische Form

hat dabei die Aufgabe, die den Propositionen impliziten, über natürlichsprachliche Ausdrücke aktivierten unscharfen Beschränkungen als einen prädikativen Zusammenhang is von einzuschränkender Variable X und der sie einschränkenden Relation R explizierbar zu machen21 Diese Umformung ist die Basis - allerdings auch das operationale Problem - der Bedeutungsexplikation von Propositionen unter dem Strukturierungsprinzip der Granulation. Es erlaubt die formale Verallgemeinerung unscharfer Beschränkung (generalized constraints) und legt eine nicht-propositionale, struktural-semantische Erweiterung - s. unten unter 3.3 - nahe, deren prozedurale Fundierung die Operationalisierungslücke aller referenztheoretischen unscharfen Semantiken zumindest verkleinern, wenn nicht gar - vielleicht absehbar - schließen kann.

3  Granulation

Das menschliche Vermögen zum effizienten Umgang mit Vagheit und Unschärfe ist durch ein Strukturierungsprinzip aller Prozesse menschlicher Kognition charakterisierbar, das sich exemplarisch in den Erscheinungsformen natürlichsprachlicher Bedeutungen, ihrer konzeptuellen Organisation und ihrer Verarbeitung (Produzieren und Verstehen von Propositionen) zeigt und sich im Kern als Informationsverarbeitung mit unscharfen Entitäten analysieren, explizieren und modellieren läßt. Als eine universelle Form ökonomischer Datenkompression sonst nicht bewältigbarer Signalfluten erscheint dieses Strukturierungsprinzip als variable Körnung oder elastische Granulation.

Informally, granulation of an object A results in a collection of granules of A, with a granule being a clump of objects (or points) which are drawn together by indistinguishability, similarity, proximity, or functionality. In this sense, the granules of a human body are the head, neck, arms, chest, etc. In turn, the granules of a head are the forehead, cheeks, nose, ears, eyes, hair, etc. In general, granulation is hierarchical in nature. [...] In human cognition, fuzziness of granules is a direct consequence of fuzziness of the concepts of indistinguishability, similarity, proximity, and functionality. Furthermore, it is entailed in the finite capacity of the human mind and sensory organs to resolve detail and store information. (Zadeh 1997, S.112f; Hervorhebungen - B.R.)

Granulation kann damit als ein abstrakter Typ von Organisationsstruktur verstanden werden, deren Elemente und deren Relationen zueinander unterspezifiziert sind und erst durch Instantiierung festgelegt werden, von welcher Art die Elemente und Relationen sind. Diese generalisierende Abstraktion erlaubt es, traditionelle Wissensrepräsentationen, die mit Hilfe von Teil-Ganzes-Beziehungen, Konstituenten-Konstitut-Relationen, komponentielle Zerlegungen, semantische Markierungen, konzeptuelle Dependenzen, etc. Gebrauch machen als Instanzen ebenso zu subsumieren, wie die neueren, nicht-kategorialen und prozedural definierenden Ansätze unscharfer, dynamisch veränderlicher und kontextsensitiver Modellierungen von Bedeutung und Wissen.

Unscharfe (fuzzy) Granulation als dynamisches, kontextsensitives Organisationsprinzip erlaubt daher nicht nur kognitiv höchst relevante Strukturierung von Umgebungsinformation, sondern führt auch zu lexikalisch organisierten Begriffszusammenhängen, auf deren Grundlage sich Konzepte überhaupt erst sprachlich aktivieren (lexematische Identifikation) und propositional kennzeichnen lassen (prädikative Unterscheidung). Daß die systematische Verkettungen von Propositionen zu Texten als Systemen unscharfer Beschränkungen auch das, was sie einschränken, selbst konstituieren (können), ist im Hinblick auf die Dynamik der sprachlichen Bedeutungskonstitution [Rie77a] ebenso hervorzuheben wie angesichts der Probleme einer algorithmischen Überführung der von natürlichsprachlichen Zeichenketten aktivierten Konzeptstrukturen in formale Bedeutungsrepräsentationen.

3.1  Mit Wörtern rechnen (CW)

Der Begriff des Rechnens/Berechnens (computing) wird normalhin verstanden als ein Regel-geleitetes Operieren mit Zahlen und Symbolen zu einem durch diese Regeln vorgegebenen Zweck. Im Unterschied dazu verweist das Rechnen mit Wörtern/Worten auf ein System methodisch aufeinander bezogener Verfahren, deren Objekte Wörter und Wortketten (Propositionen) sind und deren Ziel die kontrollierte Manipulation und Verarbeitung ihrer Bedeutungen ist. Unter der Bezeichnung Computing with Words (CW) wurden seit Anfang der 90er Jahre des letzten Jahrhunderts eine Vielzahl unterschiedlicher Ansätze, Fortentwicklungen und Umsetzungen der Analyse von Bedeutungsstrukturen der natürlichen Sprachen zusammengetragen [Zad99] [Wan01], die - oberflächlich betrachtet - durch die übergreifende Aufgabenstellung verbunden sind, eine strukturierte Sammlung intersubjektiv überprüfbarer und evaluierter Methoden, Verfahren und Prozeduren bereitzustellen, die mit Einheiten der natürlichen Sprache in ähnlicher Weise umzugehen erlauben sollen, wie mit Zahlen und Symbolen in der Mathematik22.

3.1.1  Die vorherrschende Analyse und Modellierung folgt dabei weitgehend einer realistischen Referenzsemantik (s. oben unter 2.4). In ihr werden Bedeutungen von Propositionen bekanntlich wahrheitsfunktional erklärt, wogegen FST und FL erlauben, Propositionen als unscharfe Beschränkungen über impliziten (linguistischen) Variablen zu rekonstruieren, deren genauer Wert nicht bekannt ist, deren Wertebereich aber durch fuzzy constraints eingeschränkt wird. Dabei können die Unschärfen dieser Interpretationen sowohl sprachlichen als auch kognitiven Ursprungs sein.

The point of departure in CW is the observation that in a natural language words play the role of labels of fuzzy granules. In computing with words, a proposition is viewed as an implicit fuzzy constraint on an implicit variable. The meaning of a proposition is the constraint which it represents. (Zadeh 97, S. 115)

Obwohl auch für Wörter gilt, daß ihre Bedeutungen die unscharfen Beschränkungen sind, die durch sie repräsentiert werden, soll dieser Zusammenhang zunächst an Propositionen verdeutlicht werden.

3.1.2  Für Propositionen des allgemeinen Typs x is P, wo x Î X Í U ein Element einer durch eine (linguistische) Variable P bezeichneten unscharfen (Teil-) Menge XP des (sprachunabhängigen) Referenzuniversums U und P der sprachlicher Ausdruck derjenigen Eigenschaft oder Intension ist, die dem Element x zugesprochen wird, wurden die folgenden zwei Bestimmungen von Unschärfe als Unsicherheiten der Bewertung dieser Prädikation unterschieden [Kli97]:

3.1.3  Versucht man diese beiden Bestimmungen von Unschärfe auf die in Abb.1 illustrierte wechselseitige Korrespondenz mL und mL-1 zu übertragen, so wird deutlich, daß - selbst ohne Berücksichtigung der unterschiedlichen Interpretation von P als sprachlich unscharfe, intensionale Eigenschaft XP Ì U und als scharfe extensionale Eigenschaft AP Ì U - durchaus nicht klar ist, wie sprachliche Elemente z Î T zu den Eigenschaften P in Beziehung stehen, die Teilmengen X Î U einschränken. Der Unklarheit entspricht eine offensichtliche Asymmetrie in der Fundierung von Unschärfe in unterschiedlichen - aber nicht unterschiedenen - (Wissens-)Repräsentations- bzw. Operationsbasen. Um diese zu verdeutlichen, sind (in Abb.2) neben der Menge sprachlicher Terme T und des Diskursuniversums U noch das System konzeptueller Strukturen als Zwischenrepräsentation MS sowie die Menge der Meßoperationen FM ergänzend hinzugefügt. Sie stellen notwendige - aber so bisher nicht explizit eingeführte - Vermittlungsebenen dar für die adäquate Erklärung der jeweiligen Zusammenhänge zwischen

Damit läßt sich zumindest eine erste Klärung der begrifflichen Unterscheidungen und der ihnen zugeordneten mengentheoretischen Konstruktionen herbeiführen, die in den auf FST und FL fußenden referenzsemantischen Anwendungen bisher unterblieb. Weiterhin ungeklärt bleibt an diesem Punkt, wie eine prozedurale Rekonstruktion der in MS postulierten Strukturen - außer durch introspektiven Rekurs auf das Sprachvermögen des kompetenten Sprechers, der natürlichsprachliche Ausdrücke versteht, ehe er sie umformt - aussehen könnte23.

3.1.4  Die für realistische Semantiktheorien konstitutive Referenz wird demnach als mengentheoretische Komposition Dn°Ds rekonstruiert werden müssen

und nicht - wie die einschlägigen Modelle des CW-Bereiches glauben machen (möchten) - unmittelbar als unscharfe Relation oder als unscharfes Maß. Das führt zu der aufgezeigten Asymmetrie beim Übergang von z Î P zu x Î X, die nur unter der Voraussetzung und aufgrund eines verstehenden Sprachwissens nachvollziehbar ist. Durch explizite Einfügung der beiden zusätzlichen Repräsentationsstrukturen MS und FM wird dagegen - wie Abb. 2 dies verdeutlicht - ein Zusammenhang von Abbildungen (Morphismen) etabliert, der neben Referenz Ref und Beschreibung Dsc auch die diesen kompositorisch zugrundeliegenden Begriffe der Designation Ds und Denotation Dn sowie der Klassifikation Cf und der Bewertung Bf zu erklären erlaubt. Sie definieren sich danach wie folgt:

Aus diesen Definitionen wird ersichtlich, daß die referenzsemantische Modellierung der Denotation einer sprachlich unscharf bezeichneten Eigenschaft oder Intension P als mXP(x) Î Dn, ebenso wie die Bewertung mx( AP) Î Bf, die den Grad angibt, mit dem die sprachliche Kennzeichnung P einer bekannten Eigenschaft von x Î AP Ì U zukommt, auf Strukturen (oder Zwischenrepräsentationen) MS und FM angewiesen sind, die dem konzeptuell strukturierten Wissen entsprechen, das die Zuordnungen zu machen erlaubt. Es ist also zu fragen, ob - und wenn ja wie - diese als Resultate von Prozessen modelliert werden können, denen Prozeduren zugrunde liegen, die es nicht nur zu entwickeln sondern (über ihre Algorithmisierung und Programmierung) auch zu implementieren gilt, damit eine solche prozedurale Modellierung der Bedeutungskonstitution im Rechner realisiert werden kann. Denn für ein eher semiotisch-kognitives Verständnis von Informationsverarbeitung, als dessen Kern die Bedeutungskonstitution [Rie77a] identifiziert wurde, bildet die Modellierung des Übergangs (der Assoziation, Zuordnung, Verbindung) von den sprachlichen Zeichen zu den durch sie designierten Konzeptstrukturen und deren Denotate im Diskursuniversum das Zentrum des (re-)konstruktiven Interesses.

3.2  Verallgemeinerte Beschränkung

In Erweiterung des Grundgedankens der Explikation von Bedeutung als Beschränkung, wonach der (kognitive) Prozeß des Verstehens als Abbau vorhandener Ungewißheiten oder Wahlmöglichkeiten sich deuten läßt, war gerade im Zusammenhang der FST- und FL-basierten Bedeutungs- und Wissensrepräsentation eine weitreichende Verallgemeinerung dieser Beschränkungsfunktionen [Zad86] vorgeschlagen worden. Diese Neufassung versucht dabei nicht nur verschiedene Quellen referenzieller Unschärfe zu erfassen, sondern läßt möglicherweise auch solche Fälle struktureller Ungewißheit einbeziehen, die eher in der Spezifik natürlichsprachlicher Strukturen und ihrer semiotischen Funktionen begründet sind.

Die Formulierung der verallgemeinerten Beschränkung ( generalized constraint) im Rahmen der TFIG [Zad97] besteht in einer funktionalen Ergänzung der Kopula mit einer modifizierenden Typenvariable, welche mögliche Interpretationen steuert. Hierdurch wird die semantische Ausdrucksstärke propositionaler Prädikationen beträchtlich erweitert, so daß deren herkömmliche Wahrheitsfunktionalität nurmehr eine der Instantiierungen semantischer Bewertbarkeit (unter vielen anderen) bildet.

3.2.1  Sei X eine Variable, die Werte im (sprachunabhängigen) Universums x Î U annimmt, dann ist X isr R der propositionale Ausdruck der verallgemeinerten Beschränkung (generalized constraint), der angibt, wie die Werte von X durch die Relation R über die variable Kopula isr eingeschränkt werden. Dabei ist der Typ r={e,Æ,v,p} eine diskrete Variable, deren Wert die Art der Beschränkung festlegt, wie die Relation R, die als eine Teilmenge der konzeptualisierten Wissensstruktur zu verstehen ist, die Werte von X restringiert. ZADEH [Zad96, 12ff] unterscheidet zahlreiche Instantiierungen solcher constraints, von denen hier exemplarisch nur vier vorgestellt werden sollen:

3.2.2  Diese typisierte Erweiterung bedeutungserklärender Propositionen bietet - als verallgemeinerte Neuformulierung der Grundidee, wonach Bedeutungsexplikation durch Angabe der Beschränkungen von Wahlmöglichkeiten geleistet wird - einen vereinheitlichenden Rahmen. Um zu verdeutlichen (Abb. 3), daß die Instantiierungen von r dabei nicht die strukturelle Unschärfe der Referenzrelation

selbst betrifft, sondern die Art und Weise, wie eine Instanz r von r den prädikativen Modus der Kopula verändert, erscheint r als eine Produktvariable, welche der Komposition mL, nicht die sie konstituierenden Relationen modifiziert, so daß


Obwohl eine prozedurale Formulierung der Instanzen r von r nicht zu erwarten ist, wird gleichwohl mit der beschriebenen konstruktiven Erweiterung der prädikativen Ausdrucksstärke der Kopula erstmals die Bedingung dafür geschaffen, die explikative Nutzung der Prädikation von der Modellierung des Prozesses zu unterscheiden, durch den der Prädikation diese Qualität in unterschiedlicher Weiser zukommt: Prädikation wird zu einer sehr allgemeinen Art (Typ) von (ontologischer) Eigenschaftszuschreibung erklärt, die durch (ontisch) unterschiedliche Zuordnungsweisen (Instanzen) realisiert erscheint. Diese übergreifende Vereinheitlichung eröffnet - wie unten unter 4.2 gezeigt wird - die Chance, Sichtweisen und Ergebnisse referenzsemantischer und strukturalsemantische Ansätze miteinander zu verbinden.

3.3  Semiotisch generalisierte Beschränkung

Anders als die realistischen Semantiken, die die Bedeutung einer Sprache L als Beziehung zLx zwischen sprachlichen Termen z Î T und außersprachlichen Entitäten x Î U erklären, geht die empirisch-strukturale Semantik von Teilmengen V Ì T aus und setzt S Ì MS an. Anhand der in Situationen kommunikativen Sprachgebrauchs beobachtbaren sprachmaterialen Regularitäten in Texten rekonstruiert diese Semantik Bedeutungen ebenfalls relational, aber sprachintern als Beziehung z L p zwischen sprachlichen Zeichen z Î V und Bedeutungsrepräsentationen p Î S. Der semantische Raum S Ì MS wird dabei als System konzeptueller Strukturierung des Worüber-der-Rede nicht vorausgesetzt, sondern konstituiert sich - als sprachlich etikettierte (labeled) Vektoren oder Intensionen von U (universe of discourse) - erst im Verlauf der Verarbeitung (Analyse, Repräsentation, Organisation) der Texte, quasi als prozedurale Modellierung ihres Verstehens durch einen informationsverarbeitenden kognitiven Agenten. Die so konstituierte Struktur des semantischen Raums áS,zñ erlaubt neuartige, prozedurale Instantiierungen unscharfer Granulation, die an die Stelle der Kopula restringierende Operationen25 setzen, welche auf Zeichen und Zeichenstrukturen repräsentierenden Strukturen operieren und darin den dynamischen und kontextsensitiven Charakter des semiotischen Organisationsprinzips unterschiedlich spezifizieren.

3.3.1  Durch prozedurale Definition der syntagmatischen, paradigmatischen und topologischen Beschränkungen, die als elementare Restriktionen a|zi,d|yi und z|pi auf den unscharfen Relationen a, d und z der cartesischen Produkte des Vokabulars z Î V, der Korpuspunkte y Î C und der Bedeutungspunkte p Î S rekonstruiert wurden (vgl. [Rie89], S. 181ff)

ergeben sich mengentheoretische Definitionen der syntagmatischen Beziehung Sy Í V×C und der paradigmatischen Beziehung Pa Í C×S als unscharfe Relationen, deren Komposition Pa°Sy Í V×S die Beziehung der (referenzsemantischen) Designation (von V nach S Í MS) modelliert.

Damit wird die 'Bedeutungen konstituierende' unscharfe Relation L als Komposition der syntagmatischen und paradigmatischen Beschränkungen Pa°Sy aus d|yi und a|zi erklärt

die - wie Abb. 4 verdeutlicht - jedem Wort zi Î V seinen Bedeutungspunkt pi Î S (gleichen labels) sowie dessen topologische Umgebung Ei Í áS,zñ zuordnet.

Sei Z eine Variable, die Werte zi Î V[( Ù) || =]pi Î S im (sprachintern konstituierten) semantischen Raum annimmt, dann ist Z opr S der (non-propositionale) Ausdruck der semiotisch generalisierten Beschränkung [Rie99c], der angibt, wie die Werte von Z durch eine variable Operation opr den semantischen Raum áS,zñ auf Teilstrukturen einschränkt, die r spezifiziert. Dabei ist der Typ r={env, clu, dep,¼} eine diskrete Variable, deren Wert die betreffenden Selektionsprozesse instantiiert, welche prozedural definierte Teilstrukturen E, Cl und DDS des semantischen Raums rekursiv selektieren, die durch Werte von Z aktiviert werden.


3.3.2  Die formal über mL rekonstruierte Beziehung 26 zwischen Wörtern z Î V und den Repräsentationen ihrer Bedeutungen p Î S, läßt in S Í MS ein System áS,zñ entstehen, dessen Metrik z die Unterschiede von Bedeutungen als Distanzen zwischen Bedeutungspunkten zu erfassen erlaubt. Diese Distanzen bilden die Grundlage der topologischen Umgebungen E(pi) von Bedeutungspunkten pi Î áS,zñ, welche zu einem beliebigen, als zentral gewählten Bedeutungspunkt pc alle übrigen pm-1 nach zunehmender Distanz geordnet bis zu einem Schwellenwert s auflisten (vgl. [Rie89] S.204ff). Wegen der Gleichheit von i=j=1,¼,n für alle zi und pj heißen sie semantische Umgebungen E(zi), wenn dem zentralen Bedeutungspunkt pc das ihm zugeordnete Wort zi Î V entspricht und die in E(zi) Í áS,zñ aufgelisteten Bedeutungspunkte des semantischen Raums damit die konnotativeBedeutung von zi repräsentieren.
Topologische bzw. (intensional) semantische Umgebungen entsprechen dem Beschränkungstyp r=env im Ausdruck Z opr S der semiotischen Generalisierung, so daß

Die semantische Umgebung E(zi,s) eines beliebigen Wortes zi Î V spezifiziert daher die Konnotation des Wortes zi distanzrelational im Umfang s. Sie umfaßt die nach zunehmenden Abständen geordnete Menge der Paare {(zj,z(pc,pj))}, die aus den Namen zj der Bedeutungspunkte pj mit ihren Distanzwerten z(pc,pj) bestehen, die innerhalb einer durch den Radius s um den zentralen Bedeutungspunkt zi[( Ù) || =]pc beschriebenen (Hyper-)Kugel im semantischen Raum áS,zñ liegen.

3.3.3  Umgebungen als konnotative Bedeutungen erlauben unmittelbar keine Beantwortung der Frage, ob - und wenn ja, wie - die in beliebigen E(zi Í áS,zñ liegenden Bedeutungspunkte pj Î E(zi) besondere Regionen höherer Punktdichte (Klumpen) zeigen, die auf besondere semantische oder inhaltliche Ausprägungen schließen ließen. Dies leistet die Clusteranalyse durch algorithmische Verfahren unterschiedlicher numerischer Bemessungskriterien (single, complete, average etc.) bei der Bewertung von Ähnlichkeiten von (Teil-)Klassen (Partitionen A) beliebiger Mengen von Elementen (Objektmenge S), die - auf unterschiedlichen Stufen durchgeführt - zum schrittweisen Aufbau v-indizierter Hierarchien (Dendrogramme) führen. Dabei werden die Elemente pj der Objektmenge S mit j=1,¼,m durch das rekursive (bottom-up) Verfahren aus einer ersten Partition A (der 0-ten Stufe mit maximaler Anzahl von m Teilmengen als Einermengen in S) durch schrittweise Fusion v der jeweils ähnlichsten Teilmengen zur letzten Partition A (der V-ten Stufe mit minimaler Anzahl von m- V=1 Teilmengen) überführt, d.h. in eine Klasse, die alle Elemente von S umfaßt. Für Bedeutungspunkte pj Î E(zi,s) Í áS,zñ des semantischen Raums ergibt sich (in Tab. 1) eine Clusterhierarchie von V Partitionen folgender A(hv) Ähnlichkeitsklassen Av:

Eine solche Clusterhierarchie mit h Fusionsstufen - die in Form eines Dendrogramms oder Fusionsbaums (vgl. [Rie89] S. 213ff) repräsentiert wird - entspricht dem Beschränkungstyp r=clu in der semiotischen Generalisierung Z opr S, so daß

Sie strukturiert die konnotative Bedeutung eines beliebigen Wortes zi als indizierte Hierarchie agglomerierter Ähnlichkeitsklassen Av von Bedeutungspunkten pj Î E(zi,s) Í áS,zñ im semantischen Raum nach unterschiedlicher Dichte und Häufung aufgrund ihrer topologischen Lage.

3.3.4  Die vektoriell bestimmte Struktur des semantischen Raumes ist informationell weit reicher, als dies die Lage und Position jedes einzelnen Bedeutungspunktes in E(zi,s) erkennen läßt. Definitionsgemäß als Beziehungsstruktur aus sämtlichen Unterschieden aller Verwendungsregularitäten jedes einzelnen Wortes mit sämtlichen anderen in den analysierten Texte berechnet, läßt die komplexe Topologie der Lagen und Positionen solcher Bedeutungsrepräsentationen vielfältige Nachbarschaften, Gemeinsamkeiten und Unterschiede erwarten, die sich - über Umgebungen und Clusterstrukturen hinaus - erst durch veränderte Perspektivenwahl und damit verbundenen restringierenden Selektionen - im Prozeß der einschränkenden Auswahl realisieren und erkennen lassen. Dies leistet eine hierzu entwickelte, rekursiv definierte Prozedur (vgl. [Rie89], S. 244ff), die Pfade hierarchisch geordneter Bedeutungspunkte (Pfad- oder Dependenzknoten) in Abhängigkeit eines vorgegebenen Aspekts ( Start- oder Wurzelknoten) erzeugt und in sog. dispositionellen Dependenzstrukturen (DDS) als Dependenzbaum repräsentiert.
Der implementierte Algorithmus operiert auf der Datenstruktur des semantischen Raums áS,zñ, der selbst ein vollständiger, gewichteter, ungerichteter Graph27 G=áV,K,jñ der Ordnung m > 1 ist. Sei p Î S ein beliebiger Bedeutungspunkt und z Î V sein entsprechender Name, so daß die Knotenmenge V=S mit z=p, seien weiter die Kantenmenge K={{z,z¢}|p,p¢ Î S,p ¹ p¢} mit k Î K für alle z,z¢ Î V bzw. p,p¢ Î S, die Gewichtungsfunktion j:K® R mit j({z,z¢})=z(p,p¢) und die topologische Umgebung E(p) entsprechend E(z) Í V oder Ez Í V, dann bezeichnet die Menge DepE(z)={z¢ Î Ez|j({z,z¢})= min[v Î Ez,{z,v} Î K(z)] {j({z,v})}} alle Knoten aus Ez, die durch minimales Gewicht j dem Verkettungskriterium der Dependenz genügen. Der Dependenzbaum D(z)=áV,K,wñ von z in G entsteht danach wie folgt28:

  1. Auswahl der Kante k1={z,z¢} mit z¢ Î DepE(z) und Aufbau des Teilbaums T1=áV1,K1ñ, mit V1={z,z¢} und K1={k1};
  2. Nach Konstruktion des Teilbaums Ti=áVi,Kiñ der Ordnung i+1, i < m-1, Auswahl des Knotens w Î DepEz-Vi(z) und Eintrag der Kante ki+1={v,w} mit v Î DepVi(w). Der Baum Ti+1=á Vi+1, Ki+1ñ wird wie folgt aufgebaut: Vi+1=ViÈ{w} und Ki+1 = KiÈ{ki+1}.
  3. Schließlich wird noch V=Vm-1 und K=Km-1 gesetzt; die Funktion w:K® R schränkt j auf K ein29.
Diese Prozedur überführt ersichtlich den durch einen Startknoten z[( Ù) || =]p Î áS,zñ determinierten Teilraum E(p) Í áS,zñ in eine zweidimensionale Baumstruktur und induziert auf der Basis der z-Distanzen im semantischen Raum dadurch eine reflexive, schwach symmetrische und kontextuell transitive, semantische Relevanzrelation [Rie84] zwischen den selektierten Bedeutungspunkten z¢[( Ù) || =]p¢ (vgl. [Rie89] S. 259ff).
Ein solcher Dependenzbaum entspricht dem Beschränkungstyp r=dep in der semiotischen Generalisierung Z opr S, so daß

den prozedural definierten Aufbau der eben dadurch variablen und kontextsensitiven DDS eines sprachlich indizierten Konzepts (vgl. [Rie89] S. 250ff) als Einschränkung der Relationalstruktur des semantischen Raumes áS,zñ bestimmt.
Dispositionelle Dependenzstrukturen repräsentieren die konnotative Bedeutung eines Wortes zi als perspektivischen, relevanzrelational strukturierten Dependenzbaum von Bedeutungspunkten pj Î E(zi,s) Í áS,zñ, wobei sich deren unterschiedliche Topologien (nach Dichte und Häufung ihrer Nachbarschaften) als Ausprägungen unterschiedlicher Abhängigkeiten (nach Knotenebenen und Knotenpfaden) im Baum niederschlagen.

3.3.5  Der granulare Charakter dieser prozeduralen (Re-)Konstruktion der Beschränkungsfunktion, die als Kern bedeutungskonstituierender Prozesse gilt, soll anhand von Ausschnitten aus nur drei DDS-Bäumen D(Alp), D(Sprache) und D(Wort) illustriert werden. Dabei bilden die an die jeweiligen Wurzelknoten über Kanten angehängten Dependenzknoten granulare Komponenten (Granule), deren dynamische und kontextuelle Variabilität durch ihre (laterale) Ansammlung in verschiedenen Knotenebenen und durch ihre (vertikale) Anordnung in Tiefenpfaden sichtbar und repräsentiert wird. Obwohl durch ein und dasselbe Vokabularelement z Î V etikettiert, kennzeichnen die durch den Dependenzalgorithmus ausgewählten entsprechenden Bedeutungspunkte p Î áS,zñ, die in den verschiedenen Dependenzbäumen aufgelistet sind, sehr unterschiedliche Granule, sowohl lateral auf gleicher Knotenebene wie auch vertikal in den Knotenpfaden.

Der Ausschnitt30 des DDS-Baums D(Alp) - Abb. 5 - zeigt auf Ebene 2 u.a. das Granul Mensch. Lateral ist ihm Sorge zugeordnet und vertikal drei Tiefenpfade (von denen aus Platzgründen nur zwei expandiert wurden):
Mensch ®Unglück ® Passagier ®Maschine [Nähe & Sicherheit] ® Flugzeug ®Hubschrauber ® Pilot[ ¼] & Mensch ®Vater ®Gott ®Leben ®Wort ®Rede ®Beziehung.

Der Vergleich mit dem DDS-Baum D(Sprache) - Abb. 6 - macht die Unterschiede (und Anschlußpunkte) deutlich: das Granul Mensch wiederum auf Ebene 2, lateral zusammen mit gefährlich & Revolution & Afrika & schaffen. Vertikal vier Tiefenpfade, von denen wiederum nur zwei teilexpandiert wurden): Mensch ® Skiläufer ® Alp[Bude] ® Schnee, sowie Mensch ® Passagier ®Unglück[Sicherheit] ® Innsbruck.

Und schließlich der Ausschnitt des DDS D(Wort) - Abb. 7 - mit dem Granul Mensch auf Ebene 3, lateral mit überzeugen & Regierungschef und vertikal einem Tiefenpfad (allerdings mit breiter Auffächerung):

1. Mensch ® Anstrengung ® Ausland[& leisten & Sicherheit & Bundespräsident & Zukunft] ® westdeutsch ® Handelsmission ® Leipzig ® Sowjetzone[& eröffnen] ® Flucht[& Anlage] ® Flüchtling® etc.

2. Mensch ® Anstrengung ® leisten ® etc.

3. Mensch ® Anstrengung® Sicherheit ® Pilot[& Passagier] ® etc.

4. Mensch ® Anstrengung ® Bundespräsident ® etc.

5. Mensch ® Anstrengung ® Zukunft ® etc.

Die in DDS-Bäumen selektierten und reorganisierten Bedeutungspunkte werden so zur geeigneten Grundlage einer kontextsensitiven Modellierung semantischer Inferenzen bzw. analoger Schlüsse [Rie85]. Obwohl weder Propositionen und Sätze, noch Prädikate und Eigenschaften wahrheitsfunktional bestimmt oder im Rahmen einer traditionell formal-semantischen Theorie analysiert werden, kann einem SCIP-Agenten, der über Analyse-, Repräsentations- und Kontroll-Mechanismen verfügt, die den a-, d- und z-Funktionen entsprechen, sowie über die Dependenz- und Inferenzprozeduren, die auf den Bedeutungspunkten operieren (vgl. hierzu [Rie99a]), ein quasi kognitives Vermögen zugesprochen werden. Seine Fähigkeit, aus natürlichsprachlichen Eingabetexten und ihrer algorithmischen Verarbeitung eine interne Repräsentationsstruktur selbstorganisierend aufzubauen, die er zur Ableitung von Erwartungen (Dispositionen) nutzen und durch weitere Eingaben verändern und verfeinern kann (Lernen), machen ein solches System zu einem - wenn auch nicht-propositionalen - flachen (shallow) Verstehensmodell.

4  Ergebnis und Zusammenfassung

Mit der Konzeption einer semiotisch kognitiven Informationsverarbeitung (semiotic cognitive information processing - SCIP) wird Verstehen von natürlicher Sprache mit dem Prozeß der Bedeutungskonstitution identifiziert und in künstlichen Systemen/Agenten so zu modellieren versucht, daß Bedeutungen von Zeichenstrukturen nicht als Voraussetzung sondern als Ergebnis dieser Prozesse im Modell erscheinen.

4.1  Akzeptiert man dieses semiotische Konzept einer prozeduralen Semantik, die von der situierten Verwendung natürlichsprachlicher Ausdrücke zu kommunikativen Zwecken ausgeht, verändert sich auch der Blickwinkel, unter dem natürliche Sprachen untersucht werden können. Sprache erscheint nun nicht mehr nur als Reservoir linguistischer Strukturen, deren Kenntnis vorauszusetzen ist bei der Analyse und Entwicklung eines deswegen wissensbasiert genannten Modells kognitiver Prozesse des Sprachverstehens. Vielmehr werden natürliche Sprachen und ihre Erscheinungsformen als ein empirisch zugängliches, besonderes Datenmaterial gesehen, dessen Strukturiertheit emergentes Resultat von selbst-organisierenden Prozessen des kommunikativen Zeichengebrauchs ist, die dieses Wissen aufbauen. Da der Zeichengebrauch sich veränderten Bedingungen und Erfordernissen anpaßt, bilden natürlichsprachliche Texte die empirisch zugängliche und quantitativ analysierbare Datenbasis einer prozeduralen Semantik, welche Bedeutung als einen dynamischen Prozeß der Einschränkung von Wahlmöglichkeiten erklärt und mittels geeigneter Prozeduren im Modell zu realisieren erlaubt.

Dabei ist hervorzuheben, daß diese Form der Bedeutungserklärung - durch Explikation allgemeiner Beschränkungen von Wahlmöglichkeiten - den vereinheitlichenden Rahmen liefert, der eine Übertragung erlaubt auf die Erklärung von Bedeutungen


4.2  Wie schon früher gezeigt wurde (vgl. [Rie99a]), beruht die prozedurale Modellierung auf Primärdaten aus der Messung von Unterschieden der Verwendungsweisen von Wörtern (tokens) in Korpora pragmatisch homogener Texte. Sie kommt über eine zweistufige Abbildung zur vektoriellen Repräsentation der (strukturellen) Bedeutungen dieser Wörter (types), die sie als Punkte im semantischen Raum designieren. Dessen Topologie erlaubt die algorithmische Überführung in dispositionelle Dependenzstrukturen (DDS), welche die kontextuellen Abhängigkeiten unter den Bedeutungspunkten in Form von Baumgraphen granular, d.h. perspektivisch (unter dem Aspekt eines Wurzelknotens), dynamisch (mit Menge und Art der verarbeiteten Texte veränderlich) und kontextsensitiv (in Abhängigkeit von den jeweils umgebenden Bedeutungspunkten im semantischen Raum) organisieren. Sie stellen eine neue, andersartige Instantiierung des Typs der verallgemeinerten Beschränkung dar, der den Kern der Theorie der unscharfen Informationsgranulation (TFIG) bildet. Um die Typengleichheit einerseits, die Andersartigkeit der semiotischen Fundierung andererseits zu verdeutlichen, sind die wesentlichen Morphismen in einem Schema (Abb. 8) zusammengefaßt, welche in separaten Schemata für den referenzsemantischen Ansatz ( Abb. 3) und für die strukturalsemantische Modellierung (Abb. 4) im einzelnen eingeführt wurden.

4.2.1  Danach wird Bedeutung relational und übergreifend als Beziehung zwischen sprachlichen Zeichen V und intensionalen Konzepten MS einerseits, zwischen sprachlichen Zeichen V und Entitäten eines sprachunabhängigen Universums U andererseits expliziert. Die referenzsemantische Beziehung von V und U wird dabei - der semiotischen Tradition seit Peirce and Morris entsprechend - nicht als direkte, sondern als eine über Intensionen und Konzepte in MS vermittelte Relation gedacht, so daß - vgl. oben unter 3.1.4 - Designation (von V nach MS) und Denotation (von MS nach U) zusammenwirken (müssen), um Referenz (von V nach U) als Komposition beider semiotisch zu realisieren.

Die immensen Schwierigkeiten der (automatischen) Erzeugung von Wissensbasen aus Expertenwissen, Texten, Datenbanken, etc. sind hinreichend bekannt. Die dazu entwickelten Formate der Wissens- und Bedeutungsrepräsentationen, die als MS fungieren, sind aufgrund intellektueller Verfahren der bewußten Exploration von schon Verstandenem, d.h. von strukturiertem Wissen entstanden, sie sind aber keine dieses Verstehen selbst modellierenden Methoden, die den Prozeß der Bedeutungskonstitution an Automaten zu delegieren erlauben würden. Auch die Zadeh'schen Semantiken PRUF und TEST sind von dieser Art, obwohl sie über die Umformung von Propositionalausdrücken in ihre kanonische Form den höchst effizienten Mechanismus linguistischer Variablen aufgedeckt und mit Hilfe des Konzepts der Bedeutung konstituierenden Beschränkung zu verallgemeinern erlaubt haben.

Die hier vorgetragenen, weitergehende Interpretation der verallgemeinerten Beschränkung als unterspezifizierten Typs, der der Instantiierung bedarf, um spezifiziert zu sein, erlaubt darüber hinaus eine semiotische Generalisierung, durch die der SCIP Ansatz einer semiotisch-kognitiven, empirisch-prozeduralen und strukturalsemantischen Modellierung natürlichsprachlicher Bedeutung mit referenzsemantischen Vorstellungen in konsistenter Weise verbunden werden kann.

4.2.2  Danach läßt sich natürlichsprachliche Bedeutung nicht länger mehr als zwar unscharfe aber weitgehend statische Zuordnung von sprachlichen Zeichen und Strukturen zu mehr oder weniger fixierten Gegebenheiten einer außersprachlichen Realität erklären (X isr R), sondern Bedeutung wird als dynamisch und kontextabhängig veränderliches Resultat mehrstufiger, auf Wissensbasen operierender Konstitutionsprozesse rekonstruiert, die diese Wissensbasen lernend verändern (Z opr S). Deren Relationalität - vgl. oben unter 3.3.2 - besteht daher (Abb. 8) in der veränderbaren Zuordnung von etwas Intensional-Begrifflichem S Í MS zu den Zeichen und Zeichenstrukturen in V, das ohne diese Konstitutionsprozesse (von V nach C und von C nach S Í MS) gar nicht in Erscheinung tritt oder faßbar wäre: ein System von Eigenschaften, die den sprachlichen Strukturen - über ihre Beobachtbarkeit und empirische Analysierbarkeit hinaus - als funktionaler Zusammenhang von Bedeutung in ihren Designationen zukommt.

Dieser Zusammenhang T ×S wird als unscharfe Komposition Ds zweier Relationen Pa°Sy mengentheoretisch rekonstruiert Ds = Pa°Sy Í T×S, wobei beide Relationen Sy=a| zi Í T ×C und Pa=d|yj Í C×S selber Restriktionen sind und als syntagmatische und paradigmatische Beschränkungen möglicher Kombinationen von Elementen erscheinen. Semantische Designation wird dabei primär nicht definitorisch eingeführt oder erklärt, sondern aufgrund des kommunikativen Gebrauchs in Texten usuell verstanden: sie ist daher prozedural analysierbar und kann auch so expliziert und repräsentiert werden. Denn erst der systematische Zusammenhang von syntagmatischen und paradigmatischen Restriktionen in mehrstufiger Kombination sprachlicher Einheiten zu Strukturen läßt deren Bedeutungen und Funktionen nicht nur verstehbar, erlernbar, verwendbar und veränderbar sein, sondern eben auch erkennbar, analysierbar, (re-)konstruierbar und darstellbar werden.

4.3  Anders als die hier entwickelte Rekonstruktion der Designation (von V auf über C nach S Í MS) ist allerdings die prozedurale Modellierung der Denotation (von MS über ? nach U) noch völlig offen. Die nicht nur aus Symmetriegründen eingesetzte Zwischenrepräsentation (in Abb. 8 durch das Fragezeichen kenntlich gemacht) liegt insofern nahe, weil für eine empirisch überprüfbare Rekonstruktion der Beziehungen, welche intensional durchaus auch unscharf bestimmte Elemente von Konzeptualisierungen (welchen granularen Repräsentationsformats auch immer) mit Entitäten der außersprachlichen (begrifflich schon erfaßten, zu modifizierenden oder konzeptuell noch amorphen) Welt der Erscheinungen eingehen, wohl nur über Handlungen und Operationen nicht-sprachlicher Art erreicht werden können. Denkbar wären Typen und Formen der intersubjektiven Vergewisserung weitestgehender Homotypien, wie sie in der Physik durch ihre operationalen Definitionen von Konzepten erreicht werden. Dabei werden bekanntlich über Instantiierungen von Meßoperationen unter definierten Randbedingungen - durch die zu erfüllende Forderung der prinzipiellen Wiederholbarkeit - für gleiche Meßresultate eine Art Zustimmungszwang erzeugt, der freilich die Interpretation der Ergebnisse nicht ersetzt.

Für die semiotisch fundierte, empirisch-semantische Rekonstruktion der Denotationsbeziehung durch geeignete Prozeduren (von MS über ? nach U in Abb. 8) fehlen bisher noch weiterführende Intuitionen. Sie sind allerdings eine Voraussetzung dafür, die oben erwähnte Operationalisierungslücke bei der prozeduralen Rekonstruktion der semantischen Referenz einmal erfolgreich schließen zu können.

Literatur

CELEX-Center for Lexical Information (1993): The CELEX Lexical Database: Dutch, English, German. Nijmegen (MPI for Psycholinguistics)

[Kli96] G.J. Klir/B. Yuan (1996) (Eds.): Fuzzy Sets, Fuzzy Logic, and Fuzzy Systems. Selected Papers by Lotfi A. Zadeh. Singapore (World Scientific)

[Kli97] G.J.Klir, Z.Wang, D. Harmanec (1997): Constructing fuzzy measures in expert systems, Fuzzy Sets and Systems 92, S. 251-264.

[Meh01] Mehler, A. (2001): Textbedeutung. Prozedurale Analyse und Repräsentation struktureller Ähnlichkeiten von Texten. (Diss. Trier), [Sprache, Sprechen und Computer - Computer Studies in Language and Speech], Frankfurt/Main, Berlin, Bern (Lang) [erscheint]

[Poh99] Pohl, I. (Hrsg.) (1999): Interdisziplinarität und Methodenpluralismus in der Semantikforschung. [Sprache, System und Tätigkeit 29], Frankfurt/M, Berlin, Bern (Peter Lang)

[Rie74] Rieger, B.: Eine 'tolerante' Lexikonstruktur. Zur Abbildung natürlichsprachlicher Bedeutungen auf 'unscharfe' Mengen. Zeitschrift für Literaturwissenschaft und Linguistik, 1974(16), S.31-47.

[Rie77a] Rieger, B. (1977): Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems. Zeitschrift für Literaturwissenschaft und Linguistik, 1977(27/28), S.55-68.

[Rieg77b] Rieger, B. (1977): Vagheit als Problem der linguistischen Semantik. In: Bald, W.D./Sprengel, K./Viethen, H.W. (Hrsg.): Semantik und Pragmatik. Akten des 11. Linguistischen Kolloquiums [Linguistische Arbeiten 50], Tübingen (M. Niemeyer), S.91-101.

[Rie79a] Rieger79a Rieger, B. (1979a): Repräsentativität: von der Unangemessenheit eines Begriffs zur Kennzeichnung eines Problems linguistischer Korpusbildung. In: H. Bergenholtz, B. Schaeder (Hrsg.), Empirische Textwissenschaft. Aufbau und Auswertung von Text-Corpora. Königstein, (Scriptor), S.52-70.

[Rie79b] Rieger, B. (1979): Fuzzy Structural Semantics. On a generative model of vague natural language meaning. In: Trappl, R./Hanika, P./Pichler, F.R. (Eds.): Progress in Cybernetics and Systems Research (Vol. V), Washington/New York/London (Wiley & Sons), S. 495-503

[Rie81a] Rieger, B.B. (1981): Connotative Dependency Structures in Semantic Space in: Rieger, B.B. (Ed.): Empirical Semantics II. [Quantative Linguistics 13], Bochum (Brockmeyer) 1981, S.622-711

[Rie81b] Rieger, B.B. (1981): Feasible Fuzzy Semantics. On some problems of how to handle word meaning empirically. In: H. Eikmeyer/H. Rieser (Hrsg.), Words, Worlds, and Contexts. New Approaches in Word Semantics. Berlin/New York, (de Gruyter), S.193-209.

[Rie81c] Rieger, B. (1981): Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutungen. In: J. Scharff (Hrsg.), Naturwissenschaftliche Linguistik. Leopoldina Symposion 1976. Halle, (J. Ambrosius Barth), S.251-276.

[Rie84] Rieger, B.B. (1984): Semantic Relevance and Aspect Dependency in a Given Subject Domain. In: D. Walker (Hrsg.), COLING-84 10th International Conference on Computational Linguistics, Stanford, CA (ACL-ICCL), S.298-301.

[Rie85] Rieger, B. (1985): Semantische Dispositionen. Prozedurale Wissenstrukturen mit stereotypisch repräsentierten Wortbedeutungen. In: Rieger, B. (Hrsg.), Dynamik in der Bedeutungskonstitution. Hamburg, (Buske), S.163-228

[Rie89] Rieger, B. (1989): Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Frankfurt/Main, Bern, Paris (Lang).

[Rie95a] Rieger, B.B. (1995a): Meaning Acquisition by SCIPS. In: B.M.Ayyub (Hrsg.), ISUMA-NAFIPS-95, IEEE-Transactions: Joint Intern. Conf. on Uncertainty Modeling and Analysis, Los Alamitos, CA, (IEEE Computer Society Press), S. 390-395.

[Rie95b] Rieger, B.B. (1995b): Situations, Language Games, and Semiotic Agents. In: A.Meystel/N.Nerode (Hrsg.), Architectures for Semiotic Modeling and Situation Analysis in Large Complex Systems, (1995 IEEE Monterey Workshop), Bala Cynwyd, PA (AdRem), S.130-138.

[Rie96] Rieger, B.B. (1996): Situation Semantics and Computational Linguistics: towards Informational Ecology. A semiotic perspective for cognitive information processing systems. In: K.Kornwachs/K.Jacoby (Hrsg.), Information. New Questions to a Multidisciplinary Concept, Berlin, (Akademie), S.285-315

[Rie97] Rieger, B.B. (1997): Computational Semiotics and Fuzzy Linguistics. On Meaning Constitution and Soft Categories. In: A.M. Meystel (Ed.): A Leaning Perspective. Intern. Conf. On Intelligent Systems and Semiotics (NIST Special Publication 918), Washington, DC (US Gov. Printing Office), S. 541-551.

[Rie98] Rieger, B.B. (1998): A Systems Theoretical View on Computational Semiotics. Modeling text understanding as meaning constitution by SCIPS. In: J.S. Albus (Ed.): Joint Conf. on the Science and Technology of Intelligent Systems (ISIC/CIRA/ISAS), Piscataway, NJ (IEEE Publ.), S. 840-845.

[Rie99a] Rieger, B. (1999a): Unscharfe (fuzzy) Modellierung natürlichsprachlicher Bedeutung. Zu einer computerlinguistischen Neuorientierung der Semantik. In: I. Pohl (Hrsg.): Interdisziplinarität und Methodenpluralismus in der Semantikforschung. [Sprache, System und Tätigkeit 29], Frankfurt/Main, Berlin, Bern (Lang), S.99-121

[Rie99b] Rieger, B.B. (1999b): Semiotics and Computational Linguistics. On Semiotic Cognitive Information Processing. In: Zadeh/Kacprzyk, S.93-118.

[Rie99c] Rieger, B.B. (1999): Computing Fuzzy Semantic Granules from Natural Language Texts. A computational semiotics approach to understanding word meanings. in: Hamza, M.H. (Ed.): Artificial Intelligence and Soft Computing (IASTED-99). Anaheim/Calgary (Acta Press), S.475-479

[Rie01] Rieger, B.B. (2001): Computing Granular Word Meanings. A fuzzy linguistic approach in Computational Semiotics. In: Wang, S.147-208

[Sha49] Shannon, C. E., Weaver, W.: The Mathematical Theory of Communication, Urbana 1949.

[Wan01] P. Wang (2001)(Ed.): Computing with Words. [Wiley Series on Intelligent Systems 3], New York (Wiley & Sons)

[Yag87] R.R. Yager/S. Ovchinnikov/R. Tong/H. Nguyen (1986) (Eds): Fuzzy Sets and Applications: Selected Papers by L.A. Zadeh. New York (Wiley & Sons)

[Zad65] Zadeh, L.A. (1965): Fuzzy Sets. Information and Control 8, S.338-353.

[Zad71] Zadeh, L.A. (1971): Quantitative Fuzzy Semantics, Information Science 3, S. 159-176

[Zad75] Zadeh, L.A. (1975): The concept of a linguistic variable and its applications to approximate reasoning Part I: Information Science 8, S.199-249; Part II: 8, S.301-357; Part III: 9, S.43-80.

[Zad79] Zadeh, L.A. (1979): Fuzzy Sets and Information Granulation. In: M. Gupta/R. Ragade/R. Yager (Eds.): Advances in Fuzzy Set Theory and Applications. Amsterdam (North Holland), S. 3-18.

[Zad78] Zadeh, L.A. (1978): PRUF - a meaning representation language for natural languages. Int. Journ. Man-Machine-Studies 10, S. 395-460; auch in: E.H. Mamdani/B.R. Gaines (Eds.): Fuzzy Reasoning and its Application. London/New York/Toronto (Academic Press) 1981, S. 1-66.

[Zad81] Zadeh, L.A. (1981): Test-Score Semantics for Natural Languages and Meaning Representation via PRUF. In: Rieger, B.B. (Ed.): Empirical Semantics, Vol. 1 [Quantitative Linguistics 12], Bochum (Brockmeyer), S. 281-349.

[Zad86] Zadeh, L.A. (1986): Outline of a computational approach to meaning and knowledge representation based on a concept of a general assignment statement. In: M. Thoma/A. Wyner (Eds.): Proc. of the Intern. Seminar on Artificial Intelligence and Man-Machine Systems, Heidelberg (Springer), S. 198-211

[Zad96] Zadeh, L.A. (1996): Fuzzy Logic = Computing with Words. IEEE Transactions on Fuzzy Systems 4, S. 103-111; reprinted in: L.A.Zadeh/J. Kacprzyk (Eds.)(1999), S.3-23.

[Zad97] Zadeh, L.A. (1997): Toward a theory of fuzzy information granulation and its centrality in human reasoning and fuzzy logic. Fuzzy Sets and Systems 90, S.111-127.

[Zad99] Zadeh, L.A., Kacprzyk, J. (Eds.) (1999): Computing with Words in Information/Intelligent Systems - Vol. I : Foundations. Heidelberg (Physica).

[Zad01] Zadeh, L.A. (2001): From Computing with Numbers to Computing with Words - from Manipulation of Measurements to Manipulation of Perception. In: Wang, S. 35-68


Footnotes:

1Geläufige und viel zitierte Beispiele hierfür sind: Gesichter (Wieder-)Erkennen, Sprachverstehen, Zusammenfassen von Texten, Fahrradeln, Einparken von Autos, Fahren in dichtem Verkehr, Tennisspielen, etc.

2Die (unbestreitbaren) Erfolge wie die (gern verschwiegenen) Fehlschläge der KI-Forschung in den vergangenen 20 Jahren stehen hierfür gleichermaßen als Beleg.

3Zu aktuellen Fragen der Semantikforschung, die von Inge Pohl et.al. organisiert und veranstaltet werden und in den letzten Jahren in Landau stattfanden.

4Begrifflich wird hierzu im folgenden unterschieden zwischen den beiden Typen: Entität und Kennzeichnung, deren Instantiierung einander in einer ontologischen Reihe bzw. epistomologischen Hierarchie vermitteln. Durch verallgemeinernde Subsumption von je vorliegender Vielheiten unter abstraktiv gewonnenen Einheitlichkeiten erscheinen sie sukzessiv auf folgenden Strata: Phänomenebene: Erscheinungen durch übergreifende Beschreibung; Darstellungsebene: Beschreibungen durch gemeinsame Struktur; Konstruktionsebene: Strukturen durch zugrundeliegende Prozesse; Realisationsebene: Prozesse durch sie definierende Prozeduren; Implementationsebene: Prozeduren durch Algorithmen und Programme. - Wissenschaftstheoretisch bisher wenig reflektiert - und u.a. Gegenstand einer separaten Abhandlung, an der Verf. arbeitet - ist der epistemisch bedeutsame Umstand, daß Prozeduren, als von ihrer Zeitlichkeit abstrahierte Prozesse, eine doppelte Seinsweise auszeichnet, die einerseits eine (Form-gebundene aber Zeit-unabhängige) Manipulation und andererseits eine (Zeit-gebundene aber Takt-unabhängige) Überprüfung zuläßt: nämlich einmal als formalsprachliche Notation in Form von Programmen und zum anderen als kontrollierter Ablauf in Form ihrer Exekution im Rechner. Daß eine Prozedur - über ihre (nicht immer mögliche) Algorithmisierung als lauffähiges Programm im Computer implementiert - einen Prozeß realisiert, welcher Strukturen produziert, denen Beschreibungen entsprechen, die auf beobachtbare Erscheinungen zutreffen, macht - bei formaler Korrektheit - die quasi empirische Überprüfbarkeit und die intersubjektive Evaluierbarkeit operational definierter, prozeduraler Modellierungen von beliebigen Entitäten und ihren durchaus nicht beliebigen Kennzeichnungen aus. Dieser Zusammenhang läßt erkennen, daß die Erarbeitung wissenschaftlicher Erkenntnis selbst als ein semiotischer Prozeß rekursiver Bedeutungskonstitution verstanden werden kann.

5Als SW-Agenten werden hier Programmsysteme bezeichnet, die informationsverarbeitende Funktionen zur (relativ) selbständigen Akquisition, Steuerung, Kontrolle und Repräsentation von wissensbasierten Handlungszusammenhängen übernehmen, ohne selber als physikalische Handlungseinheit (Roboter) realisiert zu sein.

6So wird etwa von der Verarbeitung sensuellen Daten durch den Agenten abgesehen, womit auch von den physikalischen Randbedingungen der Gegebenheit der Sprachzeichen wie von anderen Informationsquellen seiner Umgebung abstrahiert wird.

7Obwohl Ergebnisse aus statistischen Analysen korrekt erhobener (sprachmaterialer) Stichproben verallgemeinerbare Aussagen auch über die Grundgesamtheiten erlauben, aus denen sie stammen, sollte man tunlichst vermeiden, diese Stichproben repräsentativ  zu nennen (vgl. [Rie79]).

8Dieser Grundgedanke, der von vielen Disziplinen fast gleichzeitig Mitte des letzten Jahrhunderts formuliert wird und in psychologisch-kognitionstheoretischen ebenso wie anthropologisch-soziologischen Ansätzen, in philosophisch-sprachanalytischen ebenso wie strukturalistisch-linguistischen Positionen belegt ist (vgl. [Rie77a], S. 60), hat - wie seine Neuformulierung in der unscharfen (fuzzy) Semantik zeigt - nicht an Aktualität verloren.

9Diese umfassen sowohl analytische Formen der Verständnis- und Wissensexploration über Probanden, Expertenbefragung, Textinterpretation, etc. als auch generierende Formen des algorithmischen Wissenserwerbs aus formatierten Beständen (mining) wie Datenbanken, Informationsbasen, Textsammlungen, etc.

10Hierzu zählen Prozesse der relevanten Auswahl und perspektivischen Reorganisation von Elementen und Strukturen [Rie84], deren Verknüpfung durch Operatoren der FL [Rie81a] und durch prozedurale Inferenzen [Rie85].

11Symbolische, regelbasierte Formate traditioneller und unscharfer Logik, prozedurale und deklarative Repräsentationen, semantische Netzwerke und Produktionssysteme etc. konkurrieren mit sub-symbolischen oder verteilten Repräsentationen, mit künstlichen neuronalen Netzen, mit objektorientierten Typ-Instanz-Strukturen, etc. bei der Lösung von Modellierungsproblemen des Erwerbs, der Auswahl und des Erschließens von Wissen.

12Als Terme werden hier morpho-syntaktisch korrekte, lexiko-semantisch interpretierbare und situativ-pragmatisch angemessene Aggregate A(z) von z Î T bezeichnet.

13Dies sind auch Teilmengen x Î X(z) Ì U des Diskursuniversums.

14Das gelingt erst einem strukturalen semantischen Ansatz [Rie74], der hierzu die in großen Textmengen beobachtbaren syntagmatischen und paradigmatischen Regularitäten natürlichsprachlicher Zeichenaggregation analysiert und repräsentiert [vgl. Rie99a].

15Unscharfe Regelungssysteme (fuzzy controller) für komplexe Steuerungsprobleme sind hier beispielhaft, die anstelle einer physikalisch-numerischen Modellierung (mittels Differenzen- und Differentialgleichungen) eine quasi sprachlich-numerische Modellierung über unscharfe Wenn-Dann-Regeln sehr erfolgreich verwenden.

16Sei beispielsweise ED:=R= PERSON [ Name; Alter; Größe; ¼] + JUNG [Alter; m] + KLEIN [Größe; m] wobei PERSON, JUNG und KLEIN Relationen, Name, Alter, Größe, m Argumente sind und + als Disjunktion gilt.

17Durch Belegung des Arguments Name mit dem Wert 'Tom' und den diese Person charakterisierenden Daten wird die vorliegende ED instantiiert zu EDI= PERSON [ Name=Tom; Alter=22; Größe=177; ¼].

18Eine solche Variable X kann gleichzeitig keine zwei (oder mehr) Werte in U annehmen.

19So wie der Wert einer Ziffer nicht nur durch deren Form bestimmt wird, sondern - im arabischen Zahlensystem - auch von der Position abhängt, an welcher Stelle sie vor oder nach dem Komma steht.

20Das Konzept einer linguistischen Variable [Zad75b] ist ein Zentralbegriff der FST und kennzeichnet die Schnittstelle lexikalisierter Strukturen kognitiver Zusammenhänge mit mengentheoretischen Strukturen mathematischer Formalisierung. Eine linguistische Variable wie LÄNGE hat danach etwa die Werte kurz, lang, sehr lang, überlang etc., die einmal sprachlich durch weitere linguistische Variablen, zum anderen meßtechnisch-operativ über Angabe von Referenzbereichen eingeschränkt werden (können). Kotextuelle Beschränkungen werden dabei attributiv über Relationen wie etwa WEG[LÄNGE; BESCHAFFENHEIT etc.] oder HAAR[LÄNGE; FARBE etc.] bewirkt, die den jeweiligen Wertebereich von LÄNGE kontextuell anpassen und konzeptuell verschieben ( kurze Wege  sind generell länger als kurze Haare  ). Die Angabe von Referenzobjekten (etwa als Name einer Person) wie HAAR(Tom)[LÄNGE = kurz; FARBE = blond; etc.] partikularisiert die Relation und schränkt sie - möglicherweise über andere linguistische Variablenwerte - weiter ein auf die entsprechenden Possibilitätsverteilungen wie Pkurz (LÄNGE (HAAR (Tom))) ={ > 0-20mm\0.9 + > 20-40mm\1.0+ > 4-10cm\0.7 + > 10-30cm \0.5, + ¼}, welche die Angemessenheit des Prädikats kurz  für Toms Haarlänge als numerischen Wert 0 £ mkurz(x) £ 1 zu fassen erlaubt.

21Nach Überführung des Satzes Tom hat kurzes Haar  in die der kanonischen Form pros® X is R entsprechende Proposition: Toms Haar ist kurz bildet die Länge von Toms Haar die einzuschränkende Variable X und seine Kürze die sie einschränkende Relation R. Das führt - auf der Grundlage der oben gegebenen ED und EDI - zur formalen Explikation von
X = LÄNGE ( HAAR (Tom)) =LÄNGE(HAAR) PERSON [ Name=Tom]
=LÄNGE        *1.1cm HAAR [ Länge=kurz];
R = KURZ [ > 0-20mm\0.9 + > 20-40mm\1.0 + > 4-10cm\0.7 + > 10-30cm\0.5, +¼]

22Dieser Teilbereich des sog. soft computing konkurriert darin mit einem Grundanliegen auch der theoretischen Linguisten, insbesondere in der Computerlinguistik, unterscheidet sich aber von diesen durch seine Fundierung in FST und FL sowie durch die Radikalität seiner kognitiven Anwendungsorientierung.

23Die zahlreichen von Zadeh in verschiedenen Aufsätzen [Yag87; Kli96] vorgeschlagenen Übersetzungsregeln natürlichsprachlicher Ausdrücke in Propositionen kanonischer Form als Vorstufe von Möglichkeitsverteilungen PX erlauben keine Algorithmisierung der Identifikation der Basisvariablen X in natürlichsprachlichen Ausdrücken. Der Prozeß, der Elemente z Î T mit x Î U assoziiert bzw. die unscharfen Relationen P Ì T sprachlicher Bezeichnungen den unscharfen Teilmengen X Ì U des Bezeichneten zuordnet, ist höchst klärungsbedürftig, weil er die Bedeutungskonstitution betrifft. At this juncture in the development of PRUF, we do not have an algorithm for identifying the base variables in a given proposition. However, experience has shown that it is not difficult for a human subject to acquire a facility for translating any proposition within a broad class of propositions into a possibility assignment equation. (Zadeh 81, S.288)

24Durch leeres Symbol Æ deswegen gekennzeichnet, weil PX als Basistyp natürlichsprachlicher Bedeutungsexplikation in TFIG gilt.

25Auf diese Möglichkeit weist auch Zadeh hin: In addition to the types of constraints defined above there are many others that are more specialized and less common. A question that arises is: What purpose is served by having a large variety of constraints to choose from? A basic reason is that, in a general setting, information may be viewed as a constraint on a variable. (Zadeh 97, S.117)

26Sie kann als Funktion aller Unterschiede der Verwendungsweisen aller Wörter in den zugrunde gelegten Texten gedeutet werden, weil dies die in Sy und Pa modellierten und empirisch analysierten Einschränkungen von Wahlmöglichkeiten der (theoretischen) Kombinierbarkeit von Wörtern sind.

27Als Metrik ist z Allrelation in S×S und setzt sämtliche Bedeutungspunkte pj Î áS,zñ zueinander in Beziehung (Vollständigkeit), bemißt diese numerisch als Distanzen (Gewichtung) mit der Eigenschaft der Symmetrie (Ungerichtetheit).

28Der Algorithmus aus [Rie89, S.245f] wird hier in seiner heute üblichen, graphentheoretisch verallgemeinerten Form (vgl. [Meh01], S. 318f) notiert.

29Die Unterscheidung von j und w, die in der vorliegenden Generierung der DDS-Bäume mit z identisch sind, ist sinnvoll, weil sowohl für die Metrik von S und/oder die Gewichtung von K, als auch für das Verkettungskriterium der Dependenz Dep durchaus unterschiedliche Koeffizienten eingesetzt werden können.

30Die Textgrundlage bildet ein Teilkorpus deutscher Zeitungstexte (DIE WELT 1964) aus [Rie89], dessen maschinelle Lemmatisierung auf der Basis des CELEX Wörterbuchs zu leichten Abweichungen gegenüber den in [Rie99a] abgedruckten DDS-Bäumen führte.