VAGHEIT ALS PROBLEM DER LINGUISTISCHEN SEMANTIK
Zur Verbindung von Methoden der Statistik mit der Theorie der unscharfen Mengen bei der Analyse von Bedeutung1

Burghard Rieger2


1.  Eine Durchmusterung etwa der Sachregister (einer hinreichenden Anzahl) einschlägiger sprachwissenschaftlicher Werke zeigt: Vagheit oder Unschärfe ist im Unterschied zu Ambiguität oder Mehrdeutigkeit in der Mehrzahl der Fälle (noch) kein Stichwort fürs Register.

1.1.  Geht man davon aus, daß Ambiguität generell die Möglichkeit voraussetzt, in ein und demselben Fall mehrere unterschiedliche, dabei jedoch jeweils eindeutige Entscheidungen fällen zu können, dann wird im Gegensatz dazu von Vagheit in all jenen Fällen gesprochen werden müssen, in denen eine eindeutige Entscheidbarkeit gerade nicht möglich ist.
Ambiguity differs from vagueness. Vague terms are only dubiously applicable to marginal objects, but an ambiguous term such as 'light' may at once [be] clearly true of various objects (such as dark feathers) and clearly false of them. (Quine 1960: 129)

Mehrdeutigkeiten lassen sich deswegen im Prinzip immer disambiguieren, d. h. bei grammatischer Ambiguität durch Angabe der unterschiedlichen Phrasenstrukturen oder bei lexikalischer Ambiguität durch Angabe der unterschiedlichen Bedeutungen klären. Eine generelle Präzisierung von Unschärfe ließe dagegen das Phänomen selbst verschwinden: ungeachtet seiner kommunikativen Funktion würde es um den Preis seiner vorgeblichen Verdeutlichung quasi hinwegpräzisiert.

Good purposes are often served by not tampering with vagueness ... Vagueness does not perturb the truth values of the usual sentences in which vague words occur ... When sentences whose truth values hinge on the penumbra of a vague word gain importance, they cause pressure for a new  v e r b a l  convention or changed trend of  u s a g e  that resolves the vagueness in its relevant portion. [Hervorhebungen nicht im Original] (Quine 1960: 127f.)

1.2.  Man kann deswegen versucht sein, Ambiguität nicht als Eigenschaft natürlich-sprachlicher Ausdrücke, sondern als Folge der Eigenschaften des Inferenz- und Repräsentationssystems zu verstehen, auf das die linguistische Analyse diese natürlich-sprachlichen Ausdrücke abbildet; Vagheit würde im Unterschied dazu als konstitutive Charakteristik des Funktionszusammenhangs erscheinen, in den jede kommunikative Verwendung diese natürlich-sprachlichen Ausdrücke immer schon gestellt hat. Die bisherigen Beschreibungssysteme, die diesen Funktionszusammenhang nur reduktionistisch abzubilden gestatten, versagen deswegen bei der Repräsentation von Vagheit (Rieger 1976c), wobei es freilich inzwischen adäquatere Analysemethoden und auch angemessenere Repräsentations- und Inferenzsysteme zu geben scheint.
Zunehmend erfolgreichere Modelle ungefähren Schließens mit unscharfen Daten (approximate reasoning) haben hier eine Neuorientierung eingeleitet, die besonders mit den jüngsten Ideen Zadehs (1975) und seinen früheren Überlegungen zur Theorie der unscharfen Mengen verbunden ist.

Rather than regard human reasoning processes themselves 'approximating' to some more refined and exact logic process that could be carried out perfectly with mathematical precision, he has suggested that the essence and power of human reasoning is in its capability to grasp and use inexact concepts directly. He argues that the attempts to model, or emulate, it by formal systems of increasing precision will lead to decreasing validity and relevance. Most human reasoning is essentially 'shallow' in nature and does not rely upon chains of inference unsupported by intermediate data it requires, rather than merely allows, redundancy of data and paths of reasoning it accepts minor contradictions and contains their effects so that universal inferences may not be derived from their presence. (Gaines 1975: 101)

1.3.  Mit der Abkehr davon, kognitive Prozesse über scharfe  Modelle des menschlichen Schließens, Folgerns, Urteilens und Verstehens aufhellen zu wollen, ist aber auch die Diskussion pragmalinguistischer Vorstellungen in eine neue Phase getreten. Kommunikative Handlungen als Basis aller primären Bedeutungskonstitution könnten hierdurch möglicherweise nun eine auch formal befriedigendere Darstellung erhalten (Lorenz 1976; Nowakowska 1976). Für eine linguistische Semantik, die analog dazu das Phänomen der Vagheit natürlich-sprachlicher Bedeutung nicht nur formal, sondern möglichst auch empirisch adäquat zu fassen sucht, stellt sich daher das Problem ihrer Analyse mit um so deutlicherer Dringlichkeit (Rieger 1976a).
Dabei kann auf die seit langem erprobten und ständig weiterentwickelten Verfahren etwa der quantitativen Linguistik, der Dokumentationswissenschaft oder auch des Information Retrieval zurückgegriffen werden. Diese anwendungsorientierten Disziplinen eröffnen gerade der linguistischen Semantik ein bisher noch kaum beachtetes, experimentelles Methodenarsenal, dessen mathematisch-statistische Ausrichtung nicht nur die Anschließbarkeit an die unscharfen Konzeptionen der neueren Theorienbildung erleichtert, sondern damit auch wesentliche Voraussetzungen erfüllt, in Zukunft einmal in einen strikt deskriptiven, empirisch-analytischen Basisteil der bisher überwiegend noch theoretischen Linguistik integriert zu werden.

No one can deny the fact that the application of vocabulary statistics to document retrieval brings more immediate results than the use of other more sophisticated linguistic techniques. However, though the pragmatic result is there, the work has not received an adequate linguistic explanation within that or another linguistic theory ... There is no doubt that without touching the deep structure layers of language, quantitative techniques could not produce meaningful results; but few attempts were made to explain the inner mechanics of quantitative language analysis. (Moskovich 1976: 12f.)
2.  Um eine formal befriedigende Abbildung natürlich-sprachlicher Bedeutung zu erreichen, die deren in kommunikativen Verwendungssituationen empirisch beobachtbare Vagheit nicht schon aufgrund eines diesem Phänomen gegenüber unangemessenen Repräsentationssystems hinwegpräzisiert, wurde schon früher (Rieger 1974) eine Verbindung quantitativ-statistischer Methoden der Textanalyse mit formal-algebraischen Notationen der Theorie der unscharfen Mengen vorgeschlagen und hergestellt.
Da die Anwendung dieser Notationen auf das Phänomen der Vagheit von Bedeutungen sehr viel weniger problematisch erscheint als eine sprachtheoretische Fundierung der Anwendung statistischer Methoden zur Ermittlung semantischer Strukturen in natürlich-sprachlichen Texten, mag hier eine Beschränkung auf die Grundidee der unscharfen Menge gerechtfertigt sein.

2.1.  Nach Zadeh (1965) kann die eine unscharfe Menge A charakterisierende Funktion mA(x) eines Elements x dieser Menge A nicht nur – wie in der klassischen Mengentheorie – die Werte 0 (nichtzugehörig) und 1 (zugehörig) annehmen, sondern auch jeden beliebigen anderen Wert zwischen 0 und 1, wobei mA(x) = 0.2 eine geringere Zugehörigkeit des Elements x zur unscharfen Menge A anzeigt als mA(x)=0.8.
Allgemein wird eine unscharfe (Teil-)Menge A in X charakterisiert durch die Zugehörigkeitsfunktion mA:X®[0,1], die jedem x Î X genau einen Zugehörigkeitswert mA(x) aus dem Intervall [0,1] zuordnet, der den Grad angibt, mit dem das Individuum x als Element der unscharfen Menge A zu gelten hat. Die unscharfe Menge A besteht also aus der Menge der geordneten Paare A: = {(x,ma(x))} für alle x Î X.
Im Hinblick auf das Abbildungsproblem von Vagheit läßt sich nun die Menge X als eine Deskriptorenmenge auffassen, derart, daß die vage Bedeutung eines Terms als unscharfe Teilmenge von X erklärt wird und zwar – je nach Deutung – extensional als unscharfe Elementenmenge, deren Name dieser Term ist, bzw. intensional als unscharfe Prädikatenmenge, die ein mit diesem Term bezeichnetes Individuum erfüllt.

2.2.  Im Unterschied zu Zadeh (1971), der bei der Anwendung dieses Konzepts auf die Bedeutungsphänomene der natürlichen Sprache von einem rein referenzsemantischen Ansatz ausging, erlaubt der strukturale Angang Riegers, den formalen Bedeutungsnotationen auch empirische Methoden der Bedeutungsanalyse zuzuordnen. Sie stellen die den Zugehörigkeitsfunktionen entsprechenden operationalen Meßvorschriften dar, die bei Zadeh fehlen.
Die Bedeutungsanalyse baut im wesentlichen auf einer statistischen Korrelationsanalyse der im jeweils untersuchten Textmaterial verwendeten Lexeme auf. Die quantitative Bestimmung ihrer Verwendungsregularitäten und die Messung ihrer Unterschiedlichkeiten führt dabei zum Modell einer Lexikonstruktur (Rieger 1974), in der die Bedeutung eines Lexems als Funktion seiner kommunikativen Verwendungsweisen definiert und als unscharfe Teilmenge des verwendeten Vokabulars abgebildet wird. Das Modell erlaubt darüber hinaus (Rieger 1975), paradigmatische Felder einzelner Lexeme als topologische Umgebungen der ihnen zugeordneten Bedeutungspunkte zu explizieren, wobei die mit unterschiedlichen kommunikativen Erfordernissen wechselnde Schärfe oder Präzision vager Bedeutungen über variable Toleranzen erfaßt werden kann. Dieses zunächst deskriptive Modell läßt sich zudem (Rieger 1976b) zu einem generativen System erweitern. Dabei lassen sich – durch Übertragung der in der Theorie der unscharfen Mengen möglichen Verknüpfungsoperationen und Definitionen – einmal aus den textanalytisch ermittelten Bedeutungen durch deren Negation, Konjunktion und Adjunktion neue Bedeutungen generieren, die als wiederum unscharfe Teilmengen des Vokabulars neue Bedeutungspunkte innerhalb der Lexikonstruktur definieren, zum anderen können in dem Strukturmodell Sinnrelationen erklärt werden, die nun Synonymie, Ähnlichkeit, Hyponymie, etc. zwischen vagen Bedeutungen formal, aber Satz-unabhängig explizieren.

3.  Voraussetzung dieser eher modell-theoretischen Folgerungen aus der Lexikonstruktur ist aber eine sprachtheoretische Hypothesenbildung, derzufolge statistische Methoden im allgemeinen (3.1.) bei der Analyse semantischer Strukturen in Texten erfolgreich eingesetzt werden können, und im besonderen (3.2.) zur Ermittlung gerade solcher (paradigmatischer) Abhängigkeiten geeignet sind, die in der (syntagmatischen) Struktur der analysierten Texte nicht eigens mehr formuliert werden.

3.1.  Es ist sicher richtig, daß statistische Verfahren zur Ermittlung semantischer Strukturen nur dann erfolgreich eingesetzt werden können, wenn alle Bedingungen, die zur Strukturierung beitragen, sich tatsächlich in den analysierten Texten zeigen. Ebenso sicher aber wäre es verfehlt, hieraus die methodologische Folgerung abzuleiten, daß textstatistische Analysen (im Rahmen eines bestimmten Untersuchungsziels) grundsätzlich alle Texte mit allen situativen Daten ihrer kommunikativen Verwendung zugänglich sein müßten. Eine solche Folgerung übersähe, daß gerade diese extremale (und unrealisierbare) Erfüllung der Forderung den Einsatz von Methoden der urteilenden Statistik geradezu überflüssig machte. Deren methodische Stärke besteht aber darin, daß sie – entgegen dem auf beschreibende Verfahren verkürzten üblichen Statistikverständnis – es erlaubt, auch dann noch vernünftige Entscheidungen/Aussagen zu machen, wenn infolge von unvollständiger Kenntnislage, d. h. bei nur begrenzt zugänglichen Informationen, Unsicherheit herrscht. Als vernünftig werden dabei aber nicht nur wahre , sondern alle jene Aussagen gelten, die bei einem jeweiligen Informationsstand sämtliche verfügbaren Daten optimal berücksichtigen. Die Theorie der urteilenden Statistik hat die methodische Seite des Problems solcher Optimierung weitgehend systematisiert und ausgearbeitet.
Leider wird bei der Anwendung beschreibender wie urteilender statistischer Methoden auf wie immer auch geartete Gegenstandsbereiche die andere Seite übersehen, nämlich, daß die diese Gegenstände erst konstituierende, jeweilige fachspezifische Theorienbildung für die Bestimmung dessen, was innerhalb einer Disziplin als vernünftige oder relevante Frage bzw. Hypothesenbildung gelten kann, mindestens ebenso wichtig ist wie die zu ihrer Entscheidung angewandte bzw. entwickelte statistische Theorie. Dieser Zusammenhang, der – wenn auch aus unterschiedlichen Blickwinkeln – schon während der Corpus-orientierten Phase der älteren strukturalistischen Linguistik (Bloomfield, Firth, Harris, etc.) ebenso häufig übersehen wurde, wie in den frühen Bemühungen um eine exakte Behandlung sprachlicher Phänomene (Herdan, Fucks, Guiraud, etc.), ist an anderer Stelle (Rieger 1972) für sprach- bzw. textwissenschaftliche Gegenstandsbereiche anhand der Interdependenz von Stichprobe und Grundgesamtheit einerseits mit Untersuchungsgegenstand und Untersuchungsziel andererseits entwickelt worden mit dem Resultat, daß für eine sinnvolle Anwendung statistischer Methoden in der Linguistik ein Untersuchungsgegenstand sich deuten lassen muß als zufällige Stichprobe aus einer fiktiven Grundgesamtheit, die nur vom jeweiligen Untersuchungsziel her bestimmt wird.

3.2.  Der häufigste und zunächst auch einleuchtende Einwand lautet, daß paradigmatische (Saussure: assoziative) Strukturen – womit solche semantischen Regelhaftigkeiten gemeint sind, die von den miteinander Kommunizierenden bei der Produktion/dem Verstehen von Äußerungen/Sätzen/Texten (strings) schon vorausgesetzt werden können – gerade deswegen nicht über textstatistische Analysen ermittelbar seien, weil sie in den syntagmatischen (Saussure: linearen) Strukturierung der zugänglichen Strings gar nicht mehr formuliert werden. Dabei wird aber aus dem Nebeneinander eines verschwommenen (meist nur metaphorischen) Struktur-Begriffs einerseits und eines (auf strikte Wenn-Dann-Abhängigkeit) verkürzten Regel-Begriffs andererseits auf die Unvereinbarkeit von Gegenstand und Methode geschlossen: da der unterstellte (streng deterministische) Regelbegriff zur Beschreibung jener Vielfalt möglicher Abhängigkeiten zwischen Lexemen offenbar ungeeignet ist, die der (notwendigerweise unscharfe) Begriff der paradigmatischen Struktur aber gleichwohl umfaßt, wird weder die Frage der Angemessenheit eines anderen (probabilistischen) Regelbegriffs noch die Möglichkeit eines die Vagheit präzise abbildenden Struktur- bzw. Feldbegriffs wirklich diskutiert. Dabei vermag gerade der statistische Regelbegriff jene Vielfalt unscharfer Abhängigkeiten zu erfassen, die zu Recht als ein Konstitutivum der paradigmatischen Struktur gelten. Indem Regularität als ein Kontinuum von Korrelationen zunehmender Determiniertheit vor dem Hintergrund des Zufalls bestimmt wird, kann die ganze Spanne möglicher Ausprägungen von Abhängigkeiten erfaßt und übergreifend beschrieben werden, ohne daß der Gegenstandsbereich dadurch vorab auf Präzisierbares verkürzt bzw. reduktionistisch vereinheitlicht wurde.

3.2.1.  Die Frage stellt sich daher anders: wie muß ein Untersuchungsgegenstand beschaffen sein, damit in seiner statistischen Analyse mehrdimensionale (paradigmatische) Strukturen erfaßbar werden, von denen in der Kommunikation Sprecher/Hörer immer schon Gebrauch machen, die aber eben darum auch nicht ohne Einfluß bleiben auf die linearen (syntagmatischen) Strukturen von in bestimmten Situationen produzierten/verstandenen Strings? Das, was in der linearen Struktur (Eindimensionalität) eines Strings empirisch beobachtbar ist, muß (qualitativ) als Folge oder Resultat einer Vielzahl (Mehrdimensionalität) Von direkt offenbar nicht beobachtbaren Einflußgrößen verstanden und kann (quantitativ) nur als e i n  Ergebnis, d. h. als ein einzelner Beleg eines solchen Einflusses gedeutet werden. Das heißt aber einmal: erst eine Vielzahl solcher Belege wird auf eine möglicherweise vorliegende Regularität (Abhängigkeit) schließen lassen, zu deren Ermittlung es daher nicht genügen kann, nur einzelne Strings zu analysieren. Und das bedeutet weiter: wenn es richtig ist, daß zum Zweck der Kommunikation im einzelnen Satz/einzelnen Text schon von Regularitäten Gebrauch gemacht wird, die definitionsgemäß von übersatzmäßigen/textübergreifenden Abhängigkeiten konstituiert werden (bzw. diese auch selbst konstituieren), dann lassen sich solche übergreifenden Strukturen nicht anhand der größten Menge zusammenhangloser Äußerungen/Sätze/Texte analysieren und beschreiben, sondern nur anhand einer quasi gepoolten Menge von pragmatisch-homogenen Strings, die damit diesen übergreifenden, kommunikativen Zusammenhang repräsentiert. Das primär angewandte statistische Analyseverfahren sieht daher ab von der linearen Abhängigkeit der Lexeme innerhalb der untersuchten Texte und mißt einzig die Korrelation jedes der in ihnen verwendeten/vorkommenden Lexeme mit jedem anderen des benutzten Vokabulars paarweise über die Menge aller im Corpus enthaltenen Texte. So wird das Textcorpus als Ganzes zum Untersuchungsgegenstand, der – ungleich vielleicht geläufigerer Corpusdefinitionen – den Satz-/Text-übergreifenden Zusammenhang insofern im Sinne von (3.1.) abbildet, als er als eine zufällige Stichprobe aus der fiktiven Grundgesamtheit all derjenigen Äußerungen/Sätze/Texte gelten kann, die in dieser (durch Ort, Zeit, Medium, Gegenstand und Beteiligte der Kommunikation bestimmten) Pragmatik tatsächlich produziert wurden oder doch hätten produziert werden können.

3.2.2.  Akzeptiert man diesen Ansatz auch im Prinzip, so werden doch sogleich Satz-orientierte Einwendungen erhoben werden müssen. Kommt man denn nicht – so ließe sich fragen – zu völlig falschen Ergebnissen bei der Analyse, wenn man schon bei der Korrelationsmessung offenbar doch so unterschiedliche Syntagmen wie beispielsweise der Frühling mit all seinen Blüten und ein Frühling ohne jede Blüte in bezug auf die Abhängigkeit zwischen 'frühling' (F) und 'blüte' (B) in der Analyse völlig unterschiedslos behandelt? – In beiden Fällen wird ja F und B als im String zusammen vorkommend erfaßt und bei genügend häufiger Belegung solcher Vorkommen in den Strings des Corpus positiv korreliert sein, folglich als hoch affin bewertet werden. Dies ist sogar dann der Fall, wenn – wie das Extrembeispiel verdeutlicht – sämtliche in einem Corpus enthaltenen Belege von F und B in Syntagmen ausschließlich der Art Frühling und keine Blüte vorkommen; die darin zwischen F und B proponierte Abhängigkeit ist aber ja gerade nicht die der Affinität.
Diesem Einwand läßt sich anhand der Unterscheidung syntagmatischer von paradigmatischen Regularitäten begegnen, und zwar im besonderen durch Vergegenwärtigung von deren auch unterschiedlichen Aufgaben in einem kommunikativen Äußerungs- bzw. Verstehensmodell, in dem (sehr skizzenhaft) der Zusammenhang sich etwa wie folgt darstellt: Ziel jeder Kommunikation ist Bedeutungskonstitution. Sie läßt sich als Prozeß zunehmender Einschränkung von Wahlmöglichkeit deuten, den die Kommunizierenden über Zeichen und Zeichenfolgen wechselseitig initiieren und/oder nachvollziehen. Wenn man paradigmatische Strukturen als Teil des Vorwissens der Sprecher/Hörer deutet, dann werden für sie mit jedem in einem Sprechakt verwendeten Lexem zunächst auch immer dessen paradigmatische Abhängigkeiten aktualisiert werden. Diese werden freilich, da Lexeme bei Verwendung in konkreten Sprechakten meist in linearer Verkettung mit syntaktischen Form- und Funktionszeichen in Strings eingebettet sind – durch die so konstituierten syntagmatischen Abhängigkeiten spezifiziert und zwar – je nach propositionalem Gehalt – in höherem oder geringerem Maße. Dabei ergeben sich zwei unterscheidbare Fallgruppen:
  1. eine starke paradigmatische Abhängigkeit zweier Lexeme läßt deren beider Verwendung innerhalb desselben Syntagmas um so überflüssiger erscheinen, je weniger diese Abhängigkeit der aktuellen Sprecherintention entgegensieht;
  2. eine starke paradigmatische Abhängigkeit zweier Lexeme läßt die explizit formulierte Ausschließung des einen bei Verwendung des anderen innerhalb desselben Syntagmas um so notwendiger erscheinen, je deutlicher diese Abhängigkeit der aktuellen Sprecherintention zuwiderläuft.

Als Folge dieser Unterscheidung wären demnach zwei tendenziell gegenläufige Ausprägungen von paradigmatischer Abhängigkeit auf die im Textmaterial direkt beobachtbaren, syntagmatischen Strukturen zu erwarten: Lexeme werden (Fallgruppe a) um so seltener in Strings zusammen vorkommen, je stärker ihre paradigmatische Abhängigkeit ist, es sei denn (Fallgruppe b), eben diese Abhängigkeit zwischen ihnen wird durch explizit formulierte (syntaktische) Zusätze eingeschränkt: dann werden auch paradigmatisch stark abhängige Lexeme in zahlreichen Strings zusammen belegt sein.
Das Verfahren der statistischen Korrelationsanalyse versucht diesem Zusammenhang Rechnung zu tragen, und zwar derart, daß die bei der Produktion/dem Verstehen einzelner Äußerungen/Sätze/Texte wirksamen unterschiedlichen Intentionen der Sprecher/Hörer bei der Analyse eben dieser Strings quasi herausfallen und für die Ermittlung jener Strukturen keine Rolle mehr spielen, von denen Sprecher/Hörer zur Konstitution von Bedeutung im konkreten Kommunikationsakt immer schon Gebrauch machen (müssen). Dazu werden die Daten aus beiden Fallgruppen so zusammengefaßt, daß sie nicht mehr gegenläufig, sondern tendenziell in der gleichen Richtung bei der Analyse wirksam werden: um Abhängigkeiten der Fallgruppe a erfassen zu können, wird daher nicht von einzelnen, untereinander beziehungslosen Äußerungen/Sätzen/Texten, sondern von einem pragmatisch-homogenen Corpus von Strings ausgegangen; und um Abhängigkeiten der Fallgruppe b erfassen zu können, wird von der Linearität der mit syntaktischen Zeichen kombinierten Strings dadurch abgesehen, daß diese Strings zuvor auf bloße Lexemmengen reduziert werden. Den eigentlichen Untersuchungsgegenstand der textstatistischen Analyse bildet daher ein den eben genannten Bedingungen genügendes System, d.h. eine Menge (corpus) von Lexemmengen (strings), das in seiner pragmatischen Homogenität jenen Funktionszusammenhang repräsentiert, der sich erst in der kommunikativen Verwendung natürlicher Sprache manifestiert.

Literatur

1.
Gaines, Brian R. (1975): Multivalued logics and fuzzy reasonings. Lecture Notes of AISB Summer School: 100-112.

2.
Lorenz, Kuno (1976): Kommunikation durch symbolische Repräsentation. Vortrag auf dem II. Wiener Symposium über Semiotik (vervielf.).

3.
Moskovich, Wolf (1976): Quantitative linguistics. Paper presented on the Stockholm FID/LD Workshop on Linguistics and Information Science (vervielf.).

4.
Nowakowska, Maria (1976): Verbal and non-verbal communication as a multidimensional language. Paper presented on the Second Vienna Symposion on Semiotics (vervielf.).

5.
Quine, Willard van Orman (1960): Word and object. Cambridge, Mass.: MIT Press.

6.
Rieger, Burghard (1972). Warum mengenorientierte Textwissenschaft? Zur Begründung der Statistik als Methode. LiLi 8: 11-28.

7.
Rieger, Burghard (1974): Eine tolerante Lexikonstruktur. Zur Abbildung natürlich-sprachlicher Bedeutung auf unscharfe Mengen in Toleranzräumen. LiLi 16: 31-47.

8.
Rieger, Burghard (1975): On a tolerance topology model of natural language meaning. Paper presented on ICCH/2, Los Angeles: University of Southern California (vervielf.).

9.
Rieger, Burghard (1976a): Theorie der unscharfen Mengen und empirische Textanalyse. Vortrag auf dem Germanistentag 1976 in Düsseldorf, erscheint im Tagungsbericht, Heidelberg 1977.

10.
Rieger, Burghard (1976b): Fuzzy structural semantics. On a generative model of vague natural language meaning. Vortrag auf dem Third European Meeting on Cybernetics and Systems Research in Wien, erscheint in den EMCSR-76-Proceedings (1977).

11.
Rieger, Burghard (1976c): Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Bedeutungen. Vortrag auf dem Symposion Naturwissenschaftliche Linguistik der Deutschen Akademie der Naturforscher LEOPOLDINA, Halle, erscheint in den Nova Acta Leopoldina (1977).

12.
Zadeh, Lotfi A. (1965): Fuzzy sets. Information and Control 8: 338-353.

13.
Zadeh, Lotfi A. (1971): Quantitative fuzzy semantics. Information Science 3: 159-176.

14.
Zadeh, Lotfi A. (1972): A fuzzy-set-theoretic interpretation of linguistic hedges. Journal of Cybernetics 2: 4-34.

15.
Zadeh, Lotfi A. (1975): Fuzzy logic and approximate reasoning. Synthese 30: 407-428.


Fußnoten:

1In: Bald, W.D./Sprengel, K./Viethen, H.W. (Hrsg.): Semantik und Pragmatik. Akten des 11. Linguistischen Kolloquiums [Linguistische Arbeiten 50], Tübingen (M.Niemeyer) 1977, S. 91-101

2Anmerkung: Die Arbeit referiert einen Teilaspekt einer Untersuchung, die ich mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG) durchführe.