VAGHEIT ALS PROBLEM DER LINGUISTISCHEN
SEMANTIK
Zur Verbindung von Methoden der Statistik mit der Theorie der
unscharfen Mengen bei der Analyse von Bedeutung1
Burghard Rieger2
1. Eine Durchmusterung etwa der Sachregister (einer
hinreichenden Anzahl) einschlägiger sprachwissenschaftlicher Werke
zeigt: Vagheit oder Unschärfe ist – im Unterschied zu
Ambiguität oder Mehrdeutigkeit – in der Mehrzahl der
Fälle (noch) kein Stichwort fürs Register.
1.1. Geht man davon aus, daß Ambiguität generell
die
Möglichkeit voraussetzt, in ein und demselben Fall mehrere
unterschiedliche, dabei jedoch jeweils eindeutige Entscheidungen
fällen zu können, dann wird im Gegensatz dazu von Vagheit in
all jenen Fällen gesprochen werden müssen, in denen eine
eindeutige Entscheidbarkeit gerade nicht möglich ist.
Ambiguity differs from vagueness. Vague terms are only
dubiously applicable to marginal objects, but an ambiguous term such as
'light' may at once [be] clearly true of various objects (such as dark
feathers) and clearly false of them. (Quine 1960: 129)
Mehrdeutigkeiten lassen sich deswegen im Prinzip immer
disambiguieren, d. h. bei grammatischer Ambiguität durch Angabe
der unterschiedlichen Phrasenstrukturen oder bei lexikalischer
Ambiguität durch Angabe der unterschiedlichen Bedeutungen klären.
Eine generelle Präzisierung von Unschärfe ließe dagegen das
Phänomen selbst verschwinden: ungeachtet seiner kommunikativen
Funktion würde es – um den Preis seiner vorgeblichen
Verdeutlichung – quasi hinwegpräzisiert.
Good purposes are often served by not tampering with
vagueness ...
Vagueness does not perturb the truth values of the usual sentences
in which vague words occur ... When sentences whose truth values
hinge on the penumbra of a vague word gain importance, they cause
pressure for a new v e r b a l convention or changed trend
of u
s a g e that resolves the vagueness in its relevant portion.
[Hervorhebungen nicht im Original] (Quine 1960: 127f.)
1.2. Man kann deswegen versucht sein, Ambiguität
nicht als Eigenschaft natürlich-sprachlicher Ausdrücke, sondern
als Folge der Eigenschaften des Inferenz- und
Repräsentationssystems zu verstehen, auf das die linguistische
Analyse diese natürlich-sprachlichen Ausdrücke abbildet;
Vagheit würde im Unterschied dazu als konstitutive Charakteristik
des Funktionszusammenhangs erscheinen, in den jede kommunikative
Verwendung diese natürlich-sprachlichen Ausdrücke immer schon
gestellt hat. Die bisherigen Beschreibungssysteme, die diesen
Funktionszusammenhang nur reduktionistisch abzubilden gestatten,
versagen deswegen bei der Repräsentation von Vagheit (Rieger
1976c), wobei es freilich inzwischen adäquatere Analysemethoden
und auch angemessenere Repräsentations- und Inferenzsysteme zu
geben scheint.
Zunehmend erfolgreichere Modelle ungefähren
Schließens mit unscharfen Daten (approximate reasoning) haben hier
eine Neuorientierung eingeleitet, die besonders mit den jüngsten
Ideen Zadehs (1975) und seinen früheren Überlegungen zur
Theorie der unscharfen Mengen verbunden ist.
Rather than regard human reasoning processes themselves
'approximating' to some more refined and exact logic process that could
be carried out perfectly with mathematical precision, he has suggested
that the essence and power of human reasoning is in its capability to
grasp and use inexact concepts directly. He argues that the attempts to
model, or emulate, it by formal systems of increasing precision will
lead to decreasing validity and relevance. Most human reasoning is
essentially 'shallow' in nature and does not rely upon chains of
inference unsupported by intermediate data – it requires, rather than
merely allows, redundancy of data and paths of reasoning
– it accepts
minor contradictions and contains their effects so that universal
inferences may not be derived from their presence. (Gaines 1975: 101)
1.3. Mit der Abkehr davon, kognitive Prozesse über scharfe
Modelle des menschlichen Schließens, Folgerns,
Urteilens und Verstehens aufhellen zu wollen, ist aber auch die
Diskussion pragmalinguistischer Vorstellungen in eine neue Phase
getreten. Kommunikative Handlungen als Basis aller primären
Bedeutungskonstitution könnten hierdurch möglicherweise nun eine
auch formal befriedigendere Darstellung erhalten (Lorenz
1976; Nowakowska 1976). Für eine linguistische Semantik, die
– analog dazu – das Phänomen der Vagheit natürlich-sprachlicher
Bedeutung nicht nur formal, sondern möglichst auch empirisch
adäquat zu fassen sucht, stellt sich daher das Problem ihrer
Analyse mit um
so deutlicherer Dringlichkeit (Rieger 1976a).
Dabei kann auf die seit langem erprobten und ständig
weiterentwickelten Verfahren etwa der quantitativen Linguistik,
der Dokumentationswissenschaft oder auch des Information Retrieval
zurückgegriffen werden. Diese anwendungsorientierten Disziplinen
eröffnen gerade der linguistischen Semantik ein bisher noch kaum
beachtetes, experimentelles Methodenarsenal, dessen
mathematisch-statistische Ausrichtung nicht nur die
Anschließbarkeit an die unscharfen Konzeptionen der neueren
Theorienbildung erleichtert, sondern damit auch wesentliche
Voraussetzungen erfüllt, in Zukunft einmal in einen strikt
deskriptiven, empirisch-analytischen Basisteil der bisher
überwiegend noch theoretischen Linguistik integriert zu werden.
No one can deny the fact that the application of
vocabulary statistics to document retrieval brings more immediate
results than the use of other more sophisticated linguistic techniques.
However, though the pragmatic result is there, the work has not
received an adequate linguistic explanation within that or another
linguistic theory ... There is no doubt that without touching the deep
structure layers of language, quantitative techniques could not produce
meaningful results; but few attempts were made to explain the inner
mechanics of quantitative language analysis. (Moskovich 1976: 12f.)
2. Um eine formal befriedigende Abbildung
natürlich-sprachlicher Bedeutung zu erreichen, die deren in
kommunikativen Verwendungssituationen empirisch beobachtbare
Vagheit nicht schon aufgrund eines diesem Phänomen gegenüber
unangemessenen Repräsentationssystems hinwegpräzisiert, wurde
schon früher (Rieger 1974) eine Verbindung
quantitativ-statistischer Methoden der Textanalyse mit
formal-algebraischen Notationen der Theorie der unscharfen Mengen
vorgeschlagen und hergestellt.
Da die Anwendung dieser Notationen auf das Phänomen
der Vagheit von Bedeutungen sehr viel weniger problematisch
erscheint als eine sprachtheoretische Fundierung der Anwendung
statistischer Methoden zur Ermittlung semantischer Strukturen in
natürlich-sprachlichen Texten, mag hier eine Beschränkung auf die
Grundidee der unscharfen Menge gerechtfertigt sein.
2.1. Nach Zadeh (1965) kann die eine unscharfe Menge
A charakterisierende Funktion mA(x)
eines Elements x
dieser Menge A nicht nur – wie in der klassischen Mengentheorie – die Werte 0 (nichtzugehörig) und 1 (zugehörig) annehmen,
sondern auch jeden beliebigen anderen Wert zwischen 0 und 1, wobei
mA(x) = 0.2 eine geringere
Zugehörigkeit des Elements x zur
unscharfen
Menge A anzeigt als mA(x)=0.8.
Allgemein wird eine unscharfe (Teil-)Menge A in
X charakterisiert durch die Zugehörigkeitsfunktion mA:X®[0,1], die jedem x Î
X genau einen Zugehörigkeitswert
mA(x) aus dem Intervall [0,1]
zuordnet, der den Grad
angibt, mit dem das Individuum x als Element der unscharfen
Menge A zu gelten hat. Die unscharfe Menge A besteht also aus
der Menge der geordneten Paare A: = {(x,ma(x))}
für alle
x Î X.
Im Hinblick auf das Abbildungsproblem von Vagheit
läßt sich nun die Menge X als eine Deskriptorenmenge auffassen,
derart, daß die vage Bedeutung eines Terms als unscharfe Teilmenge
von X erklärt wird und zwar – je nach Deutung – extensional
als unscharfe Elementenmenge, deren Name dieser Term ist, bzw.
intensional als unscharfe Prädikatenmenge, die ein mit diesem Term
bezeichnetes Individuum erfüllt.
2.2. Im Unterschied zu Zadeh (1971), der bei der
Anwendung dieses Konzepts auf die Bedeutungsphänomene der
natürlichen Sprache von einem rein referenzsemantischen Ansatz
ausging, erlaubt der strukturale Angang Riegers, den
formalen Bedeutungsnotationen auch empirische Methoden der
Bedeutungsanalyse zuzuordnen. Sie stellen die den
Zugehörigkeitsfunktionen entsprechenden operationalen
Meßvorschriften dar, die bei Zadeh fehlen.
Die Bedeutungsanalyse baut im wesentlichen auf einer
statistischen Korrelationsanalyse der im jeweils untersuchten
Textmaterial verwendeten Lexeme auf. Die quantitative Bestimmung
ihrer Verwendungsregularitäten und die Messung ihrer
Unterschiedlichkeiten führt dabei zum Modell einer
Lexikonstruktur (Rieger 1974), in der die Bedeutung eines
Lexems als Funktion seiner kommunikativen Verwendungsweisen
definiert und als unscharfe Teilmenge des verwendeten Vokabulars
abgebildet wird. Das Modell erlaubt darüber hinaus (Rieger
1975), paradigmatische Felder einzelner Lexeme als
topologische Umgebungen der ihnen zugeordneten Bedeutungspunkte zu
explizieren, wobei die mit unterschiedlichen kommunikativen
Erfordernissen wechselnde Schärfe oder Präzision vager Bedeutungen
über variable Toleranzen erfaßt werden kann. Dieses zunächst
deskriptive Modell läßt sich zudem (Rieger 1976b) zu einem
generativen System erweitern. Dabei lassen sich – durch
Übertragung der in der Theorie der unscharfen Mengen möglichen
Verknüpfungsoperationen und Definitionen – einmal aus den
textanalytisch ermittelten Bedeutungen durch deren Negation,
Konjunktion und Adjunktion neue Bedeutungen
generieren, die als wiederum unscharfe Teilmengen des Vokabulars
neue Bedeutungspunkte innerhalb der Lexikonstruktur definieren,
zum anderen können in dem Strukturmodell Sinnrelationen erklärt
werden, die nun Synonymie, Ähnlichkeit,
Hyponymie, etc. zwischen
vagen Bedeutungen formal, aber Satz-unabhängig explizieren.
3. Voraussetzung dieser eher modell-theoretischen
Folgerungen aus der Lexikonstruktur ist aber eine
sprachtheoretische Hypothesenbildung, derzufolge statistische
Methoden im allgemeinen (3.1.) bei der Analyse semantischer
Strukturen in Texten erfolgreich eingesetzt werden können, und im
besonderen (3.2.) zur Ermittlung gerade solcher (paradigmatischer)
Abhängigkeiten geeignet sind, die in der (syntagmatischen)
Struktur der analysierten Texte nicht eigens mehr formuliert
werden.
3.1. Es ist sicher richtig, daß statistische Verfahren zur
Ermittlung semantischer Strukturen nur dann erfolgreich eingesetzt
werden können, wenn alle Bedingungen, die zur Strukturierung
beitragen, sich tatsächlich in den analysierten Texten zeigen.
Ebenso sicher aber wäre es verfehlt, hieraus die methodologische
Folgerung abzuleiten, daß textstatistische Analysen (im Rahmen
eines bestimmten Untersuchungsziels) grundsätzlich alle
Texte mit allen situativen Daten ihrer kommunikativen
Verwendung zugänglich sein müßten. Eine solche Folgerung übersähe,
daß gerade diese extremale (und unrealisierbare) Erfüllung der
Forderung den Einsatz von Methoden der urteilenden Statistik
geradezu überflüssig machte. Deren methodische Stärke besteht aber
darin, daß sie – entgegen dem auf beschreibende Verfahren
verkürzten üblichen Statistikverständnis – es erlaubt, auch dann
noch vernünftige Entscheidungen/Aussagen zu machen, wenn infolge
von unvollständiger Kenntnislage, d. h. bei nur begrenzt
zugänglichen Informationen, Unsicherheit herrscht. Als
vernünftig werden dabei aber nicht nur wahre ,
sondern alle jene Aussagen gelten, die bei einem jeweiligen
Informationsstand sämtliche verfügbaren Daten optimal berücksichtigen.
Die Theorie der urteilenden Statistik hat die
methodische Seite des Problems solcher Optimierung weitgehend
systematisiert und
ausgearbeitet.
Leider wird bei der Anwendung beschreibender
wie urteilender statistischer Methoden auf wie immer auch
geartete Gegenstandsbereiche die andere Seite übersehen, nämlich,
daß die diese Gegenstände erst konstituierende, jeweilige
fachspezifische Theorienbildung für die Bestimmung dessen, was
innerhalb einer Disziplin als vernünftige oder relevante Frage bzw.
Hypothesenbildung gelten kann,
mindestens ebenso wichtig ist wie die zu ihrer Entscheidung
angewandte bzw. entwickelte statistische Theorie. Dieser
Zusammenhang, der – wenn auch aus unterschiedlichen Blickwinkeln – schon während der Corpus-orientierten Phase der älteren
strukturalistischen Linguistik (Bloomfield, Firth, Harris, etc.)
ebenso häufig übersehen wurde, wie in den frühen Bemühungen um
eine exakte Behandlung sprachlicher Phänomene (Herdan, Fucks,
Guiraud, etc.), ist an anderer Stelle (Rieger 1972) für
sprach- bzw. textwissenschaftliche Gegenstandsbereiche anhand der
Interdependenz von Stichprobe und Grundgesamtheit
einerseits mit Untersuchungsgegenstand und
Untersuchungsziel andererseits entwickelt worden mit dem
Resultat, daß für eine sinnvolle Anwendung statistischer Methoden
in der Linguistik ein Untersuchungsgegenstand sich deuten
lassen muß als zufällige Stichprobe aus einer fiktiven
Grundgesamtheit, die nur vom jeweiligen
Untersuchungsziel her bestimmt wird.
3.2. Der häufigste und zunächst auch einleuchtende Einwand
lautet, daß paradigmatische (Saussure: assoziative)
Strukturen – womit solche semantischen Regelhaftigkeiten gemeint
sind, die von den miteinander Kommunizierenden bei der
Produktion/dem Verstehen von Äußerungen/Sätzen/Texten (strings)
schon vorausgesetzt werden können – gerade deswegen nicht über
textstatistische Analysen ermittelbar seien, weil sie in den
syntagmatischen (Saussure: linearen) Strukturierung der
zugänglichen Strings gar nicht mehr formuliert werden. Dabei wird
aber aus dem Nebeneinander eines verschwommenen (meist nur
metaphorischen) Struktur-Begriffs einerseits und eines (auf
strikte Wenn-Dann-Abhängigkeit) verkürzten Regel-Begriffs
andererseits auf die Unvereinbarkeit von Gegenstand und Methode
geschlossen: da der unterstellte (streng deterministische)
Regelbegriff zur Beschreibung jener Vielfalt möglicher
Abhängigkeiten zwischen Lexemen offenbar ungeeignet ist, die der
(notwendigerweise unscharfe) Begriff der paradigmatischen Struktur
aber gleichwohl umfaßt, wird weder die Frage der Angemessenheit
eines anderen (probabilistischen) Regelbegriffs noch die
Möglichkeit eines die Vagheit präzise abbildenden Struktur- bzw.
Feldbegriffs wirklich diskutiert. Dabei vermag gerade der
statistische Regelbegriff jene Vielfalt unscharfer Abhängigkeiten
zu erfassen, die zu Recht als ein Konstitutivum der
paradigmatischen Struktur gelten. Indem Regularität als ein Kontinuum
von Korrelationen zunehmender Determiniertheit
vor dem Hintergrund des Zufalls bestimmt wird, kann die ganze
Spanne möglicher Ausprägungen von Abhängigkeiten erfaßt und
übergreifend beschrieben werden, ohne daß der Gegenstandsbereich
dadurch vorab auf Präzisierbares verkürzt bzw. reduktionistisch
vereinheitlicht wurde.
3.2.1. Die Frage stellt sich daher anders: wie muß ein
Untersuchungsgegenstand beschaffen sein, damit in seiner
statistischen Analyse mehrdimensionale (paradigmatische)
Strukturen erfaßbar werden, von denen in der Kommunikation
Sprecher/Hörer immer schon Gebrauch machen, die aber eben darum
auch nicht ohne Einfluß bleiben auf die linearen (syntagmatischen)
Strukturen von in bestimmten Situationen produzierten/verstandenen
Strings? Das, was in der linearen Struktur (Eindimensionalität)
eines Strings empirisch beobachtbar ist, muß (qualitativ) als
Folge oder Resultat einer Vielzahl (Mehrdimensionalität) Von
direkt offenbar nicht beobachtbaren Einflußgrößen verstanden und
kann (quantitativ) nur als e i n Ergebnis, d. h. als ein
einzelner Beleg eines solchen Einflusses gedeutet werden. Das
heißt aber einmal: erst eine Vielzahl solcher Belege wird auf eine
möglicherweise vorliegende Regularität (Abhängigkeit) schließen
lassen, zu deren Ermittlung es daher nicht genügen kann, nur
einzelne Strings zu analysieren. Und das bedeutet weiter: wenn es
richtig ist, daß zum Zweck der Kommunikation im einzelnen
Satz/einzelnen Text schon von Regularitäten Gebrauch gemacht wird,
die definitionsgemäß von übersatzmäßigen/textübergreifenden
Abhängigkeiten konstituiert werden (bzw. diese auch selbst
konstituieren), dann lassen sich solche übergreifenden Strukturen
nicht anhand der größten Menge zusammenhangloser
Äußerungen/Sätze/Texte analysieren und beschreiben, sondern nur
anhand einer quasi gepoolten Menge von
pragmatisch-homogenen Strings, die damit diesen übergreifenden,
kommunikativen Zusammenhang repräsentiert. Das primär angewandte
statistische Analyseverfahren sieht daher ab von der linearen
Abhängigkeit der Lexeme innerhalb der untersuchten Texte und mißt
einzig die Korrelation jedes der in ihnen verwendeten/vorkommenden
Lexeme mit jedem anderen des benutzten Vokabulars paarweise über
die Menge aller im Corpus enthaltenen Texte. So wird das
Textcorpus als Ganzes zum Untersuchungsgegenstand, der – ungleich
vielleicht geläufigerer Corpusdefinitionen – den
Satz-/Text-übergreifenden Zusammenhang insofern im Sinne von
(3.1.) abbildet, als er als eine zufällige Stichprobe aus der
fiktiven Grundgesamtheit all derjenigen Äußerungen/Sätze/Texte
gelten kann, die in dieser (durch Ort, Zeit, Medium, Gegenstand
und Beteiligte der Kommunikation bestimmten) Pragmatik tatsächlich
produziert wurden oder doch hätten produziert werden können.
3.2.2. Akzeptiert man diesen Ansatz auch im Prinzip, so
werden doch sogleich Satz-orientierte Einwendungen erhoben werden
müssen. Kommt man denn nicht – so ließe sich fragen – zu völlig
falschen Ergebnissen bei der Analyse, wenn man schon bei der
Korrelationsmessung offenbar doch so unterschiedliche Syntagmen
wie beispielsweise der Frühling mit all seinen Blüten und
ein Frühling ohne jede Blüte in bezug auf die Abhängigkeit
zwischen 'frühling' (F) und 'blüte' (B) in der Analyse völlig
unterschiedslos behandelt? – In beiden Fällen wird ja F und B als
im String zusammen vorkommend erfaßt und bei genügend häufiger
Belegung solcher Vorkommen in den Strings des Corpus positiv
korreliert sein, folglich als hoch affin bewertet werden. Dies ist
sogar dann der Fall, wenn – wie das Extrembeispiel verdeutlicht – sämtliche in einem Corpus enthaltenen Belege von F und B in
Syntagmen ausschließlich der Art Frühling und keine Blüte
vorkommen; die darin zwischen F und B proponierte Abhängigkeit ist
aber ja gerade nicht die der Affinität.
Diesem Einwand läßt sich anhand der Unterscheidung
syntagmatischer von paradigmatischen Regularitäten begegnen, und
zwar im besonderen durch Vergegenwärtigung von deren auch
unterschiedlichen Aufgaben in einem kommunikativen Äußerungs- bzw.
Verstehensmodell, in dem (sehr skizzenhaft) der Zusammenhang sich
etwa wie folgt darstellt: Ziel jeder Kommunikation ist
Bedeutungskonstitution. Sie läßt sich als Prozeß zunehmender
Einschränkung von Wahlmöglichkeit deuten, den die Kommunizierenden
über Zeichen und Zeichenfolgen wechselseitig initiieren und/oder
nachvollziehen. Wenn man paradigmatische Strukturen als Teil des
Vorwissens der Sprecher/Hörer deutet, dann werden für sie mit
jedem in einem Sprechakt verwendeten Lexem zunächst auch immer
dessen paradigmatische Abhängigkeiten aktualisiert werden. Diese
werden freilich, da Lexeme bei Verwendung in konkreten Sprechakten
meist in linearer Verkettung mit syntaktischen Form- und
Funktionszeichen in Strings eingebettet sind – durch die so
konstituierten syntagmatischen Abhängigkeiten spezifiziert und
zwar – je nach propositionalem Gehalt – in höherem oder
geringerem Maße. Dabei ergeben sich zwei unterscheidbare
Fallgruppen:
- eine starke paradigmatische Abhängigkeit zweier Lexeme läßt
deren beider Verwendung innerhalb desselben Syntagmas um so
überflüssiger erscheinen, je weniger diese Abhängigkeit der aktuellen
Sprecherintention entgegensieht;
- eine starke paradigmatische Abhängigkeit zweier Lexeme läßt die
explizit formulierte Ausschließung des einen bei Verwendung des anderen
innerhalb desselben Syntagmas um so notwendiger erscheinen, je
deutlicher diese Abhängigkeit der aktuellen Sprecherintention
zuwiderläuft.
Als Folge dieser Unterscheidung wären demnach zwei
tendenziell gegenläufige Ausprägungen von paradigmatischer
Abhängigkeit auf die im Textmaterial direkt beobachtbaren,
syntagmatischen Strukturen zu erwarten: Lexeme werden (Fallgruppe
a) um so seltener in Strings zusammen vorkommen, je stärker ihre
paradigmatische Abhängigkeit ist, es sei denn (Fallgruppe b), eben
diese Abhängigkeit zwischen ihnen wird durch explizit formulierte
(syntaktische) Zusätze eingeschränkt: dann werden auch
paradigmatisch stark abhängige Lexeme in zahlreichen Strings
zusammen belegt sein.
Das Verfahren der statistischen Korrelationsanalyse
versucht diesem Zusammenhang Rechnung zu tragen, und zwar derart,
daß die bei der Produktion/dem Verstehen einzelner
Äußerungen/Sätze/Texte wirksamen unterschiedlichen Intentionen der
Sprecher/Hörer bei der Analyse eben dieser Strings quasi
herausfallen und für die Ermittlung jener Strukturen keine Rolle
mehr spielen, von denen Sprecher/Hörer zur Konstitution von
Bedeutung im konkreten Kommunikationsakt immer schon Gebrauch
machen (müssen). Dazu werden die Daten aus beiden Fallgruppen so
zusammengefaßt, daß sie nicht mehr gegenläufig, sondern
tendenziell in der gleichen Richtung bei der Analyse wirksam
werden: um Abhängigkeiten der Fallgruppe a erfassen zu können,
wird daher nicht von einzelnen, untereinander beziehungslosen
Äußerungen/Sätzen/Texten, sondern von einem pragmatisch-homogenen
Corpus von Strings ausgegangen; und um Abhängigkeiten der
Fallgruppe b erfassen zu können, wird von der Linearität der mit
syntaktischen Zeichen kombinierten Strings dadurch abgesehen, daß
diese Strings zuvor auf bloße Lexemmengen reduziert werden. Den
eigentlichen Untersuchungsgegenstand der textstatistischen Analyse
bildet daher ein den eben genannten Bedingungen genügendes System,
d.h. eine Menge (corpus) von Lexemmengen (strings), das in seiner
pragmatischen Homogenität jenen Funktionszusammenhang
repräsentiert, der sich erst in der kommunikativen Verwendung
natürlicher Sprache manifestiert.
Literatur
- 1.
- Gaines, Brian R. (1975): Multivalued logics and fuzzy reasonings.
Lecture Notes of AISB Summer School: 100-112.
- 2.
- Lorenz, Kuno (1976): Kommunikation durch symbolische
Repräsentation. Vortrag auf dem II. Wiener Symposium über Semiotik
(vervielf.).
- 3.
- Moskovich, Wolf (1976): Quantitative linguistics. Paper presented
on the Stockholm FID/LD Workshop on Linguistics and Information Science
(vervielf.).
- 4.
- Nowakowska, Maria (1976): Verbal and non-verbal communication as
a multidimensional language. Paper presented on the Second Vienna
Symposion on Semiotics (vervielf.).
- 5.
- Quine, Willard van Orman (1960): Word and object. Cambridge,
Mass.: MIT Press.
- 6.
- Rieger, Burghard (1972). Warum mengenorientierte
Textwissenschaft? Zur Begründung der Statistik als Methode. LiLi 8:
11-28.
- 7.
- Rieger, Burghard (1974): Eine tolerante Lexikonstruktur. Zur
Abbildung natürlich-sprachlicher Bedeutung auf unscharfe Mengen in
Toleranzräumen. LiLi 16: 31-47.
- 8.
- Rieger, Burghard (1975): On a tolerance topology model of natural
language meaning. Paper presented on ICCH/2, Los Angeles: University of
Southern California (vervielf.).
- 9.
- Rieger, Burghard (1976a): Theorie der unscharfen Mengen und
empirische Textanalyse. Vortrag auf dem Germanistentag 1976 in
Düsseldorf, erscheint im Tagungsbericht, Heidelberg 1977.
- 10.
- Rieger, Burghard (1976b): Fuzzy structural semantics. On a
generative model of vague natural language meaning. Vortrag auf dem
Third European Meeting on Cybernetics and Systems Research in Wien,
erscheint in den EMCSR-76-Proceedings (1977).
- 11.
- Rieger, Burghard (1976c): Unscharfe Semantik natürlicher Sprache.
Zum Problem der Repräsentation und Analyse vager Bedeutungen. Vortrag
auf dem Symposion Naturwissenschaftliche Linguistik der Deutschen
Akademie der Naturforscher LEOPOLDINA, Halle, erscheint in den Nova
Acta Leopoldina (1977).
- 12.
- Zadeh, Lotfi A. (1965): Fuzzy sets. Information and Control 8:
338-353.
- 13.
- Zadeh, Lotfi A. (1971): Quantitative fuzzy semantics. Information
Science 3: 159-176.
- 14.
- Zadeh, Lotfi A. (1972): A fuzzy-set-theoretic interpretation of
linguistic hedges. Journal of Cybernetics 2: 4-34.
- 15.
- Zadeh, Lotfi A. (1975): Fuzzy logic and approximate reasoning.
Synthese 30: 407-428.
Fußnoten:
1In:
Bald, W.D./Sprengel, K./Viethen, H.W. (Hrsg.): Semantik und
Pragmatik. Akten des 11. Linguistischen Kolloquiums [Linguistische
Arbeiten 50], Tübingen (M.Niemeyer) 1977, S. 91-101
2Anmerkung:
Die Arbeit referiert
einen Teilaspekt einer Untersuchung, die ich mit Unterstützung der
Deutschen Forschungsgemeinschaft (DFG) durchführe.