Theorie der
unscharfen Mengen und empirische
Textanalyse*
1. Mathematisch-statistische Untersuchungen im Bereich von Sprache und Texten sind allemal problematisch, besonders aber dann, wenn sie nicht nur Buchstaben, Silben und Wörter zählen, sondern Einsichten zu vermitteln suchen in so undurchsichtige Prozesse, wie es die Bedeutungskonstitution in der natürlichen Sprache immer noch ist. Ganz offensichtlich treten sie damit in eine gewisse Konkurrenz zu formalen, vornehmlich sprachlogisch ausgerichteten Ansätzen der linguistischen Theorienbildung, für die die Mathematisierung nicht weniger charakteristisch ist: den Semantikmodellen der algebraischen Linguistik:
Da der spezifische Charakter der Statistik in den quantitativen Angaben liegt, ist die statistische Linguistik der kontrollierten Gewinnung von Erfahrung und dem Testen von Hypothesen und Theorien zugeordnet, während der Entwurf von Modellen und ihre formale Kritik in den Bereich der algebraischen Linguistik gehört.1
Akzeptiert man diese Unterscheidung von algebraischer und
statistischer Linguistik, die Hellmut Schnelle (1968) als die
beiden Teildisziplinen jenes exakten Ausschnitts der
Linguistik bezeichnete, der durch Theorie und Experiment gebildet
wird, dann kommt man nicht umhin, deren bis heute nahezu
unvermitteltes Nebeneinander zu konstatieren.
Der Idealvorstellung jedenfalls einer durch
wechselseitige Überprüfung und Kontrolle dieser beiden
Teildisziplinen sich ständig korrigierenden Theorienbildung in der
Linguistik ist man heute kaum näher als 1968. Dennoch - scheint
mir - steht mit der Theorie der unscharfen Mengen inzwischen eine
Art Gelenkstück bereit, das, numerisch flexibel und
formal befriedigend, algebraische Strukturen einerseits mit
empirischen Daten andererseits zu verknüpfen gestattet und
möglicherweise doch einen Schritt in Richtung auf eine
mathematisch-empirische Sprach- bzw. Textwissenschaft zu tun
erlaubt.
Ich möchte im folgenden Ansätze zu einer
mathematisch-statistischen Methode, der Bedeutungsanalyse
natürlich-sprachlicher Texte vorstellen, deren Resultate sich als
unscharfen Mengen darstellen lassen und zu einem formalen
Semantikmodell beitragen sollen, für das das Phänomen der Vagheit
und Verschwommenheit natürlich-sprachlicher Bedeutung
konstitutiv ist.
Nach einigen kurzen, allgemeinen Bemerkungen zum
Problem der Vagheit natürlich-sprachlicher Bedeutung (1), werden
die empirische (2.1) und theoretische (2.2) Angemessenheit ihrer
Beschreibung sowie die theoretischen (3.1) und empirischen (3.2)
Bedingungen ihrer Analyse diskutiert. Vor diesem Hintergrund wird
dann versucht, den Gang der Untersuchung und auch deren
abstraktere, formale Seite möglichst anschaulich darzustellen
(4.1) und anhand von beispielhaften Ergebnissen zu illustrieren
(4.2). Abschließende Bemerkungen möchten sodann (5) noch auf
einige mögliche Konsequenzen in der Anwendung wie Theorienbildung
hinweisen.
2. Die Vorstellung von der Vagheit, Verschwommenheit und
Unschärfe natürlich-sprachlicher Bedeutung ist eine für die
Sprachwissenschaft wie Sprachphilosophie schon ehrwürdige
Einsicht. Sie hat lange alle Formalisierungsversuche in der
Semantik als fruchtlos erscheinen lassen und ihre Dominanz erwies
sich auch dann noch, als Bereiche der Syntax schon erfolgreich
formalisiert wurden, - erfolgreich freilich nur um den Preis der
Ausklammerung des semantischen Aspekts.
Inzwischen ist die Semantik ins Zentrum nicht nur
der linguistischen Forschung gerückt, und es fehlt nicht an
formalen Ansätzen auch auf diesem Gebiet. Dabei lassen sich -
grob gesprochen - zwei Richtungen unterscheiden: einmal eine
zunehmend sprachlogisch, Theorie-orientierte linguistische
Semantik, die zu formalen Modellbildungen kommt, in denen sie
expliziert, wie der logische oder ideale Sprecher beim
Konstituieren von Bedeutungen verfahren würde oder doch verfahren
sollte, und zum anderen eine empirisch-praktisch ausgerichtete
Bedeutungsanalyse, die eher Methoden-orientiert ist und
herauszufinden sucht, wie wirkliche Sprecher in konkreten
Situationen tatsächlich verfahren, wenn sie Bedeutung
konstituieren.
Linguistische Theoretiker scheinen sich dabei mit
den Logikern zumindest darin einig zu sein, daß (deklarativen)
natürlich-sprachlichen Aussagen einer der beiden Wahrheitswerte
wahr oder falsch bzw. in dreiwertig-logischen Systemen
auch noch der Wert unbestimmt zukommen könne. Logiker führen
die Wahrheitsbedingungen normalerweise in Ausdrücken der
klassischen Mengentheorie ein. Danach ist die Aussage "Ein
Rotkehlchen ist ein Vogel" (" r
Vogel(r)) wahr
genau dann, wenn alle mit Rotkehlchen zutreffend
bezeichneten Tiere Element der Klasse derjenigen Tiere sind, die
mit Vogel bezeichnet wird. Wird nun in gleicher Weise die
Zuweisung von Wahrheitswerten auf natürlichsprachliche Aussagen
übertragen, muß vorausgesetzt werden, daß die verwendeten Wörter
und Begriffe, wie logische Symbole, auf Mengen referieren, über
deren zugehörige Elemente und ihre Äquivalenz Eindeutigkeit
herrscht, die mithin Klassen bilden, deren Grenzen scharf sind.
Da über die Angemessenheit bzw. Unangemessenheit
einer solchen Voraussetzung nicht mehr formal innerhalb des
logischen Systems entschieden werden kann, das diese Voraussetzung
schon macht, bleiben Fragen nach seiner Adäquatheit, wenn auf
dieser Ebene überhaupt gestellt, unbeantwortbar. Sie lassen sich
nur empirisch beantworten und dies nur relativ zum
Anwendungsbereich.
2.1 Ich möchte deswegen hier die Ergebnisse einer
empirischen Untersuchung von Eleanor Rosch Heider mitteilen, die
im Rahmen der experimentell arbeitenden Psychologie angestellt und
von Lakoff (1973) referiert wurde.2 Sie
liefert eine Reihe von Befunden, die als empirisch belegte
Indizien der Unangemessenheit gelten können, die Konstitution
natürlich-sprachlicher Begriffsklassen adäquat als Klassen im
mengentheoretisch-logischen Sinne zu rekonstruieren. Durch Tests
sollte heraus gefunden werden, ob Sprachteilhaber die
Zugehörigkeit bestimmter ihnen geläufigen Wörter und deren
Bedeutungen zu bestimmten ihnen geläufigen Begriffen als Ja/Nein-
entscheidbar oder eher als graduell empfinden.
Gebeten, eine Anzahl vorgegebener Tiernamen (wie
Huhn, Kuh, Gans, Adler, Rotkehlchen, etc.) danach zu ordnen,
inwieweit die mit ihnen benannten Tiere dem Begriff bzw. der
Idealvorstellung von Vogel entsprächen, lieferten die
Probanden weder eine einfache Zweiteilung in Vogel/Nicht-Vogel,
noch eine völlig regellose Zuordnung. Dagegen entstand eine durch
hohe intersubjektive Übereinstimmung ausgezeichnete Rangordnung
Rotkehlchen
Adler
Huhn, Ente, Gans
Pelikan, Pinguin
Fledermaus
wonach Rotkehlchen als typischster Vogel, Adler als
ein Raubvogel schon weniger, Huhn, Ente und Gans als
noch weniger typisch erschienen, während Fledermaus kaum
noch und Kuh und Pferd überhaupt nicht mehr als
zugehörig empfunden wurden.
Im allgemeinen lassen sich solche Rangfolgen
durchaus auch über klassische Mengenkonzepte darstellen und in
diesem Sinne zweiwertig-logisch rekonstruieren. So könnte man etwa
eine Menge komponentieller Deskriptoren aufstellen (für
Vogelhaftigkeit z. B.: legt Eier, kann fliegen, ist klein,
hat zwei Beine, zwitschert, etc.) um den Rang, den ein Tiername
einnehmen soll, abhängig zu machen von der Menge der nun wieder
Ja/Nein- entscheidbaren Deskriptoren. Danach würde
Rotkehlchen deswegen der typischste Vogel genannt werden können,
weil für ihn die Zahl der positiv entschiedenen Deskriptoren am
höchsten liegt. - Diese Tatsache der Rekonstruierbarkeit kann
aber nicht als Einwand gelten, der das Ergebnis des Heiderschen
Experiments berührt. Denn der Test besagt ja nicht, daß eine
resultierende graduelle Gewichtung etwa unmotiviert sei
(ganz im Gegenteil), sondern er besagt nur daß die Probanden quasi
integral über virtuelle Komponenten gradieren, ohne sich
dieser Komponenten bewußt sein zu müssen. Daß sie, falls nötig,
ihre Rangfolgen nachträglich motivieren, explizieren und auch
verteidigen könnten, zeigt dagegen, daß sie in der Regel zu einer
logischen Rekonstruktion ihrer zunächst unbewußten
Graduierung darüber hinaus
auch fähig sind.
Dies wird bestätigt von
immediate-response-Tests, in denen vordergründig gerade eine
alternative Entscheidung gefordert wurde, in denen der eigentliche
Testparameter aber die Reaktionszeit war, die der Proband
brauchte, um auf Sätze der Form (Individuenvariable) x ist
ein (Begriffsklasse) A mit wahr oder falsch zu
antworten. Es zeigte sich dabei, daß die Antwort-Zeiten deutlich
kürzer ausfielen bei Sätzen mit sehr typischen Individuen einer
Begriffsklasse (etwa Ein Rotkehlchen ist ein
Vogel) gegenüber deutlich längeren Antwortzeiten bei weniger
typischen in Sätzen wie ( Eine
Fledermaus ist ein Vogel ).
Mir scheint, diese - und ähnliche hier nicht
referierte - Befunde sind überzeugende empirische Belege
zumindest dafür, daß begriffliche Zugehörigkeit in natürlicher
Sprache von Sprachteilhabern eher als gradueller Übergang
denn als abrupter Sprung konstituiert wird. Dies aber
spricht eher gegen als für die Versuche, im Bereich
der natürlich-sprachlichen Semantik mithilfe zwei- oder auch
dreiwertig-logischer, scharfer Systeme zu formalisierten
Modellen zu kommen, die auch empirisch adäquat sind. Denn
die Aufstellung empirischer Theorien und Modelle ist mehr als ein
bloßes Anwendungsfeld von Mathematik und formaler Logik. Hier muß
sich im Gegenteil - wie Dieter Wunderlich (1974) schreibt -:
die Art des zu entwickelnden formalen Systems [...] an den Bedürfnissen der betreffenden Wissenschaft orientieren, anstatt daß sich diese Wissenschaft nur an den vorhandenen Logiksystemen orientiert.3
2.2 Die von Lotfi A. Zadeh (1965) vorgelegte und seither
in theoretischer wie praktischer Hinsicht ausgebaute und
erweiterte Theorie der unscharfen Mengen (Fuzzy Sets Theory)
ist eine solche an den Bedürfnissen orientierte Entwicklung, deren
Fruchtbarkeit sich durch eine zunehmend größere Zahl von
Publikationen ausweist.4
Neben den
theoretischen Arbeiten, die das Konzept der Unschärfe auf
die verschiedensten mathematischen Strukturen, Systeme, Topologien
etc. ausdehnen, machen inzwischen jene Publikationen schon den
größeren Teil aus, die im Bereich der empirisch arbeitenden
Disziplinen im besonderen mit solchen Phänomenen befaßt sind, die
bei teilweise hoher Komplexität empirisch nur unvollkommen und
vage zugänglich sind. Das reicht von der automatischen
Zeichenerkennung über System- und Automatentheorie in
Verfahrenstechnik und Unternehmensforschung bis hin zum gerade in
letzter Zeit wieder aktuellen Forschungsschwerpunkt der
künstlichen Intelligenz, in dem diese Ansätze mit logischen,
psychologischen und linguistischen Überlegungen
zusammentreffen.5
Entscheidend für die breite Aufnahme der neuen
Theorie ist dabei wohl vor allem, daß sich mit ihr die Möglichkeit
ergibt, sehr komplexe Gegenstandsbereiche auch formal in
befriedigender Weise anzugehen, ohne dabei diese Komplexität
entweder reduzieren oder aber gar hinwegpräzisieren zu
müssen. Denn - so Zadeh (1972) -:
in general, complexity and precision bear an inverse relation to one another in the sense that, as the complexity of a problem increases, the possibility of analysing it in precise terms diminishes.6
Gerade in Bereichen, für die menschliches Handeln und Verhalten
konstitutiv ist, bedeutet aber Präzisierung nicht immer schon den
entscheidenden Schritt zur wissenschaftlichen Klärung eines
Phänomens, sondern oft nur dessen Verschwinden. Dies gilt
sicherlich in besonderem Maße für die Analyse und Beschreibung
natürlich-sprachlicher, im Unterschied zu
standard-sprachlicher Bedeutung.
Der Grundgedanke der Theorie der unscharfen Mengen,
die die traditionelle Mengentheorie umfaßt, ist denkbar plausibel
und einfach.
Im Unterschied zur klassischen oder scharfen
Mengentheorie, in der ein Individuum alternativ im Hinblick
auf eine Menge entweder Element ist oder nicht, kann man in der
neuen Theorie die Zugehörigkeit eines Individuums zu einer
deswegen unscharf genannten Menge graduell angeben.
Diese Zugehörigkeit wird dabei durch eine reelle, positive Zahl
des Intervalls zwischen 0 und 1 ausgedrückt, wobei der Wert
exakt 0.0 der klassischen Nicht-Zugehörigkeit, der Wert exakt
1.0 der klassischen Zugehörigkeit eines Elements zu einer Menge
entspricht. Das soll im folgenden anhand eines einfachen Begriffs
wie Mittelklassewagen verdeutlicht werden. Dieser Begriff,
aus der Automobilwerbung jedem von uns geläufig, ist
unscharf in bezug auf die Menge derjenigen Fahrzeugtypen, die
gemeint sind, wenn von Mittelklassewagen die Rede ist.
Einem Fiat 500 beispielsweise würde deshalb in
dieser Menge der Mittelklassewagen, ein äußerst geringer
Zugehörigkeitswert zukommen, weil er als ausgesprochener
Kleinwagen gilt; wenn man seine Mittelklassehaftigkeit anhand des
Kaufpreises bewerten sollte, würde man ihm, sagen wir,
den Wert 0 = 0.0 geben müssen. Ein VW-Golf, beinahe schon ein
Mittelklassewagen, zumindest dem Preis nach, hätte einen deutlich
höheren Wert, sagen wir = 0.5, ein Opel-Rekord, als typischer
Mittelklassewagen, den Wert = 1.0, ein Mercedes, beinahe schon
Luxuswagen, einen wieder deutlich niedrigeren Wert, beispielsweise =
0.3, während ein Rolls Royce, als reine Luxuslimousine, einen
Zugehörigkeitswert von exakt = 0.0 zur unscharfen Menge M der
Mittelklassewagen aufwiese. Trägt man nun zur
Veranschaulichung (Abb. 1) den Individuenbereich X der
Einfachheit halber als kontinuierliche Preisskala von links nach
rechts auf der Abszisse - und die einzelnen den verschiedenen
Fahrzeugtypen (subjektiv) zugeschriebenen Zugehörigkeitswerte
mM(x) auf der Ordinate auf, so
ergibt sich die unscharfe
Menge M als Kurve, die als Darstellung der referentiellen
Bedeutung von Mittelklassewagen über X gelten kann.
Allgemein: eine unscharfe Menge A in X wird charakterisiert durch die Zugehörigkeitsfunktion
die jedem x aus X einen (und nur einen) Zugehörigkeitswert mA(x) zuordnet, der den Grad angibt, mit dem das Individuum x als Element der unscharfen Menge A zu gelten hat. Die Menge A besteht also aus der Menge der geordneten Paare
Für beliebige unscharfe Mengen A, B und C lassen sich nun
wie für die klassischen, scharfen Mengen Gleichheit und
Enthaltensein sowie die Verknüpfungen Durchschnitt,
Vereinigung und Komplementbildung definieren, deren
detaillierte Einführung sich hier erübrigt.7 Diese Definitionen sind mit denen
für klassische
Mengen konsistent und entsprechen den logischen Operatoren
Konjunktion, Adjunktion und Negation. Soweit zur Grundlage der
Theorie der unscharfen Mengen.
3. Wie das Beispiel verdeutlicht, wird die oben angesprochene Forderung der Adäquatheit der Beschreibung natürlich-sprachlicher Bedeutung durch unscharfe Mengen nur zum Teil, nämlich bloß formal erfüllt. Diese formale Darstellung hängt aber entscheidend ab
Beides, die Bestimmung des Individuenbereichs wie das Verfahren
zur Ermittlung von Zugehörigkeitswerten, betrifft aber schon
Fragen einer Analyse natürlich-sprachlicher Bedeutung, deren
Bedingungen uns im folgenden beschäftigen sollen.
3.1 Man könnte versucht sein, in den Verfahren der
experimentellen Psychologie eine auch für die empirische
Linguistik anwendbare Methodik zu sehen, die natürlich-sprachliche
Bedeutungen über Probandenbefragungen empirisch zu ermitteln
erlaubt. Dies um so eher, als das in anderem Zusammenhang
angeführte Heidersche Experiment ja zu Resultaten geführt hatte,
die bei geringfügig abgeänderter Versuchsanordnung leicht als
unscharfe Menge sich würde darstellen lassen. So könnte man etwa
die Menge der vorgegebenen Tiernamen als Individuenbereich deuten,
über dem sich die Bedeutung des Begriffs Vogel als
unscharfe Menge definieren ließe. Dazu hätten die Probanden,
anstatt eine Rangordnung unter den Tiernamen zu bilden, jedem
dieser Tiere nur einen Zahlenwert zwischen 0 und 1 zuzuordnen, der
als Zugehörigkeitsgrad dann angäbe, in welchem Maße ihrer Meinung
nach die Idealvorstellung Vogel sich mit jedem der Tiernamen
verbindet, d. h. diese zum Begriff Vogel beitragen.
Was spricht gegen solche Befragungsverfahren im
Rahmen der Analyse und Beschreibung natürlich-sprachlicher
Bedeutungen?
Sieht man einmal von den in jeder
Befragungsmethodik gelegenen, eher technischen Problemen ab, dann
bleiben im wesentlichen zwei Einwände, die diese Verfahren als
ungeeignet erscheinen lassen:
3.2 Eine empirisch fundierte und formal befriedigende
Analyse natürlich-sprachlicher Bedeutung muß diesen Einwänden
Rechnung tragen. Bedeutung wird daher nicht außerhalb des
pragmatischen Zusammenhangs analysiert werden können, in dem sie
sich konstituiert, d.h. in der Kommunikation, und Bedeutung
wird anhand von Gegebenheiten analysiert werden müssen, die diesen
Zusammenhang repräsentieren, d. h. anhand von Texten.
Als Text gilt dabei jede Folge von
sprachlichen Zeichen, die im Zusammenhang (d. h. Kontext) einer
konkreten Situation von tatsächlichen Sprechern/Hörern zum Zweck
der Kommunikation geäußert/erkannt werden.
Unter Kommunikation wird der Prozeß
zunehmender Einschränkung von Wahlmöglichkeit verstanden, den die
daran Beteiligten über Zeichen und Zeichenfolgen (d. h. Texte)
wechselseitig initiieren und nachvollziehen.
Setzt man in diesem handlungsorientierten Sinne
einmal voraus, dass das Resultat einer solchen über Texte
initiierten Kommunikation primär nicht das richtige
oder falsche Verstehen ist, sondern eben jener Abbau
von Unsicherheit, den die miteinander Kommunizierenden je nach
pragmatischen Erfordernissen in größerem oder
geringerem Grade anstreben und/oder erzielen, dann läßt sich
Bedeutung nicht länger mehr als eine statische Qualität
beschreiben, die Zeichen und Zeichenfolgen auf geheimnisvolle
Weise zukommt. Vielmehr muß die Analyse und Beschreibung der
Bedeutung eines Zeichens, Wortes, etc. als eine Art
Momentaufnahme verstanden werden, die den im Prinzip andauernden
dynamischen Prozeß der Bedeutungskonstitution quasi unter
dem Blickwinkel dieses betreffenden Zeichens, Wortes, etc. aber
einer Pragmatik abbildet. Unter Pragmatik wird dabei im
folgenden ein sowohl Ort und Zeit wie Gegenstand und Beteiligte
umfassender situativer Kommunikationsrahmen verstanden.
Diesen kommunikationstheoretisch beschreibbaren
Zusammenhang, der einer pragmatischen Fundierung der Semantik
entspricht,8
kann eine mathematisch-statistische Analyse
natürlich-sprachlicher Bedeutung durchaus berücksichtigen. Wie an
anderer Stelle näher ausgeführt,9
läßt sich dabei Gegenstand
und Ziel einer Untersuchung mit der weitgehend operationalisierten
Begriffsbildung von Stichprobe und Grundgesamtheit in Verbindung
bringen, wie dies innerhalb statistischer Methodik geschieht.
Jede textstatistische Untersuchung kann zwar davon
ausgehen, daß sich in Texten (im Unterschied etwa zu bloßen
Wörter- bzw. Zeichenansammlungen) Ordnungsrelationen und
regelhafte Beziehungen zwischen den verwendeten Zeichen,
Wörtern, Lexemen, etc. aufdecken, beschreiben und messen
lassen.10 Damit
aber die so
ermittelten Beziehungen nicht ihrerseits eine bloße Ansammlung
numerischer Fakten und uninterpretierter Daten bleiben, muß ein
Untersuchungsgegenstand zusätzlichen Forderungen genügen, wenn
seine quantitativ-statistische Analyse sinnvoll sein soll: er muß
sich im Sinne statistischer Methodik als zufällige
Stichprobe aus einer Grundgesamtheit deuten lassen, über
die Aussagen gemacht werden sollen.
Zufällig heißt eine Stichprobe dann, wenn die
Operation der Auswahl eines Untersuchungsgegenstandes (etwa einer
Textmenge) bei - im Prinzip beliebig häufiger - Wiederholung auf
die Grundgesamtheit hin konvergiert.
Die Grundgesamtheit, die im
textwissenschaftlichen Bereich im allgemeinen fiktiv sein wird,
läßt sich nur vom Untersuchungsziel her bestimmen. Denn aus der
Sicht der Statistik ist ein Untersuchungsziel identisch mit
dem Vorhaben, intersubjektiv nachprüfbare Aussagen über eine
Grundgesamtheit zu machen aufgrund der Analyse von daraus
entnommenen zufälligen Stichproben, die den
Untersuchungsgegenstand bilden.
Ist - wie im vorliegenden Fall - das
Untersuchungsziel eine Analyse natürlich-sprachlicher Bedeutung im
Zusammenhang der sie fundierenden Pragmatik, dann können nur
solche natürlich-sprachlichen Texte den Untersuchungsgegenstand
bilden, die von bestimmten tatsächlichen Sprechern/Verfassern in
einer konkreten, dabei gleichartigen Kommunikationssituation
geäußert worden sind. Nur eine solche Textmenge, die wir ein
pragmatisch-homogenes Textkorpus nennen wollen, kann als
zufällige Stichprobe aller derjenigen Äußerungen gelten, die in
einer bestimmten Pragmatik tatsächlich gemacht wurden oder hätten
gemacht werden können und so eine fiktive Grundgesamtheit
bilden.
Bei der statistischen Analyse kann nun im
wesentlichen von einem Verfahren Gebrauch gemacht werden, das
erlaubt, etwa vorhandene Regularitäten der Abhängigkeit zwischen
Wörtern/Lexemen festzustellen und deren unterschiedliche
Intensitäten (von wechselseitiger Abstoßung über
Beziehungslosigkeit bis zur wechselseitigen Anziehung)
graduell in numerischen Werten des Intervalls von - 1 bis + 1 zu
präzisieren. Dies leistet der Korrelationskoeffizient. Er mißt die
Beziehung eines jeden Wortes zu jedem anderen verwendeten Wort,
und zwar aufgrund des Gebrauchs den die Sprecher/Verfasser von
ihnen in den analysierten Texten machen.
4. Es wird gezeigt werden, daß diese Korrelationswerte
eines Wortes zu sämtlichen anderen Worten des Vokabulars als
Grundlage dienen können für eine empirisch adäquate Zumessung von
Zugehörigkeitswerten, die dann die Verwendungsstruktur eines
Wortes, d. h. seine Bedeutung als unscharfe Menge über dem
Individuenbereich des verwendeten Vokabulars abbilden und damit
Kommunikations-abhängig für eine bestimmte Pragmatik definieren
und beschreiben läßt.
4.1 Es soll im folgenden versucht werden, den Gang der
Analyse möglichst anschaulich darzustellen. Aus diesem Grunde
wähle ich den einfachen Fall eines Textkorpus T, das aus einer
Anzahl Texten t bestehe und die oben aufgeführten Bedingungen
erfülle. Die Gesamtzahl der darin verwendeten Wörter (token)
möge aber nur aus drei Worttypen (types) i, j und k
bestehen, die das Vokabular V ausmachen.
Es braucht nicht betont zu werden, daß diese
Vereinfachung nicht die Komplexität des zu analysierenden
Phänomenbereichs reduziert, sondern nur der größeren
Anschaulichkeit dient. Obwohl wir in natürlichsprachlichen Texten
mit sehr großen Vokabularen zu tun haben, bleibt die Mathematik
die gleiche, wenn wir uns zunächst mit einem Vokabular von nur
drei Worttypen beschäftigen.
Der Korrelationskoeffizient a mißt nun die
Beziehung eines jeden Wortes i, j und k zu jedem der anderen
Worte des Vokabulars, und zwar aufgrund ihrer Verwendung in den
Texten des Korpus. Das ergibt für jedes Wort drei Meßwerte, für
die Korrelationen von i beispielsweise die Werte ii, ij und
ik. Diese Meßwerte werden nun als Koordinaten interpretiert, die
für jedes Wort i, j, k einen Punkt ai,
aj
und ak in einem Raum definieren,
der durch die drei den
Wörtertypen entsprechenden Achsen i, j, k aufgespannt wird
(Abb. 2).
Die Lage eines Punktes ai in
diesem Raum
wird demnach bestimmt durch das Tripel der Korrelationswerte, d.
h. durch die Verwendungsregularitäten des Wortes i zu
allen anderen Wörtern in den Texten des Korpus. ai
heißt
daher Korpuspunkt von i, im a- oder
Korpusraum. Zwei a-Punkte in diesem
Raum werden folglich
dann enger benachbart sein, wenn ihre jeweiligen
Verwendungsregularitäten nicht sehr unterschiedlich sind. Als Maß
dieser Unterschiedlichkeit der Verwendungsregularitäten kann die
Entfernung zwischen zwei a-Punkten im
Korpusraum
(gepunktete Linien in Abb. 2) gelten, die als Distanz- oder
d-Werte gemessen werden können.
Diese d-Werte stellen nun eine neue Charakteristik dar. Sie läßt sich auf zweierlei Weise interpretieren:
Beide Auffassungen der Distanzwerte, sowohl als
Koordinaten eines Punktes im Bedeutungsraum als auch als
Zugehörigkeitswerte einer unscharfen Menge im Vokabular sind
gleichwertig: sie bilden Bedeutung eines Wortes ab als Funktion
aller seiner Unterschiedlichkeiten in allen seinen
Verwendungsregularitäten, wie sie sich in einem homogenen
Textkorpus als einer zufälligen Stichprobe aus einer bestimmten
Pragmatik konstituieren.
Die Darstellung von Bedeutungen als unscharfen
Mengen erlaubt darüber hinaus aber eine sehr wesentliche
Erweiterung unseres zunächst nur analytischen Modells. Durch die
Übertragung der in der Theorie der unscharfen Mengen gegebenen
Verknüpfungsoperationen lassen sich nämlich neue Bedeutungen
dadurch generieren, daß man die empirisch ermittelten Bedeutungen
nun aufgrund der formal definierten Operationen (Komplement,
Durchschnitt, Vereinigung) negiert, oder miteinander durch
Konjunktion oder Adjunktion verknüpft. Diese
Bedeutungen lassen sich dann wiederum als unscharfe Mengen über
dem Vokabular bzw. als neue Punkte im Bedeutungsraum darstellen.
Erst diese Möglichkeit der Verknüpfung schon definierter
Bedeutungen zu neuen Bedeutungen vermag das in der
natürlich-sprachlichen Bedeutungskonstitution wirksame Moment der
Kreativität abzubilden.
4.2 Soweit der vielleicht etwas verwirrende Gang von der
Ermittlung der grundlegenden Verwendungsregularitäten
(a -Werte) über die Messung ihrer
Unterschiedlichkeiten (d-Werte) bis hin
zur Abbildung von
so definierten Bedeutungen (und deren Verknüpfungen) in einem
Bedeutungsraum. Die im folgenden vorgelegten Resultate einer
empirischen Bedeutungsanalyse mögen dies illustrieren.
Dabei handelt es sich um ein literarhistorisches
Textkorpus gleicher Pragmatik, nämlich um T = 600 Gedichttexte
deutscher Studenten des frühen 19. Jhs., das mir aus früheren
Untersuchungen11
schon in
maschinenlesbarer Form vorlag. In diesem Korpus wurde ein
Vokabular von V = 315 Worttypen (types) analysiert, welche
insgesamt (token) 21 000 mal vorkommen.
Da die anschauliche Darstellung eines
315-dimensionalen Bedeutungsraumes auf echte Schwierigkeiten stößt
und auch die Abbildung der Bedeutung eines Wortes, Lexems, etc.
als unscharfer Menge über dem Vokabular V nur ein n-Tupel von n = 315 d-Werten zeigt (Abb. 3), bin ich auf eine andere
Möglichkeit der Darstellung verfallen.
Um eine Vorstellung zu geben von der Lage eines
Punktes im Bedeutungsraum und damit einen Eindruck zu vermitteln
von der durch diesen Punkt repräsentierten Bedeutung eines Wortes,
Lexems, etc. in den historischen Texten des Korpus, lassen sich
diejenigen Punkte feststellen, die dem darzustellenden
Bedeutungspunkt im semantischen Raum am nächsten sind. Die
Konfiguration einer Bedeutung durch Angabe derjenigen
Bedeutungspunkte, die innerhalb eines solchen lexikalischen
Systems in unmittelbarer Nachbarschaft liegen, hat ihre
sprachwissenschaftliche Entsprechung im paradigmatischen oder
semantischen Feld. Dieses läßt sich - wie an anderer Stelle
ausgeführt12 -
topologisch als Umgebung innerhalb einer Lexikonstruktur
explizieren.
Die folgenden Konfigurationen,
welche die Lage der Bedeutungspunkte FRÜHLING (Abb. 4), GRAB/GRUFT
(Abb. 5), FRÜHLING Ù GARTEN (Abb. 6) und
FRÜHLING Ú
GARTEN (Abb. 7) im Bedeutungsraum erkennen lassen, sind daher als
solche Umgebungen bzw. Felder zu verstehen.
5. Mit einigen Hinweisen zur theoretischen wie zur eher
anwendungsorientierten Seite dieses Ansatzes möchte ich schließen:
1) Was diese Korrelationsanalyse von
Wörtern/Lexemen in einem pragmatisch-homogenen Textkorpus für eine
semantische Modellbildung interessant macht, ist der Umstand, daß
die in der linearen (eindimensionalen) Ordnung jedes
einzelnen Texts gegebenen Beziehungen (Saussure's rapports
syntagmatiques) sich nutzen lassen zur Ermittlung
relationaler (vieldimensionaler) Beziehungsstrukturen,
(Saussure's rapports associatifs), von denen jeder einzelne
Text, qua pragmatischem Kommunikationszusammenhang, quasi immer
schon Gebrauch macht, durch solchen Gebrauch aber auch
modifiziert. Dieser Zusammenhang wird methodisch über die Menge
der im Korpus zusammengefaßten pragmatisch-homogenen Texte in die
statistische Analyse einbezogen und als kommunikativer
Zusammenhang syntagmatischer und paradigmatischer Relationen
faßbar.
2) Die scheinbare Präzision, mit der Bedeutungen
als n-Tupel von Zahlenwerten angegeben und als Konfigurationen
von Bedeutungspunkten dargestellt werden, darf nicht übersehen
machen, daß es sich hierbei um relativ präzise Abbildungen
sehr unpräziser Gegebenheiten handelt (nämlich um unscharfe
Mengen im Sinne Zadehs).
3) Die Darstellung von Bedeutungen als unscharfer
Mengen bzw. Punkten im Bedeutungsraum ist als eine momentane
synchrone Zustandsbeschreibung eines Systems zu verstehen, dessen
strukturelle Bedeutungszusammenhänge sich diachron im Prozeß
der Bedeutungskonstitution ständig verändern.
4) Dieses System von Bedeutungspunkten läßt sich -
wie an anderer Stelle ausgeführt13
- als ein formales Modell einer Lexikonstruktur
deuten, in dem Sinnrelation wie Synonymität, Hyponymität etc. über
die in der Theorie der unscharfen Mengen gegebenen Definitionen
der Gleichheit, des Enthaltenseins etc. formal befriedigend und
Pragmatikabhängig sich explizieren lassen.
5) Es wäre sicherlich wünschenswert, die
semantischen Strukturzusammenhänge (Lexikonstrukturen) für die
verschiedensten Pragmatiken zu ermitteln, d. h. differenziert nach
Kommunikationssituationen und/oder Kommunikationsgegenständen
und/oder Kommunikationspartnern. Dabei könnten sich gerade im
Bereich der soziolektisch wie idiolektisch ausgerichteten
semantischen Untersuchungen interessante Resultate ergeben,
möglicherweise aber auch im Rahmen so spezieller Fragestellungen,
wie sie etwa von der Aphasieforschung aufgeworfen werden.
6) Vielleicht kann die Verbindung von
mathematisch-statistischen Verfahren mit der Theorie der
unscharfen Mengen dazu beitragen, daß man über unpräzise
Gegebenheiten präziser als bisher sich wird verständigen
können, was in der Wissenschaft von den natürlich-sprachlichen
Bedeutungen - wie mir scheint - nicht wenig wäre.
*Mit Unterstützung der Deutschen Forschungsgemeinschaft (DFG).
1Schnelle, H.: - Methoden mathematischer Linguistik. In: Enzyklopädie der geisteswissenschaftlichen Arbeitsmethoden, 4. Lieferung: Methoden der Sprachwissenschaft, München/Wien (Oldenbourg) 1968, 135-160; 137 (Hervorh. v. Verf.).
2Lakoff, G.: - Hedges: A Study in Meaning Criteria and the Logic of Fuzzy Concepts. In: Journal of Philosophical Logic 2 (1973), 458-508; 458 ff.
3Wunderlich, D.: - Grundlagen der Linguistik, Reinbek (Rowohlt) 1974; 153.
4Zadeh, L. A.: - Fuzzy Sets. In: Information and Control 8 (1965), 338-353.
5Zimmermann,
H. J.: - A Bibliography of
the Theory and Application of Fuzzy Sets, Technical Report 75/16,
Inst. für Wirtschaftswissenschaften der RWTH Aachen.
Gaines, B. R./Kohout, L.: - The Fuzzy Decade: A
Bibliography of Fuzzy Systems and Related Topics. Erscheint in:
International Journal of Man-Machine Studies, voraussichtlich Ende
1976.
6Zadeh, L. A.: - Fuzzy Languages and their Relation to Human Intelligence. In: Proceedings of the Intern. Conference on Man and Computer, Basel (Karger) 1972, 130-165; 131.
7Vgl. Zadeh (1965), 340-342.
8Schneider, H. J.: - Pragmatik als Basis von Semantik und Syntax, Frankfurt/Main (Suhrkamp) 1975,112-128, bes. 116, 121 ff.
9Rieger, B.: - Warum mengenorientierte Textwissenschaft? Zur Begründung der Statistik als Methode. In: LiLi 8 (1972) 11-28.
10Harris,
Z. S.: - Mathematical Structures of
Language (Interscience Tracts in Pure and Applied Mathematics),
New York/London (J. Wiley) 1968.
Salton, G.: - Automatic Text Analysis. In: Science
168 (1970) 335-343.
ders.: - On the Role of Words and Phrases in the
Automatic Content Analysis of Texts, Vortrag auf der 2. Intern.
Conference on Computers and the Humanities (ICCH/2) Los Angeles
1975, erscheint voraussichtlich 1977.
11Rieger, B.: - Literarische Massenphänomene und mengenorientierte Textanalyse. Zu Gegenstand und Methode der Trivialliteraturforschung. In: Das Triviale in Musik, Literatur und bildender Kunst, hg. von H. de la Motte-Haber, Frankfurt/M. (Klostermann) 1972, 42-62.
12Rieger,
B.: - Eine tolerante Lexikonstruktur.
Zur Abbildung natürlichsprachlicher Bedeutung auf unscharfe Mengen
in Toleranzräumen. In: LiLi 16 (1974) 31-47.
ders.: - On a Tolerance Topology Model of Natural
Language Meaning, Vortrag auf der 2. Intern. Conference on
Computers and the Humanities (ICCH/2), Los Angeles 1975.
13Rieger, B.: - Fuzzy Structural Semantics. On a Generative Model of Vague Natural Language Meaning, Vortrag auf dem 3. European Meeting on Cybernetics and Systems Research (EMCSR 76) in Wien, April 1976, erscheint 1977.