Semantische Dispositionen
Prozedurale Wissensstrukturen mit stereotypisch repräsentierten Wortbedeutungen1

Burghard Rieger

Man darf davon ausgehen, daß die menschliche Fähigkeit, in sprachlichen Interaktionen Bedeutungen intendieren und verstehen zu können, als eine allen Forschungen zur natürlichen Sprache gemeinsame, phänomenologisch unbezweifelbare, empirisch gut bestätigte und theoretisch zumindest sehr plausible Basis gelten kann. Eine Untersuchung sollte daher nicht bei dieser kommunikativen Eigenschaft von Sprache enden, sondern mit ihr als einer verbindlichen Grundvoraussetzung beginnen.

Anders als bisherige Untersuchungsansätze, die vom Wort zum Satz und vom Satz zum Text fortschreiten, um von einer formalen Abbildung der Bedeutung von Wörtern über die von Einzelsätzen und Propositionen zu der semantischen Repräsentation von textuellen Satzfolgen in makrostrukturellen Hierarchien zu gelangen, wird ein eher holistisch orientierter Forschungsansatz von der Strukturiertheit ausgehen, die kommunikative Akte in einem kontinuierlichen Prozeß andauernder Bedeutungskonstitution innerhalb eines Gegenstandsgebiets (als Fragment des Universums) der Rede über alle semiotischen Ebenen hinweg gleichzeitig schon voraussetzen und erst bewirken. Daher kann jede Folge von Äußerungen, die von wirklichen (nicht nur vorgestellten) Sprechern/Hörern in tatsächlichen (nicht nur fiktiven) Situationen erfolgreich vollzogener (oder zumindest doch intendierter) Kommunikation ausgetauscht wird, als empirisch zugängliches und - unter bestimmten, noch zu erörternden Bedingungen - potentiell relevantes Datenmaterial gelten. Diese Daten dienen dabei nicht (oder nicht zunächst) der formal-theoretischen Rekonstruktion von Regelsystemen zur Beschreibung von Satz- und Textstrukturen, sondern erlauben eine inhaltlich-konzeptuelle Rekonstruktion von Kenntnissen über die Welt (oder Fragmenten davon). Diese lassen sich innerhalb lexikalisch strukturierter Gedächtnismodelle als Zusammenhänge variabler semantischer Dispositionen von in aller Regel unscharfen Abbildungen in das Vokabular darstellen.

Untersuchungen von Sprachproduktions- und Verstehensprozessen werden im Rahmen der experimentellen Psychologie und Kognitionstheorie, der künstlichen Intelligenz-Forschung und auch der linguistischen Semantik unternommen. Bei allen durch Problemstellung, methodischen Angang und analysierten Gegenständen der verschiedenen Disziplinen bedingten Unterschiedlichkeiten der bisher vorliegenden Lösungsansätze lassen sich mindestens drei - weitgehend noch separate, aber erkennbar doch - konvergierende Tendenzen ausmachen: die zunehmende Bedeutung prozeduraler Modelle bei der Explikation und/oder Simulation von sprachverarbeitenden Prozessen, der dabei - explizit oder implizit - gemachte Gebrauch von Wissensbasen und die stereotypische Repräsentation natürlich-sprachlicher Bedeutungen.

Mit stereotypischer Repräsentation ist eine Darstellungsweise semantischer Informationen gemeint, die aus der Unabschließbarkeit binär entscheidbarer, notwendig endlicher, semantischer Merkmalsmengen zur Beschreibung von natürlich-sprachlichen Bedeutungen die Konsequenzen zieht und eine offene, kontinuierlich gradierbare Merkmalsstruktur annimmt, deren interner Systemzusammenhang (semantische) Ähnlichkeiten von Bedeutungen als größere oder kleinere Distanzen zwischen so abgebildeten Prototypen (Bedeutungskernen bzw. -punkten) darzustellen erlaubt.

Unter Wissensbasen sollen im folgenden übergreifend die nach Umfang, Spezifizierung, Komplexität und Aufbau zum Teil sehr unterschiedlich organisierten semantischen Informationen verstanden werden, die in der Regel als Zusammenhangsstrukturen von sprachlichen Termen und deren Bedeutungen dargestellt sind. Sie begegnen in der Psychologie als Gedächtnismodelle, in natürlichsprachlichen Systemen der künstlichen Intelligenz als Sprach- und Weltwissen und zum Teil auch in der Linguistik als Lexikonstrukturen in unterschiedlichen Repräsentationsnormen.

Als prozedural werden schließlich jene Ansätze bezeichnet, die von bestimmten Entitäten (hier: Bedeutungen, Begriffe, Konzepte, etc.) und deren Zusammenhängen nicht - oder doch nicht primär - als von so und nicht anders vorliegenden statischen Gegebenheiten ausgehen, sondern diese vielmehr schon als Resultate semiotischer Prozesse begreifen. Da deren Dynamik gerade keine identischen Realisationen (Gegebenheiten) erwarten läßt, sondern viel eher auf eine Vielzahl ähnlich realisierter Resultate (Varietäten) eines identischen Prozesses hinausläuft, werden mögliche Strukturen über die sie produzierenden Prozesse beschrieben, die sich in Form von Daten verarbeitenden Prozeduren darstellen lassen.

Die im folgenden vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen versucht, das Format stereotypischer Repräsentationen mit den Verfahren prozeduraler Bedeutungsbeschreibungen zu verbinden. Hierzu wird zunächst (1.) der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert, in dem die Konzeptionen der Dispositions-Struktur (2.), der Frame-Theorie (3.) und der prototypischen Bedeutungsrepräsentation (4.) in ihren relevanten Aspekten diskutiert werden, ehe daraus eine auf dem Gebrauch von Wörtern in Texten basierende Modellierung assoziativ strukturierten Wissens begründet wird, das sich (5.) aus den Verwendungsregularitäten lexikalischer Einheiten aufbaut und (6.) über einen statistischen Ansatz analysiert werden kann. Formal als (metrische) Raumstruktur darstellbar, lassen sich (7.) im semantischen Raum Bedeutungselemente derart abbilden, daß deren Positionen semantische Ähnlichkeiten repräsentieren. Auf ihnen kann sodann (8.) ein Algorithmus operieren, der die Bedeutung eines sprachlichen Terms prozedural als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generiert. Diese liefert (9.) die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Sie können als eine Voraussetzung nicht nur dafür gelten, daß natürlich-sprachlichen Termen - je nach Gegenstandsbereich, Kommunikationszusammenhang und Redeintention - unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sondern dürfen darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen, die logisch-deduktiven Schlußprozessen zugrundeliegen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen, deren Möglichkeit für eingrenzbare Gegenstandsbereiche abschließend vorgeführt wird.

1  

Um in die angedeutete Konzeption einer strukturalen Analyse von Bedeutung und die mit einer empirischen Semantik verbundenen kognitiven Probleme näher einzuführen, sollen einige in diesem Zusammenhang relevante Bemerkungen zweier Wissenschaftler zitiert werden, die beide nicht im Verdacht stehen, Begriffe wie Struktur bzw. Erkenntnis metaphorisch zu verwenden. Ihre konstruktivistische Auffassung läßt diese Begriffe vielmehr einem Empirieverständnis zuordnen, das als prozedurale Konzeption ( Rieger 1981) den Aporien traditioneller Erfahrungswissenschaften noch am ehesten entgehen kann.

In einer vergleichenden Gegenüberstellung mathematischer und physikalischer Aussagen bzw. Gleichungen, bemerkt Reichenbach (1920), daß die Bedingungen für ihre Wahrheit bzw. Geltung sich aufgrund des ontologischen Status unterscheiden, der den verschiedenen von ihnen konstituierten Gegenständen zukommt, über die sie etwas aussagen.

Mathematische Gegenstände sind dabei durch die Axiome und Definitionen der Mathematik vollständig bestimmt.

Durch die Definitionen: denn sie geben an, wie sich der Gegenstand zu den bereits vorher definierten Gegenständen in Beziehung setzt; indes seine Unterschiede und Gleichheiten aufgedeckt werden, erhält er selbst erst seinen Sinn und Inhalt als Inbegriff dieser Abgrenzungen. Und durch die Axiome: denn sie geben die Rechenregeln, nach denen die Abgrenzungen vollzogen sind. Auch die in den Axiomen auftretenden Grundbegriffe sind erst durch die damit aufgestellten Relationen definiert.
   ( Reichenbach 1920, S. 32f; meine Hervorhebungen)
Wahre mathematische Aussagen haben daher unmittelbar universale Gültigkeit, sofern sie nur aus wohldefinierten Konzepten nach wohldefinierten Regeln (implizit tautologisch) neue Konzepte ableiten, die ihrerseits wiederum nur mathematischen Prinzipien zu unterwerfen sind.

Physikalischen Gegenständen mangelt diese implizite Bestimmtheit trotz ihrer offensichtlich ganz ähnlichen Kennzeichnung durch mathematische Gleichungssysteme. Denn sie verdanken ihre Existenz nicht nur der internen Struktur eines mathematischen Formalismus, sondern als gemäß und innerhalb dieses formal-theoretischen Systems formulierte Ausdrücke zur Definition physikalischer Entitäten beanspruchen sie darüber hinaus Geltung in bezug auf eine externe Realität, die auch anders erfahren werden kann. Diese zusätzliche Forderung konstituiert freilich eine Gültigkeitsrelation, die von der für rein mathematische Modelle geltenden immanenten Wahrheitsrelation völlig verschieden ist.

Wir können sie als eine Zuordnung auffassen: die wirklichen Dinge werden Gleichungen zugeordnet. Nicht nur die Gesamtheit der wirklichen Dinge ist der Gesamtheit des Gleichungssystems zugeordnet, sondern auch die einzelnen Dinge den einzelnen Gleichungen. [...] Die Zuordnung die im physikalischen Satz vollzogen wird, ist aber von sehr merkwürdiger Natur. Sie unterscheidet sich durchaus von anderen Arten der Zuordnung. Sind etwa zwei Punktmengen gegeben, so ordnen wir sie einander dadurch zu, daß wir zu jedem Punkt der einen Menge einen Punkt der anderen Menge als zugehörig bestimmen. Dazu müssen aber die Elemente jeder der Mengen definiert sein; d.h. es muß für jedes Element noch eine andere Bestimmung geben als die, welche die Zuordnung zur anderen Menge vollzieht. Gerade diese Definiertheit fehlt auf der einen Seite der erkenntnistheoretischen Zuordnung. Zwar sind die Gleichungen, die begriffliche Seite, hinreichend definierte Gebilde. Aber für das "Wirkliche" kann man das keineswegs behaupten. Im Gegenteil erhält es seine Definition im einzelnen erst durch die Zuordnung zu Gleichungen. ( Reichenbach 1920, S. 34f)
Was Reichenbach hier die merkwürdige Tatsache nennt, daß wir in der Erkenntnis eine Zuordnung zweier Mengen vollziehen, deren eine durch die Zuordnung nicht bloß ihre Ordnung erhält, sondern in ihren Elementen erst durch die Zuordnung definiert wird (S. 38), kann durchaus als semiotischer Kern auch des strukturalen, kognitionstheoretischen Ansatzes in der prozeduralen Semantik gelten. Formal als Abbildung einer Menge auf ein System bestimmt, dessen Elemente und dessen Struktur aber beide durch eben diese Abbildungsbeziehung überhaupt erst induziert werden, kann ein solcher Konstitutionsprozeß auch analytisch gewendet werden, und zwar immer dann, wenn die Elemente der Ausgangsmenge gewissen Regularitäten gehorchen, die eine gewisse Strukturiertheit bewirken. Obwohl diese Struktur durchaus nicht derjenigen isomorph sein muß, die durch die Abbildungsrelation im zweiten System erst induziert wird, darf doch zumindest von einer Homomorphie beider ausgegangen werden, die umso stärker sein wird, je komplexer die erfaßte, von der Abbildungsrelation auch berücksichtigte Beziehungsstruktur des Ausgangssystems ist. Hier - wenn überhaupt - scheint eine systematische Untersuchung empirischer Gegenstände festgemacht werden zu können und zwar als die repräsentierende Rekonstruktion ihrer strukturalen Bestimmung, die in dem Maße und soweit gelingt, wie ihre vielfältigen Beziehungsstrukturen intersubjektiv feststellbar sind.

Eine solche Bestimmung ist von Carnap (1928) als Paradigma der Methode der strukturellen Kennzeichnung entwickelt worden. Sie eröffnet die Möglichkeit, Entitäten aller Art einzig durch ihre strukturellen Beziehungen untereinander zu identifizieren. Für hinreichend komplexe Systeme wohldefinierter empirischer und/oder theoretischer Gegenstände erlaubt eine beliebig zunehmende Aggregation ihrer wechselseitig unterschiedlichen Beziehungen, Entitäten strukturell eindeutig als verschieden auszuweisen, oder - falls dies nicht möglich ist - als für den betreffenden Systemzusammenhang identisch zu kennzeichnen. In einem solchen Systemzusammenhang können alle Entitäten ohne direkten, deiktischen Hinweis und/oder den Bezug auf ein außerhalb des Systems liegendes Referenzobjekt eindeutig gekennzeichnet werden, wie das folgende Beispiel zeigt.

Wir betrachten die Eisenbahnkarte etwa des europäisch-asiatischen Bahnnetzes. Diese Karte möge nicht maßstabgerecht gezeichnet, sondern verzerrt sein, wie es in Kursbüchern üblich ist. Sie gibt dann nicht die Entfernungen, aber doch die Zusammenhangsverhältnisse des Bahnnetzes richtig wieder (in geometrischen Ausdrücken: nicht die metrischen, sondern die topologischen Eigenschaften des Netzes). [...] Wir nehmen nun weiter an, daß alle Bahnstationen durch Punkte markiert seien, aber die Karte soll keine Namen enthalten und auch keine anderen Einzeichnungen als die Bahnlinien. Die Frage ist nun: können wir durch Anschauen des wirklichen Bahnnetzes feststellen, welches die Namen der Punkte unserer Karte sind? [...] Wir suchen die Knotenpunkte höchster Ordnung auf, d.h. solche, in denen die größte Anzahl von Linien zusammen läuft. Von diesen gibt es nur eine kleine Anzahl. Angenommen, wir fänden, daß es zwanzig Knotenpunkte gibt, von denen je acht Strecken ausgehen. Wenn wir dann bei jedem Punkt die Anzahl der Stationen bis zu den nächsten Knotenpunkten auf jeder der acht Linien zählen, so werden wohl kaum zwei von diesen zwanzig Punkten in allen acht Zahlen übereinstimmen; damit wären dann die zwanzig Punkte identifiziert. Sollten aber doch noch zwei oder gar alle zwanzig hierin übereinstimmen, so brauchten wir nur die Verbindungen der je acht Nachbarknotenpunkte untereinander ins Auge zu fassen: ob sie direkte Verbindungen mit einander haben oder nicht, und wieviele Stationen dazwischen liegen, wieviele Strecken von jedem Nachbarknotenpunkt ausgehen usw. [...] Wir gehen weiter, bis wir solche Charakteristika finden, die nicht mehr übereinstimmen, auch wenn wir dabei das ganze Netz durchmustern müßten. [...] Wie nun aber, wenn sich für zwei Knotenpunkte auch nach Durchmusterung des ganzen Netzes keine Unterschiede ergäben? Dann gäbe es eben zwei Punkte gleicher Strukturkennzeichnung (homotope Punkte) in bezug auf die Beziehung benachbarter Bahnstationen. ( Carnap 1928, S. 17f)
Diese ausführlichen Zitate machen die Parallelen in unserem Ansatz sichtbar, welche sich dadurch ergeben, daß er versucht, eine Schicht von Weltwissen und/oder Gedächtnisstruktur (bzw. Fragmente davon) aufgrund von Zusammenhängen zu rekonstruieren, wie sie sich durch die regelhafte Verwendung sprachlicher Einheiten in zu kommunikativen Zwecken geäußerten Texten eines Sach- und/oder Gegenstandsgebiets ergeben.

In Übereinstimmung mit Reichenbachs Bemerkungen über die formale Rekonstruktion von Erkenntnis als Zuordnungsprozeß wird (erstens) eine gegliederte Menge rekurrenter sprachlicher Zeichen und/oder Zeichenketten in Texten identifiziert, d.h. auf unserer derzeitigen Untersuchungsebene der Bedeutungskonstitution: eine Menge lexikalischer Einheiten, wie sie aufgrund ihrer unterschiedlichen Verwendungregularitäten in einem genügend umfangreichen Corpus pragmatisch homogener Texte unterschieden werden können. Von dieser ersten in Texten gegliederten Menge lexikalischer Einheiten, die von wirklichen Sprechern/Hörern in Situationen tatsächlicher oder zumindest doch intendierter Kommunikation zu Sätzen und Satzfolgen arrangiert wurden, wissen wir, daß sie so und nicht anders angeordnet wurden, um durch sie und/oder in ihnen Strukturen zu vermitteln, die beim Hörer/Leser zur Konstitution von Bedeutungen Anlaß geben. Diese Bedeutungen (was immer sie auch sonst sein mögen) stehen (zweitens) als ein System besonderer Art in einer semiotischen Abhängigkeitsbeziehung zu den Strukturen der ersten gegliederten Menge sprachlicher Symbolaggregate, ohne freilich mit diesen notwendig identisch zu sein. In ihrem immanenten Zusammenhang könnten diese Strukturen jedoch formal als eines jener Systeme gedeutet werden, die Reichenbach kognitiv nannte und durch die merkwürdige Tatsache ausgezeichnet sah, daß die diese Systeme konstituierende Abbildungsrelation nicht nur ihre Struktur bestimmt, sondern darüber hinaus auch jedes ihrer Elemente determiniert, welche diese Beziehungsstrukturen hervorbringen. Eben dies ist aber ein wesentliches Charakteristikum aller semiotischen Prozesse.

Unter der Voraussetzung, daß eine Methode existiert bzw. entwickelt werden kann, die mit hinreichender Genauigkeit vorherrschende Interdependenzen zwischen lexikalischen Einheiten auf der Grundlage ihrer Kookkurrenzen, Nachbarschaften, Übergänge, etc. in Texten festzustellen erlaubt, könnten eine solche Prozedur (Methode) und deren Resultate (Interdependenzen) zusammen als konstruktive Grundlage einer (in doppelter Hinsicht) semiotischen Modellbildung gelten:

Die Einheiten dieses zweiten, durch wechselseitige Beziehungen zueinander gebildeten Systemzusammenhangs, würden damit - in einem vielleicht beträchtlicheren Ausmaß als bisher angenommen - zur Klärung dessen beitragen können, was in Theorien zu Kognitionsprozessen und Modellen von Gedächtnisstrukturen als Konzeptualisierung begegnet. Selbst in ihren primär sprachlich, d.h. nicht ausschließlich durch Sinnesdaten oder Handlungserfahrungen vermittelten Teilbereichen scheinen diese linguistischen Strukturierungen von Welt eine fundamentale Kategorisierungsleistung zu repräsentieren. Deren eigentümliche Flexibilität war schon für die Wittgensteinsche Begriffsbildung des Sprachspiels bestimmend gewesen, dessen Welt-erschließende, funktionale Dynamik zu Formulierungen führte, die wie Antizipationen neuester Vorstellungen zur Modellierung von Gedächtnis und Lexikon in der prozeduralen Semantik anmuten.
Die Sätze, die dies [mein] Weltbild beschreiben, könnten zu einer Art Mythologie gehören. Und ihre Rolle ist ähnlich der von Spielregeln, und das Spiel kann man auch rein praktisch, ohne ausgesprochene Regeln lernen. Man könnte sich vorstellen, daß gewisse Sätze von der Form der Erfahrungssätze erstarrt wären und als Leitung für die nicht erstarrten, flüssigen Erfahrungssätze funktionierten; und daß sich dies Verhältnis mit der Zeit änderte, indem flüssige Sätze erstarrten und feste flüssig würden.

Die Mythologie kann wieder in Fluß geraten, das Flußbett der Gedanken sich verschieben. Aber ich unterscheide zwischen der Bewegung des Wassers im Flußbett und der Verschiebung dieses; obwohl es eine scharfe Trennung beider nicht gibt.

Wenn aber einer sagte "Also ist auch die Logik eine Erfahrungswissenschaft", so hätte er unrecht. Aber dies ist richtig, daß der gleiche Satz einmal als von der Erfahrung zu prüfen, einmal als Regel der Prüfung behandelt werden kann.
   ( Wittgenstein 1969, S. 15; meine Hervorhebungen)

Die hier angesprochenen sehr fundamentalen - eine jeweilige Erfahrungswelt als Wirklichkeit allererst erschließenden - Kategorisierungsleistungen dürften daher adäquater durch dynamische Beziehungsstrukturen erfaßt werden, die man im Unterschied zu formallogisch-deduktiven Zuordnungen besser als inhalts(ana)logisch-assoziative Relationen bezeichnet. Für ihre Modellierung lassen sich in der einschlägigen Forschung kaum Andeutungen finden.

Theoretische Ansätze in der formalen Semantik natürlicher Sprache neigen dazu, linguistische Bedeutungsstrukturen zu leugnen aber die Existenz einer externen Systemstruktur von Welt, bzw. möglicher Welten vorauszusetzen, deren vorformatierte Entitäten als extensional bzw. intensional zu definierende Denotate den sprachlichen Termen nurmehr referenziell zugeordnet zu werden brauchen. Sprachbeschreibende Ansätze der linguistischen Semantik neigen umgekehrt dazu, die Möglichkeit ausschließlich referenziell-denotativer Systeme zu leugnen, setzen aber dafür die Kenntnis (und das Verständnis) von Sprache voraus, deren semantische Beziehungen zwischen ihren relevanten Einheiten Sprach-intern mittels syntagmatischer und paradigmatischer Oppositionen, entlang bestimmter kategorialer Dimensionen oder in binär entscheidbaren Merkmalssätzen beschrieben und in semantischen Feldern, Begriffshierarchien oder Bedeutungsnetzen dargestellt werden. Beide Ansätze führen aber zu statischen Modellbildungen, in denen die dynamischen Konstitutionsprozesse von Einheiten und Kategorien, Strukturen und Systemen, Zeichen und Bedeutungen nicht mehr zum Gegenstand der Untersuchung gemacht werden können, weil sie schon deren Voraussetzung bilden.

Im Unterschied dazu wird im gegenwärtigen Ansatz versucht, so wenig wie nötig vorauszusetzen, um so viel wie möglich von jenem Konstitutionsprozeß rekonstruieren zu können, der sich in Mengen von Texten durch den regelhaften Gebrauch sprachlicher Elemente zunächst als ein System empirischer Gegenstände realisiert, die wir hier Bedeutungen nennen. Da deren Beziehungsstruktur aber sowohl als Voraussetzung wie als Resultat eines - dem Erkenntnisprozeß analogen - Prozesses sprachlich vermittelter Bedeutungskonstitutionen aufgefaßt werden muß, bedarf es auch einer dynamischen Repräsentationsform, die jedem sprachlichen Zeichen/jeder Zeichenkette die von ihm/ihr potentiell aktivierte strukturelle Bedeutung als seine/ihre mögliche Interpretation zuordnet. Das kann vermöge einer die semantischen Dispositionen generierenden Prozedur geschehen, welche - im Rahmen eines vom Textcorpus vorgegebenen Gegenstandsbereichs - die mit wechselnden kon- und kotextuellen Bedingungen einer sprachlichen Äußerung sich ändernden möglichen Interpretationszusammenhänge herstellt und - nach abnehmender Relevanz der sie konstituierenden strukturellen Bedeutungselemente geordnet - systematisch zugänglich macht.

2  

Es scheint, daß Carnap (1955) der erste war, der die ältere psychologische Begriffsbildung der Dispositionen in einen kognitiv-theoretisch wie linguistisch-logisch gleichermaßen relevanten Zusammenhang mit Semantik gebracht hat. Obwohl es ihm dabei nicht - oder doch nicht primär - um eine empirische Untersuchung der natürlichen Sprache und ihrer Bedeutung ging, wie sie sich in der tatsächlichen Verwendung aktueller Rede konstituiert (was - nach Carnap - Aufgabe der deskriptiven Semantik ist, die daher eher einen Teil der Pragmatik als der Semantik bildet), verwendet Carnap die Vorstellung von den Dispositionen eines Sprechers, um sein Konzept der Intension zu erläutern, das er in der reinen Semantik braucht (, die ein nach Regeln konstruiertes formales Sprachsystem interpretiert im Unterschied zu den Regularitäten und Bedeutungen natürlicher Sprachsysteme, die sich erst durch Verwendungsweisen des Sprachgebrauchs konstituieren).

Wenn hier die Carnapsche Vorstellung von Dispositionen wieder aufgenommen wird, dann sicherlich nicht im Hinblick auf eine Klärung ihres immerhin fragwürdigen Status innerhalb der formalen Semantik, sondern wegen ihres ganz offenbar unmittelbar einsichtigen, grundlegende kognitive wie semantische Erfahrungen vermittelnden Wertes, der den Begriff der Disposition - obwohl selber noch ungeklärt - zur Erklärung des abstrakten und theoretischen Konstrukts der Carnapschen Intension geeignet machte. Darüber hinaus erfaßt der Begriff wesentliche Teile unserer eigenen Intuitionen über die Voraussetzungen der Bedeutungskonstitution in Verstehensprozessen und wie diese auf der Basis von (hoffentlich auch empirisch rekonstruierbaren) Dispositions-Strukturen im Rahmen einer prozeduralen Semantik simuliert werden könnten.

Bekanntlich führt Carnap den Begriff der Intension eines Prädikats Q für einen Sprecher X ein als die allgemeine Bedingung, die eine Entität y erfüllen muß, damit X dem y das Prädikat Q zuschreiben kann. Obwohl für eine strikt referenz-theoretische Semantik konzipiert, macht er mit der erläuternden Verwendung des Dispositionsbegriffs gleichzeitig expliziten Gebrauch vom struktural-semantischen Konzept einer Sprache als eines Systems von untereinander in (semantischen?) Beziehungen stehenden (sprachlichen?) Entitäten, die als Voraussetzung bestimmter linguistischer Reaktionen des Sprachverwenders X dann gelten müssen, wenn X die Sprache L beherrscht:

Let us try to make this general characterization more explicit. That X is able to use the language L means that X has a certain system of interconnected dispositions for certain linguistic responses. That a predicate Q in a language L has the property F as its intension for X, means that among the dispositions of X constituting the language L there is the disposition of ascribing the predicate Q to any object y if and only if y has the property F. (F is here always assured to be an observable property, i.e. either directly observable or explicitly definable in terms of directly observable properties. The given formulation is oversimplified, neglecting vagueness...).
   ( Carnap 1955, S. 242; meine Hervorhebungen)
Unberücksichtigt können hier die formal-theoretischen wie empirisch-praktischen Probleme bleiben, die sich aus der Analyse des Phänomens der Vagheit natürlich-sprachlicher Bedeutung ergeben, zumal einige davon an anderer Stelle ( Rieger 1976/1981) diskutiert wurden. Sie erwachsen bei allen referenz-theoretischen Semantikmodellen im allgemeinen aus jenen (nicht unmittelbar überprüfbaren) Eigenschaftszuschreibungen, denen keine beobachtbaren Merkmale sondern einzig sprachlich vermittelte Konzepte zugrunde liegen, und sie betreffen im besonderen solche Schwierigkeiten, die intensionalen Ansätzen eine befriedigende Berücksichtigung kontinuierlicher Übergänge von Eigenschaften und Merkmalsausprägungen in ihren Notationen bereitet. Dagegen soll im folgenden das näher betrachtet werden, was bei Carnap als die eine Sprache L konstituierende und in ihren idiolektisch-performatorischen Ausprägungen bestimmende Bedingung erscheint und als ein bestimmtes System untereinander verbundener Dispositionen zu bestimmten linguistischen Reaktionen bezeichnet wird.
Let D be the disposition of X to react to a condition C by a characteristic response R. There are, in principle, although not always in practice, two ways for ascertaining whether a given thing or person X has the disposition D (at a given time t). The first method may be called behaviouristic (in a very wide sense); it consists in producing the condition C and then determining whether or not the response R occurs. The second way may be called the method of structure analysis. It consists in investigating the state of X (at t) in sufficient detail such that it is possible to derive from the obtained description of the state with the help of relevant general laws (say of physics, physiology, etc.) the responses which X would make to any specified circumstances in the environment. Then it will be possible to predict, in particular, whether, under the condition C, X would make the response R or not: if so, X has the disposition D, otherwise not. [...] With respect to a psychological disposition and, in particular, a linguistic disposition of a person X, there is first the familiar behaviouristic method and second, at least theoretically, the method of micro-physiological investigation of the body of X, especially the central nervous system. ( Carnap 1955, S. 243)
Obwohl diese Charakterisierung noch eine Vorschrift darstellt, die man unmittelbar anwenden könnte zur empirischen Rekonstruktion linguistischer Dispositionen, und obwohl sich hinter diesem Begriff noch alle (semiotischen) Konstitutionsebenen linguistischer Entitäten undifferenziert verbergen, wird doch deren Funktion als eine Art (systematische) Bedingung für die (handlungssteuernde) Möglichkeit zu (auch Folgerungen einschließenden) sprachlichen Aktionen und/oder Reaktionen deutlich, die ihrerseits als durch einen - wie immer auch zu analysierenden bzw. zu beschreibenden - sie determinierenden und durch sie determinierten Strukturzusammenhang phonetischer, syntaktischer, semantischer und pragmatischer Entitäten bestimmt erscheinen.

Quines Konzeption einer auf Sätzen, nicht Wörtern aufbauenden Stimulusbedeutung scheint darauf indirekten Bezug zu nehmen, obschon man die darin vorgestellte unmittelbare Aktivierung von gegebenen Bedeutungen nicht mit der über die Aktivierung von Dispositionsstrukturen vermittelten Konstituierung von Bedeutungen wird gleichsetzen dürfen, aufgrund derer dann ein Sprecher a einem Satz S zu einer Zeit t eher zustimmen bzw. eher widersprechen wird.

A stimulus meaning is the stimulus meaning of a sentence for a speaker at a date; for we must allow our speaker to change his ways. Also it varies with the modulus, or maximum duration recognized for stimulations. For, by increasing the modulus we supplement the stimulus meaning with some stimulations that were too long to count before. Fully ticketed, therefore, a stimulus meaning is the stimulus meaning modulo n seconds of sentence S for speaker a at time t. [...] The stimulus meaning of a sentence for a subject sums up his disposition to assent to or dissent from the sentence in response to present stimulation... [S. 33f]

The difference is that here a stabilizing factor is intruded: a theory of subvisible structure. [...] Something of that kind is still afoot whenever we infer one trait from another on the ground of widespread observation of association of the traits but in ignorance of the connecting mechanism [...] Dispositions are, we see, a better-behaved lot than the general run of subjunctive conditionals; and the reason is that they are conceived as built-in, enduring structural traits. Their saving grace extends, moreover, to many subjunctive conditionals that do not happen to have acquired one-word tags like `soluble' and `fragile'. ( Quine 1960, S. 223)

Die für die Stimulusbedeutung betonte Dynamik (aufgrund veränderbarer Zusammenhangsstrukturen) und Variabilität (aufgrund zeitabhängiger Aktivierungstiefen) sollten gleichwohl eher für Dispositionen geltend gemacht werden, zumal dann, wenn man die einengende Bindung an behaviouristische Reiz-Reaktions-Vorstellungen und die nicht minder einschränkende Orientierung an Satz-logischen Modellvorstellungen aufgibt und - hierin Ziff (1970) folgend - Quines Konzept der Stimulusbedeutung verwirft, ohne aber - entgegen Ziff - das der Dispositionsstruktur preiszugeben.
I am inclined to fix on two features. First, it is hopeless (or at present hopeless) to attempt a causal account of linguistic behavior. Viable regularities of the form `If a is the case then a speaker does b' are simply not to be found. One can, however, hope to formulate viable regularities of the form `If a speaker does b then generally a is the case`. But second, even regularities of that form must initially be taken as only tentative. Such regularities, or what I have called ``state regularities", must be tested, examined in the framework of analysis for the entire language. Quine's concept of stimulus meaning is cast in a causal mold; thus it faces the wrong way: it looks from conditions to speakers instead of from speakers to conditions. ( Ziff 1972, S. 105; meine Hervorhebung)
Obwohl auch Ziffs Zustandsregularitäten, welche die semantischen Interpretations-Bedingungen ko- und kontextuell zu fixieren suchen, unseren eigenen Intuitionen über eine nicht-statische, sondern variable Zusammenstellung derjenigen Informationen gerade nicht entspricht, die zur Interpretation lexikalischer Einheiten unter verschiedenen kommunikativen Bedingungen unterschiedliche Inhalte unterschiedlicher Relevanz müßten bereitstellen können, scheint der (re-)konstruktive Weg von der Analyse der Äußerungen der Sprecher/Hörer zur näheren Charakterisierung der diese Äußerungen ermöglichenden Bedingungen jedenfalls eher gangbar, als Quines umgekehrter Weg. Das wird von Putnam (1970) unterstrichen, der - unter Vermeidung des Bedeutungsbegriffs - als eine empirische Hypothese formuliert, was die bedeutungskonstituierende, d.h. Situations- wie Sprecher/Hörer-angemessene kommunikative Verwendung jeden Wortes erst erlaubt: eine mit dem Wort verbundene und durch es aktivierte, rudimentäre Theorie (des Gebrauchs) die er - gegen den Dispositionsbegriff eines Teils der Gebrauchstheoretiker - als Stereotyp bezeichnet.
The hypothesis is that there are, in connection with almost any word (not just `natural kind' words), certain core facts such that (1) one cannot convey the normal use of the word (to the satisfaction of native speakers) without conveying those core facts, and (2) in the case of many words and many speakers, conveying those core facts is sufficient to convey at least an approximation to the normal use. In the case of a natural kind word, the core facts are that a normal member of the kind has certain characteristics, or that this idea is at least the stereotype associated with the word. [...] Wittgensteinians [...] say that acquiring the customary use of such words as `tiger' is coming to share a form of life. What they miss, or at any rate fail to emphasize, is that while the acquired disposition may be sufficiently complex and sufficiently interlinked with other complex dispositions to warrant special mention (though hardly the overblown phrase `form of life'), what triggers the disposition is often highly discrete. ( Putnam 1975, S. 148f)
Die im folgenden begrifflich zu entfaltenden und operational zu füllenden Dispositions-Strukturen bilden aber keine Putnamschen stereotypes, sondern werden aus stereotypischen Repräsentationen von Gebrauchsregularitäten aufgebaut. Diese sind dabei keine Ziffschen state regularities, sondern die in pragmatisch-homogenen Texten feststellbaren regelhaften Verwendungsweisen lexikalischer Einheiten. Ihnen sind daher auch keine Quineschen stimulus meanings zuordnenbar, von ihnen aber werden gleichwohl - wie von Stimuli - die Prozeduren zur Generierung von Strukturzusammenhängen aufgerufen, so daß sie - bei aller Affinität zu den genannten Konzeptionen - den Carnapschen dispositions noch am nächsten stehen.

So gesehen können auf der Ebene der Bedeutungskonstitution durch semantische Dispositionen die Strukturen jener dynamischen Zusammenhänge formal dargestellt werden, die - nur durch kommunikative Umstände und Kontexte als den pragmatischen Rahmenbedingungen eingeschränkt - Zuordnung und Reichweite bestimmter, potentiell überhaupt möglicher Interpretationen inhaltlich variabel bestimmen. Darin den Makro-Frames der künstlichen Intelligenz-Forschung vergleichbar, die für spezifische, dabei höchst standardisierte kommunikative Situationen und Umgebungen Fragmente des sachlichen wie episodischen Weltwissens gleichsam statisch normierend bereitstellen, würden Dispositions-Strukturen jene Ausschnitte relevanten assoziativen Wissens über einen Gegenstandsbereich unter variierenden inhaltlichen Aspekten und Zusammenhängen als eine Art dynamischer Mikro-Frames verfügbar machen können.

3  

Für die wechselseitige Vermittlung von Weltwissen und sprachlichen Strukturen in Repräsentationssystemen zur Modellierung von Prozessen der Bedeutungskonstitution und des Sprachverstehens hat sich das Frame-Konzept als eine der einflußreichsten Begriffsbildungen im Rahmen der Kognitionswissenschaften erwiesen.

Bei seiner Einführung (1974) durch Minsky schien das Konzept der Frames zunächst völlig auf der Linie jener Entwicklung zu liegen, die mit Quillians folgenreichen Arbeiten (1966/1968) eingeleitet worden war. Seine Ideen hatten sich als überaus fruchtbar erwiesen sowohl im Hinblick auf Fragen des Wissenserwerbs, der Gedächtnisstruktur und des Sprachverstehens in der kognitiven Psychologie, als auch im Rahmen der Forschungen zur künstlichen Intelligenz in bezug auf Probleme der Bedeutungsrepräsentation, der Wissensstrukturen und des automatischen Schließens. Quillians Konzept des semantic memory stellt sich als ein Netzwerk benannter Knoten und sie verbindender Relationen dar, das - als formale Datenstruktur in Computerprogrammen definiert - entscheidende, mit der Interpretation und dem Verstehen natürlicher Sprache verbundene Prozesse auf dem Rechner zu simulieren gestattete. Von Tulving (1972) stammt die ergänzende Konzeption des episodic-memory, das eine formale Darstellung von zeitlich organisierten Erfahrungsinhalten einer Person erlaubt, und zu einer deutlichen Unterscheidung dieser beiden - das Sprach- und Weltwissen einerseits mit dem temporalen Erfahrungswissen andererseits gleichwohl wechselseitig vermittelnden - Gedächtnisstrukturen eines verstehenden bzw. intelligenten Systems führt.

Semantic memory is the memory necessary for the use of language. It is a mental thesaurus, organized knowledge a person possesses about words and other verbal symbols, their meanings and referents, about relations among them, and about rules, formulars, and algorithms for the manipulation of these symbols, concepts, and relations.
   ( Tulving 1972, S. 386)
A person's episodic memories are located in and refer to his own personal past. Most, if not all, episodic memory claimes a person makes can be translated into the form: `I did such and such, in such and such a place, at such and such a time'.
   ( Tulving 1972, S. 389; meine Hervorhebungen)
Vor dem Hintergrund psychologisch motivierter Theorien- und Modellbildungen zur Kognition werden semantisches und episodisches Gedächtnis aber nicht eigentlich als zwei unterschiedliche Gedächtnisregionen sondern vielmehr als zwei verschiedene Arten der Wiederauffindung (recall) und/oder Speicherung (storage) von Erinnerungsdaten gedeutet, wie dies in späteren Arbeiten etwa von Tulving/ Thomson (1973) unterstrichen und von Pribram (1982) auch neuro-physiologisch nahegelegt wurde.

Es ist bezeichnend, daß diese Betrachtungsweise sich nur marginal in denjenigen Ansätzen niederschlägt, die im Rahmen der Forschung zur künstlichen Intelligenz entwickelt wurden. In den durchweg auf Rechnern implementierten Modellbildungen wird vielmehr die durch die jeweils verwendete Programmiersprache nahegelegte (oder eben auch gerade verwischte) Unterscheidung von Daten und Prozedur bestimmender sein als die Tulvingsche Unterscheidung. Dagegen ist von scheinbar sehr unterschiedlichen Konzeptualisierungen, Glaubens- und Begriffssystemen, unermüdlichen Arbeitskobolden und Experten, Drehbüchern, Szenen und Rahmen die Rede, in denen sich aber gleichwohl ähnliche Ideen umsetzen.

Colbys Begriff der conceptualization bildet die Grundlage für seine Konzeption der belief-systems (1973). Die individuellen Konzeptualisierungen beziehen sich dabei auf eine Art molekulare Struktur atomarer Konzepte, die erwartbare situative Konfigurationen von Tatsachen darstellen. Deren generelle Beziehungen untereinander erlauben aber sehr spezifische Zusammenstellungen zu einzelnen Konzeptualisierungen, die dadurch zu beliefs werden, daß ihnen eine Bewertung ihrer Verläßlichkeit und Glaubwürdigkeit zugeordnet werden kann.

Credibility represents a judgement of acceptance, rejection, or suspended judgement [toward conceptualization]. A conceptualization consists of a conceptual structure made up of concepts and their interrelations. Concepts can be viewed as atomic units and conceptualizations as molecular units. A conceptualization is an interpretation relativized to an individual holder. Beliefs in turn are composed of representations of situations (facts) or relations between situations (rules). [...] It should be clear that the observables being modelled are what people say about their beliefs in certain observer-observed interactions. To explain the observables we postulate a structure composed of non-observable theoretical entities. [...] A belief system has grounds, evidence, or warranting reasons for each belief held. In humans this supporting evidence originates experientially from facts of observation, from experimentation, from memory, from self-knowledge, from testimony of others, and from inference. ( Colby 1973, S. 253f)
Während Colby an Struktur und Aufbau von Systemen verfügbaren Wissens interessiert ist, erweist sich Charniaks demon structure (1972) als eine neuartige Verbindung von Arbeitsprozeduren (demons), die auf einer Datenbasis (structure) operieren, in der strukturiertes, konventionalisiertes Wissen über Tatsachen eines Gegenstandsbereichs vorliegt. Diese Prozeduren waren entwickelt worden, um Zeit- und Speicherbedarf angesichts zunehmend komplexerer Programmstrukturen und umfänglicherer Datenbasen zu entlasten. Wie Experten stellen die Demon-Prozeduren als aktivierbare Wissensproduzenten dabei - neben den in der Datenbasis vorhandenen Informationen zur Interpretation einer Eingabekette - zusätzliche Daten erst dann zur Verfügung, wenn sie dazu aufgerufen werden. Das kann sowohl durch die unmittelbare Eingabe geschehen wie auch durch andere Demon-Prozeduren, die - quasi vorausschauend oder auch rückblickend - Beziehungen herstellen, welche in der Eingabekette so nicht enthalten zu sein brauchen.
Note that a topic concept need not be a single key word. A fact may not become available to the system until a complex set of relations appears in the data base [...] Facts were formulated as antecedent theorems because of their clear need to look forward. However, rather than continue calling the facts antecedent theorems, we will call them demons. It should be emphasized that the model does not "learn" the information contained in the demons. This information is put in by the model maker. ( Charniak 1976, S. 130; 132)
Begriffsbildungen wie scripts und scenes ( Abelson 1973; Schank 1975) bezeichnen vergleichbare, von einem einzelnen Wort in einem Satz, oder von einem einzelnen Satz in einem Text ausgelöste Zusammenhänge, jedoch nicht so sehr in konzeptueller Hinsicht sondern vornehmlich im Hinblick auf situative und aktionistische Strukturen episodischen Gedächtnisses.
Some of the episodes which occur in memory serve to organize and make sense of new inputs. These episodic sequences we call scripts. A script is an elaborate causal chain which provides world knowledge about an often experienced situation. Specifically, scripts are associated as the definitions of certain situational nouns. ( Schank 1975, S. 264)
A script, as we use it, is a structure that describes an appropriate sequence of events in a particular context. A script is made up of slots and requirements about what can fill those slots. The structure is an interconnected whole, and what is in a slot affects what can be in another. Scripts handle stylized everyday situations [...] a script is a predetermined, stereotyped sequence of actions that define a well-known situation.
   ( Schank/Abelson 1977, S. 422)
Minskys erste Arbeit über frame-Systeme (1974) traf so auf eine Vielzahl ähnlicher und verwandter Vorstellungen und Ideen, die durchaus schon eine nach übergreifender Vereinheitlichung strebende Tendenz zeigten. Das führte dazu, daß inzwischen das Frame-Konzept als der gemeinsame Nenner aller in der künstlichen Intelligenz entwickelten Modelle akzeptiert zu werden scheint.
When one encounters a new situation (or makes a substantial change in one's view of a problem), one selects from memory a structure called frame. This is a remembered framework to be adapted to fit reality by changing details as necessary. A frame is a data-structure for representing a stereotyped situation [...] Attached to each frame are several kinds of information. Some of this information in about how to use the frame. Some is about what one can expect to happen next. Some is about what to do if these expectations are not confirmed. We can think of a frame as a network of nodes and relations. The `top levels' of a frame are fixed, and represent things that are always true about the supposed situation. The lower levels have many terminals - `slots' that must be filled by specific instances or data. Each terminal can specify conditions its assignments must meet. (The assignments themselves are usually smaller `sub-frames'). [...] Collections of related frames are linked together into frame-systems.
   ( Minsky 1977, S. 355)
Obwohl aber die Frame-Theorie ebenso wie die damit verbundenen Konzeptionen und deren Weiterentwicklungen eine beträchtliche Bedeutung für die einschlägige Forschung gewannen und zeitweise zu so etwas wie einem Shibboleth fortschrittlicher, weil prozeduraler Ansätze ( Rieger 1977b) wurde, blieb die Aufmerksamkeit der Modellentwickler - trotz aller verbalen Hinweise auf die notwendige empirische Absicherung dieser Modelle - auf die theoretischen Annahmen und simulativen Konsequenzen fixiert, welche in der Kontroverse um deklarative und/oder prozedurale Wissensrepräsentationen diskutiert wurden ( Bobrow 1975; Winograd 1975; Woods 1975; Brachman 1976). Empirische Voraussetzungen aber und methodologische Fragen, wie man denn an welches Wissen gelange (dessen Darstellung sich im übrigen bei nicht introspektiver Erhebung aus der Methode selbst ergeben könnte), wurden noch kaum diskutiert und blieben bisher fast völlig offen.

4  

Auf der Suche nach Lösungen dieses Problems und unter Berücksichtigung derjenigen Disziplinen, die durch ihr Erkenntnisinteresse, ihren Gegenstand, vor allem aber durch eine strikt empirisch-experimentelle Methodik noch am ehesten einen Aufschluß erwarten lassen, stößt man unschwer auf die Psychologie und näherhin auf deren kognitionstheoretisch relevante Teilgebiete. Ihre traditionelleren Ansätze, wie sie vor allem im Rahmen der empirisch-experimentellen Erforschung von Konzeptualisierungsleistungen unternommen wurden, haben dabei zu Modellvorstellungen über Art und Aufbau semantischer Entitäten und ihrer Verarbeitung durch den Menschen geführt, welche zu nicht weniger Kritik Anlaß geben als die Frame-Theorie - wenngleich aus anderen Gründen.

Die Anwendung empirischer Methoden zur Untersuchung psychologischer und/oder linguistischer Dispositionen wird dabei - wie oben schon bei Carnap angemerkt - zunächst insofern durch einen behaviouristischen Angang markiert, als er auf das konventionelle Paradigma von Reiz-Reaktions-Experimenten beschränkt bleibt. Haupteinwand gegen diese Art empirischer Erforschung von Konzeptualisierungsleistung und Bedeutungskonstitution ist, daß die meisten experimentellen Untersuchungen gerade jene Phänomenbereiche verfehlen (müssen), die sie (gleichwohl) zu analysieren vorgeben. So bleiben ihnen solche kognitiven Prozesse weitgehend unzugänglich, die beim spontan-kommunikativen Gebrauch von Sprache bzw. beim sprachlichen Erwerb von Kenntnissen tatsächlicher Sprecher/Hörer in realen Umgebungen ablaufen, die aber an Äußerungen von Testpersonen in laborgemäß eingeschränkten, d.h. künstlichen Kommunikationssituationen kaum beobachtet werden können ( Rieger 1977c). Empirisch-experimentelle Untersuchungen semantisch relevanter Operationen in kognitiven Verarbeitungsprozessen von Sprache sind darüber hinaus immer der Gefahr ausgesetzt, mit den falschen Konzepten und den falschen Prozeduren modellieren zu wollen, wie Bedeutungen und Begriffe erworben, repräsentiert, verknüpft und verändert werden ( Rosch 1975a).

In Übereinstimmung mit Ideen, die in der Tradition und Entwicklung der Gestalt-Theorie stehen, wird eine ganz ähnliche Kritik vorgetragen. Sie betrifft experimentelle Forschungsansätze zur Kognition und Gedächtnisstruktur im allgemeinen sowie zur Konzept- bzw. Begriffsbildung und Bedeutungskonstitution im besonderen. Anhand der üblicherweise in den Versuchsanordnungen verwendeten Testmaterialien wie schwarzen und weißen, großen und kleinen Kreisen und Quadraten kann deren Inadäquatheit leicht exemplifiziert werden im Vergleich zu den natürlichen Konzepten des täglichen Lebens.

The concept of a table presumably involves a common function, but it is not represented by instances that possess any perceptual attributes in common. Hence, the first failing of the conventional studies is that they do not distinguish between a concept and the perceptual characteristics of its exemplars: they define concepts in terms of their appearance. Thus, [...] it is a mistake to assume that a concept is disjunctive simply because the perceptual cues to it are disjunctive. However, [...] many everyday concepts do not even involve a common function. It is difficult to see how one could frame a single conjunctive definition of games, furniture, or tools that would capture their necessary and sufficient conditions. [...] Natural concepts are indeed often polythetic. It might be argued that they are defined by a disjunction of attributes, but real-life concepts are seldom composed of Boolean combinations of otherwise independant attributes. On the contrary, they have an internal relational structure - a logic that cannot be captured by Boolean algebra.
   ( Johnson-Laird/Wason 1977, S. 177)
Um diese interne relationale Struktur wird es uns gehen müssen, wenn wir uns - Carnaps zweitem Vorschlag folgend - einer strukturalen Analyse zuwenden. Anders als der oben zitierte Vorschlag wird diese Analyse jedoch nicht die Rekonstruktion des Dispositionsgeflechts einer einzelnen Person X zum Zeitpunkt t in bezug auf alle nur erdenklich möglichen linguistischen Stimuli anstreben, sondern nur diejenigen Dispositionen in ihrem Zusammenhang untersuchen, die quasi überindividuell durch eine begrenzte Stimulusmenge in einem sehr eingeschränkten Gegenstandsbereich überhaupt würden ausgelöst werden können. Einer solchen Einschränkung unterliegt aber praktisch schon jede Folge von sprachlichen Äußerungen, die durch den gemeinsamen Gegenstandsbereich und/oder die gleiche Situation von tatsächlichen Sprechern/Hörern in wirklichen Interaktionen als kommunikativ erfahren werden.

Jede Menge solcher unter gleichen ko- und kontextuellen Kommunikationsbedingungen C produzierten Äußerungen R kann dabei als Teilmenge aller tatsächlichen (sprachlichen) Reaktionen nicht nur einer Einzelperson X, sondern ebenso auch einer Vielzahl von beteiligten Personen gedeutet werden. Derartig empirisches Sprachmaterial, dessen Vielfalt und Varietäten aber - wenn überhaupt - gerade auch jene Zusammenhänge erschließen lassen, welche formal etwa die semantische Kohärenz eines Gegenstandsbereichs bewirken und/oder inhaltlich den beteiligten Sprechern/Hörern eine (semantisch) relevante Interpretation dann erlauben, wenn sie über Kenntnisse eben dieses Gegenstandsbereichs verfügen, kann methodisch zugänglich gemacht werden. Diese im jeweiligen Wissensbestand der Kommunikationspartner vorauszusetzenden konzeptuellen Beziehungsgeflechte werden unter der schon angedeuteten Hypothese gemeinsamer semantischer Dispositionen rekonstruiert werden können. Ihr Strukturzusammenhang könnte dabei ein System von (nicht-deklarativen) Relationen besonderer (nämlich assoziativer) Art bilden, dessen Algebra möglicherweise adäquater erfaßt werden könnte von Prozeduren zur dispositionellen Zusammenstellung von Bedeutungselementen als von Regeln zur propositionalen Verknüpfung von Prädikationen. Beides, assoziative Bedeutungsbeziehungen und dispositionelle Bedeutungsrepräsentationen könnten sich dabei durchaus als eine geeignete Grundlage erweisen für die Simulation und damit für ein besseres Verständnis von Prozessen des analog-assoziativen Folgerns, das im Unterschied zum logisch-deduktiven Schließen noch weitgehend ungeklärt ist.

Als deklarativ soll hier informell dasjenige Wissen bezeichnet werden, dessen Strukturierung und Modellierung durch Bedeutungsbeziehungen erfolgt, die vermöge der zur Verfügung stehenden Namen oder sprachlichen Ausdrücke unterschieden, benannt und deshalb auch von Fachleuten explorierend-introspektiv gewonnen werden können. Dieses Wissen betrifft weitgehend die externe, vornehmlich physikalische, d.h. nicht ausschließlich sprachlich vermittelte Wirklichkeit und umfaßt intersubjektive, durch strenge Regelhaftigkeit kanonisierte Zusammenhänge, die als Sach- und Fachwissen, Teil-Ganzes-Beziehungen, Unter-Oberbegriffs-Hierarchien, konzeptuelle und kategoriale Selektionsbeschränkungen, Tiefenkasus, etc. strukturiert und über solche Strukturen logisch-deduktiv zugänglich gemacht werden können.

Im Unterschied dazu bezeichnet die assoziative Bedeutungsbeziehung ein Organisationsprinzip von Wissen, das auf weniger streng determinierten Regelhaftigkeiten beruht und damit durch eine geringere Verbindlichkeit oder Verläßlichkeit charakterisierbar erscheint. Danach sind Erfahrungs- und Wissensbestandteile einander so zugeordnet, daß ihre größeren oder geringeren inhaltlichen Verwandtschaften oder Ähnlichkeiten einer kleineren oder größeren Entfernung voneinander entsprechen. Diese sprachlich nicht (oder doch nur in seltenen Fällen) benennbaren (deswegen auch meist nur rekonstruktiv beschreibbaren) Bedeutungsbeziehungen erscheinen dabei in ihrer unspezifischen Allgemeinheit zunächst einzig von besonderen, höchst zufälligen Bedingungen des Wissensstandes, der Ko- und Kontexte, der situativen Umgebung, des Aspekts, etc. gesteuert, d.h. weitgehend irregulär und deshalb nur sehr bedingt formal reproduzierbar. Sie erklären aber häufig beobachtbare Phänomene leichteren oder schwierigeren Erkennens bzw. schnelleren oder langsameren Erinnerns von Konzepten. Wie kognitionstheoretische Überlegungen und Experimente überdies verdeutlichen, sind assoziative Bedeutungsbeziehungen nicht nur nicht zufällig, sondern überaus systembildend und für die primäre Strukturierung von Erfahrungswissen von Welt konstitutiv.

Daß diese Unterscheidung nicht etwa nur als Folge unterschiedlicher Organisationsstrukturen und Darstellungsformate eines im Prinzip aber gleichartigen Wissens gedeutet werden darf, sondern umgekehrt vielmehr als Voraussetzung gelten muß für die Entwicklung spezifischer Repräsentationsformate, welche unterschiedliche Arten von Wissensinhalten und -strukturen zu erfassen und darzustellen überhaupt erst erlauben, belegen die Modellbildungen zu konzeptuellen und semantischen (Gedächtnis-) Systemen ( Estes 1976; Wilson 1980). Deren Datenrepräsentationen können ebenfalls danach unterschieden werden, ob sie ihre Elemente digital durch binäre Eigenschafts- oder Kategorienzuschreibung definieren oder analog durch kontinuierliche Abbildung gradueller Zugehörigkeit zu Kategorien darstellen. Letztere sind für experimentelle und empirische Untersuchungen der Wahrnehmungs- und Kognitionspsychologie charakteristisch, die hierzu die Begriffe des Prototyps bzw. Stereotyps entwickelt haben. Diese Begriffsbildung bezeichnet dabei nicht nur ein Grundmuster perzeptueller Zuordnungen und konzeptueller Vergleiche sondern kennzeichnet auch ein besonderes Darstellungsformat. Es bildet die formale Grundlage analoger Modelle, welche Prototypen - quasi über vielfältige korrelative Benachbartheiten - in dieser Form als einander wechselseitig bestimmende Konzeptualisierungen und deren Unterschiede als Distanzen von Kernen darstellen, die ihrerseits in ihren prototypischen Höfen die Stereotype bilden. Dieses aspektabhängige Darstellungsformat dürfte dabei der Art und Weise, wie in kognitiven Prozessen Konzepte und Kategorien gebildet und verarbeitet werden, näher kommen als die geläufigeren digitalen Modelle.

Categorization occurs in order to reduce the limitless variation - the uncertainty of world - to manageable proportions. What is the most useful form of grouping? [...] In informational terms, a category is most useful when, by knowing the category to which a thing belongs, the organism, thereby, knows as many attributes of the thing as possible. Segmentation of the same domain would be progressively less useful the fewer the properties of things predictable from knowing the category. Attributes and properties in the real world differ from those of typical free sorting stimuli in that the real-world attributes do not always occur orthogonally, but rather tend to occur in co-occurring sets. Creatures with feathers are far more likely also to have wings than are creatures with fur. In this sense, maximally useful categories would appear to be those that follow the lines of natural correlations of attributes, those that maximize the correlation and thus the predictability of attributes within categories. - Such a principle is, at present, hypothetical. And even if taken as a truism, it would not tell us anything about the form or parameters of relationship between correlations and categories.
   ( Rosch 1975b, S. 197)
Für diese prototypische Auffassung der Kategorisierungsleistung sprechen eindrucksvolle experimentelle Belege auch und gerade im Licht der neueren Diskussion, die sich - ohne den referenz-theoretischen Rahmen der ihr zugrundeliegenden Semantikkonzeptionen zu verlassen - an der Frage der Adäquatheit von Darstellungsformaten aus der Theorie der unscharfen Mengen ( Zadeh 1965) entzündete. Diese Kritik, die inzwischen gleichwohl zu einer Neuformulierung des (formalen) Prototypen-Begriffs geführt hat ( Jones 1982; Zadeh 1982), läuft freilich auf eine konzept-relationale Neuinterpretation wahrheitsfunktionaler Ansätze hinaus, die ein Festhalten an traditionellen digitalen Modellbildungen vorziehen. Daß deren Verteidiger dabei - wie Osherson/Smith (1981; 1982) - sich nicht auf (von Konzepten Gebrauch machende) Propositionen stützen, sondern von (unmittelbar aus Konzepten sich aufbauende) Gedanken ausgehen, macht deren Verknüpfungen und ihre Wahrheitsbewertungen nicht eben überprüfbarer, zumal die damit verbundene erkenntnistheoretische Problematik ( Goodman 1982) offenbar ganz übersehen wurde und daher unberücksichtigt bleibt.

Vielmehr gibt es inzwischen begründeten Anlaß zu der Vermutung, daß die oben betonte Beziehung zwischen natürlichen Korrelationen und assoziativen Kategorien tatsächlich jenes Prinzip maximierender Attribuierung darstellt, dessen formale Realisierung Rosch bisher noch für hypothetisch hielt. Seine quasi formale Rekonstruktion als Prozedur wird aber dann realistischer erscheinen, wenn konzeptuelle Attribute nicht mehr nur als binär entscheidbare Eigenschaften verstanden werden, welche die Zugehörigkeit eines Exemplars zu einer Kategorie signalisieren, sondern selber - ganz im Sinne eines prototypischen Abbildungsformats - als kontinuierlich gradierbare Zuordnungen von Eigenschaftsprädikaten aufgefaßt wird, die eine konzeptuelle Kategorie erst konstituieren. Unter dieser Bedingung und der weiteren Voraussetzung, daß es - anders als durch kognitiv sterile Laborexperimente - gelingt, eine strukturell angemessene, konzeptuell relevante und empirisch zugängliche Datenbasis bereitzustellen, könnte sehr wohl etwas über Form und Parameter jener internen relationalen Struktur herausgefunden werden, die oben als eine Bedingung der Möglichkeit von sprachlich vermittelten Bedeutungskonstitutionen bezeichnet wurde.

5  

Die perzeptuell differenzierende Kapazität, die man den Testpersonen in Konzeptualisierungaufgaben der oben kritisierten Art abverlangt bzw. im Hinblick auf Systeme sogenannter natürlicher Kategorien abverlangen könnte, erscheint als überaus gering und eingeschränkt im Vergleich zu dem Auflösungsvermögen, daß die lexikalisch-semantisch vermittelten Kategorien bieten, über die jede Testperson (als kompetenter Sprecher einer natürlichen Sprache) verfügt. Wenn wir daher natürlich-sprachliche Äußerungen in Kommunikationssituationen sowohl als Ausruck wie als Realisation von (erfolgreichen oder mißlungenen) sprachlichen Konzeptualisierungsleistungen akzeptieren, können wir gleichzeitig das Sprachvermögen als deren aufschlußreichste, weil überaus flexible und dazu noch rekursiv operierende Fähigkeit definieren. Sie erlaubt nicht nur die grundlegende Reduktion der grenzenlosen Variation und Ungewißheit der Welt auf benennbare, d.h. durch Sprache bewältigte und handhabbar gemachte Unterteilungen, sondern sie dient darüber hinaus der notwendigen Aufteilung in Gegenstandsbereiche bzw. Segmente daraus, die - sollte dies eine sich ändernde Umgebung und/oder neue kommunikative Aufgabe verlangen - erweitert, verengt, vergröbert, spezifiziert, revidiert und verändert werden kann.

Die nicht minder variationsreichen und veränderlichen (performatorischen) Resultate solcher (aus der Sprachkompetenz erwachsenden) kognitiven Fähigkeit zur Strukturierung von Welt können aber - als Corpus natürlichsprachlicher Äußerungen - eine empirische Datenbasis liefern, deren korrelative Analyse ko-okkurrierender Sprachelemente sich durchaus als relevant erweist bei der rekonstruktiven Abbildung von eher prototypisch als disjunkt zu repräsentierenden Ergebnissen sprachlicher Konzeptualisierungen. In möglichst prozedural zu definierenden, weil je nach Aspekt sich ändernden Hierarchien von Komponenten bzw. Attributen organisiert, würde erst die Verfügbarkeit solcher prototypischen Zusammenhangsstrukturen einen (menschlichen und/oder künstlichen) Sprachverarbeiter in die Lage setzen, diese von kommunikativen Aspekten und Inhalten gesteuerten semantischen Erwartungen - wie Interpretationshilfen - zur Erschließung selbst (oder auch gerade) solcher Konzeptualisierungen zu nutzen, die sich in Texten zeigen aber nicht direkt ausgesprochen werden.

Möglicherweise kann damit ein zentrales verstehenstheoretisches Problem, das insbesondere innerhalb der künstlichen Intelligenz-Forschung zu neuartigen Anforderungen bei der Entwicklung natürlich-sprachlicher Verstehenssysteme geführt hat, neu angegangen werden. Denn was in der jeder Analyse und wahrheitsfunktionalen Bewertung vorausgehenden Interpretation propositionaler Eingabeketten stillschweigend vorausgesetzt weil bisher nicht als zentrale Verstehensleistung erkannt wurde, kann mit Hilfe dispositioneller Wissensstrukturen nicht nur expliziert, sondern vielleicht sogar in sprachverarbeitenden Systemen praktisch simuliert werden: eine den formal-logisch rekonstruierbaren Kategorisierungen und Begriffshierarchien komplementäre inhaltlich-analoge Strukturierungsleistung. Darauf deuten zumindest jüngste Entwicklungen hin, die sich im Rahmen der künstlichen Intelligenz mit der Simulation von wissens- und gedächtnisgestützten Lern- und Verstehensprozessen beschäftigen und Such-, Identifikations- und Folgerungs-Prozeduren in dynamischen Datenumgebungen zu entwickeln suchen ( Gaines 1976; Minsky 1979; Steels 1981).

The concept of representation of knowledge seems lucid enough when talking about memories of sentences, numbers or even faces, for one can imagine how to formulate these in terms of propositions, frames, or semantic networks. But it is much harder to do this for feelings, insights and understandings, with all the attitudes, dispositions, and ways of seeing things that go with them. (The term disposition is used here in its ordinary language sense to mean a momentary range of possible behaviours. I don't see a way to define it technically without making it synonymous with state, which does not capture the same intuitions.) Traditionally, such issues are put aside, with the excuse that we should understand simpler things first. But what if feelings and viewpoints are the simpler things - the elements of which the others are composed of? Then, I assert, we should deal with  d i s p o s i t i o n s  directly, using a structured approach that portrays memory as re-setting the states of parts of the nervous system.
   ( Minsky 1979, S. 3; meine Sperrung)
Die oben zitierten Vorschläge zur empirischen Analyse von Dispositionen, die Kritik an Konzeptualisierungsexperimenten, die Entwicklung des Begriffs konzeptueller Prototypen, und schließlich auch die Bemerkungen in Richtung auf eine Revision dessen, was möglicherweise als erfahrungsgeleitete Grundlage allen Erkennens, Verstehens und Wissens gelten darf, alle diese Zitate haben - trotz ihrer unterschiedlichen Argumentationszusammenhänge - auffallend viele Gemeinsamkeiten: sei es die Methode der strukturalen Analyse von Dispositionen sowohl Carnaps als auch in Minskys Sinne, sei es die Betonung der Variabilität von semantisch-pragmatischen Rahmenbedingungen und der Notwendigkeit ihrer Modellierung in dynamischen Strukturzusammenhängen bei Carnap, Quine und Ziff, sei es die Betonung der fließenden Übergänge zwischen formal-logischen und erfahrungs-inhaltlichen Strukturen in sprachlichen Systemzusammenhängen durch Wittgenstein und die Ablehnung disjunkter Attribut-Eigenschaft-Darstellungen von Konzepten zugunsten einer Darstellung von Prototypen in offenen Struktur- bzw. (Distanz-relationalen) Repräsentations-Systemen durch Johnson-Laird/Wason und Rosch. Ebenso auffallend aber ist gleichzeitig auch, daß diese (so oder ähnlich auch anderwärts hervorgehobenen) Punkte bisher offenbar durchweg haben übersehen lassen, was umgekehrt die natürlich-sprachlichen Äußerungen als Performanzphänomene bedeuten: sie können die notwendigen Informationen liefern für die semiotisch adäquate Rekonstruktion von Bedeutungsstrukturen zur Interpretation von Wörtern, Sätzen und Texten in identifizierbaren Situationen. Und sie stellen gleichzeitig eine empirisch auch zugängliche Datenbasis bereit zur Analyse und Beschreibung - auf welcher (morpho-phonologischen, lexiko-grammatischen, konzept-pragmatischen) Ebene auch immer - der betreffenden Strukturzusammenhänge und Systeme.

Wenn wir daher einen Satz als eine lexiko-grammatische Einheit ansehen, die nicht aus Phonemen zusammengesetzt ist sondern nur in dieser Form wahrgenommen wird, wobei die Phoneme ihrerseits ein morpho-phonologisches System bilden, und wenn wir weiter einen Text als eine konzept-pragmatische Einheit verstehen, die nicht aus Sätzen zusammengesetzt ist sondern in Sätzen wahrgenommen wird, die ihrerseits ein lexiko-grammatisches System bilden, dann können wir ebenso von einem Frame als einer meta-pragmatischen Einheit sprechen, die nicht aus Texten besteht, aber durch Texte zugänglich wird, die damit gleichzeitig ein konzept-pragmatisches System konstituiert, dessen virtuelle, durch jeweilige kommunikative Umgebungen bedingte dynamische Teilsysteme die semantischen Dispositionen bilden könnten.

Setzt man den Gedankengang fort, den Halliday im Rahmen der Textsemantik eingeführt hat, dann muß man folgern, daß die wesentlich semiotische Qualität nicht nur von einem Satz verfehlt wird, der als bloßes Superphonem genommen oder von einem Text, der als bloßer Supersatz gedeutet wird, sondern auch von einem Frame, der als bloßer Supertext aufgefaßt würde.

By `text', then, we understand a continuous process of semantic choice. Text is meaning and meaning [implies, rather than] is choice, an ongoing current of selections each in its paradigmatic environment of what might have been meant (but was not). It is the paradigmatic environment - the innumerable subsystems that make up the semantic system - that must provide the basis of the description, if the text is to be related to higher orders of meaning, whether social, literary or of some other semiotic universe. [...] Here the description is based on system; and text is interpreted as the process of continuous movement through the system, a process which both expresses the higher orders of meaning that constitute the `social semiotic', the meaning system of the culture, and at the same time changes and modifies the system itself.
   ( Halliday 1978, S. 137; meine Einfügung)
Anstatt jedoch - wie im Hallidayschen Kontext der Textinterpretation gefordert - unser Augenmerk (vornehmlich) auf Einzeltexte zu lenken, deren Verstehen einer Rekonstruktion jenes vom Textmaterial gesteuerten kontinuierlichen Bewegungsverlaufs durch das System entspräche, geht es hier (zunächst) um die Rekonstruktion dessen, was als paradigmatische Umgebung - aus unzähligen Teilsystemen bestehend - das semantische System ausmacht, und wozu nichts als allein Texte - wenn überhaupt - eine empirisch zugängliche Datenbasis liefern können.
The linguistic system has evolved in social contexts, as (one form of) the expression of the social semiotic. [...] The system is a meaning potential, which is actualized in the form of text; a text is an instance of social meaning in a particular context of situation. We shall therefore expect to find the situation embodied or enshrined in the text, not piecemeal, but in a way which reflects the systematic relation between the semantic structure and the social environment. In other words, the `situation' will appear, as invisaged by Hymes (1971), as constitutive of the text; provided, that is, we can characterize it so as to take account of the ecological properties of language, the features which relate it to its environment in the social system. ( Halliday 1978, S. 141; meine Hervorhebungen)
Daher kann für eine Systemrekonstruktion nicht die singuläre Textrealisation den Gegenstand der Analyse und Beschreibung bilden, sondern nur die große Zahl textueller Belege (tokens) eines situativen Kontexts (type). Denn anders als Halliday, der hier auf die Beziehung zwischen semantischer Struktur und sozialer Umgebung abhebt, kann die Struktur des semantischen Systems selbst in den Blick genommen werden, und zwar dadurch, daß man die Variable der sozialen und kommunikativen Umgebungen (register) möglichst konstant hält für die Auswahl derjenigen Texte, die einer Untersuchung zugrunde gelegt werden sollen. In einem Textcorpus zusammengefaßt, können sie nämlich als eine Stichprobe gelten aus der Grundgesamtheit all derjenigen Texte, die innerhalb eines bestimmten situativen Kontexts und einer bestimmten sozialen und kommunikativen Umgebung tatsächlich geäußert wurden oder doch hätten geäußert werden können. Ein solches Corpus heiße pragmatisch homogen.

Die Aufgabe stellt sich daher zunächst nicht in der übergreifenden Klassifizierung der vielfältigen inhaltlichen Einflußgrößen, sondern darin, ein Konstitutionsprinzip der Inhalte und ihrer Bedeutungsbeziehungen für deren dynamische Rekonstruktion im Modell zu nutzen. Dies scheint möglich über die in korrelativen Zuordnungen sich konstituierenden Ähnlichkeiten, welche eine Zusammenhangsstruktur entstehen lassen, die ihrerseits Voraussetzung und Resultat der Konstitution von intern kohärenten Gegenstandsbereichen mit extern unscharfen Grenzen sind. Derartige Zusammenhangsstrukturen sind dabei nicht einzig von der als außersprachliche Realität erfahrenen Vorstrukturierung der objektiven Welt bestimmt, sondern werden gerade aufgrund der in sprachlichen Regularitäten sich zeigenden Zuordnungen konstituiert. Diese bilden - je nach analysiertem Textcorpus - ein Themen-spezifisch bedeutsames Fragment von Welt als eine Art Sprachspiel im Wittgensteinschen Sinne ab, an dem die kommunikativ Beteiligten mitwirken.

Eine Bedeutung eines Wortes ist eine Art seiner Verwendung. Denn sie ist das, was wir erlernen, wenn das Wort zuerst unserer Sprache einverleibt wird. Darum besteht eine Entsprechung zwischen den Begriffen Bedeutung und Regel. Stellen wir uns die Tatsachen anders vor als sie sind, so verlieren gewisse Sprachspiele an Wichtigkeit, andere werden wichtig. Und so ändert sich - und zwar allmählich - der Gebrauch des Vokabulars der Sprache. Die Bedeutung eines Wortes vergleiche mit der Funktion eines Beamten. Und verschiedene Bedeutungen mit verschiedenen Funktionen. Wenn sich die Sprachspiele ändern, ändern sich die Begriffe, und mit den Begriffen die Bedeutungen der Wörter.
   ( Wittgenstein 1969, S. 10)
Dem Vorhaben einer empirischen Rekonstruktion derartiger Funktionen, die - als Quasi-Repräsentationen von Sprachspielen - in ihrer Unterschiedlichkeit und Veränderlichkeit verschiedene und wandelbare Bedeutungen als empirische Gegenstände konstituieren, stehen aber bestenfalls pragmatisch homogene Textcorpora zur Verfügung, die ein zugängliches Datenmaterial darstellen. Dessen quantitative Untersuchung - die freilich zunächst eine Art Momentaufnahme der Regularitäten noch diesseits ihrer möglichen dynamischen Veränderbarkeiten liefert - geht dabei von einer sprachtheoretischen Hypothesenbildung im Vorgriff auf eine Verstehenstheorie ( Rieger 1977d) aus, derzufolge statistische Methoden im allgemeinen bei der Analyse sprachlich-lexikalischer Strukturen in Texten erfolgreich eingesetzt werden können und im besonderen zur Ermittlung solcher (paradigmatischer) Abhängigkeiten geeignet sind, die in der (syntagmatischen) Struktur der analysierten Texte nicht eigens mehr formuliert, vielmehr schon vorausgesetzt werden.

6  

Der Einsatz statistischer Verfahren zur Ermittlung semantischer Strukturen in sprachlichen Texten wird - davon ist im allgemeinen auszugehen - nur in dem Maße erfolgreich sein können, wie alle diejenigen Bedingungen, welche zur lexikalischen Strukturierung des zu untersuchenden Systemzusammenhangs Sprachspiel als einem Ausschnitt von Weltwissen beitragen, sich tatsächlich in den analysierten Texten eines pragmatisch-homogenen Corpus zeigen. Ebenso sicher aber wäre es verfehlt, wollte man hieraus die methodologische Folgerung ableiten, daß deswegen für textstatistische Analysen (im Rahmen eines bestimmten Untersuchungsziels) grundsätzlich alle Texte sowie alle situativen Daten ihrer kommunikativen Verwendung zugänglich sein müßten. Eine solche Folgerung übersähe, daß gerade eine extremale (und unrealistische) Erfüllung dieser Forderung den Einsatz von Methoden der urteilenden Statistik geradezu überflüssig machte. Deren methodische Stärke besteht unter anderem bekanntlich darin, daß sie - entgegen dem auf beschreibende Verfahren verkürzten üblichen Statistikverständnis - es erlaubt, auch dann noch vernünftige Entscheidungen bzw. Aussagen zu machen, wenn infolge von unvollständiger Kenntnislage, d.h. bei nur begrenzt zugänglichen Informationen, Unsicherheit herrscht. Als vernünftig werden dabei aber nicht nur wahre, sondern auch alle diejenigen Aussagen anerkannt, die bei einem jeweiligen Informationsstand alle verfügbaren Daten optimal berücksichtigen. Die Theorie der urteilenden Statistik hat die methodische Seite des Problems solcher Optimierung weitgehend systematisiert und ausgearbeitet.

Neben diesem methodischen Aspekt wird jedoch bei der Anwendung beschreibender und urteilender statistischer Verfahren auf wie immer auch geartete Gegenstandsbereiche eine andere Seite leicht übersehen, die das eher epistomologische Problem der mit der Verwendung statistischer Methoden verbundenen Erkenntnisgewinnung betrifft. Es besteht im wesentlichen darin, daß die diese Gegenstände erst konstituierende, jeweilig fachspezifische Theorienbildung für die Bestimmung dessen, was innerhalb einer Disziplin als relevante Frage oder vernünftige Hypothesenbildung gelten kann, mindestens ebenso wichtig ist wie die zu ihrer Beantwortung oder Entscheidung entwickelten statistischen Theorien. Dieser Zusammenhang, der - wenn auch unter anderen Blickwinkeln - schon während der ersten Corpus-orientierten Phase der strukturalistischen Linguistik (Bloomfield, Firth, Harris, etc.) ebenso häufig übersehen wurde, wie in den frühen Bemühungen um eine quantitativ-exakte Formulierung sprachlicher Gesetzmäßigkeiten (Herdan, Fucks, Guiraud, etc.), ist an anderer Stelle ( Rieger 1979a) für sprach- und textwissenschaftliche Gegenstandsbereiche gezeigt worden. Anhand der Interdependenz von Stichprobe und Grundgesamtheit einerseits mit Untersuchungsgegenstand und Untersuchungsziel andererseits konnte dabei gezeigt werden, weshalb es für eine sinnvolle Anwendung statistischer Methoden in der Linguistik notwendig erscheint, daß ein Untersuchungsgegenstand sich deuten lassen muß als (zufällige) Stichprobe aus einer (meist fiktiven) Grundgesamtheit, die vom jeweiligen Untersuchungsziel her bestimmt wird.

Ein naheliegender und zunächst auch einleuchtender Einwand gegen diesen statistischen Argumentationszusammenhang sprachwissenschaftlicher Untersuchungen lautet, daß generell solche semantischen (assoziativen) Regelhaftigkeiten - die aufgrund von Strukturen gemeinsamen (dispositionellen) Vorwissens der über einen Gegenstandsbereich miteinander Kommunizierenden bei der Produktion/dem Verstehen von sprachlichen Äußerungen schon vorausgesetzt werden können - gerade deswegen nicht über textstatistische Analysen ermittelbar seien, weil diese Beziehungen in der (linearen) Strukturierung der zugänglichen Oberflächen von zu analysierenden Zeichenketten gar nicht mehr formuliert werden. Häufig wird aus dem Nebeneinander eines verschwommenen (meist nur metaphorischen) Strukturbegriffs einerseits und eines (auf strikte Wenn-Dann-Abhängigkeit) verkürzten Regelbegriffs andererseits auf die Unvereinbarkeit von Gegenstand und Methode geschlossen: da der unterstellte (streng deterministische) Regelbegriff offenbar nicht geeignet ist, jene Vielfalt möglicher Abhängigkeiten zwischen Lexemen zu beschreiben, die der (notwendigerweise unscharfe) Begriff der semantischen Disposition aber gleichwohl umfaßt, wurde in der Vergangenheit weder die Frage der Angemessenheit eines anderen Konzepts (probabilistischer bzw. possibilistischer) Regelhaftigkeit noch die Möglichkeit eines die Vagheit präzise abbildenden Darstellungsformats in der einschlägigen linguistischen Forschung ernsthaft diskutiert ( Schwarze 1982). Dabei vermag gerade der statistisch-korrelative Regelbegriff jene Vielfalt unscharfer Abhängigkeiten zu erfassen, die zu Recht als ein Konstitutivum stereotypischer Strukturen gelten. Indem Regularität als ein Kontinuum von korrelativen Beziehungen zunehmender Determiniertheit vor dem Hintergrund des Zufalls bestimmt wird, kann die ganze Spanne möglicher Ausprägungen von Abhängigkeiten erfaßt und übergreifend beschrieben werden, ohne daß dadurch der zu untersuchende Phänomenbereich vorab auf Präzisierbares verkürzt bzw. reduktionistisch vereinheitlicht würde.

Die Frage stellt sich daher anders: wie muß ein sprachlicher Untersuchungsgegenstand beschaffen sein, damit durch seine statistische Analyse jene semantisch-assoziativen Abhängigkeiten erfaßbar werden, von denen Sprecher/Hörer beim Intendieren/Verstehen von Bedeutungen während kommunikativer Interaktionen praktisch immer schon im Rahmen von (mehrdimensionalen) paradigmatischen Strukturen Gebrauch machen, die aber eben darum auch nicht ohne Einfluß bleiben auf die (lineare) syntagmatische Oberflächenstruktur der hierzu von ihnen in bestimmten Kommunikationssituationen produzierten bzw. identifizierten Strings und ihren intendierten bzw. verstandenen Bedeutungen?

Das, was in der syntagmatischen Struktur einer Zeichenkette (String) als lineares Nebeneinander (Eindimensionalität) von sprachlichen Elementen beobachtbar ist, muß - neben den überindividuellen, Sprach-, Gruppen-, Register- und Textsorten-spezifischen Regularitäten auch als Folge und/oder Resultat einer Vielzahl von im einzelnen direkt offenbar nicht beobachtbaren individuellen Einflußgrößen wie Vorwissen, Erwartungen, Interessen, Zielen und Intentionen verstanden werden, die Aufbau, Wortwahl, Stil, etc. einer Äußerung mitbestimmen. Jeder String kann daher nur als Einzelergebnis, d.h. als ein empirisch zugänglicher Beleg einer sprachlich vermittelten Strukturierungsleistung gelten, für die im übrigen ein ganzes Bündel von Einflüssen wirksam war. Für die Rekonstruierbarkeit semantisch-lexikalischer Systemzusammenhänge als sprachlicher Gliederung von Weltausschnitten folgt daraus zweierlei:

Beide Forderungen - nach Vielzahl und pragmatischer Homogenität der Belege - kennzeichnen dabei jene Bedingungen an den empirisch zugänglich zu machenden Untersuchungsgegenstand, die im Hinblick auf die Begriffsbildung des Sprachspiels schon in dessen Eigenschaften der Vielfalt, Variabilität und des übergreifenden kommunikativen Zusammenhangs vorgegeben sind.

Das primär angewandte statistische Analyseverfahren sieht daher von der linearen Abhängigkeit der Textelemente zumindest insofern ab, als es einzig das miteinander Vorkommen/Nicht-Vorkommen von Lexemen in einem Text erfaßt und aufgrund dieser paarweise ermittelten Häufigkeiten über die Menge aller im untersuchten Corpus enthaltenen Texte als Korrelation jeden Lexems mit jedem anderen des verwendeten Vokabulars numerisch bestimmt. Den Untersuchungsgegenstand bildet daher das Textcorpus als Ganzes. Dessen pragmatische Homogenität läßt so anders als bisherige Corpus-orientierte Untersuchungen den übergreifenden Zusammenhang eines Sprachspiels zugänglich werden. Denn das Corpus kann als eine zufällige Stichprobe aus der fiktiven Grundgesamtheit all derjenigen sprachlichen Äußerungen gelten, die in einem (durch die pragmatischen Parameter von Ort, Zeit, Medium, Gegenstand und/oder Beteiligte der Kommunikation bestimmten) Sprachspiel tatsächlich produziert wurden oder doch hätten produziert werden können.

Die gegen diesen Ansatz weiterhin erhobenen Einwendungen lassen sich im Kern auf eine ihnen gemeinsame propositionale, an der Einheit Satz orientierten Sprachauffassung zurückführen. Danach muß jeder semantischen Analyse von Texten zunächst eine syntaktisch-grammatikalische Strukturbeschreibung der diese Texte bildenden Sätze vorausgehen, um zu verhindern, daß - so der Vorwurf - eine bloß quantitative Untersuchung grammatisch-syntaktisch ungewichteter sprachlicher Einheiten zu völlig falschen Ergebnissen ihrer lexikalisch-semantischen Abhängigkeiten in Texten führt. Wenn schon - so das Argument - bei der korrelativen Analyse des primären Datenmaterials offenbar so unterschiedliche Syntagmen in bezug auf die paarweise Abhängigkeit etwa zwischen Elektronik (E) und Computer (C) in Sätzen wie beispielsweise

  1. Als Arbeitsplatzvernichter ersten Ranges gilt die Elektronik mit ihren Computern.
  2. Die moderne Industrie des Landes produziert zwar Elektronik aber keine Computer.
völlig unterschiedslos behandelt werden, wie können dann die so ermittelten Zuordnungen als sekundäre Daten noch für eine darauf aufbauende, semantische Interpretation von Sätzen und Texten sinnvoll oder auch nur relevant sein? In beiden Fällen (i und ii) werden ja E und C als im String zusammen vorkommend erfaßt und bei genügend häufiger Belegung solcher Vorkommen in den analysierten Strings des Corpus positiv korreliert sein, folglich als hoch affin bewertet werden. Dies ist sogar dann der Fall, wenn - wie das Extrembeispiel verdeutlichen kann - sämtliche in einem Corpus enthaltenen Belege von E und C in Syntagmen ausschließlich der Art Elektronik aber keine Computer vorkommen; die darin zwischen E und C proponierte Abhängigkeit ist aber ja gerade nicht die der Affinität.

Dieser Argumentation läßt sich anhand der Unterscheidung von syntagmatischen bzw. paradigmatischen Regularitäten und der sie konstituierenden syntaktisch-linearen bzw. semantisch-dispositionellen Beziehungen begegnen ( Rieger 1977d). Deren Zusammenhang stellt sich - sehr verkürzt - in einem kommunikativen Äußerungs- bzw. Verstehensmodell etwa wie folgt dar: Ziel jeder Kommunikation ist Bedeutungskonstitution; sie läßt sich übergreifend als eine semiotische Strukturierungsleistung beschreiben, deren Kern die jeweilige Einschränkung von Wahlmöglichkeiten bildet ( Lyons 1977), und zwar sowohl auf der Seite des Bedeutung intendierenden Sprechers/Schreibers, der sprachlich (mehr oder weniger) wohlgeformte Zeichenketten produziert, als auch auf der Seite des diese Zeichenketten aufnehmenden Hörers/Lesers, der sie interpretiert und damit ihre Bedeutung (mehr oder weniger) versteht ( Rieger 1977a). Beides, das Intendieren und das Verstehen von Bedeutungen setzt dabei ein Wissen über Sprache und die Welt (oder Fragmente davon) voraus, das - ohne mit den es identifizierenden (linearen) Strukturen von Zeichenketten in sprachliche Terme identisch zu sein - als (vieldimensionale) Beziehungsstruktur von Konzeptualisierungen bzw. Konzeptrepräsentationen nicht nur vermöge der ihm (mehr oder weniger) regelhaft zugeordneten sprachlichen Terme vermittelt werden kann, sondern umgekehrt diese wiederum auch zu interpretieren erlaubt. Denn die von Reichenbach (1920, S. 38) hervorgehobene merkwürdige Tatsache semiotischer Konstitutionen kennzeichnet nicht nur den Prozeß der Erkenntnisgewinnung sondern gilt ebenso für den des Verstehens von Bedeutungen, in dem wir gleichfalls eine Zuordnung zweier Mengen vollziehen, deren eine durch die Zuordnung nicht bloß ihre Ordnung erhält, sondern in ihren Elementen erst durch die Zuordnung definiert wird.

Anders als die statisch definierten Abhängigkeiten zwischen Konzepten in semantischen Netzen, die eine feste Beziehungsstruktur schon voraussetzen, lassen sich aber variable, je nach Inhalt und Aspekt veränderliche Beziehungen zwischen Repräsentationen von Bedeutungskomponenten durch Prozeduren definieren. Deren Resultate stellen dabei dynamische, bloß potentielle Strukturen als (mehr oder weniger) naheliegende, relevante Abhängigkeiten von Konzeptualisierungen dar, die oben schon als semantische Dispositionen entwickelt wurden. Erst aus der Vielfalt dieser je nach Gegenstandsbereich, Kontext und Aspekt sich ändernden potentiellen Strukturierungen von Welt (oder Fragmenten davon) vermögen solche ausgewählt zu werden, deren sprachliche Repräsentationen als Einschränkung der (unter spezifischem Gegenstandsbereich/Kontext/Aspekt) noch vorhandenen Wahlmöglichkeiten dann auch Bedeutungen konstituieren, die intendiert und verstanden werden können.

Wenn man paradigmatische Strukturen als Teil des dispositionellen Vorwissens der Sprecher/Hörer deutet, dann löst jedes in einem Sprechakt verwendete Lexem - durchaus im Sinne der Theorie sich ausbreitender Aktivierung in Modellierungen von Gedächtnisstrukturen ( Quillian 1968; Collins/Loftus 1975; Swinney 1979) - zunächst auch immer eine Aktivierung der ihm assozierten semantischen Dispositionen aus: im Rahmen des jeweiligen Vorwissens geschieht dies auf der Sprecherseite vor Auswahl und Äußerung, auf der Hörerseite nach Aufnahme und Identifikation eines Lexems. Da Lexeme bei Vorkommen in konkreten Sprechakten aber immer in syntagmatischen Verkettungen mit syntaktischen Form- und Funktionszeichen in Strings eingebettet sind, werden die zugrundeliegenden dispositionellen Strukturen durch die syntagmatisch konstituierten linearen Abhängigkeiten wie von einer überlagernden Strukturierung spezifiziert. Erst der Vergleich einer Vielzahl solcher linearer Strukturierungen läßt daher die Regularitäten erkennbar werden, durch die sich jene Lexeme zueinander in Beziehung setzen lassen, die aufgrund (weitgehend) gleicher syntagmatischer Abhängigkeiten in den verschiedenen linearen Strukturen (Strings) ausgezeichnet sind, und zwar - je nach propositionalem Gehalt - in höherem oder geringerem Maße. Dabei ergeben sich zwei unterscheidbare Fallgruppen:

  1. eine starke paradigmatische Abhängigkeit zweier Lexeme läßt deren beider Verwendung innerhalb des selben Syntagmas um so überflüssiger erscheinen je deutlicher diese Abhängigkeit der aktuellen Sprecherintention ohnehin entspricht;
  2. eine starke paradigmatische Abhängigkeit zweier Lexeme läßt die explizite Ausschließung des einen bei Verwendung des anderen Lexems innerhalb des selben Syntagmas um so notwendiger erscheinen, je deutlicher diese Abhängigkeit der aktuellen Sprecherintention zuwiderläuft.
Als Folge dieser Unterscheidung wären aber die oben angeführten Beispiele durchaus erklärbar als zwei tendenziell gegenläufige Ausprägungen eines paradigmatischen Abhängigkeitsverhältnisses, das sich unterschiedlich in den syntagmatischen Strukturen niederschlägt und erst aufgrund der Häufigkeiten paarweise vorkommender Lexeme in Texten auch direkt beobachten läßt. Danach werden Lexeme (Fallgruppe a) um so seltener zusammen in Strings (Beispiel i) vorkommen, je stärker ihre wechselseitige Abhängigkeit ist, es sei denn (Fallgruppe b), eben diese Abhängigkeit zwischen ihnen wird durch explizit formulierte (grammatisch-syntaktische) Zusätze eingeschränkt: dann können auch paradigmatisch stark abhängige Lexeme in Strings (Beispiel ii) zusammen belegt sein.

Das Verfahren der statistischen Korrelationsanalyse versucht diesem Zusammenhang Rechnung zu tragen, und zwar derart, daß die bei der Produktion/dem Verstehen einzelner Äußerungen/Sätze/Texte wirksamen unterschiedlichen Intentionen individueller Sprecher/Hörer bei der Analyse eben dieser Strings quasi herausfallen und keine (störende) Rolle mehr spielen für die Ermittlung jener überindividuellen Regularitäten, die Sprecher/Hörer zur Konstitution sprachlicher Bedeutungen in konkreten Kommunikationssituationen immer schon befolgen (müssen). Dazu werden die Daten aus beiden Fallgruppen so zusammengefaßt, daß sie nicht mehr gegenläufig, sondern tendenziell in der gleichen Richtung bei der Analyse wirksam werden: um Abhängigkeiten in Ausprägungen der Fallgruppe a erfassen zu können, wird nicht von einzelnen, untereinander beziehungslosen Äußerungen/Sätzen/Texten, sondern von einem pragmatisch-homogenen Corpus von Strings ausgegangen; und um Abhängigkeiten in Ausprägungen der Fallgruppe b erfassen zu können, wird vom linearen Nebeneinander syntagmatisch verknüpfter Sprachzeichen insofern abgesehen, als diese zuvor auf Strings als ganze Texte repräsentierende Lexemketten reduziert werden. Den eigentlichen Untersuchungsgegenstand dieser textstatistischen Analyse bildet daher eine den eben genannten Bedingungen genügende Systemstruktur, d.h. eine Menge (Corpus) von Lexemketten (Strings) eines Gegenstandsbereichs (Domain). Als solche repräsentiert sie wesentliche Teilbereiche gerade jenes Funktionszusammenhangs, der sich erst in der kommunikativen Verwendung natürlicher Sprache zeigt und noch am ehesten jene Strukturen analysieren und beschreiben läßt, die oben als semantische Dispositionen eingeführt wurden und im folgenden analytisch bestimmt werden sollen.

7  

Die Diskussion der kognitionstheoretischen Modelle zur Bedeutungsabbildung und Verstehenssimulation hatte gezeigt, daß deren Gedächtnisstrukturen und Wissenskomponenten nicht nur den erfaßbaren Gegenstandsbereich festlegen, sondern daß vielmehr die formale Struktur der Repräsentationen von Bedeutung und Wissen, d.h. deren auf die Verwendung kanonisierter semantischer Relationen festgelegtes Abbildungsformat, schon die Möglichkeiten und Vorstellungen auch und gerade davon einengt, wie solche Bedeutungen bzw. solches Wissen zur Interpretation von Eingabe- bzw. zur Planung von Ausgabe-Strings benutzt wird.

Der Aufbau und die Veränderung nicht ausschließlich kanonisierten Wissens, seine Generierung, Aktivierung, Identifikation und relevante Auswahl in Prozessen sprachlich-kommunikativer Bedeutungskonstitution stellt demgegenüber neue, nicht nur formal sondern auch methodisch andersgeartete Anforderungen an die wissenschaftliche Beschreibung und Modellierung von Wissen. Wie oben schon näherhin ausgeführt, können fundamentale Zusammenhangsstrukturen dieses Wissens - zumindest in seinen primär sprachlich vermittelten assoziativen Grund- oder Basisbeziehungen - in den lexikalisch-semantischen Repräsentationen sprachlicher Strukturen (Texte) rekonstruiert werden.

Der unseren Ansatz fundierende verstehenstheoretische Zusammenhang - von (wie im einzelnen immer) strukturierter Wissensbasis, darauf (in Abhängigkeit von Gegenstand, Kontext und Aspekt) generierten semantischen Dispositionen, sowie der daraus (durch Einschränkung von Wahlmöglichkeiten/Erwartungen) konstituierten Bedeutungen - kennzeichnet denn auch den Aufbau und das Zusammenwirken dieser drei Stufen sowie ihre prozedurale Modellierung. Der Ansatz muß dabei im Prinzip zur Simulation von Prozessen individueller Bedeutungskonstitution einzelner Sprecher/Schreiber bzw. Hörer/Leser ebenso anwendbar sein wie zur prozeduralen Analyse der sie fundierenden, intersubjektiven Regularitäten, die aufgrund einer Vielzahl solcher Prozesse in Situationen realer Kommunikation zwischen den Beteiligten als semantische Abhängigkeiten besonderer Art allererst etabliert werden und so gemeinsame, quasi überindividuelle (deshalb aber nicht schon logisch-deduktive) Bedeutungsbeziehungen hinreichender Ähnlichkeit überhaupt aufzubauen erlauben.

Für die Rekonstruktion individueller Wissensstrukturierungen wäre demnach - den individuellen Unterschiedlichkeiten von Entwicklungsgeschichte, Erfahrungensprofil und Wissenserwerb entsprechend - auf jeder der Konstitutionsebenen von (mehr oder weniger) unterschiedlichen, jedenfalls aber durch die gleiche Autorschaft ausgezeichneten Mengen von Äußerungen auszugehen. Im Unterschied dazu bietet sich für die Rekonstruktion überindividueller Strukturierungsleistung, wie diese sich durch das in Texten vermittelte Wissen von Welt (oder doch Fragmenten daraus) darstellt, ein Corpus sprachlichen Untersuchungsmaterials an, dessen Abgrenzung durchaus verschiedene Sprecher/Schreiber als Autoren zuläßt, dabei jedoch voraussetzt, daß sie in diesen Texten über einen mehr oder weniger gleichen Gegenstandsbereich handeln, d.h. die oben erläuterte Bedingung pragmatischer Homogenität erfüllen.

Die nicht nur sprachlich-kommunikative, sondern ja auch erfahrungs-wirkliche Vermitteltheit solcher Gegenstandsbereiche bewirkt dabei zweierlei: Gleichzeitig Voraussetzung und Resultat des kommunikativen Handelns aller daran (im weitesten Sinne kognitiv) Beteiligten wird einerseits eine vorliegende Homomorphie zwischen eigenen Wirklichkeitsstrukturierungen und solchen, die andere geleistet haben oder leisten, (subjektiv) als Verstehen erfahren, während andererseits eben diese Homomorphie sich (objektiv) als lexikalisch-semantische Strukturiertheit einer Sprache niederschlägt und sich vor allem anhand der unterschiedlichen Verteilungen sprachlicher Terme in einer Vielzahl von Textäußerungen ermitteln läßt. Diese Strukturiertheit, die sich im Rahmen und Zusammenhang des universe of discourse als nicht festmachbar weil überaus variabel, im Rahmen und Zusammenhang eines Sprachspiels aber als konstitutiv und weitgehend stabil erweist, erscheint durch das (mehr oder weniger dynamische) Worüber-der-Rede bestimmt, an dem verschiedene Sprecher/Hörer bzw. Schreiber/Leser beteiligt sind. Sie wird empirisch zugänglich in der Menge jener Textäußerungen, die als pragmatisch-homogenes Corpus einen Ausschnitt zumindest jener sprachlich vermittelten und sich vermittelnden Leistungen faßbar werden läßt, die einen nicht unwesentlichen Teil des Wissens von Welt ausmachen. Seine stetige Fortentwicklung und Veränderung, die sich - außer in seinen eben davon ausgenommenen kanonisierten Teilbereichen - jeder statischen Modellierung widersetzt, scheint aber gleichwohl repräsentierbar.

Gerade unter Absehung von den als fraglos akzeptierten (weil logisch-deduktiv etablierten) traditionell semantischen Relationen zur Modellierung von Wissen, interessieren an der Strukturierung solcher mehr oder weniger homogenen Gegenstandsbereiche ja nicht die individuellen Beiträge der daran beteiligten Einzelnen, sondern vielmehr die erst durch (mehr oder weniger) gleichartigen Gebrauch sprachlicher Terme von Vielen in ihren Texten sichtbar werdenden, schon befolgten und/oder etwa erst sich etablierenden Verwendungsregularitäten. Die Ermittlung dieser zwischen wort-stochastisch zufälligen und begriffs-hierarchisch etablierten Gebrauchsweisen sich herausbildenden Regelhaftigkeiten ist eine Voraussetzung der Bestimmung ihrer Unterschiede, als deren Funktion - durchaus im Sinne Wittgensteins - es Bedeutungskonstitution zu beschreiben und - nach Möglichkeit - zu rekonstruieren gilt.

Bei der Analyse der zunächst noch erst statistischen Ordnungsrelationen und regelhaften Beziehungen zwischen den verwendeten Zeichen, Wörtern, Lexemen, etc. in einem die oben näher dargelegten Bedingungen erfüllenden pragmatisch-homogenen Textcorpus kann nun im wesentlichen von einem Verfahren Gebrauch gemacht werden, das nicht nur erlaubt, die etwa vorhandenen Regularitäten der Abhängigkeit zwischen einzelnen Wörtern bzw. Lexemen festzustellen, sondern deren unterschiedliche Intensitäten - von wechselseitiger Abstoßung (Repugnanz) über Beziehungslosigkeit (Indifferenz) bis zur wechselseitigen Anziehung (Affinität) - graduell beliebig fein in numerischen Werten des Intervalls von -1 bis +1 zu präzisieren. Dies leistet der Korrelationskoeffizient. Er mißt die Beziehung jeden Lexems zu allen anderen verwendeten Lexemen, und zwar aufgrund des paarweisen Gebrauchs, den die Sprecher/Schreiber von ihnen in den analysierten Texten gemacht haben. Diese Korrelationswerte können dabei als numerisch-empirische Grundlage dienen für die Zuordnung einzelner Wörter/Lexeme zu Mengen unscharfer Teilmengen (fuzzy sets), die ihrerseits über eine konsekutive Abbildung Bedeutung eines Lexems als Funktion aller Unterschiede zu den Verwendungsregularitäten aller übrigen Wörter/Lexeme des in den Texten benutzten Vokabulars rekonstruieren ( Rieger 1976/81; 1977c).

Sei etwa K ein solches pragmatisch-homogenes Corpus, das insgesamt T Texte eines spezifischen Gegenstandsbereichs bzw. Sprachspiels enthalte.

Dieses Corpus habe einen Gesamtumfang U als Summe aller Textlängen ut, gemessen in der Anzahl der im t-ten Text enthaltenen Worte/Lexeme (tokens)

Das verwendete Vokabular V bestehe aus insgesamt n Wörtern/Lexemen xi (types)

deren unterschiedliche Gesamthäufigkeiten Hi jeden Wortes/Lexems xi sich als die Summen seiner Häufigkeiten hit in den einzelnen Texten t des Corpus ergeben

Dann lautet der modifizierte Korrelationskoeffizient
(5)
Obwohl wir es in natürlich-sprachlichen Texten mit relativ großen Vokabularen zu tun haben, soll - zur besseren Illustration der Abbildungsfolge und größeren Anschaulichkeit des Analysealgorithmus - das Vokabular unseres zunächst betrachteten fiktiven Corpus aus nur n = 3 Wörtern (types), xi, xj und xk bestehen.

Der Korrelationskoeffizient a mißt nun die Repugnanz- bzw. Affinitäts-Beziehung eines jeden xi, xj, xk zu jedem der anderen Wörter des Vokabulars, und zwar aufgrund ihres miteinander zusammen/vereinzelten Vorkommens in den Texten des Corpus. Das ergibt für jedes der Wörter je drei Meßwerte, für die paarweisen Korrelationen von xi beispielsweise das Tripel von Meßwerten a(xi,xi), a(xi,xj), und a(xi,xk).

Abb. 1

Diese Korrelationswerte lassen sich nun als Koordinaten interpretieren, die für das Lexem xi einen Punkt yi in einem n-dimensionalen Raum definieren, der von den - hier n=3 - Worttypen entsprechenden Achsen i, j und k aufgespannt wird (Abb. 1).

Die Lage eines Punktes yi in diesem Raum wird demnach bestimmt durch das n-Tupel - hier Tripel - der Korrelationswerte

d.h. durch die Verwendungsregularitäten des Wortes xi zu allen anderen n Wörtern in den Texten des Corpus. yi heißt daher Corpuspunkt von i im a- oder Corpusraum. In dieser Raumstruktur werden folglich zwei Corpuspunkte einander umso enger benachbart sein, je weniger sich die jeweiligen Verwendungsregularitäten, deren abstrakte Repräsentationen sie ja darstellen, unterscheiden. Als ein Maß dieser Unterschiedlichkeit von Verwendungsregularitäten kann die Entfernung zwischen zwei Corpuspunkten im a-Raum (gepunktete Linien in Abb. 1) gelten, die als Distanz - entsprechend der angesetzten (hier Euklidischen) Metrik des Corpusraums - in d-Werten gemessen werden kann.

Abb.2
Diese d-Werte stellen eine neue Charakteristik dar, insofern sie zunächst die Ähnlichkeit bzw. den Unterschied der Verwendungsregularitäten je zweier Lexeme empirisch bemessen und numerisch beliebig genau als einen Wert des Intervalls zwischen 0 und 2 Ön auszudrücken gestatten. Darüber hinaus kann jedes n-Tupel aller Distanzwerte eines Corpuspunktes yi zu sämtlichen n anderen Corpuspunkten in zweifacher Weise interpretiert werden:

  1. sie können wiederum als Koordinaten aufgefaßt werden, die in einem, durch die Achsen der Verwendungsregularitäten aufgespannten neuen n-dimensionalen Raum sämtliche Unterschiedlichkeiten des Gebrauchs eines Lexems xi in jeweils einem Punkt abbilden (Abb. 2). Die Lage dieses neuen Punktes zi, der Bedeutungspunkt von i im d- oder Bedeutungsraum heiße, wird somit bestimmt durch alle Unterschiedlichkeiten (d- oder Distanzwerte) aller Verwendungsregularitäten (a- oder Korrelationswerte), die für ein Lexem xi ermittelt wurden;

  2. sie können als Werteverlauf einer charakteristischen Funktion interpretiert werden, welche die Bedeutung zi eines Lexems xi als unscharfe Teilmenge (fuzzy subset) B(xi) des Vokabulars V darstellt. Deren Zugehörigkeitswerte ergeben sich aus den geeignet transformierten Distanzen, d.h. aus allen Unterschieden (d- oder Distanzwerten) aller Verwendungsweisen (a- oder Korrelationswerten), die den Gebrauch dieses Lexems xi von dem aller übrigen n Lexeme des Vokabulars V im Zusammenhang der untersuchten Texte T des Corpus K abheben.

Zwei Bedeutungspunkte zi und zj im semantischen Raum werden einander folglich umso näher benachbart sein, je weniger unterschiedlich die beiden sie definierenden unscharfen (Teil-)Mengen B(xi) und B(xj) und damit die Bedeutungen der Lexeme xi und xj sind. Ihre Ähnlichkeit bzw. Unterschiedlichkeit läßt sich daher als der Abstand zwischen den Bedeutungspunkten zi und zj ausdrücken (gepunktete Linien in Abb. 2) und über ein geeignetes Distanzmaß d2(zi,zj) - der hier etwa angesetzten Euklidischen Metrik des semantischen Raums entsprechend - numerisch bestimmen.

Dieser Ausdruck stellt damit so etwas wie ein Ähnlichkeitsmaß für die Bedeutungen von Lexemen dar. Unabhängig sowohl von den syntagmatischen Einsetzungsproben, wie sie für die sinnrelationale Semantik charakteristisch sind, als auch unabhängig von den propositionalen Rekonstruktionen natürlich-sprachlicher Ausdrücke, wie sie für die wahrheits-funktionalen Semantiken konstitutiv sind, erlaubt dieses über Unterschiede von Gebrauchsregularitäten von Lexemen definierte Ähnlichkeitsmaß einen neuen Synonymie-Begriff ihrer Bedeutungen zu begründen. Er könnte - was freilich hier nur angemerkt werden kann - als ein Kontinuum konzipiert werden, innerhalb dessen unterschiedliche Realisierungen von Synonymität empirisch fundiert, quantitativ präzise und graduell beliebig fein angebbar wären, die überdies noch Text-orientiert, d.h. Satz-unabhängig eingeführt werden könnten.

Die Darstellung von Bedeutungen als unscharfe Mengen des Vokabulars erlaubt darüber hinaus aber eine sehr wesentliche Erweiterung der operativen Möglichkeiten innerhalb des Modells des semantischen Raums. Durch die Übertragung der in der Theorie der unscharfen Mengen ( Zadeh 1965) gegebenen Verknüpfungsoperationen lassen sich - quasi vor-propositional und gleichsam auf der Ebene stereotypischer Bedeutungsrepräsentationen, wie sie der semantische Raum darbietet - neue Bedeutungen dadurch generieren, daß man die empirisch bestimmten Bedeutungen aufgrund der formal definierten Mengen-Operationen (Komplement-, Durchschnitts- und Vereinigungsbildung) negiert, oder miteinander durch Konjunktion oder Adjunktion verknüpft ( Rieger 1979b). Die so entstehenden Bedeutungen lassen sich dann wiederum als unscharfe Mengen über dem Vokabular bzw. als neue Bedeutung im semantischen Raum darstellen ( Rieger 1980). Erst diese Möglichkeit des Modells, neue Bedeutungen durch Verknüpfung schon gegebener, früher bestimmter Bedeutungen zu generieren, vermag das in Prozessen natürlichsprachlicher Bedeutungskonstitution höchst wirksame Moment der semantischen Kreativität nachzubilden.

Abb. 3

Die Lage eines Bedeutungspunktes zi im semantischen Raum läßt sich am ehesten durch Angabe seiner topologischen Umgebung E(zi,r) illustrieren, d.h. durch Auflisten derjenigen Bedeutungspunkte nach zunehmenden Abständen, die sich innerhalb einer - etwa durch einen vorgegebenen Radius r definierten - (Hyper-)Kugel um einen Punkt zi befinden. In Abb. 3 ist die Umgebung E(zi,r) von i := wirtschaft mit r = 4.7 aus einem semantischen Raum wiedergegeben, der aufgrund der Analyse einer Zufallsauswahl von Texten und Artikeln der Berliner Ausgabe der Tageszeitung die welt (Jahrgang 1964, erste und zweite Seiten jeder Nummer) berechnet wurde.

Das topologische Modell des semantischen Raums stellt aber bisher nur einen statischen Zusammenhang von Bedeutungspunkten her. Das so entstandene semantische System erscheint als eine (offene) Menge von unscharfen (Teil-)Mengen des in einem analysierten Textcorpus verwendeten Vokabulars. Es bildet so eine metrische Datenstruktur, deren Elemente (Bedeutungspunkte) die Komponenten vager Bedeutungen von Lexemen sind, die - als prototypische, durch kontinuierlich variierende Unterschiede gemeinsamer regelhafter Verwendungsweisen dieser Lexeme in Texten bestimmt - über die Distanzrelation (Abstände) untereinander in Beziehung stehen und damit das Abbildungsformat stereotypischer Bedeutungsrepräsentationen erfüllen.

Sie bilden die strukturelle Grundlage jener dynamischen Bedeutungsbeziehungen, die sich im Rahmen eines Gegenstandsbereichs - je nach Aspekt und Kontext - durchaus unterschiedlich zwischen gleichen Bedeutungsrepräsentationen ergeben können und als Relevanz-Relation ( Rieger 1984a, 1984b) eine von den repräsentierten Inhalten gesteuerte Voraussetzung der semantischen Dispositionen bildet. Diese können aber - wie oben näher ausgeführt - nicht strukturell definiert, auch nicht prozessual beschrieben, sondern nur prozedural rekonstruiert werden ( Eikmeyer 1984).

8  

Folgt man einem eher semiotischen Verständnis von Bedeutung und damit auch einer dynamischeren Auffassung von Bedeutungskonstitution, dann kann das vorliegende Modell des semantischen Raums zur Keimzelle eines Repräsentationssystems für Wortbedeutungen und/oder Weltwissen werden, in dem konzeptuell wie modellarchitektonisch scharf unterschieden wird zwischen der Abbildungsebene im Format grundlegender (stereotypischer) Bedeutungsrepräsentationen einerseits und den sie strukturierenden (latenten) Abhängigkeits-Beziehungen andererseits, welche diese Bedeutungen wechselseitig bestimmen und als ein semantisches System intern organisieren. Während die erste Ebene eher statischen Vorstellungen eines topologisch strukturierten Systemzusammenhangs entspricht, in dem die Daten aus den textanalytischen Algorithmen wie in (assoziativen) Gedächtnismodellen repräsentiert werden, kann die zweite Ebene als eine Sammlung von Prozeduren charakterisiert werden, welche den eher dynamischen Aspekt variabler Zuordnungen und Abhängigkeiten von Bedeutungen unter wechselnden Zusammenhängen zu modellieren und als Prozesse zur flexiblen Strukturierung und Reorganisation der Daten unter inhaltlichen Prinzipien zu rekonstruieren suchen ( Rieger 1981b).

Anders als deklarative Wissensstrukturen, die definitorisch in vorgegebenen semantischen Netzen repräsentiert werden können, sind Bedeutungsbeziehungen wie lexikalische Relevanz und semantische Dispositionen entscheidend von Ko- und Kontext sowie vom jeweils repräsentierten Wissensstand eines Gegenstandsbereich bestimmt. Ihre Dynamik läßt sich daher einzig vermittels Prozeduren adäquat definieren, die - als generative Algorithmen auf Datenstrukturen operierend - die wechselnden Relevanzbeziehungen erst dann induzieren und die aus diesen abgeleiteten Abhängigkeitsstrukturen erst dann aufbauen, wenn sie etwa zur Interpretation einer Eingabekette/zur Generierung einer Ausgabekette benötigt werden. Das wird erreicht durch eine rekursiv aufgebaute Prozedur, die Hierarchien von Bedeutungspunkten dadurch produziert, daß sie die Punkte unter einem vorzugebenden Aspekt aufgrund und in Abhängigkeit der durch sie repräsentierten Bedeutungen anordnet. Durch diese Trennung von strukturierten Basisdaten (Bedeutungspunkte im semantischen Raum) und von Prozeduren zur Generierung spezifischer Relationen und Strukturen (Relevanz und Dispositionen) kann gleichzeitig sichergestellt werden, daß jeweils nur der letzte Zustand der im semantischen Raum verfügbaren Daten verarbeitet wird, was gleichzeitig die Möglichkeit einer Dynamisierung des Modells eröffnet. Diese Dynamisierung kann etwa dadurch leicht realisiert werden, daß einzig die im semantischen Raum repräsentierten Basisdaten verändert zu werden brauchen um zu bewirken, daß durch die im übrigen unveränderten Prozeduren, die auf den so modifizierten Basisdaten operieren, nun nur diejenigen (möglicherweise neuartigen oder veränderten, jedenfalls aber neuesten) Relevanzbeziehungen und Abhängigkeitsstrukturen generieren werden, welche den jeweils letzten (System-)Zuständen des veränderten semantischen Raums entsprechen. Da er eine Repräsentationsstruktur lexikalischer Bedeutungszusammenhänge rekonstruiert, deren Daten nicht introspektiv ermittelt sondern algorithmisch aus Eingabetexten analysiert werden, kann aber gerade diese dynamische Eigenschaft zu modellieren überhaupt erst unternommen werden, nämlich einem System die - je nach Aktivitäten und Bedürfnissen der mit ihm interagierenden Benutzer sich anpassende - Veränderung der eigenen Wissensstrukturen möglich zu machen.

Ausgehend von Vorstellungen, wie sie im Rahmen der Theorie der sich ausbreitenden Aktivierung (Spreading Activation Theory) im semantischen Gedächtnis, in kognitiven Strukturen oder in der mentalen Repräsentation von Konzepten entwickelt worden sind ( Quillian 1968; Olson 1970; Collins/Loftus 1975) waren Phänomene im Zusammenhang der strukturabhängigen Aktivierung von miteinander verbundenen Konzepten (priming) beobachtet worden, die in der Folgezeit eingehender studiert und insbesondere auch empirisch untersucht wurden ( Swinney 1979; Lorch 1982; Flores d'Arcais/Jarvella 1983). Die diese Ansätze verbindende Grundidee, wonach die größere semantische Nähe oder Ferne von Begriffen untereinander deren Aktivierung und Priming beeinflußt, diese Grundidee eines durch unterschiedlich lange und/oder durchlässige Wegstrecken verbundenen Konzept-Netzwerks erweist sich auch und gerade im Rahmen der Diskussion semantischer Dispositionen als überaus fruchtbar.

Ursprünglich als ein Modell zur systematischen Beschreibung von Beschleunigungen bzw. Verzögerungen kognitiver Leistungen des Verstehens, Behaltens, Erinnerns, etc. von Konzepten entwickelt, das beobachtbare Latenzzeiten bei der Aktivierung von Begriffen und Konzepten in Kognitionsexperimenten vorherzusagen und zu erklären vermochte, lassen sich die schon intuitiv einleuchtenden Begriffsbildungen wie das priming und die spreading activation ganz unmittelbar zur Dynamisierung der - oben schon näherhin charakterisierten - netzwerkartigen Darstellungsformate lexikalischer und semantischer Wissensstrukturen nutzen.

Diese bestehen bekanntlich im wesentlichen aus (benannten) Knoten, welche Objekte, Bedeutungen oder Konzepte repräsentieren, und aus (teilweise benannten) Zeigern, welche diese begrifflich, semantisch oder logisch in (z.T. hierarchische) Beziehungen zueinander setzen. Ein solches Darstellungsformat hat dabei beträchtliche Vorteile gegenüber der oben dargelegten stereotypischen Repräsentationsweise. Einer der verarbeitungstechnisch augenfälligsten Nachteile des semantischen Raums ist ja bekanntlich seine Distanz-relationale Struktur: weil Distanz eine symmetrische Relation ist, können bekannte Verarbeitungsstrategien zur Suche und Wiederauffindung, zum Vergleich und zur Identifizierung, sowie zur strukturabhängigen Ergänzung von Informationen nicht unmittelbar eingesetzt werden, wie dies in den über nicht-symmetrische, z.T. sogar transitive Zeigerstrukturen aufgebauten Netzwerken üblicher Wissensrepräsentationen - etwa zur Simulation deduktiver Schlußprozesse - geläufig ist.

In Anlehnung an und unter Wiederaufnahme von Vorstellungen, die den Begriffsbildungen der spreading activation wie des priming zugrundeliegen, kann man die Idee der unterschiedlichen Durchlässigkeit unterschiedlich langer Verbindungen zwischen Konzepten nicht allein nur zur Beschreibung und Modellierung beschleunigter bzw. verzögerter Reaktionszeiten in kognitiven Verarbeitungsprozessen verwenden. Dieser Zusammenhang läßt sich darüber hinaus durchaus auch generisch interpretieren, womit eine neue - modellgenetisch gleichsam fundierende - prozedurale Darstellungsebene erreicht wird. Auf dieser Ebene muß eine bestimmte Konfiguration von Verbindungen zwischen Konzeptrepräsentationen, die so der sich ausbreitenden Aktivierung erst zugänglich werden, durchaus nicht als Teil eines statischen - den internen Strukturzusammenhang einer Wissensbasis ein für allemal fixierenden - Beziehungssystems erscheinen. Diese neue Darstellungsebene legt es vielmehr nahe, auch die durch bestimmte Verbindungen entstehenden Konzeptkonfigurationen ihrerseits wiederum als Resultate eines Prozesses zu begreifen, durch den bestimmte Konzepte einander flexibel und veränderbar zugeordnet werden. Der Aufbau und Modifikation solcher Zuordnungen - möglicherweise Konzept-abhängig und von deren Inhalten gesteuert, jedenfalls aber unterschiedlich unter verschiedenen Aspekten - ist dabei vermöge einer geeignet definierten Prozedur zunächst und allererst zu leisten, wenn die im semantischen Raum verfügbaren Daten so wie in hierarchisch organisierten Wissensbasen bearbeitet werden sollen. Erst innerhalb eines derart strukturierten (dann allerdings dynamischen) Netzwerkes lexikalisch-semantischer Wissensrepräsentationen würden die auch in herkömmlichen (statischen) semantischen Netzen operierenden Strategien und Verarbeitungsprozeduren eingesetzt werden können.

Im Unterschied zu den in statischen Netzwerken vorgegebenen und daher auch nur schwer veränderbaren Verbindungen zwischen den Knoten, wurde im vorliegenden Fall ein Algorithmus entwickelt, der auf den Daten des semantischen Raums operiert und Abhängigkeiten zwischen seinen Elementen, d.h. in Teilmengen seiner Bedeutunqspunkte induziert. Diese rekursiv definierte Prozedur wählt dabei Ausschnitte oder Fragmente des semantischen Raums aus sowohl aufgrund des Aspektes, unter dem sie dessen Struktur (Bedeutungspunkte) abarbeitet, als auch aufgrund der semantischen Ähnlichkeiten (Distanzen), die sie operativ durchläuft und prüft, um aus beiden Komponenten jene Relevanz-Relationen zu ermitteln, die für die semantischen Dispositionen konstitutiv sind. Die Startbedingung läßt sich leicht durch Angabe des Bedeutungspunkts bestimmen, mit dem die Prozedur beginnen soll, ihre Stoppbedingungen können dabei entweder qualitativ durch Vorgabe eines bestimmten Zielpunktes, oder quantitativ durch Vorgabe einer zu bearbeitenden Punktzahl bzw. maximalen Punktdistanz angegeben werden.

Der im folgenden beschriebene Algorithmus der kleinsten Distanzen (KD-Algorithmus) generiert - anders als der binäre Bäume produzierende CDS-Algorithmus in Rieger (1982b) - allgemeine oder Vielweg-Bäume, die unter jedem Vorgänger-Knoten (ancestor) auch mehr als zwei Nachfolger-Knoten (descendants) zulassen. Nach Eingabe eines Bedeutungspunktes als Start-Bedingung und der gewählten Stopp-Bedingung verfährt er mit den im semantischen Raum verfügbaren Daten wie folgt:

1.0
Erstellen einer Rangliste, welche unter dem Namen dieses Bedeutungspunktes die Namen der ihm benachbarten Punkte mit ihren Distanzen nach zunehmenden Werten geordnet aufführt;
1.1
Speichern (stack) dieser Namen bis incl. Zielpunkt/Punktanzahl/max. Distanzwert als sog. Startstapel;
1.2
Ausgeben des Namens dieses Startstapels, der als erster aktivierter Bedeutungspunkt den Wurzel-Knoten (prime) des Baumes bildet;
2.0
Einlesen des Namens an oberster Position der Startstapel, wodurch deren nächster Name auf diese Position nachrückt;
3.0
Ausführen von (1.0)
3.1
Ermitteln des höchstrangigen Bedeutungspunktes in dieser Liste, dessen Name schon als Knoten ausgegeben wurde;
3.2
Identifizieren dieses Knotens als Vorgänger (ancestor) im Baum, an den der Listen-Name als direkter Nachfolger-Knoten (descendant) angehängt und ausgegeben wird;
3.3
Löschen der unter (3.0) erstellten Liste;
4.0
Wenn Startstapel abgearbeitet, dann hier STOPP, sonst weiter mit (2.0).
Die wiederholte Ausführung der unter Schritt 2.0 bis 4.0 aufgeführten Anweisungen bewirkt, daß nach und nach jeder der in der Startliste enthaltenen Bedeutungspunkte abgearbeitet und entsprechend seiner Distanzrelationen als Nachfolger-Knoten desjenigen Vorgänger-Knotens in der so aufgebauten Baum-Struktur eingehängt wird, zu dem er die kleinste Distanz aufweist.

Abb. 4

Abb. 4

Abb. 7
Abb. 8

Um die Arbeitsweise dieser Prozedur zu verdeutlichen, können einige ihrer Zwischenstufen anhand eines vereinfachten Beispiels illustriert werden. Hierzu mögen zunächst 11 Punkte a, b, c, d, e, f, g, h, i, j, k einen (nur zweidimensionalen) Ausschnitt der (tatsächlich n-dimensionalen) Struktur des semantischen Raums repräsentieren, wobei die Distanzrelationen durch Linien dargestellt sind, die alle Punkte untereinander verbinden (Abb. 4). Durch den oben beschriebenen Algorithmus werden nun auf dieser Datenstruktur durch Angabe der drei unterschiedlichen Startpunkte a, b und c drei unterschiedliche Teilmengen aus der Menge aller alle 11 Punkte verbindenden Relationen ausgewählt (Abb. 5), die in jedem Falle alle 11 Punkte untereinander verbinden. Die Darstellung der daraus abgeleiteten unterschiedlichen Zuordnungen von Nachfolger- und Vorgänger-Knoten kann sowohl in Form von Schritt-Listen (Abb. 6), von allgemeinen Bäumen (Abb. 7) bzw. der Transformationen in binäre Bäume (Abb. 8) erfolgen.

Auf diese Weise leistet die angegebene Prozedur eine doppelte Aufgabe, denn

und zwar je unterschiedlich nach Lage und Distanzen des Startpunktes, von dem aus - wie unter einer spezifischen Perspektive - die übrigen Bedeutungspunkte des semantischen Raums durch den KD-Algorithmus quasi in die dispositionelle Ebene projeziert werden.

Offenkundig ist, daß mit zunehmender Entfernung der sukzessive abgearbeiteten Bedeutungspunkte vom Startpunkt (und damit folglich auch der Nachfolger-Knoten vom Wurzel-Knoten eines Baumes) sich die ermittelten semantischen Abhängigkeiten verringern, weshalb die - theoretisch immerhin mögliche - aspekt-geleitete Re-Organisation der Gesamtdaten des semantischen Raums tunlichst durch Vorgabe von geeigneten Stoppbedingungen für die Prozedur (Zielpunkt, Punktanzahl oder maximalem Distanzwert) abzubrechen ist.

Abb. 9

Abb. 9



Abb. 10

Abb. 10

Angewandt auf die 360 Bedeutungspunkte, wie sie in den Daten des semantischen Raums aus der Analyse des Experimentier-Corpus von Zeitungstexten ( DIE WELT, Jahrgang 1964, Berliner Ausgabe) berechnet wurden ( Rieger 1980), ergeben sich nun semantische Dispositionen, von denen hier nur zwei in Form von Dispositionellen Dependenztrukturen (DDS) der Startpunkte UNTERNEHM (Abb. 9) und WIRTSCHAFT (Abb. 10) vorgelegt werden können.

Als Stoppbedingung der Prozedur war für beide DDS die Anzahl abzuarbeitender Bedeutungspunkte (50) vorgegeben worden, was zu Baumgraphen unterschiedlicher Grade und Tiefen führte: DDSá UNTERNEHMñ, Grad 5, Tiefe 10 (Abb. 9) und DDSá WIRTSCHAFTñ, Grad 7, Tiefe 9 (Abb. 10), wobei die größte Anzahl der direkten Nachfolger eines Knotens - hier in beiden Bäumen die (5 bzw. 7) des Knotens ELEKTROn - den Grad eines Baumes festlegt.

Die perspektivisch unterschiedlich realisierten und hier beispielsweise unter den beiden Aspekten UNTERNEHM und WIRTSCHAFT generierten Dependenzbeziehungen der Baumgraphen von DDSá UNTERNEHMñ bzw. DDSá WIRTSCHAFTñ können dabei Vorgänger-Nachfolger-Abhängigkeiten zwischen Teilmengen von Knoten enthalten, die sich als völlig gleichartige Punktkonfigurationen in verschiedenen Bäumen darstellen. Im vorliegenden Fall ergeben sich unter anderem beispielsweise zwischen den Knoten ELEKTROn ® COMPUTER ® DIPLOM oder auch FäHIG ® TECHNIK ® BITTE ® PERSON in beiden Baumgraphen gleiche Abhängigkeitsbeziehungen, wenngleich auf unterschiedlichen Stufen des jeweiligen Baumes.

Diese Unterschiede so zu spezifizieren, daß sie vergleichbar werden, ist die Aufgabe eines numerischen Ausdrucks, der für jeden Baum i die Kriterialität Cri eines Nachfolger-Knotens zd in bezug auf seinen Vorgänger za als Funktion seiner Distanz d2(zd,za), und in bezug auf seine Wurzel zr als Funktion seiner Distanz d2(zd,zr) und seiner Stufe g bemißt.

(11)

Für zahlreiche Verfahren, die auf Baumstrukturen operieren bzw. diese weiterverarbeiten, erfüllen die unterschiedlichen Kriterialitäten von Knoten den Zweck, neben der in der Struktur des Baumgraphen vorgegebenen Ordnung noch Eigenschaften wie Länge oder Kürze, Enge oder Weite bzw. Widerstand oder Durchlässigkeit der die Knoten verbindenden Wege zu bewerten. Diese perspektivischen Bewertungen sind vorteilhaft im Hinblick sowohl auf die Auswahl relevanter Knoten als auch auf die Weiterverarbeitung ihrer dispositionellen Abhängigkeiten innerhalb derartig strukturierter Fragmente, die auf diese Weise im Prinzip aus allen Distanz-relationalen Repräsentationssystemen algorithmisch ausgesondert werden können.

9  

Abschließend sollen einige, aus dem Zusammenhang der Theorie sich ausbreitender Aktivierung bzw. aus einzelnen Komponenten dieser Theorie weiterentwickelte Prozeduren kurz vorgestellt werden, die auf der Modellbildung der semantischen Dispositionen aufbauen und deren Möglichkeit numerischer Bewertungen von Knoten und Wegen teilweise schon einbeziehen.

Zur Duchführung Aspekt-abhängiger, d.h. Ursprungs-kontrollierter und Inhalts-gesteuerter Such- und Retrieval-Prozesse werden daher zunächst die betreffenden DDS-Bäume erstellt, auf denen dann die jeweiligen Prozeduren operieren können. Wird beispielsweise der Bedeutungspunkt WIRTSCHAFT unter dem Aspekt UNTERNEHM gesucht, so wäre damit UNTERNEHM als Ausgang einer Suche und der Bedeutungspunkt WIRTSCHAFT als deren Ziel vorgegeben, wodurch zunächst DDS( UNTERNEHM) - wie oben in Abb. 9 illustriert - generiert würde. Nach abnehmenden Kriterialitäten geordnet, bietet der Baum die semantischen Dispositionen, die sich durch Priming von und unter dem Aspekt UNTERNEHM als strukturiertes Fragment des vorliegenden semantischen Raums ergeben. Anders als in Abb. 9 jedoch würde die Baum-generierende Prozedur ihre Arbeit abgebrochen haben, nachdem der Knoten WIRTSCHAFT als vorgegebener Zielpunkt erreicht wurde, um anschließend seinen Dependenz-Pfad zu aktivieren. Als Dependenz-Pfad wird der Weg bezeichnet, der sich von der Wurzel des Baumes zum gefundenen Zielknoten verfolgen läßt. Dieser Pfad enthält dabei die Spur der dispositionellen Übergänge, die für einen beliebigen Knoten unter einem beliebig spezifizierbaren Aspekt aufgrund der Daten eines semantischen Raums gelten.

Abb. 11

Sucht man etwa den Zielpunkt WIRTSCHAFT unter dem Aspekt UNTERNEHM auf, so besteht sein Dependenz-Pfad (wie aus Abb. 9 ersichtlich) aus den Übergängen UNTERNEHM ® SYSTEM ® LEIT ® ELEKTROn ® VERWALT ® VERANTWORT ® WIRTSCHAFT. Sie konstituieren die Relation der dispositionellen Dependenz von WIRTSCHAFT unter dem Aspekt UNTERNEHM, Dá UNTERNEHM, WIRTSCHAFTñ, deren Inverse

die Dependenz von UNTERNEHM unter dem Aspekt WIRTSCHAFT bildet. Aufgrund der prozeduralen Definition dieser dispositionellen Dependenz-Relationen, die ja von den (die beteiligten Bedeutungspunkte definierenden) Datenstrukturen abhängt, auf denen die definierende Prozedur operiert, zeigen erwartungsgemäß eine weitgehende, aber freilich keine monotone Übereinstimmung der jeweiligen Übergänge, die darüber hinaus zum Teil beträchtliche kriteriale Unterschiede aufweisen (Abb. 11).

Solche Ursprungs- und Inhalts-orientierten Verfahren zur aspektabhängigen Suche einzelner Bedeutungspunkte bilden die Voraussetzung dafür, Prozesse des analogen Schließens bzw. Folgerns im Rahmen eines Sach- und Gegenstandsgebiets zu simulieren. Anders als logisch-deduktive Schlußprozesse werden logisch-reduktive Schlüsse, zu denen der Analogieschluß gehört, aber von der inhaltlichen Ähnlichkeit der beteiligten Konzepte anstatt von der Form der diese Konzepte verwendenden Aussagen bestimmt.

Die prozedural definierten semantischen Dispositionen bieten hierzu ein Darstellungsformat konzeptueller Bedeutungszusammenhänge an, das deren inhaltliche, Aspekt-abhängig sich wandelnden Ähnlichkeitsbeziehungen formal als numerisch gewichtete Baumgraphen (Dependenzstrukturen) von Konzept-Knoten zu repräsentieren erlaubt. Auf der Grundlage dieser - je nach unterschiedlicher Datenbasis - dynamisch sich ändernden DDS-Bäume, die für jedes als primär angesetzte Start-Konzept eine unter diesem Aspekt strukturierte Auswahl relevanter Nachbar-Konzepte aus dem gleichen Sach- und Gegenstandsbereich bereitstellen, können daher geeignete Prozeduren definiert werden, die auf diesen Baum-Strukturen als den analogen Konzept-Repräsentationen operieren.

Im Unterschied zu der oben beschriebenen Ursprungs- und Inhalts-orientierten Suchprozedur, welche die Angabe von Aspekt und Zielpunkt fordert, ermittelt die parallele Bearbeitung von wenigstens zwei DDS-Bäumen einen bis dahin unbekannten Zielpunkt, der die durch Vorgabe von (mindestens) zwei Bedeutungspunkten (Prämissen) gestartete Prozedur stoppt und die durch sie jeweils ermittelten Dependenz-Pfade quasi zusammenführt und abschließt (Konklusion).

Abb. 12

Aufgrund von zwei (oder mehreren) vorzugebenden Startpunkten werden zunächst deren DDS-Bäume generiert, welche den zwei (oder mehreren) strukturierten Fragmenten relevanter Bedeutungspunkte entsprechen, die sich unter den betreffenden Aspekten vermittels der DDS-Prozedur aus den Daten des semantischen Raums ergeben. Ihre Verarbeitung besteht im wesentlichen aus der Abarbeitung und Markierung von Knoten abwechselnd oder parallel in jedem der zuvor generierten DDS-Bäume, und zwar sukzessive für alle Knoten je nach gewähltem Kriterium der möglichen Such-Strategien breadth-first, depth-first, criteriality-first (oder Kombinationen daraus). Die Prozedur stoppt, sobald ein Knoten in einem der Bäume angetroffen wird, dessen Name schon aufgrund seines Vorkommens innerhalb eines anderen Baumes markiert wurde. Die anschließende Aktivierung der dispositionellen Übergänge von diesem Knoten zu den jeweiligen Wurzeln der bearbeiteten DDS-Bäume zeichnet die betreffenden dispositionellen Inferenz-Pfade nach, wie sie sich etwa für die beiden Startpunkte UNTERNEHM und WIRTSCHAFT (Abb. 12) ergeben. Danach ist INDUSTRIE der erste Knoten, der den beiden bearbeiteten DDS-Bäumen (im vorliegenden Falle übrigens nach allen drei Suchstrategien) gemeinsam ist. Die einem solchen Inferenzpunkt zugeordneten Kriterialitäten stellen dabei durchaus eine Grundlage für die Entwicklung eines nicht-wahrscheinlichkeitstheoretisch sondern zusammenhangsstrukturell begründeten Maßes der Relevanz einer Analogie dar, die folglich als umso naheliegender erscheinen wird, je höher die unterschiedlichen Cr-Werte dieses gemeinsamen Knotens in bezug auf die verschiedenen beteiligten Aspekte sind.

Damit läßt sich der Kern dieser Algorithmisierung analogen Schließens wie folgt umreißen:

Literaturhinweise

[1]
Abelson, R.P. (1973): "The Structure of Belief Systems" in: Schank/Colby, S. 287-339

[2]
BARR, A./FEIGENBAUM, E.A. (Hrsg.) (1981): The Handbook of Artificial Intelligence. Vol. I, London (Pitman)

[3]
Bobrow, D. (1975): "Dimensions of Representation" in: Bobrow/Collins, S. 1-34

[4]
Bobrow, D./Collins, A. (Hrsg.) (1975): Representation and Understanding. Studies in Cognitive Science. New York (Academic Press)

[5]
Brachman, R.J. (1976): "What's in a Concept: Structural Foundation for Semantic Networks" in: COLING 76 Preprints. Ottawa (Ottawa University)

[6]
Carnap, R. (1928): Der logische Aufbau der Welt. Hamburg (Meiner) 1961

[7]
CARNAP, R. (1955): "Meaning and Synonymy in Natural Languages" in: Meaning and Necessity. Chicago (University of Chicago Press) 1956, S. 233-247

[8]
CERCONE, N./GOEBEL, R. (1981): "Approaches to Knowledge Representation" in: Rieger ES I, S. 92-138

[9]
CHARNIAK, E. (1972): Towards a Model of Children's Story Comprehension. Ph. D. Diss: MIT, Cambridge, Mass.

[10]
CHARNIAK, E. (1976): "Inference and Knowledge I & II" in: Charniak/Wilks, Y. (Hrsg.): Computational Semantics. An Introduction to Artificial Intelligence and Natural Language Comprehension. Amsterdam (North Holland)

[11]
COFER, C.N. (Hrsg.)(1976): The Structure of Human Memory. San Francisco (Freeman)

[12]
Colby, K.M. (1973): "Simulation of Belief Systems" in: Schenk, R.C./Colby (Hrsg.): Computer Models of Thought and Language. San Francisco (Freeman

[13]
Collins, A.M./Loftus, E.F. (1975): "A Spreading Activation Theory of Semantic Processing", Psychological Review, Vol. 82(6), S. 407-428

[14]
EIKMEYER, H.J. (1984): "Prozedurale Semantik" in diesem Band

[15]
Estes, W.K. (1976): "Structural Aspects of Associative Models of Memory" in: Cofer S. 31-53

[16]
FAUSER, A./RATHKE. C. (1981): Studie zum Stand der Forschung über natürlich-sprachliche Frage/Antwort-Systeme. Universität Stuttgart (BMFT-ID-81-006)

[17]
FLORES D'ARCAIS, G.B./JARVELLA, C. (Hrsg.) (1983): The Progress of Language Understanding. New York/Sydney/Toronto (Wiley Sons) (im Druck)

[18]
GAINES, B.R. (1976): "Foundation of Fuzzy Reasoning", Intern. Journ. of Man-Machine Studies 8, S. 623-668

[19]
Goodman, N. (1982): "On thoughts without words", Cognition 12, S. 211-217

[20]
HALLIDAY, M.A.K. (1978): Language as Social Semiotic. The Social Interpretation of Language and Meaning. London (Arnold)

[21]
HARNAD, S. (1982): "A Unifying Theme for the Cognitive Sciences" in: Simon/Scholes, S. 1-12

[22]
HEYMES, D. (1971): "Competence and Performance in Linguistic Theory" in: Huxley, R./Ingram, E. (Hrsg.): Language Acquisition: Models and Methods. London/New York (Cambridge University Press), S. 3-24

[23]
JOHNSON-LAIRD, P.N./WASON, P.C. (1977): "Introduction to Conceptual Thinking" in: Johnson-Laird/Wason (Hrsg.): Thinking. Readings in Cognitive Science. Cambridge (Cambridge University Press) S. 169-184

[24]
Jones, G.V. (1982): "Stacks not fuzzy sets: An ordinal basis for prototype theory of concepts" , Cognition 12, S. 281-290

[25]
KINTSCH, W. (1974): The Representation of Meaning in Memory. Hillsdale, N.J. (Erlbaum)

[26]
Lorch, R.F. (1982): "Priming and Search Processes in Semantic Memory: A Test of three Models of Spreading Activation", Journal of Verbal Learning and Verbal Behavior 21 (1982), S. 468-492

[27]
Lyons, J. (1977): Semantics. Volumes I & II (Cambridge University Press)

[28]
MILLER, G.A./JOHNSON-LAIRD, P.N. (1976): Language and Perception. Cambridge (Cambridge University Press)

[29]
MINSKY, M.L. (1968): Semantic Information Processing. Cambridge/London (MIT-Press)

[30]
Minsky, M.L. (1974): "A framework for representing knowledge" (MIT-AI-Lab-Memo 306) und in: Winston, P. (Hrsg.) (1975): The Psychology of Computer Vision. New York (McGraw Hill), S. 211-277

[31]
Minsky, M.L. (1977): "Frame System Theory" in: Johnson Laird/Wason, S. 355-376

[32]
Minsky, M.L. (1979): "K-Lines: A Theory of Memory" (MIT-AI-Lab-Memo 516)

[33]
Olson, D.R. (1970): "Language and thought: aspects of a cognitive theory of semantics", Psychological Review 77, 4 (1970), S. 27-273

[34]
Osherson, D.N./Smith, E.E. (1981): "On the adequacy of prototype theory as a theory of concepts", Cognition 9, S. 35-58

[35]
OSHERSON, D.N./SMITH, E.E. (1982): "Gradedness and conceptual combination", Cognition 12, S. 299-318

[36]
PRIBRAM, K.H. (1982): "Computations and Representations" in: Simon/Scholes, S. 213-224

[37]
Putnam, H. (1970): "Is semantics possible?" in: Mind, Language, and Reality. Philosophical Papers Vol. II, Cambridge/London/New York (Cambridge University Press) 1975, S. 139-152

[38]
QUILLIAN, M.R. (1966/1968): Semantic Memory. Ph.D.-Diss. Carnegie, Inst. of Technology; z.T. in: Minsky, M. (Hrsg.): Semantic Information Processing. Cambridge, Mass. /London (MIT-Press), S. 216-270

[39]
QUINE, W. VAN ORMAN (1960): Word and Object. Cambridge, Mass. (MIT-Press)

[40]
Reichenbach, H. (1920): Relativitätstheorie und Erkenntnis Apriori. Berlin (Springer)

[41]
Rieger, B. (1976/1981): "Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutungen" in: Scharff, J.H./Kämmerer, W. (Hrsg.): Leopoldina-Symposion Naturwissenschaftliche Linguistik (Nova Acta Leopoldina/NF-Bd. 54, Nr.245), Halle/Saale (Ambrosius Barth), S. 251-276

[42]
Rieger, B. (1977a): "Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems", Zeitschr. f. Literaturwissenschaft u. Linguistik (LiLi), 27/28, S. 55-68

[43]
Rieger, B. (1977b): "COLING 76: Concepts, Frames, and Scripts in Aid of Semantic Networks, Knowledge Systems and Fantasies", Sprache und Datenverarbeitung 1, S. 84-86

[44]
Rieger, B. (1977c): "Theorie der unscharfen Mengen und empirische Textanalyse" in: Klein, W. (Hrsg.): Methoden der Textanalyse. Heidelberg (Quelle & Meyer), S. 84-99

[45]
Rieger, B. (1977d): "Vagheit als Problem der linguistischen Semantik" in: Sprengel, K./Bald, W.D./Viethen, H.W. (Hrsg.): Semantik und Pragmatik. Tübingen (Niemeyer), S. 91-101

[46]
Rieger, B. (1979a): "Repräsentativität: von der Unangemessenheit eines Begriffs zur Kennzeichnung eines Problems linguistischer Korpusbildung" in: Bergenholtz, H./Schaeder, B. (Hrsg.): Textcorpora. Materialien für eine empirische Textwissenschaft. Kronberg, Ts (Scriptor), S. 52-70

[47]
Rieger, B. (1979b): "Fuzzy Structural Semantics" in: Trappl, R./Hanika, P./Pichler, F.R. (Hrsg.): Progress in Cybernetics and Systems Research, Vol. V, Washington/New York/London (Wiley), S. 495-503

[48]
Rieger, B. (1980): "Fuzzy Word Meaning Analysis and Representation in Linguistic Semantics" in: COLING 80. Proceedings of the 8th Intern. Conference on Computational Linguistics, Tokyo (Org. Com. ICCL), S. 76-84

[49]
Rieger, B. (Hrsg.) (1981): Empirical Semantics. A Collection of New Approaches in the Field, Vols. I & II (Quantitative Linguistics 12 & 13). Bochum (Brockmeyer)

[50]
Rieger, B. (1981a): "Feasible Fuzzy Semantics. On Some Problems of How to Handle Word Meaning Empirically" in: Eikmeyer, H.J./Rieser, H. (Hrsg.): Words, Worlds, and Contexts. Berlin/New York (deGruyter), S. 193-209

[51]
Rieger, B. (1981b): "Connotative Dependency Structures in Semantic Space" in: Rieger ES II. S. 622-711

[52]
Rieger, B. (1982a): "Fuzzy Representation Systems in Linguistic Semantics" in: Trappl, R./Findler, N.V./Horn, W. (Hrsg.): Progress in Cybernetics and Systems Research Vol. XI, Washington/New York/London (McGraw-Hill) S. 249-256

[53]
Rieger, B. (1982b): "Procedural Meaning Representation by Connotative Dependency Structures" in: Horecky, J. (Hrsg.): COLING 82. Proceedings of the 9th Intern. Conf. on Computational Linguistics (Linguistics Series 47), Amsterdam/New York (North Holland), S. 319-324

[54]
Rieger, B. (1983): "Clusters in Semantic Space" in: Delatte, L. (Hrsg.): Actes du Congrès International Informatique et Sciences Humaines, Lièges (LASLA) S. 805-814

[56]
Rieger, B. (1984a): "Inducing a Relevance Relation in a Distance-like Data Structure of Fuzzy Word Meaning Representations" in: Allen, R.F. (Hrsg.): Proceedings of the 4th Intern. Conf. Data Bases in Humanities and Social Sciences (ICDBHSS/83), New York (Paradigm Press) im Druck

[57]
Rieger, B. (1984b): "Lexical Relevance and Semantic Disposition. On stereotype word meaning representation in procedural semantics" in: Hoppenbrouwes, G./Seuren, P./Weijters, T. (Hrsg.): Meaning and the Lexicon, Nijmegen (N.I.S. Press) im Druck

[58]
Rosch, E. (1975a): "Universals and Cultural Specifics in Human Categorization" in: Brislin, R.W./Bochner, S./Lohner, W.J. (Hrsg.): Cross-Cultural Perspectives on Learning. New York/London/Toronto (Wiley), S. 177-206

[59]
Rosch, E. (1977b): "Cognitive Representations of Semantic Categories", Journal of Experimental Psychology, General Vol. 104, 3, S. 192-233

[60]
SCHANK, R.C. (1975): "The Structure of Episodes in Memory" in: Bobrow/Collins, S. 237-272

[61]
SCHANK, R.C./ABELSON, R.P. (1977): "Scripts, Plans, and Knowledge" in: Johnson-Laird/Wason, S. 421-432

[62]
SCHWARZE, C. (1982): "Stereotyp und lexikalische Bedeutung", Studium Linguistik 13, S. 1-16

[63]
SIMON, T.W./SCHOLES, R.J. (Hrsg.) (1982): Language, Mind, and Brain. Hillsdale, N.J. (Erlbaum)

[64]
Steels, L. (1981): Analogical Reasoning with Application to Geology. Ridgefield (Schlumberger-Doll-Corp), Working Paper 198

[65]
SUPPES, P. (1980): "Procedural Semantics" in: Proceedings of the 4th International Wittgenstein Symposion 1979. Wien (Hölder & Pichler), S. 27-35

[66]
SUPPES, P. (1982): "Variable-free Semantics with Remarks on Procedural Extensions" in: Simon/Scholes, S. 21-34

[67]
SWINNEY, D.A. (1979): "Lexical processing during sentence comprehension", Journal of Verbal Learning and Verbal Behavior 18, S. 733-743

[68]
Tulving, E. (1972): "Episodic and Semantic Memory" in: Tulving, E./Donaldson, W. (Hrsg.): Organization of Memory. New York (Academic Press), S. 381-403

[69]
Tulving, E./Thomson, D. (1973): "Encoding specificity and retrieval processes in episodic memory", Psychological Review 5, S. 359-380

[70]
WETTLER, W. (1980): Sprache, Gedächtnis, Verstehen. Berlin/New York (de Gruyter)

[71]
Wilson, K.V. (1980): From Association to Structure. Advances in Psychology. Amsterdam/New York (North Holland)

[72]
WINOGRAD, T. (1973): "A Procedural Model of Language Understanding" in: Schank/Colby, S. 152-186

[72]
WINOGRAD, T. (1975): "Frame representation and the declarative/procedural controversy" in: Bobrow/Collins, S. 185-210

[74]
Wittgenstein, L. (1969): Über Gewißheit. On Certainty. Ed. by Anscombe, G.E.M./von Wright, G.E., New York/San Francisco/London (Harper & Row)

[75]
WOODS, W. (1975): "What's in a Link: Foundation for Semantic Networks" in: Bobrow/Collins, S. 35-82

[76]
Zadeh, L.A. (1965): "Fuzzy Sets", Information and Control 8, S. 338-353

[77]
Zadeh, L.A. (1981): "Test-Score Semantics for Natural Languages and Meaning Representation via PRUF" in: Rieger ES I, S. 281-349

[78]
Zadeh, L.A. (1982): "A note on prototype theory and fuzzy sets", Cognition 12, S. 291-297

[79]
Ziff, P. (1960): Semantic Analysis. Ithaka, N.Y. (Cornell University Press)

[80]
Ziff, P. (1970): "A Response to `Stimulus Meaning' " in: Understanding Understanding. Ithaka/London (Cornell Univ. Press) 1972 S. 90-106


Footnotes:

1Erschienen in: Rieger, B. (Hrsg.): Dynamik in der Bedeutungskonstitution (Papers in Textlinguistics 46), Hamburg (H. Buske) 1985, S. 163-228