Einleitung

Burghard Rieger, Aachen

Wissenschaftliche Theorien und Modelle sind in der Regel die in eigenen (intersubjektiv oder doch überindividuell entwickelten) Aussagesystemen repräsentierten Resultate von Bemühungen um das Verständnis und/oder die Erklärung von (beobachteten, erschlossenen oder auch nur vermuteten) Zusammenhängen zwischen Entitäten, die ihrerseits Resultate von Bemühungen um das Verständnis und/oder die Erklärung von Zusammenhängen zwischen Entitäten repräsentieren, die ihrerseits Resultate von ... und so fort, bis zu beliebiger Tiefe (oder auch umgekehrt: beliebiger Höhe) des - einzig vom jeweiligen Stand der Forschung abhängigen - Reflexionsniveaus einer beliebigen Disziplin. Dabei läßt sich unterscheiden zwischen den Theorien, die allgemeine und umfassende Zusammenhänge formulieren, den daraus entwickelten Modellen, die kleinere und überschaubare Ausschnitte dieser Zusammenhänge abbilden, und der experimentellen Erprobung dieser Modelle, welche als Überprüfung und Vergleich von Daten, Test von Hypothesen, Analyse von Strukturen, Simulation von Prozessen, etc. erst Rückschlüsse auf den explikativen Wert der Theorie zu ziehen erlaubt.

Das hierin angedeutete rekursive Prinzip semiotischer Strukturierung, wonach fortschreitender (oder auch revidierender) Erkenntnisgewinn als Resultat von Leistung zunehmend spezifizierender Abbildungen von Wirklichkeit in verfeinerten Repräsentationssystemen erscheint, welche zunächst chaotische Regellosigkeiten in regelhaften Zusammenhänge bzw. umgekehrt zunächst fundamentale Einheiten in vielfältige Systemkomplexe überführen, kennzeichnet freilich nicht nur die Dynamik, mit der wissenschaftliche Theorien untereinander konkurrieren und unterschiedliche Paradigmen (deskriptiv, strukturalistisch, prozessual, prozedural) konzipierter Modelle einander ablösen. Dasselbe Prinzip kann vielmehr allgemein als eine Art Grundmuster zur Kennzeichnung auch derjenigen dynamischen Prozesse gelten, die in bestimmten (kommunikativen) Situationen durch regelgeleiteten Gebrauch von (natürlich-sprachlichern) Zeichen(-ketten) Bedeutungen entstehen lassen, welche von den daran beteiligten (Zeichen-) Verwendern auch verstanden werden (können).

Der hier verwendete Begriff der Bedeutungskonstitution kennzeichnet diesen übergreifenden semiotischen Zusammenhang, der Prozesse wissenschaftlicher Modell- und Theorienbildung (d.h. ihre Entwicklung, Erprobung, Verwendung und/oder ihr Verwerfen) durch die Beteiligten als einen (durch operationale Kontrollen systematisierten) Sonderfall derjenigen Prozesse begreift, die auch in Akten verbaler Kommunikation bei Sprachverwendern zur Konstitution von Bedeutungen (d.h. beim Intendieren, Äußern, Interpretieren, Verstehen oder Nicht-Verstehen) ablaufen.

Dieser Zusammenhang bildete schon den Anstoß zu früheren Überlegungen, die das Phänomen Bedeutung - anders als damalige fachlinguistische Theorien - eher als Resultat, denn als Voraussetzung von semiotisch-kognitiven Verstehens- und Erklärungsprozessen zu deuten unternahmen und für die Modell- und Theorienbildungen der linguistischen Semantik fruchtbar zu machen suchten. Vor dem Hintergrund der inzwischen dynamischen Entwicklung von in diesem Sinne bedeutungskonstituierenden Modellen zur Bedeutungskonstitution - welche die im vorliegenden Band versammelten Beiträge hinreichend deutlich dokumentierten - mag ein Rückgriff zur Einführung in den thematischen Problemzusammenhang angebracht sein.

Im Mittelpunkt einer von der kommunikativen Funktion der natürlichen Sprache her bestimmten linguistischen Theorienbildung steht nicht die (formal rekonstruierbare) Fähigkeit des Menschen, wohlgeformte Zeichenketten (Sätze) bilden zu können, sondern die Frage nach deren (zunächst nur beschreibbaren) Bedingungen. Als deren Summe gilt sein praktisch-soziales Vermögen zu kommunikativem (sprachlichem wie nicht-sprachlichem) Handeln und Verhalten. [...] Hierzu bedarf es freilich eines semiotischen Konzepts, das als Funktion zu rekonstruieren erlaubt, was von tatsächlichen Sprechern/Hörern in konkreten Kommunikationssituationen vermöge sprachlicher Äußerungen intendiert und produziert bzw. erkannt und verstanden werden kann: Bedeutung als Prozeß zunehmender Einschränkung von Wahlmöglichkeiten. [1]

Aus einem derart veränderten Grundansatz ergeben sich für eine den Prozeß bedeutungskonstituierender Sprachverwendung einbeziehende dynamische Modellbildung in der Linguistik zumindest folgende Konsequenzen:

Bedeutung wird nicht länger als besondere Qualität von Zeichen und Zeichenfolgen interpretiert, die diesen vermittels einer (Übersetzungs-) Semantik wie Entitäten besonderer Art unmittelbar zuordnenbar wäre, sondern Bedeutung wird allgemein als ein mögliches Resultat komplexer - in Zeichen nicht notwendig schon repräsentierbarer - kognitiver Prozess gedeutet, in deren Verlauf es über (mehr oder weniger streng determinierende) Regulariäten zur Ausbildung von (mehr oder weniger deutlich) erkennbaren Zuordnungsbeziehungen (Relationen) kommt, die ihrerseits Strukturzusammenhänge (mehr oder weniger scharf) konstituieren.

Diese Strukturzusammenhänge, auf die Zeichen und Zeichenfolgen als deren mögliche Extensionen (Denotate) bzw. Intensionen (Designate) referieren können, werden nicht - wie etwa in den (aus Interpretation und Refernzpunkt bestehenden) Modellen der Montague-Grammatik - schon vorausgesetzt, sondern - im Sinne einer handlungstheoretischen Sprachauffassung - selbst wiederum als eine Funktion jener systemkonstituierenden Regulartitäten rekonstruiert, mit denen wirkliche Sprecher/Hörer Zeichen und Zeichenfolgen in konkreten Situationen offenbar dann verwenden müssen, wenn sie zum Zweck der Kommunikation Bedeutung konstituieren wollen.

Eine solche Rekonstruktion läuft auf die modellierende Nachbildung des in einem (pragmatisch zu definierenden) Anwendungskontext einer möglichen Welt konstituierten bzw. sich konstituierenden Systemzusammenhangs von Wahlmöglichkeiten (potentielle Interpretationen) hinaus, in dem die drei semiotischen Dimensionen nurmehr als ein kontinuierlicher Übergang von Zuordnungsregularitäten abnehmender Determiniertheit (von Syntaktik über Semantik bis Pragmatik) zwar formal rekonstruiert, nicht aber mehr (scharf) unterschieden werden können. [2]

Nebend dieser aus semiotischer Sicht formulierten Krititk an der strukturalistischen Statik linguistischer Theorien und Beschreibungsmodelle, erschien zur selben Zeit ein Aufsatz, der im Zusammenhang psychologischer Forschung zur Verarbeitung natürlich-sprachlicher Äußerungen durch menschliche Sprachverwender die seit langem schon strapazierte Analogie zu vergleichbaren Verarbeitungsprozessen von sprachlichen Zeichenketten durch den Computer erneut aufnahm, nun allerdings unter einem aktuellen, durch die aus der Informatik (Computer und Software Science) entlehnten Begriffsbildungen der Subroutine und Prozedur provozierten, neuen Aspekt. Er betrifft eine dynamische Betrachtung und Repräsentation bis dahin auch in der Psychologie als statisch beschriebener Entitäten vornehmlich im Rahmen der Erklärung von Interpretationsprozessen sprachlicher Zeichen, was zur Formulierung einer prozeduralen Semantik führte.

Psychologists are interested in how language is used to communicate: to make statements, to ask questions and to answer them, to make requests, and even to express invocations and imprecations. It is a virtue of the procedural approach that it places these diverse speech acts on an equal footing and provides a theoretical language for formulating hypotheses about the mental processes involved. [...] We took the view that a lexical concept interrelates a word, rules governing its syntactic behaviour, and a schema. A schema is made up from both functional and perceptual information, and may well include information that has no direct perceptual consequences. Moreover, lexical concepts are interrelated to one another. They are organized in semantic fields that have a conceptual core which reflects a deeper conceptualization of the world and integrates the different concepts with the semantic field. One purpose of such an organization is to create a taxonomy that enables entities within the field to be correctly categorized and readily named. [3]

Den größeren Umfang, die höhere Allgemeinheit des prozedural-semantischen Ansatzes gegenüber den modell-theoretischen der logischen Semantik macht ein Vergleich schon weniger Eigenschaften deutlich.

At first glance the two approaches may seem totally unrelated, but further consideration reveals some interesting similarities. Take, for example, the logical distinction between, extensions and intensions. In model-theoretic semantics an intension is a function form possible worlds to truth values, and an extension is the truth value for a particular world. In procedural semantics there is a similar distinction between a procedure and the result of executing it. Thus we might speak of the intension of a program as the procedure that is executed when the program is run, and of the extension of a program as the result that the program returns when it has been executed. [4]

Diese Parallele weist darüber hinaus auf einen weiteren Vorteil hin, der mit dem prozeduralen Ansatz für psychologisch-adäquatere Modell- und Theorienbildungen verbunden sein kann: die Reduzierung des Erklärungsanspruchs wahrheitsfunktionaler Semantiktheorien auf einem (möglichen) Spezialfall semantischer Explikation. Denn während die modelltheoretischen Ansätze die Bedeutung eines Satzes im wesentlichen als Wahrheitswert definieren, erlaubt die prozedurale Semantik daneben eine Vielzahl anderer (gleichermaßen mögliche) Extensionen wie Antworten, Handlungen, Veränderung von Wissen und/oder Prozessen und Plänen, etc. Logische Semantiktheorien erscheinen aus psycho-linguistischer Sicht daher nicht als die natürlichsten Repräsentationssysteme, von denen zu fordern ist, daß sie eine theoretisch plausiblere Methode der Analyse und Explikation von Orts- und Zeitverläufen, Themen- und Gegenstandbereichen, Teilnehmerwechsel und Sprechereignissen bieten, welche für die kommunikativen Interaktionen zwischen Sprechern/Hörern natürlicher Sprache konstitutiv sind.

Finally, it schould be emphasized that procedural semantics is more a methodology than a specific theory. [...] Nevertheless, the procedural method seems to be particularly suitable for developing psychological theories about the meanings of words and sentences. It has two principle advantages. First, theories lying within its conceptual framework can be readily modeled in the form of computer programs: nothing quite so concentrates the mind as having to build such a model, and the process often lead to new ideas about the theory itself or how it should be tested. Second, it forces the theorist to consider processes. This is a signal virtue in comparison to model-theoretic and linguistic approaches to meaning that tend naturally to emphasize structure at the expense of process. [5]

Die kritische Evaluierung einer allzu mechanistischen Übertragung automatentheoretischer Vorstellungen über die Verarbeitung und Interpretation von Zeichenketten zur Erklärung von Vermögen menschlicher Sprachverarbeiter läßt gleichwohl erkennen, daß mit der Porzeduralität eine neue Ebene formaler Rekonstruktion semantischer Strukturzusammenhänge verbunden ist, die nicht nur über die Explikation von Bedeutung als mengentheoretisch beschreibbare Extension oder als Eigenschaften festlegende Intension eines Ausdrucks hinausgeht, sondern gleichzeitig noch eine neue Dimension der Überprüfbarkeit dadurch erschließt, daß prozedurale Rekonstruktionen sich über die Struktur-produzierenden Prozesse simulieren lassen, die sie repräsentieren.

Above all, set-theoretical semantics seems to have been of little serious use in either practical or theoretical problems of programming. What has been important, indeed fundamental, is the concept of procedure or subroutine which has been central almost from the beginning to the present theory of structural programming. Some cognitive psychologists, but perhaps no philosophers, talk about human procedures as if humans were a current IBM computer model nearly ready for the marketplace. [...] I think there are similarities between human procedures and computer subroutines, but there are also many essential differences. Moreover, it should be clear that starting over with a computer analogy will not itself solve many of the problems left open in the set-theoretical semantic of natural language. [6]

Der grundlegende und psychologisch wichtige Punkt ist, daß - mit Ausnahme sehr weniger Fälle - bei der Entscheidung, ob einem Gegenstand ein bestimmtes Prädikat zukommt oder eine bestimme Relation zwischen zwei oder mehreren Gegebenheiten besteht, man diese Eigenschaften oder Beziehungen nicht (extensional) als Mengen betrachtet oder irgendwie (intensional) als Eigenschaften, sondern daß man über Prozeduren verfügt, die für die zu beurteilenden Entitäten die benötigten Werte liefern. Das ist die Basis der folgenden fundamentalen Sätze über den Zusammenhang von Prozeduren und Bedeutungen:

Proposition 1:
Properties are abstractions of procedures, just as extensions are abstractions of properties [...]
Proposition 2:
In finest detail, the meaning of a word, phrase, or utterance is a procedure, or collection of procedures [...]
Proposition 3:
In finest detail, the meaning of a word, phrase, or utterance is private for each individual [...]
Proposition 4:
High probability of successful communication depends, among other things, on the following factors:
4.1: Spoken words, phrases, and utterances are identified as 'being the same', that is, being appropriately congruent, by speaker and listener.
4.2: The procedures called by words or phrases yield for the given context congruent communicational results for speaker and listener.
4.3: The speaker uses nonverbal as well as verbal cues from the listener to determine if the words he uses are calling result-congruent procedures in him and the listener.
4.4: When the speaker judges his words are not calling result-congruent procedures, he uses paraphrases in terms of words he believes will call result-congruent procedures [...]
Proposition 5:
Classical set-theoretical referential semantics can be obtained, where appropriate, by abstraction from procedural semantics [...]
Proposition 6:
Human procedures are similar to computer subroutines, but there are notable differences:
6.1: What corresponds to the underlying machine language of human procedures is radically different form any current computer language; moreover, this underlying language is probably unknowable in complete detail.
6.2: Human procedures are subject to continual modification and are much affected by use; computer subroutines are not - they can stay the same thousand years.
6.3: Human procedures are intrinsically connected to perceptual and motor activities; for computer subroutines these connections are still artificial, awkward, and difficult.
6.4: Human procedures are intrinsically continuous rather than discrete or digital in character; prosodic features of speech are a prime example. [7]

Damit könnte die Prozedurale Semantik zur Keimzelle einer Wissenschaft werden, die sich allgemein der Untersuchung kognitiv-semiotischer Prozesse, ihren Voraussetzungen, Funktionen und Resultaten zuwendet und als Cognitive Science sich bereits auch abzuzeichnen beginnt [8]. Sie vereinigt in sich die unter jeweils beschränkteren Aspekten bisher schon unternommenen Forschungen der empirisch-experimentell arbeitenden psychologischen Kognitionstheorie, der natürliche Sprachen verarbeitenden Systementwicklungen der künstlichen Intelligenz und der - mit einiger Verzögerung sich doch etablierenden - neueren Ansätze in der Performanz-orientierten linguistischen Semantik und Verstehensforschung.

Für ihre übergreifende Theorienbildung zeichnet sich dabei eine quasi ontologische Reihenentwicklung explikativer Systemrepräsentationen ab, wonach Strukturen als funktionale Resultate von Prozessen und weiterhin Prozesse als simulative Resultate von Prozeduren verstanden werden können. Ihren jeweiligen Beschreibungsebenen entspricht gleichzeitig eine Hierarchie zunehmend abstrakter, gleichwohl empirisch, experimentell oder simulativ überprüfbarer Modellbildungen, von der statischen Repräsentation des Zusammenhangs der untersuchten Entitäten als Struktur (strukturalistische Modelle), über die dynamische Beschreibung eines in der Zeit sich verändernden Zusammenhangs als Prozeß (prozessuale Modelle), bis zur dynamischen Repräsentation des von der Zeitlichkeit abstrahierenden funktionalen Zusammhangs als Prozedur (prozedurale Modelle) [9].

Die folgenden Beiträge, deren Abdruck hier in etwa der Reihenfolge der gehaltenen Vorträge entspricht, lassen - bei aller Unterschiedlichkeit in der Akzentuierung, der Fragestellung und Modellentwicklung - doch zahlreiche Parallelen in Überschneidungen und Gemeinsamkeiten erkennen, die nicht nur auf das alle Autoren verbindende und überdies weitgehend homogene Problembewußtsein zurückzuführen sind. Als entscheidender tritt vor diesem Hintergrund vielmehr die Tatsache in den Blick, daß - trotz aller durch unterschiedliche Ausgangspositionen, wechselnde Forschungsinteressen und Zielvorstellungen naturgemäß bewirkten Dynamik in der Begriffs-, Hypothesen- und Modellbildung - sich doch Konzentrationen erhöhten Interesses an bestimmten Teilkomplexen der Bedeutungskonstitution in den verschiedenen Beiträgen abzeichnen, durch die deren Zusammenhang und (relative) Homogenität sich erst ergibt. Zu diesen Kritstallisationskernen gehören etwa

Die folgenden kurzen Zusammenfassungen der Beiträge können hierzu freilich nur sehr begrenzte und meist auf Andeutungen sich beschränkende Hinweise geben; denn die eigentliche Aufgabe dieser Kurzfassung besteht darin, dem Leser einen raschen Überblick über den in einem Aufsatz behandelten Zusammenhang zu ermöglichen.

In einem kurzen Überblick der Geschichte wechselnder Anläufe zur Analyse und Beschreibung natürlich-sprachlicher Bedeutung in der Linguistik und den ihr benachbarten Disziplinen, deren Untersuchungsansätze und Erklärungsparadigmen sie teils übernahm, teils auch modifizierte, skizziert HANNES RIESER in seinem Beitrag die derzeitige Forschungssituation der Wortsemantik, die er von zwei einander ausschließenden Grundströmungen beherrscht sieht: die mit der Untersuchung (lexikalisch/konzeptuell) strukturierter Vokabularien befaßten Richtungen (Wortschatz-Position) und die mit der Analyse (syntaktisch/pragmatisch) strukturierter Wortketten befaßten Richtungen (Kontext-Position). Mit den Erläuterungen der Grundannahmen einer Theorie der prozeduralen Grammatik wird anschließend die veränderte Position markiert, die das neue Paradigma dieses primär Performanz-orientierten prozeduralen Ansatzes ausmacht. Mit älteren Kompetenztheorien ist ihm dabei die Regularitätsannahme gemeinsam, die - unter einem erweiterten, variable Zuordnungen erfassenden Regelkonzept - für alle unterschiedenen Objekte (Strukturen, Prozesse, Prozeduren) seiner linguistischen Analyse und Beschreibung gilt. Generell werden dabei (phonetisch/ syntaktisch/ semantisch/ pragmatisch) ausgezeichnete Strukturen nicht mehr als Eigenschaften sprachlicher Zeichenaggregate gedeutet, sondern als über Kontext-Klassen gesteuerte Resultate von (Teil-) Prozessen verstanden, die während der Verarbeitung (Produktion/Verstehen) von Äußerungen durch Sprachverwender ablaufen und zu so (oder - je nach (Teil-) Ergebnissen der Verarbeitungs-Umgebung anders) gearteten Resultaten bzw. Zuordnungen führen. Für die Beantwortung der Frage nach der Funktion von Bedeutungen im Diskurs wird ein von Kontext-Klassen je modifizierter Bedeutungs-Begriff des Stereotyps entwickelt, der als Entscheidungsbaum strukturiert mit zunehmender Tiefe größere Präzisierungen erlaubt. Zur Interpretation vorgegebener Äußerungen durchlaufen Verarbeitungs-Prozeduren diese Baumstrukturen und approximieren - je nach Kontextklasse unterschiedliche - den Verstehensprozeß, dessen Zusammenhänge abschließend an Beispielen verdeutlicht werden.

Im Beitrag von HANS-JÜRGEN EIKMEYER wird zunächst eine Klärung von Begriffen unternommen, die im Zusammenhang der prozeduralen Ansätze neuerer Theorie- und Modellbildungen verschiedener Disziplinen - wenn auch zunächst nicht in der Linguistik und Semantik - wichtig geworden sind (Struktur - Prozeß - Prozedur). Nach der Formulierung von Grundannahmen (Natürlichkeitsbedingungen), denen prozedurale Modelle des Verstehens im Unterschied zur Analyse sprachlicher Diskurse zu genügen haben, wird die semantische Komponente solcher Modelle diskutiert im Hinblick sowohl auf die darin repräsentierten Entitäten und die in diesen Modellen verwirklichten Eigenschaften, als auch auf die zwischen diesen beiden vermittelnden und sie modifizierenden Prozeduren. Neben den je nach holistischer/deskriptiver Sichtweise unterschiedenen Entitäten als Objekte/Prototypen, werden drei Eigenschaften des typenfreien semantischen Modells näher diskutiert, welche die konzeptuellen Vermögen natürlicher Sprecher rekonstruieren: unterschiedliche Explizitheit, inhomogene Repräsentation, Zirkularität. Die Unterscheidung von Identifizierungs- und Modifizierungs-Information, welche die linguistischen Begriffsbildungen wie topic/comment oder Fokus/Präsupposition aufnimmt, übernimmt dabei eine wichtige Funktion bei der Modellierung der dynamischen Veränderbarkeit des innerhalb der prozeduralen Grammatik entwickelten semantischen Modells. Als Prozedur definiert, bestimmt diese Aspekt-geleitete Unterscheidung verschiedener Informationsstrukturen, ob eine bearbeitete sprachliche Eingabe im Rahmen des Modells interpretiert wird oder zu seiner Veränderung führt. Beispielhaft wird anhand eines Textfragments abschließend die Konstruktion und Modifikation eines solchen durch Assoziationsgeflechte strukturierten semantischen Modells illustriert.

Der Beitrag von JANOS S. PETÖFI beschäftigt sich mit Fragen der natürlich-sprachlichen Bedeutung unter dem Aspekt der prozeduralen Textinterpretation. Diese Konzeption von Bedeutungskonstitution, in der die Struktur desjenigen Weltfragments eine wesentliche Rolle spielt, das einem gegebenen Text in einem Kontext nach Meinung eines Interpreten als extralinguistisches Korrelat zugeordnet werden kann, basiert auf der Textstruktur-Weltstruktur-Theorie, die zunächst kurz referiert wird. Über die Unterscheidung dreier für die explikative Textinterpretation wichtiger Typen lexikalischen und enzyklopädischen Wissens (den Mitglieder einer Sprachgemeinschaft allgemein verfügbar, in einem gegebenen Text möglicherweise manifestiert, von dessen Interpreten tatsächlich aktiviert), werden dann einige Aspekte von Wortbedeutung im Zusammenhang des ersten Typs erörtert. Sie betreffen zum einen Probleme der adäquaten und expliziten Repräsentation von Wissen in einem Lexikon, über das Mitglieder einer Sprachgemeinschaft bezüglich einzelner Wörter ihrer Sprache verfügen, und sie betreffen zum anderen Fragen, welche Operationen mit und über dem Lexikon durchgeführt werden müssen, damit den in einer zu interpretierenden Textstruktur vorkommenden Wörtern die ihre Bedeutung konstituierenden, Welt-strukturellen Korrelate zugeordnet werden können. Bedingungen, Durchführung und Verlauf des explikativen Interpretationsprozesses werden so angebbar. Überlegungen zur Adäquatheit der formalen Analyse und Modellierung solcher Prozesse sowie ihrer möglichen Implementation in Rechnern als Simulation natürlicher Interpretationsprozesse weisen abschließend auf die Verbindung zur künstlichen Intelligenz-Forschung hin.

Anhand von (Satz-) Äußerung mit den Konnektiven weil und aber untersucht JÖRG KINDERMANN in seinem Beitrag, welche Präsuppositionen auf Seiten des Rezipienten anzusetzen sind, wenn dessen Interpretationen dieser Äußerungen im Rahmen eines Verstehensmodells der PETÖFIschen Textstruktur-Weltstruktur-Theorie expliziert werden. Dabei wird der Begriff der Präsuppostition im herkömmlichen Sinne bestimmt, d.h. als derjenige (nicht geäußerte) Sachverhalt, der die Wahrheit/Falschheit oder auch nur die Konsistenz eines (geäußerten) Sachverhalts bedingt. Als Rezipient-Präsuppositionen werden dagegen die für Leser/Hörer entscheidenden (nicht explizierten) (Zugänglichkeits-) Relationen zwischen Textproduzent und Sachverhalt bezeichnet, deren (praktische bzw. formale) Explikation über die erfolgreiche/erfolglose oder auch nur konsistente Interpetation einer Äußerung im Verstehensprozeß entscheidet. Über die Analyse dieser Zugänglichkeits-Relation sowohl zum geäußerten Sachverhalt als auch zu den ihn ausmachenden Teiläußerungen, die durch eines der untersuchten Konnektive verbunden sind, werden anhand kanonischer Repräsentationen von Beispielsätzen die Rezipient-Präsuppositionen formal rekonstruiert. Ziel dieser Rekonstruktion ist es, die natürlichen (Verstehens-) Prozesse durch deren theoretische Explikationen zu approximieren und dabei möglichst jene (minimale/optimale) Menge der Rezipient-Präsuppositionen zu isolieren, die zur Interpretation einer gegebenen (Text- bzw. Satz-) Äußerung notwendig sind.

Der Beitrag von LEO G.M. NOORDMAN geht von der psycholinguistischen Grundannahme aus, daß das Verstehen sprachlicher Äußerungen ein Prozeß psychisch-kognitiver Aktivitäten der Informationsverarbeitung ist. Sie muß aus dieser Sicht als noch weitgehend unerklärte, dabei sehr komplexe Wechselwirkung psychologischer und linguistischer Faktoren verstanden werden, die mit Hilfe experimentalpsychologischer Untersuchungsmethoden isoliert und in ihrem Zusammenspiel möglicherweise auch einmal übergreifend charakterisiert werden können. Dabei werden in kontrollierten Tests gezielt formulierte Beispiel-Sätze ausgewählten Lesern/Hörern zu Verstehen gegeben, deren Antworten bzw. deren benötigte Reaktionszeiten sodann statistische Schlüsse erlauben in Bezug auf entweder abzuschätzende Resultate oder zu testende Hypothesenbildungen. Eine dieser übergreifenden Hypothesen betrifft den Einfluß, den Hintergrundinformation auf die Schnelligkeit, Sicherheit und/oder Leichtigkeit von Verstehensprozessen und deren Resulate ausübt. Was dabei jedoch einem Leser/Hörer als Hintergrundwissen in Form von Präsuppositionen verfügbar wird, hängt wiederum von unterschiedlichen linguistischen, konzeptuellen und individuellen Faktoren ab, welche von der Äußerung (dem sprachlichen Kontext), deren Bedeutung (der Art der Aufgabe) und dem Leser/Hörer (der persönliche Orientierung) bestimmt werden. Die zahlreich vorgelegten (eigenen und fremden) Experimente zur Verarbeitung (Produktion und Verstehen) semantisch bzw. konzeptuell unterschiedlicher Merkmale (männlich - weiblich, links - rechts) und linguistischer Strukturen (Negation, Passiv, Konditional) in sprachlichen Äußerungen belegen eindrucksvoll eine durch unterschiedliche Aktivierung unterschiedlicher Hintergrundinformationen erklärbare Asymmetrie, welche nahelegt, keine invariante Beziehung zwischen linguistischen Faktoren und psychischen Prozessen beim Sprachverstehen anzunehmen.

Anhand der Verständlichkeitsforschung, die sich quasi ohne Beteiligung der linguistischen Semantik zu etablieren beginnt, kann WALTHER KINDT einleitend verdeutlichen, daß die (vornehmlich) synchrone Betrachtung von Sprache als Bedeutungssystem, die (weitgehend) untergeordnete Rolle der Semantikkomponente in Grammatiktheorien und ein (genereller) Mangel an empirischer Semantikforschung die Defizite statischer, nicht-dynamischer Modelle der linguistischen Sprachbeschreibung ausmachen. Vor dem Hintergrund des für formale Sprachen entwickelten modelltheoretischen Apparats wird die Unzulänglichkeit interpretativer Semantikmodelle für die natürliche Sprache verdeutlicht. Beispiele für die Dynamik von Prozessen der Bedeutungskonstitution (wie Bedeutungsvielfalt und Bedeutungswechsel, Abhängigkeiten von Kontext und von Weltwissen, Neuentstehung und Verschiebung von Bedeutung, retrospektive und progressive Interpretationsrevisionen) legen eine auch dynamische Interpretation nahe, der ein neuer Situationsbegriff entspricht. Mit dem Plädoyer für eine dynamische Semantik sowie deren gleichzeitiger Empirisierung werden ihre Modellierungsaufgaben umrissen: die systematische Analyse und Beschreibung der Interpretationsmöglichkeiten und Kommunikationsbedingungen, welche Sprechern/Hörern die flexible Konstitution von Bedeutung erlauben, und die (re-)konstruktive Beschreibung und Modellierung derjenigen Verfahren und Regeln, deren Anwendung ein Verständnis als gemeinsame Interpretation zwischen Sprecher/Hörer zu sichern gestattet. Hierfür wird ein formal-theoretischer Rahmen geliefert, der über eine Modifikation des prädikatenlogischen Situationskonzepts die Interpretationsfunktion mit dynamischen Eigenschaften anreichert, welche eine explizite theoretische Verbindung zwischen Kontext-, Situations- und Interpretationsbegriff herstellen. Abschließend wird die Beschreibungskapazität dieses Explikationsversuchs im Rahmen eines topologischen Modells der Interpretationsdynamik veranschaulicht.

Aspekte dynamischer Semantik bietet auch der Beitrag von PETER BOSCH, der nach einer Kritik der Ausgangspositionenen statisch-interpretativer Semantikkonzepte die Grundlagen einer empiristisch-dynamischen Semantik skizziert. Darin wird Bedeutung - dem prozeduralen Paradigma entsprechend - nicht als Voraussetzung, sondern als Resultat von Kommunikationsprozessen begriffen, wodurch deren empirische Analyse erforderlich wird. Sprachkenntnis und Weltwissen sind dabei als (induktive) Hypothesenbildungen über die im Verlaufe kommunikativer Akte sich ändernden Dispositionen der Interaktanten zu beschreiben und als (mehr oder weniger individuelle) Systemzusammenhänge zu rekonstruieren. Im Zentrum dieser kognitiv-dynamischen Konzeption steht daher das Kontextmodell, das - als veränderbare Repräsentation der (sprachlichen/ außersprachlichen) Umgebung einer Person/ eines Organismus konzipiert - die Grundlage dynamischer (Sprach-/Welt-) Strukturierungen bildet. Deren wichtigste Mechanismen werden anhand anaphorischer und deiktischer Prozesse der Interpretation sprachlicher Äußerungen vorgeführt. Dabei wird ein Konzept stereotypischer Information entwickelt, das Bedeutung von Äußerungen als Veränderung von Kontextmodellen zu repräsentieren erlaubt, ohne des für wahrheitsfunktionale, satzsemantische Repräsentationen erforderlichen Apparats (Komposition, Intension, mögliche Welten) zu bedürfen. Er wird ersetzt durch die Eigenschaften der Stereotype, die als Elemente des Hintergrundwissens - quasi Merkmals-tolerant definiert aber Merkmals-sensitiv adressiert - erst in Äußerungszusammenhängen sich konstituieren. Explorationen der Verarbeitungsweisen von Stereotypen in der empiristisch-dynamischen Semantik betonen den Default-Charakter dieser Induktionsprodukte. Sie stellen empirisch rekonstruierbare Ähnlichkeitsklassen möglicher Interpretationen bereit, welche solche Informationslücken zu füllen gestatten, die in einer Kommunikationssituation direkt nicht geschlossen werden. Damit werden die auf dem Hintergrundwissen operierenden Mechanismen zur Auswahl und Veränderung von Kontextmodellen zum prozeduralen Kern einer dynamischen Semantik.

Die im Beitrag von BURGHARD RIEGER vorgestellte empirische Rekonstruktion von Wortbedeutungen als semantische Dispositionen unternimmt es, das Format stereotypischer Repräsentationen und die Möglichkeiten prozeduraler Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven Ansatzes prozeduraler Semantik skizziert, in dem die Konzeptionen der Dispositions-Struktur, der Frame-Theorie und der prototypischen Bedeutungsrepräsentation in ihren relevanten Aspekten diskutiert werden. Daraus wird ein auf dem Gebrauch von Wörtern in Texten basierendes Bedeutungsmodell entwickelt, das eine Rekonstruktion assoziativ strukturierter Wissenszusammenhänge erlaubt, die sich aus den Verwendungsregularitäten lexikalischer Einheiten aufbauen und über einen statistischen Ansatz analysiert werden können. Formal als (metrische) Raumstruktur darstellbar, lassen sich im semantischen Raum Bedeutungselemente derart abbilden, daß deren Positionen semantische Ähnlichkeiten repräsentieren. Auf ihnen kann sodann ein Algorithmus operieren, der die Bedeutung eines sprachlichen Terms prozedural als eine Abhängigkeitsstruktur von relevanten Bedeutungselementen generiert. Diese liefert die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen. Sie können als eine Veraussetzung nicht nur dafür gelten, daß natürlich-sprachlichen Termen - je nach Gegenstandsbereich, Kommunikationszusammenhang und Redeintention - unterschiedliche Bedeutungen und/oder Interpretationen zugewiesen werden, sonder dürfen darüber hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen Beziehungen, die logisch-deduktiven Schlußprozessen zugrundeliegen - als Grundlage gelten für eine durch Inhalte gesteuerte algorithmische Simulation analog-assoziativer Folgerungen, die zumindest für eingrenzbare Gegenstandsbereiche absehbar erscheint. Einige konkrete Beispiele aus dem auf einem Computer implementierten System veranschaulichen abschließend die entwickelten Verfahren und Mechanismen.

In seinem Beitrag zur Psychologie der Kontextveränderung entwickelt THOMAS T. BALLMER die These, daß Logik und Psychologie sich aufeinanderzubewegen und eine Psycho-Logik bilden werden. In einer historisch-phänomenologischen Betrachtung wird dies zunächst anhand der Entwicklung von der harten zur weichen und natürlichen Logik skizziert, der in der linguistischen Semantik eine Verschiebung des Forschungsinteresses entspricht vom abstrakt-mathematischen Verständnis logischer Systeme zur Auffassung dieser Systeme und ihrer Weiterentwicklungen als den Modellen und Rekonstruktionen von natürlich-sprachlichen Funktionen. Die innere Dynamik dieser historischen Entwicklungstendenz führt dabei zwangsläufig zu einem Zusammenschluß von Logik und Psychologie, für den das Konzept der Kontextveränderung zentral ist. Ihre Logik wird damit als eine Rekonstruktion der dynamischen Veränderungsprozesse bestimmt, die sich anhand sprachlicher Phänomene im Rahmen der linguistischen Semantik als Thesaurus- und Kontextveränderungs-Logik darstellen. Sie bilden das Verbindungsglied in der Entwicklungskette von der harten Logik über die Sprachwissenschaft zur Psychologie. Nach einem Überblick über die Prinzipien (Elemente, Syntax, Semantik) von Thesaurus- und Veränderungs-Logik - welche letztere anhand konstitutiver Kategorien (Zeit, Situation, Veränderung, Erwartung, Ähnlichkeit, Negation, etc.) als ein System allgemein kognitiven Vermögens lebender Organismen erscheint - wird die abschließende Frage nach der Relevanz der Auswahl und Organisation von (veränderlichen) Kontexten mit einem Prinzip beantwortet, wonach die Dynamik der Strukturierung des Bedeutungsraums in Sprache, Kontext und Kontextveränderungsfunktion in den kommunikativen Interaktionen von Sprachverwendern selbst begründet ist, deren Äußerungszusammenhänge daher die empirische Komponente der theoretischen Anforderungen einer psychologisch orientierten Logik der Kontextveränderung bereitstellen.

Neue Begrifflichkeiten und die Instrumentarien der Theorie der dynamischen Systeme werden im Beitrag von WOLFGANG WILDGEN vorgestellt. Er überprüft sie im Hinblick auf ihre Tragfähigkeit beim Entwurf und Aufbau einer neuen dynamischen Semantik. Die Beschränkung auf die in der Katastrophentheorie von René Thom entwickelte Begriffsbildung rechtfertigt sich dabei - neben der historischen Priorität, die sie vor vergleichbaren anderen Entwicklungen dynamischer Modelle auszeichnet - aufgrund der schon früh versuchten Übertragung auf allgemein semiotische bzw. linguistische Phänomenbereiche. Ausgehend von der Hypothese onto- wie phylogenetischer Bedeutungskonstitution, die als biologisch wie sozial motivierter Prozeß kontinuierlicher Reorganisationen älterer kognitiver Fähigkeiten gedeutet wird, läßt sich die Sprachfähigkeit des Menschen als Resultat von Prozessen interdependenter Anschauungs- und Erfahrungsformen herleiten, die zur Ausbildung von Ausdrucksformen (Zeichengestalten) in der Sprache führen. Die Prinzipien dieser Formentstehung werden in ihren Grundschemata als elementare Katastrophen abgebildet. Angewandt auf die Semantik führt dies zur Archetypensemantik, die kurz eingeführt und anhand eines Beispiels illustriert wird. Der Übergang von den Archetypen zur dynamischen Semantik wird eingehender diskutiert und im Zusammenhang kognitiver Kategoriesierungsleistungen im Wahrnehmungsbereich sowie fundamentaler Kontrollstrukturen im Inneren als eine auch die Struktur sprachlicher Inhalte konstituierenden Polariät erläutert. Deren Dynamik wird in Entsprechungen faßbar, welche auch die Prinzipien der sprachlichen Strukturierungen bestimmen, von denen abschließend - im Hinblick auf das Frege'sche Prinzip - etwa die Kompositionalität (Wort, Affixbildung, Kompositum, Phrase, Proposition) neu entwickelt werden kann.

Literatur

[1] RIEGER, B. (1977): Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems. In: Zeitschrift für Literaturwissenschaftler und Linguistik (LiLi), 27/28, 55-68, S. 59f

[2] ebenda, S. 62

[3] JOHNSON-LAIRD, P.N. (1977): Procedural Semantics. Cognition 5 189-214, S. 192 [meine Hervorhebung], S. 203 [Hervorhebung im Original]

[4] ebenda, S. 203

[5] ebenda, S. 212 [meine Hervorhebungen]

[6] SUPPES, P. (1980): Procedural Semantics. In: Haller, R./Grassl, W. (Hrsg.): Sprache, Logik und Philosophie. Akten des 4. Internationalen Wittgenstein Symposiums, Wien (Hölder-Pichler-Tempsky), 27-35, S. 28

[7] ebenda, S. 28ff

[8] JOHNSON-LAIRD, P.N./WASON, P.C. (1977) (Eds.): Thinking, Readings in Cognitive Science. Cambridge (U.P.) 1977

[9] RIEGER, B.B. (1981): ,,Introduction``. In: Rieger, B.B. (Ed.): Empirical Semantics I & II, Bochum (Brockmeyer), S. III-XIII