Wissenschaftliche Theorien und Modelle sind in der Regel die in eigenen (intersubjektiv oder doch überindividuell entwickelten) Aussagesystemen repräsentierten Resultate von Bemühungen um das Verständnis und/oder die Erklärung von (beobachteten, erschlossenen oder auch nur vermuteten) Zusammenhängen zwischen Entitäten, die ihrerseits Resultate von Bemühungen um das Verständnis und/oder die Erklärung von Zusammenhängen zwischen Entitäten repräsentieren, die ihrerseits Resultate von ... und so fort, bis zu beliebiger Tiefe (oder auch umgekehrt: beliebiger Höhe) des - einzig vom jeweiligen Stand der Forschung abhängigen - Reflexionsniveaus einer beliebigen Disziplin. Dabei läßt sich unterscheiden zwischen den Theorien, die allgemeine und umfassende Zusammenhänge formulieren, den daraus entwickelten Modellen, die kleinere und überschaubare Ausschnitte dieser Zusammenhänge abbilden, und der experimentellen Erprobung dieser Modelle, welche als Überprüfung und Vergleich von Daten, Test von Hypothesen, Analyse von Strukturen, Simulation von Prozessen, etc. erst Rückschlüsse auf den explikativen Wert der Theorie zu ziehen erlaubt.
Das hierin angedeutete rekursive Prinzip semiotischer Strukturierung, wonach fortschreitender (oder auch revidierender) Erkenntnisgewinn als Resultat von Leistung zunehmend spezifizierender Abbildungen von Wirklichkeit in verfeinerten Repräsentationssystemen erscheint, welche zunächst chaotische Regellosigkeiten in regelhaften Zusammenhänge bzw. umgekehrt zunächst fundamentale Einheiten in vielfältige Systemkomplexe überführen, kennzeichnet freilich nicht nur die Dynamik, mit der wissenschaftliche Theorien untereinander konkurrieren und unterschiedliche Paradigmen (deskriptiv, strukturalistisch, prozessual, prozedural) konzipierter Modelle einander ablösen. Dasselbe Prinzip kann vielmehr allgemein als eine Art Grundmuster zur Kennzeichnung auch derjenigen dynamischen Prozesse gelten, die in bestimmten (kommunikativen) Situationen durch regelgeleiteten Gebrauch von (natürlich-sprachlichern) Zeichen(-ketten) Bedeutungen entstehen lassen, welche von den daran beteiligten (Zeichen-) Verwendern auch verstanden werden (können).
Der hier verwendete Begriff der Bedeutungskonstitution kennzeichnet diesen übergreifenden semiotischen Zusammenhang, der Prozesse wissenschaftlicher Modell- und Theorienbildung (d.h. ihre Entwicklung, Erprobung, Verwendung und/oder ihr Verwerfen) durch die Beteiligten als einen (durch operationale Kontrollen systematisierten) Sonderfall derjenigen Prozesse begreift, die auch in Akten verbaler Kommunikation bei Sprachverwendern zur Konstitution von Bedeutungen (d.h. beim Intendieren, Äußern, Interpretieren, Verstehen oder Nicht-Verstehen) ablaufen.
Dieser Zusammenhang bildete schon den Anstoß zu früheren Überlegungen, die das Phänomen Bedeutung - anders als damalige fachlinguistische Theorien - eher als Resultat, denn als Voraussetzung von semiotisch-kognitiven Verstehens- und Erklärungsprozessen zu deuten unternahmen und für die Modell- und Theorienbildungen der linguistischen Semantik fruchtbar zu machen suchten. Vor dem Hintergrund der inzwischen dynamischen Entwicklung von in diesem Sinne bedeutungskonstituierenden Modellen zur Bedeutungskonstitution - welche die im vorliegenden Band versammelten Beiträge hinreichend deutlich dokumentierten - mag ein Rückgriff zur Einführung in den thematischen Problemzusammenhang angebracht sein.
Im Mittelpunkt einer von der kommunikativen Funktion der natürlichen Sprache her bestimmten linguistischen Theorienbildung steht nicht die (formal rekonstruierbare) Fähigkeit des Menschen, wohlgeformte Zeichenketten (Sätze) bilden zu können, sondern die Frage nach deren (zunächst nur beschreibbaren) Bedingungen. Als deren Summe gilt sein praktisch-soziales Vermögen zu kommunikativem (sprachlichem wie nicht-sprachlichem) Handeln und Verhalten. [...] Hierzu bedarf es freilich eines semiotischen Konzepts, das als Funktion zu rekonstruieren erlaubt, was von tatsächlichen Sprechern/Hörern in konkreten Kommunikationssituationen vermöge sprachlicher Äußerungen intendiert und produziert bzw. erkannt und verstanden werden kann: Bedeutung als Prozeß zunehmender Einschränkung von Wahlmöglichkeiten. [1]
Aus einem derart veränderten Grundansatz ergeben sich für eine den Prozeß bedeutungskonstituierender Sprachverwendung einbeziehende dynamische Modellbildung in der Linguistik zumindest folgende Konsequenzen:
Bedeutung wird nicht länger als besondere Qualität von Zeichen und Zeichenfolgen interpretiert, die diesen vermittels einer (Übersetzungs-) Semantik wie Entitäten besonderer Art unmittelbar zuordnenbar wäre, sondern Bedeutung wird allgemein als ein mögliches Resultat komplexer - in Zeichen nicht notwendig schon repräsentierbarer - kognitiver Prozess gedeutet, in deren Verlauf es über (mehr oder weniger streng determinierende) Regulariäten zur Ausbildung von (mehr oder weniger deutlich) erkennbaren Zuordnungsbeziehungen (Relationen) kommt, die ihrerseits Strukturzusammenhänge (mehr oder weniger scharf) konstituieren.
Diese Strukturzusammenhänge, auf die Zeichen und Zeichenfolgen als deren mögliche Extensionen (Denotate) bzw. Intensionen (Designate) referieren können, werden nicht - wie etwa in den (aus Interpretation und Refernzpunkt bestehenden) Modellen der Montague-Grammatik - schon vorausgesetzt, sondern - im Sinne einer handlungstheoretischen Sprachauffassung - selbst wiederum als eine Funktion jener systemkonstituierenden Regulartitäten rekonstruiert, mit denen wirkliche Sprecher/Hörer Zeichen und Zeichenfolgen in konkreten Situationen offenbar dann verwenden müssen, wenn sie zum Zweck der Kommunikation Bedeutung konstituieren wollen.
Eine solche Rekonstruktion läuft auf die modellierende Nachbildung des in einem (pragmatisch zu definierenden) Anwendungskontext einer möglichen Welt konstituierten bzw. sich konstituierenden Systemzusammenhangs von Wahlmöglichkeiten (potentielle Interpretationen) hinaus, in dem die drei semiotischen Dimensionen nurmehr als ein kontinuierlicher Übergang von Zuordnungsregularitäten abnehmender Determiniertheit (von Syntaktik über Semantik bis Pragmatik) zwar formal rekonstruiert, nicht aber mehr (scharf) unterschieden werden können. [2]
Nebend dieser aus semiotischer Sicht formulierten Krititk an der strukturalistischen Statik linguistischer Theorien und Beschreibungsmodelle, erschien zur selben Zeit ein Aufsatz, der im Zusammenhang psychologischer Forschung zur Verarbeitung natürlich-sprachlicher Äußerungen durch menschliche Sprachverwender die seit langem schon strapazierte Analogie zu vergleichbaren Verarbeitungsprozessen von sprachlichen Zeichenketten durch den Computer erneut aufnahm, nun allerdings unter einem aktuellen, durch die aus der Informatik (Computer und Software Science) entlehnten Begriffsbildungen der Subroutine und Prozedur provozierten, neuen Aspekt. Er betrifft eine dynamische Betrachtung und Repräsentation bis dahin auch in der Psychologie als statisch beschriebener Entitäten vornehmlich im Rahmen der Erklärung von Interpretationsprozessen sprachlicher Zeichen, was zur Formulierung einer prozeduralen Semantik führte.
Psychologists are interested in how language is used to communicate: to make statements, to ask questions and to answer them, to make requests, and even to express invocations and imprecations. It is a virtue of the procedural approach that it places these diverse speech acts on an equal footing and provides a theoretical language for formulating hypotheses about the mental processes involved. [...] We took the view that a lexical concept interrelates a word, rules governing its syntactic behaviour, and a schema. A schema is made up from both functional and perceptual information, and may well include information that has no direct perceptual consequences. Moreover, lexical concepts are interrelated to one another. They are organized in semantic fields that have a conceptual core which reflects a deeper conceptualization of the world and integrates the different concepts with the semantic field. One purpose of such an organization is to create a taxonomy that enables entities within the field to be correctly categorized and readily named. [3]
Den größeren Umfang, die höhere Allgemeinheit des prozedural-semantischen Ansatzes gegenüber den modell-theoretischen der logischen Semantik macht ein Vergleich schon weniger Eigenschaften deutlich.
At first glance the two approaches may seem totally unrelated, but further consideration reveals some interesting similarities. Take, for example, the logical distinction between, extensions and intensions. In model-theoretic semantics an intension is a function form possible worlds to truth values, and an extension is the truth value for a particular world. In procedural semantics there is a similar distinction between a procedure and the result of executing it. Thus we might speak of the intension of a program as the procedure that is executed when the program is run, and of the extension of a program as the result that the program returns when it has been executed. [4]
Diese Parallele weist darüber hinaus auf einen weiteren Vorteil hin, der mit dem prozeduralen Ansatz für psychologisch-adäquatere Modell- und Theorienbildungen verbunden sein kann: die Reduzierung des Erklärungsanspruchs wahrheitsfunktionaler Semantiktheorien auf einem (möglichen) Spezialfall semantischer Explikation. Denn während die modelltheoretischen Ansätze die Bedeutung eines Satzes im wesentlichen als Wahrheitswert definieren, erlaubt die prozedurale Semantik daneben eine Vielzahl anderer (gleichermaßen mögliche) Extensionen wie Antworten, Handlungen, Veränderung von Wissen und/oder Prozessen und Plänen, etc. Logische Semantiktheorien erscheinen aus psycho-linguistischer Sicht daher nicht als die natürlichsten Repräsentationssysteme, von denen zu fordern ist, daß sie eine theoretisch plausiblere Methode der Analyse und Explikation von Orts- und Zeitverläufen, Themen- und Gegenstandbereichen, Teilnehmerwechsel und Sprechereignissen bieten, welche für die kommunikativen Interaktionen zwischen Sprechern/Hörern natürlicher Sprache konstitutiv sind.
Finally, it schould be emphasized that procedural semantics is more a methodology than a specific theory. [...] Nevertheless, the procedural method seems to be particularly suitable for developing psychological theories about the meanings of words and sentences. It has two principle advantages. First, theories lying within its conceptual framework can be readily modeled in the form of computer programs: nothing quite so concentrates the mind as having to build such a model, and the process often lead to new ideas about the theory itself or how it should be tested. Second, it forces the theorist to consider processes. This is a signal virtue in comparison to model-theoretic and linguistic approaches to meaning that tend naturally to emphasize structure at the expense of process. [5]
Die kritische Evaluierung einer allzu mechanistischen Übertragung automatentheoretischer Vorstellungen über die Verarbeitung und Interpretation von Zeichenketten zur Erklärung von Vermögen menschlicher Sprachverarbeiter läßt gleichwohl erkennen, daß mit der Porzeduralität eine neue Ebene formaler Rekonstruktion semantischer Strukturzusammenhänge verbunden ist, die nicht nur über die Explikation von Bedeutung als mengentheoretisch beschreibbare Extension oder als Eigenschaften festlegende Intension eines Ausdrucks hinausgeht, sondern gleichzeitig noch eine neue Dimension der Überprüfbarkeit dadurch erschließt, daß prozedurale Rekonstruktionen sich über die Struktur-produzierenden Prozesse simulieren lassen, die sie repräsentieren.
Above all, set-theoretical semantics seems to have been of little serious use in either practical or theoretical problems of programming. What has been important, indeed fundamental, is the concept of procedure or subroutine which has been central almost from the beginning to the present theory of structural programming. Some cognitive psychologists, but perhaps no philosophers, talk about human procedures as if humans were a current IBM computer model nearly ready for the marketplace. [...] I think there are similarities between human procedures and computer subroutines, but there are also many essential differences. Moreover, it should be clear that starting over with a computer analogy will not itself solve many of the problems left open in the set-theoretical semantic of natural language. [6]
Der grundlegende und psychologisch wichtige Punkt ist, daß - mit Ausnahme sehr weniger Fälle - bei der Entscheidung, ob einem Gegenstand ein bestimmtes Prädikat zukommt oder eine bestimme Relation zwischen zwei oder mehreren Gegebenheiten besteht, man diese Eigenschaften oder Beziehungen nicht (extensional) als Mengen betrachtet oder irgendwie (intensional) als Eigenschaften, sondern daß man über Prozeduren verfügt, die für die zu beurteilenden Entitäten die benötigten Werte liefern. Das ist die Basis der folgenden fundamentalen Sätze über den Zusammenhang von Prozeduren und Bedeutungen:
Proposition 1:
Properties are abstractions of procedures, just as extensions are abstractions of properties [...]
Proposition 2:
In finest detail, the meaning of a word, phrase, or utterance is a procedure, or collection of procedures [...]
Proposition 3:
In finest detail, the meaning of a word, phrase, or utterance is private for each individual [...]
Proposition 4:
High probability of successful communication depends, among other things, on the following factors:
4.1: Spoken words, phrases, and utterances are identified as 'being the same', that is, being appropriately congruent, by speaker and listener.
4.2: The procedures called by words or phrases yield for the given context congruent communicational results for speaker and listener.
4.3: The speaker uses nonverbal as well as verbal cues from the listener to determine if the words he uses are calling result-congruent procedures in him and the listener.
4.4: When the speaker judges his words are not calling result-congruent procedures, he uses paraphrases in terms of words he believes will call result-congruent procedures [...]
Proposition 5:
Classical set-theoretical referential semantics can be obtained, where appropriate, by abstraction from procedural semantics [...]
Proposition 6:
Human procedures are similar to computer subroutines, but there are notable differences:
6.1: What corresponds to the underlying machine language of human procedures is radically different form any current computer language; moreover, this underlying language is probably unknowable in complete detail.
6.2: Human procedures are subject to continual modification and are much affected by use; computer subroutines are not - they can stay the same thousand years.
6.3: Human procedures are intrinsically connected to perceptual and motor activities; for computer subroutines these connections are still artificial, awkward, and difficult.
6.4: Human procedures are intrinsically continuous rather than discrete or digital in character; prosodic features of speech are a prime example. [7]
Damit könnte die Prozedurale Semantik zur Keimzelle einer Wissenschaft werden, die sich allgemein der Untersuchung kognitiv-semiotischer Prozesse, ihren Voraussetzungen, Funktionen und Resultaten zuwendet und als Cognitive Science sich bereits auch abzuzeichnen beginnt [8]. Sie vereinigt in sich die unter jeweils beschränkteren Aspekten bisher schon unternommenen Forschungen der empirisch-experimentell arbeitenden psychologischen Kognitionstheorie, der natürliche Sprachen verarbeitenden Systementwicklungen der künstlichen Intelligenz und der - mit einiger Verzögerung sich doch etablierenden - neueren Ansätze in der Performanz-orientierten linguistischen Semantik und Verstehensforschung.
Für ihre übergreifende Theorienbildung zeichnet sich dabei eine quasi ontologische Reihenentwicklung explikativer Systemrepräsentationen ab, wonach Strukturen als funktionale Resultate von Prozessen und weiterhin Prozesse als simulative Resultate von Prozeduren verstanden werden können. Ihren jeweiligen Beschreibungsebenen entspricht gleichzeitig eine Hierarchie zunehmend abstrakter, gleichwohl empirisch, experimentell oder simulativ überprüfbarer Modellbildungen, von der statischen Repräsentation des Zusammenhangs der untersuchten Entitäten als Struktur (strukturalistische Modelle), über die dynamische Beschreibung eines in der Zeit sich verändernden Zusammenhangs als Prozeß (prozessuale Modelle), bis zur dynamischen Repräsentation des von der Zeitlichkeit abstrahierenden funktionalen Zusammhangs als Prozedur (prozedurale Modelle) [9].
Die folgenden Beiträge, deren Abdruck hier in etwa der Reihenfolge der gehaltenen Vorträge entspricht, lassen - bei aller Unterschiedlichkeit in der Akzentuierung, der Fragestellung und Modellentwicklung - doch zahlreiche Parallelen in Überschneidungen und Gemeinsamkeiten erkennen, die nicht nur auf das alle Autoren verbindende und überdies weitgehend homogene Problembewußtsein zurückzuführen sind. Als entscheidender tritt vor diesem Hintergrund vielmehr die Tatsache in den Blick, daß - trotz aller durch unterschiedliche Ausgangspositionen, wechselnde Forschungsinteressen und Zielvorstellungen naturgemäß bewirkten Dynamik in der Begriffs-, Hypothesen- und Modellbildung - sich doch Konzentrationen erhöhten Interesses an bestimmten Teilkomplexen der Bedeutungskonstitution in den verschiedenen Beiträgen abzeichnen, durch die deren Zusammenhang und (relative) Homogenität sich erst ergibt. Zu diesen Kritstallisationskernen gehören etwa
In einem kurzen Überblick der Geschichte wechselnder Anläufe zur
Analyse und Beschreibung natürlich-sprachlicher Bedeutung in der
Linguistik und den ihr benachbarten Disziplinen, deren
Untersuchungsansätze und Erklärungsparadigmen sie teils
übernahm, teils auch modifizierte, skizziert HANNES
RIESER in seinem Beitrag die derzeitige Forschungssituation der
Wortsemantik, die er von zwei einander ausschließenden
Grundströmungen beherrscht sieht: die mit der Untersuchung
(lexikalisch/konzeptuell) strukturierter Vokabularien befaßten Richtungen
(Wortschatz-Position) und die mit der Analyse (syntaktisch/pragmatisch)
strukturierter Wortketten befaßten Richtungen (Kontext-Position).
Mit den Erläuterungen der Grundannahmen einer Theorie der
prozeduralen Grammatik wird anschließend die veränderte
Position markiert, die das neue Paradigma dieses primär
Performanz-orientierten prozeduralen Ansatzes ausmacht. Mit älteren
Kompetenztheorien ist ihm dabei die Regularitätsannahme gemeinsam,
die - unter einem erweiterten, variable Zuordnungen erfassenden Regelkonzept -
für alle unterschiedenen Objekte (Strukturen, Prozesse, Prozeduren)
seiner linguistischen Analyse und Beschreibung gilt. Generell werden dabei
(phonetisch/ syntaktisch/ semantisch/ pragmatisch) ausgezeichnete Strukturen
nicht mehr als Eigenschaften sprachlicher Zeichenaggregate gedeutet, sondern
als über Kontext-Klassen gesteuerte Resultate von (Teil-) Prozessen
verstanden, die während der Verarbeitung (Produktion/Verstehen) von
Äußerungen durch Sprachverwender ablaufen und zu so (oder - je nach
(Teil-) Ergebnissen der Verarbeitungs-Umgebung anders) gearteten Resultaten
bzw. Zuordnungen führen. Für die Beantwortung der Frage nach der
Funktion von Bedeutungen im Diskurs wird ein von Kontext-Klassen
je modifizierter Bedeutungs-Begriff des Stereotyps entwickelt, der als
Entscheidungsbaum strukturiert mit zunehmender Tiefe größere
Präzisierungen erlaubt. Zur Interpretation vorgegebener
Äußerungen durchlaufen Verarbeitungs-Prozeduren diese
Baumstrukturen und approximieren - je nach Kontextklasse
unterschiedliche - den Verstehensprozeß, dessen Zusammenhänge
abschließend an Beispielen verdeutlicht werden.
Im Beitrag von HANS-JÜRGEN
EIKMEYER wird zunächst eine Klärung von Begriffen
unternommen, die im Zusammenhang der prozeduralen Ansätze neuerer
Theorie- und Modellbildungen verschiedener Disziplinen - wenn auch
zunächst nicht in der Linguistik und Semantik - wichtig geworden sind
(Struktur - Prozeß - Prozedur). Nach der Formulierung von
Grundannahmen (Natürlichkeitsbedingungen), denen prozedurale
Modelle des Verstehens im Unterschied zur Analyse sprachlicher
Diskurse zu genügen haben, wird die semantische Komponente solcher
Modelle diskutiert im Hinblick sowohl auf die darin repräsentierten
Entitäten und die in diesen Modellen verwirklichten
Eigenschaften, als auch auf die zwischen diesen beiden vermittelnden
und sie modifizierenden Prozeduren. Neben den je nach
holistischer/deskriptiver Sichtweise unterschiedenen Entitäten als
Objekte/Prototypen, werden drei Eigenschaften des typenfreien
semantischen Modells näher diskutiert, welche die konzeptuellen
Vermögen natürlicher Sprecher rekonstruieren: unterschiedliche
Explizitheit, inhomogene Repräsentation, Zirkularität. Die
Unterscheidung von Identifizierungs- und
Modifizierungs-Information, welche die linguistischen Begriffsbildungen
wie topic/comment oder Fokus/Präsupposition aufnimmt,
übernimmt dabei eine wichtige Funktion bei der Modellierung der
dynamischen Veränderbarkeit des innerhalb der prozeduralen
Grammatik entwickelten semantischen Modells. Als Prozedur definiert,
bestimmt diese Aspekt-geleitete Unterscheidung verschiedener
Informationsstrukturen, ob eine bearbeitete sprachliche Eingabe im Rahmen des
Modells interpretiert wird oder zu seiner Veränderung
führt. Beispielhaft wird anhand eines Textfragments abschließend die
Konstruktion und Modifikation eines solchen durch Assoziationsgeflechte
strukturierten semantischen Modells illustriert.
Der Beitrag von JANOS S. PETÖFI
beschäftigt sich mit Fragen der natürlich-sprachlichen Bedeutung
unter dem Aspekt der prozeduralen Textinterpretation. Diese Konzeption von
Bedeutungskonstitution, in der die Struktur desjenigen Weltfragments eine
wesentliche Rolle spielt, das einem gegebenen Text in einem Kontext nach
Meinung eines Interpreten als extralinguistisches Korrelat zugeordnet werden
kann, basiert auf der Textstruktur-Weltstruktur-Theorie, die
zunächst kurz referiert wird. Über die Unterscheidung dreier
für die explikative Textinterpretation wichtiger Typen lexikalischen und
enzyklopädischen Wissens (den Mitglieder einer Sprachgemeinschaft
allgemein verfügbar, in einem gegebenen Text möglicherweise
manifestiert, von dessen Interpreten tatsächlich aktiviert), werden dann
einige Aspekte von Wortbedeutung im Zusammenhang des ersten Typs
erörtert. Sie betreffen zum einen Probleme der adäquaten und
expliziten Repräsentation von Wissen in einem Lexikon, über das
Mitglieder einer Sprachgemeinschaft bezüglich einzelner
Wörter ihrer Sprache verfügen, und sie betreffen zum anderen Fragen,
welche Operationen mit und über dem Lexikon durchgeführt werden
müssen, damit den in einer zu interpretierenden Textstruktur
vorkommenden Wörtern die ihre Bedeutung konstituierenden,
Welt-strukturellen Korrelate zugeordnet werden können.
Bedingungen, Durchführung und Verlauf des explikativen
Interpretationsprozesses werden so angebbar. Überlegungen zur
Adäquatheit der formalen Analyse und Modellierung solcher Prozesse sowie
ihrer möglichen Implementation in Rechnern als Simulation
natürlicher Interpretationsprozesse weisen abschließend auf die
Verbindung zur künstlichen Intelligenz-Forschung hin.
Anhand von (Satz-) Äußerung mit den Konnektiven weil und
aber untersucht JÖRG KINDERMANN in
seinem Beitrag, welche Präsuppositionen auf Seiten des Rezipienten
anzusetzen sind, wenn dessen Interpretationen dieser Äußerungen im
Rahmen eines Verstehensmodells der PETÖFIschen
Textstruktur-Weltstruktur-Theorie expliziert werden. Dabei wird der Begriff
der Präsuppostition im herkömmlichen Sinne bestimmt, d.h. als
derjenige (nicht geäußerte) Sachverhalt, der die Wahrheit/Falschheit
oder auch nur die Konsistenz eines (geäußerten) Sachverhalts
bedingt. Als Rezipient-Präsuppositionen werden dagegen die
für Leser/Hörer entscheidenden (nicht explizierten)
(Zugänglichkeits-) Relationen zwischen Textproduzent und Sachverhalt
bezeichnet, deren (praktische bzw. formale) Explikation über die
erfolgreiche/erfolglose oder auch nur konsistente Interpetation einer
Äußerung im Verstehensprozeß entscheidet. Über die Analyse
dieser Zugänglichkeits-Relation sowohl zum geäußerten
Sachverhalt als auch zu den ihn ausmachenden Teiläußerungen, die
durch eines der untersuchten Konnektive verbunden sind, werden anhand
kanonischer Repräsentationen von Beispielsätzen die
Rezipient-Präsuppositionen formal rekonstruiert. Ziel dieser
Rekonstruktion ist es, die natürlichen
(Verstehens-) Prozesse durch deren theoretische Explikationen zu approximieren
und dabei möglichst jene (minimale/optimale) Menge der
Rezipient-Präsuppositionen zu isolieren, die zur Interpretation einer
gegebenen (Text- bzw. Satz-) Äußerung notwendig sind.
Der Beitrag von LEO G.M. NOORDMAN geht von der
psycholinguistischen Grundannahme aus, daß das Verstehen sprachlicher
Äußerungen ein Prozeß psychisch-kognitiver Aktivitäten der
Informationsverarbeitung ist. Sie muß aus dieser Sicht als noch
weitgehend unerklärte, dabei sehr komplexe Wechselwirkung psychologischer
und linguistischer Faktoren verstanden werden, die mit Hilfe
experimentalpsychologischer Untersuchungsmethoden isoliert und in ihrem
Zusammenspiel möglicherweise auch einmal übergreifend
charakterisiert werden können. Dabei werden in kontrollierten Tests
gezielt formulierte Beispiel-Sätze ausgewählten Lesern/Hörern
zu Verstehen gegeben, deren Antworten bzw. deren benötigte
Reaktionszeiten sodann statistische Schlüsse erlauben in Bezug auf
entweder abzuschätzende Resultate oder zu testende Hypothesenbildungen.
Eine dieser übergreifenden Hypothesen betrifft den Einfluß, den
Hintergrundinformation auf die Schnelligkeit, Sicherheit und/oder
Leichtigkeit von Verstehensprozessen und deren Resulate ausübt. Was dabei
jedoch einem Leser/Hörer als Hintergrundwissen in Form von
Präsuppositionen verfügbar wird, hängt wiederum von
unterschiedlichen linguistischen, konzeptuellen und individuellen Faktoren ab,
welche von der Äußerung (dem sprachlichen Kontext), deren
Bedeutung (der Art der Aufgabe) und dem Leser/Hörer (der
persönliche Orientierung) bestimmt werden. Die zahlreich
vorgelegten (eigenen und fremden) Experimente zur Verarbeitung (Produktion und
Verstehen) semantisch bzw. konzeptuell unterschiedlicher Merkmale
(männlich - weiblich, links - rechts) und linguistischer
Strukturen (Negation, Passiv, Konditional) in sprachlichen
Äußerungen belegen eindrucksvoll eine durch unterschiedliche
Aktivierung unterschiedlicher Hintergrundinformationen erklärbare
Asymmetrie, welche nahelegt, keine invariante Beziehung zwischen
linguistischen Faktoren und psychischen Prozessen beim Sprachverstehen
anzunehmen.
Anhand der Verständlichkeitsforschung, die sich quasi ohne Beteiligung
der linguistischen Semantik zu etablieren beginnt, kann WALTHER
KINDT einleitend verdeutlichen, daß die (vornehmlich)
synchrone Betrachtung von Sprache als Bedeutungssystem, die (weitgehend)
untergeordnete Rolle der Semantikkomponente in Grammatiktheorien und ein
(genereller) Mangel an empirischer Semantikforschung die Defizite statischer,
nicht-dynamischer Modelle der linguistischen Sprachbeschreibung ausmachen. Vor
dem Hintergrund des für formale Sprachen entwickelten modelltheoretischen
Apparats wird die Unzulänglichkeit interpretativer Semantikmodelle
für die natürliche Sprache verdeutlicht. Beispiele für die
Dynamik von Prozessen der Bedeutungskonstitution (wie
Bedeutungsvielfalt und Bedeutungswechsel, Abhängigkeiten
von Kontext und von Weltwissen, Neuentstehung und
Verschiebung von Bedeutung, retrospektive und progressive
Interpretationsrevisionen) legen eine auch dynamische
Interpretation nahe, der ein neuer Situationsbegriff entspricht.
Mit dem Plädoyer für eine dynamische Semantik sowie deren
gleichzeitiger Empirisierung werden ihre Modellierungsaufgaben
umrissen: die systematische Analyse und Beschreibung der
Interpretationsmöglichkeiten und Kommunikationsbedingungen, welche
Sprechern/Hörern die flexible Konstitution von Bedeutung erlauben,
und die (re-)konstruktive Beschreibung und Modellierung derjenigen Verfahren
und Regeln, deren Anwendung ein Verständnis als gemeinsame
Interpretation zwischen Sprecher/Hörer zu sichern gestattet. Hierfür
wird ein formal-theoretischer Rahmen geliefert, der über eine
Modifikation des prädikatenlogischen Situationskonzepts die
Interpretationsfunktion mit dynamischen Eigenschaften anreichert,
welche eine explizite theoretische Verbindung zwischen Kontext-,
Situations- und Interpretationsbegriff herstellen.
Abschließend wird die Beschreibungskapazität dieses
Explikationsversuchs im Rahmen eines topologischen Modells der
Interpretationsdynamik veranschaulicht.
Aspekte dynamischer Semantik bietet auch der Beitrag von
PETER BOSCH, der nach einer Kritik der
Ausgangspositionenen statisch-interpretativer Semantikkonzepte die
Grundlagen einer empiristisch-dynamischen Semantik skizziert. Darin
wird Bedeutung - dem prozeduralen Paradigma entsprechend - nicht als
Voraussetzung, sondern als Resultat von Kommunikationsprozessen begriffen,
wodurch deren empirische Analyse erforderlich wird. Sprachkenntnis und
Weltwissen sind dabei als (induktive) Hypothesenbildungen über die im
Verlaufe kommunikativer Akte sich ändernden Dispositionen der
Interaktanten zu beschreiben und als (mehr oder weniger individuelle)
Systemzusammenhänge zu rekonstruieren. Im Zentrum dieser
kognitiv-dynamischen Konzeption steht daher das Kontextmodell, das -
als veränderbare Repräsentation der
(sprachlichen/ außersprachlichen) Umgebung einer Person/ eines Organismus
konzipiert - die Grundlage dynamischer (Sprach-/Welt-) Strukturierungen bildet.
Deren wichtigste Mechanismen werden anhand anaphorischer und
deiktischer Prozesse der Interpretation sprachlicher
Äußerungen vorgeführt. Dabei wird ein Konzept
stereotypischer Information entwickelt, das Bedeutung von
Äußerungen als Veränderung von Kontextmodellen zu
repräsentieren erlaubt, ohne des für wahrheitsfunktionale,
satzsemantische Repräsentationen erforderlichen Apparats (Komposition,
Intension, mögliche Welten) zu bedürfen. Er wird ersetzt durch die
Eigenschaften der Stereotype, die als Elemente des
Hintergrundwissens - quasi Merkmals-tolerant definiert aber
Merkmals-sensitiv adressiert - erst in Äußerungszusammenhängen
sich konstituieren. Explorationen der Verarbeitungsweisen von Stereotypen in
der empiristisch-dynamischen Semantik betonen den
Default-Charakter dieser Induktionsprodukte. Sie stellen empirisch
rekonstruierbare Ähnlichkeitsklassen möglicher Interpretationen
bereit, welche solche Informationslücken zu füllen gestatten, die in
einer Kommunikationssituation direkt nicht geschlossen werden. Damit werden
die auf dem Hintergrundwissen operierenden Mechanismen zur Auswahl und
Veränderung von Kontextmodellen zum prozeduralen Kern einer
dynamischen Semantik.
Die im Beitrag von BURGHARD RIEGER vorgestellte
empirische Rekonstruktion von Wortbedeutungen als semantische
Dispositionen unternimmt es, das Format stereotypischer
Repräsentationen und die Möglichkeiten prozeduraler
Bedeutungsbeschreibung zu verbinden mit empirisch-quantitativen Verfahren der
Textanalyse. Hierzu wird zunächst der Rahmen eines (re-)konstruktiven
Ansatzes prozeduraler Semantik skizziert, in dem die Konzeptionen der
Dispositions-Struktur, der Frame-Theorie und der
prototypischen Bedeutungsrepräsentation in ihren relevanten
Aspekten diskutiert werden. Daraus wird ein auf dem Gebrauch von Wörtern
in Texten basierendes Bedeutungsmodell entwickelt, das eine
Rekonstruktion assoziativ strukturierter Wissenszusammenhänge erlaubt,
die sich aus den Verwendungsregularitäten lexikalischer Einheiten
aufbauen und über einen statistischen Ansatz analysiert werden
können. Formal als (metrische) Raumstruktur darstellbar, lassen sich im
semantischen Raum Bedeutungselemente derart abbilden, daß deren
Positionen semantische Ähnlichkeiten repräsentieren. Auf ihnen
kann sodann ein Algorithmus operieren, der die Bedeutung eines sprachlichen
Terms prozedural als eine Abhängigkeitsstruktur von relevanten
Bedeutungselementen generiert. Diese liefert die - je nach variierenden
Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei
veränderlichen semantischen Dispositionen. Sie können als
eine Veraussetzung nicht nur dafür gelten, daß
natürlich-sprachlichen Termen - je nach Gegenstandsbereich,
Kommunikationszusammenhang und Redeintention - unterschiedliche Bedeutungen
und/oder Interpretationen zugewiesen werden, sonder dürfen darüber
hinaus auch - ähnlich den Mengen- und Begriffs-hierarchischen
Beziehungen, die logisch-deduktiven Schlußprozessen zugrundeliegen - als
Grundlage gelten für eine durch Inhalte gesteuerte algorithmische
Simulation analog-assoziativer Folgerungen, die zumindest für
eingrenzbare Gegenstandsbereiche absehbar erscheint. Einige konkrete Beispiele
aus dem auf einem Computer implementierten System veranschaulichen
abschließend die entwickelten Verfahren und Mechanismen.
In seinem Beitrag zur Psychologie der Kontextveränderung entwickelt
THOMAS T. BALLMER die These, daß Logik und
Psychologie sich aufeinanderzubewegen und eine Psycho-Logik bilden
werden. In einer historisch-phänomenologischen Betrachtung wird dies
zunächst anhand der Entwicklung von der harten zur weichen
und natürlichen Logik skizziert, der in der linguistischen
Semantik eine Verschiebung des Forschungsinteresses entspricht vom
abstrakt-mathematischen Verständnis logischer Systeme zur Auffassung
dieser Systeme und ihrer Weiterentwicklungen als den Modellen und
Rekonstruktionen von natürlich-sprachlichen Funktionen. Die innere
Dynamik dieser historischen Entwicklungstendenz führt dabei
zwangsläufig zu einem Zusammenschluß von Logik und Psychologie,
für den das Konzept der Kontextveränderung zentral ist. Ihre
Logik wird damit als eine Rekonstruktion der dynamischen
Veränderungsprozesse bestimmt, die sich anhand sprachlicher
Phänomene im Rahmen der linguistischen Semantik als Thesaurus- und
Kontextveränderungs-Logik darstellen. Sie bilden das
Verbindungsglied in der Entwicklungskette von der harten Logik
über die Sprachwissenschaft zur Psychologie. Nach einem
Überblick über die Prinzipien (Elemente, Syntax, Semantik) von
Thesaurus- und Veränderungs-Logik - welche letztere anhand
konstitutiver Kategorien (Zeit, Situation, Veränderung, Erwartung,
Ähnlichkeit, Negation, etc.) als ein System allgemein kognitiven
Vermögens lebender Organismen erscheint - wird die abschließende
Frage nach der Relevanz der Auswahl und Organisation von
(veränderlichen) Kontexten mit einem Prinzip beantwortet, wonach die
Dynamik der Strukturierung des Bedeutungsraums in Sprache,
Kontext und Kontextveränderungsfunktion in den kommunikativen
Interaktionen von Sprachverwendern selbst begründet ist, deren
Äußerungszusammenhänge daher die empirische Komponente der
theoretischen Anforderungen einer psychologisch orientierten
Logik der Kontextveränderung bereitstellen.
[1] RIEGER, B. (1977):
Bedeutungskonstitution. Einige Bemerkungen zur semiotischen
Problematik eines linguistischen Problems.
In: Zeitschrift für Literaturwissenschaftler und Linguistik (LiLi),
27/28, 55-68, S. 59f
[2] ebenda, S. 62
[3] JOHNSON-LAIRD, P.N. (1977):
Procedural Semantics.
Cognition 5 189-214, S. 192 [meine Hervorhebung], S. 203 [Hervorhebung
im Original]
[4] ebenda, S. 203
[5] ebenda, S. 212 [meine Hervorhebungen]
[6] SUPPES, P. (1980):
Procedural Semantics.
In: Haller, R./Grassl, W. (Hrsg.):
Sprache, Logik und Philosophie. Akten des 4. Internationalen
Wittgenstein Symposiums, Wien (Hölder-Pichler-Tempsky), 27-35,
S. 28
[7] ebenda, S. 28ff
Literatur