Im Mittelpunkt einer von der kommunikativen Funktion der natürlichen Sprache her bestimmten linguistischen Theorienbildung steht nicht die (formal rekonstruierbare) Fähigkeit des Menschen, wohlgeformte Zeichenketten (Sätze) bilden zu können, sondern die Frage nach deren (zunächst nur beschreibbaren) Bedingungen. Als deren Summe gilt sein praktisch-soziales Vermögen zu kommunikativem (sprachlichem wie nicht-sprachlichem) Handeln und Verhalten. [...] Hierzu bedarf es freilich eines semiotischen Konzepts, das als Funktion zu rekonstruieren erlaubt, was von tatsächlichen Sprechern/Hörern in konkreten Kommunikationssituationen vermöge sprachlicher Äußerungen intendiert und produziert bzw. erkannt und verstanden werden kann: Bedeutung als Prozeß zunehmender Einschränkung von Wahlmöglichkeiten. [1]
Aus einem derart veränderten Grundansatz ergeben sich für eine den Prozeß bedeutungskonstituierender Sprachverwendung einbeziehende dynamische Modellbildung in der Linguistik zumindest folgende Konsequenzen:
Neben dieser aus semiotischer Sicht formulierten Kritik an der strukturalistischen Statik linguistischer Theorien und Beschreibungsmodelle, erschien zur selben Zeit ein Aufsatz, der im Zusammenhang psychologischer Forschung zur Verarbeitung natürlich-sprachlicher Äußerungen durch menschliche Sprachverwender die seit langem schon strapazierte Analogie zu vergleichbaren Verarbeitungsprozessen von sprachlichen Zeichenketten durch den Computer erneut aufnahm, nun allerdings unter einem aktuellen, durch die aus der Informatik (Computer und Software Science) entlehnten Begriffsbildungen der Subroutine und Prozedur provozierten, neuen Aspekt. Er betrifft eine dynamische Betrachtung und Repräsentation bis dahin auch in der Psychologie als statisch beschriebener Entitäten vornehmlich im Rahmen der Erklärung von Interpretationsprozessen sprachlicher Zeichen, was zur Formulierung einer prozeduralen Semantik führte.
Psychologists are interested in how language is used to communicate: to make statements, to ask questions and to answer them, to make requests, and even to express invocations and imprecations. It is a virtue of the procedural approach that it places these diverse speech acts on an equal footing and provides a theoretical language for formulating hypotheses about the mental processes involved. [...] We took the view that a lexical concept interrelates a word, rules governing its syntactic behaviour, and a schema. A schema is made up from both functional and perceptual information, and may well include information that has no direct perceptual consequences. Moreover, lexical concepts are interrelated to one another. They are organized in semantic fields that have a conceptual core which reflects a deeper conceptualization of the world and integrates the different concepts with the semantic field. One purpose of such an organization is to create a taxonomy that enables entities within the field to be correctly categorized and readily named. [3]
Den größeren Umfang, die höhere Allgemeinheit des prozedural-semantischen Ansatzes gegenüber den modell-theoretischen der logischen Semantik macht ein Vergleich schon weniger Eigenschaften deutlich.
At first glance the two approaches may seem totally unrelated, but further consideration reveals some interesting similarities. Take, for example, the logical distinction between, extensions and intensions. In model-theoretic semantics an intension is a function form possible worlds to truth values, and an extension is the truth value for a particular world. In procedural semantics there is a similar distinction between a procedure and the result of executing it. Thus we might speak of the intension of a program as the procedure that is executed when the program is run, and of the extension of a program as the result that the program returns when it has been executed. [4]
Diese Parallele weist darüber hinaus auf einen weiteren Vorteil hin, der mit dem prozeduralen Ansatz für psychologisch-adäquatere Modell- und Theorienbildungen verbunden sein kann: die Reduzierung des Erklärungsanspruchs wahrheitsfunktionaler Semantiktheorien auf einem (möglichen) Spezialfall semantischer Explikation. Denn während die modelltheoretischen Ansätze die Bedeutung eines Satzes im wesentlichen als Wahrheitswert definieren, erlaubt die prozedurale Semantik daneben eine Vielzahl anderer (gleichermaßen mögliche) Extensionen wie Antworten, Handlungen, Veränderung von Wissen und/oder Prozessen und Plänen, etc. Logische Semantiktheorien erscheinen aus psycho-linguistischer Sicht daher nicht als die natürlichsten Repräsentationssysteme, von denen zu fordern ist, daß sie eine theoretisch plausiblere Methode der Analyse und Explikation von Orts- und Zeitverläufen, Themen- und Gegenstandbereichen, Teilnehmerwechsel und Sprechereignissen bieten, welche für die kommunikativen Interaktionen zwischen Sprechern/Hörern natürlicher Sprache konstitutiv sind.
Finally, it should be emphasized that procedural semantics is more a methodology than a specific theory. [...] Nevertheless, the procedural method seems to be particularly suitable for developing psychological theories about the meanings of words and sentences. It has two principle advantages. First, theories lying within its conceptual framework can be readily modeled in the form of computer programs: nothing quite so concentrates the mind as having to build such a model, and the process often lead to new ideas about the theory itself or how it should be tested. Second, it forces the theorist to consider processes. This is a signal virtue in comparison to model-theoretic and linguistic approaches to meaning that tend naturally to emphasize structure at the expense of process. [5]
Die kritische Evaluierung einer allzu mechanistischen Übertragung automatentheoretischer Vorstellungen über die Verarbeitung und Interpretation von Zeichenketten zur Erklärung von Vermögen menschlicher Sprachverarbeiter läßt gleichwohl erkennen, daß mit der Porzeduralität eine neue Ebene formaler Rekonstruktion semantischer Strukturzusammenhänge verbunden ist, die nicht nur über die Explikation von Bedeutung als mengentheoretisch beschreibbare Extension oder als Eigenschaften festlegende Intension eines Ausdrucks hinausgeht, sondern gleichzeitig noch eine neue Dimension der Überprüfbarkeit dadurch erschließt, daß prozedurale Rekonstruktionen sich über die Struktur-produzierenden Prozesse simulieren lassen, die sie repräsentieren.
Above all, set-theoretical semantics seems to have been of little serious use in either practical or theoretical problems of programming. What has been important, indeed fundamental, is the concept of procedure or subroutine which has been central almost from the beginning to the present theory of structural programming. Some cognitive psychologists, but perhaps no philosophers, talk about human procedures as if humans were a current IBM computer model nearly ready for the marketplace. [...] I think there are similarities between human procedures and computer subroutines, but there are also many essential differences. Moreover, it should be clear that starting over with a computer analogy will not itself solve many of the problems left open in the set-theoretical semantic of natural language. [6]
Der grundlegende und psychologisch wichtige Punkt ist, daß - mit Ausnahme sehr weniger Fälle - bei der Entscheidung, ob einem Gegenstand ein bestimmtes Prädikat zukommt oder eine bestimme Relation zwischen zwei oder mehreren Gegebenheiten besteht, man diese Eigenschaften oder Beziehungen nicht (extensional) als Mengen betrachtet oder irgendwie (intensional) als Eigenschaften, sondern daß man über Prozeduren verfügt, die für die zu beurteilenden Entitäten die benötigten Werte liefern. Das ist die Basis der folgenden fundamentalen Sätze über den Zusammenhang von Prozeduren und Bedeutungen:
Proposition 1:
Properties are abstractions of procedures, just as extensions are abstractions of properties [...]
Proposition 2:
In finest detail, the meaning of a word, phrase, or utterance is a procedure, or collection of procedures [...]
Proposition 3:
In finest detail, the meaning of a word, phrase, or utterance is private for each individual [...]
Proposition 4:
High probability of successful communication depends, among other things, on the following factors:4.1: Spoken words, phrases, and utterances are identified as 'being the same', that is, being appropriately congruent, by speaker and listener.Proposition 5:
4.2: The procedures called by words or phrases yield for the given context congruent communicational results for speaker and listener.
4.3: The speaker uses nonverbal as well as verbal cues from the listener to determine if the words he uses are calling result-congruent procedures in him and the listener.
4.4: When the speaker judges his words are not calling result-congruent procedures, he uses paraphrases in terms of words he believes will call result-congruent procedures [...]
Classical set-theoretical referential semantics can be obtained, where appropriate, by abstraction from procedural semantics [...]
Proposition 6:
Human procedures are similar to computer subroutines, but there are notable differences:6.1: What corresponds to the underlying machine language of human procedures is radically different form any current computer language; moreover, this underlying language is probably unknowable in complete detail.
6.2: Human procedures are subject to continual modification and are much affected by use; computer subroutines are not - they can stay the same thousand years.
6.3: Human procedures are intrinsically connected to perceptual and motor activities; for computer subroutines these connections are still artificial, awkward, and difficult.
6.4: Human procedures are intrinsically continuous rather than discrete or digital in character; prosodic features of speech are a prime example.[7]
Damit könnte die Prozedurale Semantik zur Keimzelle einer
Wissenschaft werden, die sich allgemein der Untersuchung
kognitiv-semiotischer Prozesse, ihren Voraussetzungen, Funktionen
und Resultaten zuwendet und als Cognitive Science sich
bereits auch abzuzeichnen beginnt [8]. Sie vereinigt in sich die
unter jeweils beschränkteren Aspekten bisher schon unternommenen
Forschungen der empirisch-experimentell arbeitenden
psychologischen Kognitionstheorie, der natürliche Sprachen
verarbeitenden Systementwicklungen der künstlichen Intelligenz und
der - mit einiger Verzögerung sich doch etablierenden - neueren
Ansätze in der Performanz-orientierten linguistischen Semantik und
Verstehensforschung.
Für ihre übergreifende Theorienbildung zeichnet
sich dabei eine quasi ontologische Reihenentwicklung explikativer
Systemrepräsentationen ab, wonach Strukturen als funktionale
Resultate von Prozessen und weiterhin Prozesse als
simulative Resultate von Prozeduren verstanden werden
können. Ihren jeweiligen Beschreibungsebenen entspricht
gleichzeitig eine Hierarchie zunehmend abstrakter, gleichwohl
empirisch, experimentell oder simulativ überprüfbarer
Modellbildungen, von der statischen Repräsentation des
Zusammenhangs der untersuchten Entitäten als Struktur
(strukturalistische Modelle), über die dynamische
Beschreibung eines in der Zeit sich verändernden Zusammenhangs als
Prozeß (prozessuale Modelle), bis zur dynamischen
Repräsentation des von der Zeitlichkeit abstrahierenden
funktionalen Zusammhangs als Prozedur (prozedurale
Modelle) [9].
Die folgenden Beiträge, deren Abdruck hier in etwa
der Reihenfolge der gehaltenen Vorträge entspricht, lassen - bei
aller Unterschiedlichkeit in der Akzentuierung, der Fragestellung
und Modellentwicklung - doch zahlreiche Parallelen in
Überschneidungen und Gemeinsamkeiten erkennen, die nicht nur auf
das alle Autoren verbindende und überdies weitgehend homogene
Problembewußtsein zurückzuführen sind. Als entscheidender tritt
vor diesem Hintergrund vielmehr die Tatsache in den Blick, daß -
trotz aller durch unterschiedliche Ausgangspositionen, wechselnde
Forschungsinteressen und Zielvorstellungen naturgemäß bewirkten
Dynamik in der Begriffs-, Hypothesen- und Modellbildung -
sich doch Konzentrationen erhöhten Interesses an bestimmten
Teilkomplexen der Bedeutungskonstitution in den
verschiedenen Beiträgen abzeichnen, durch die deren Zusammenhang
und (relative) Homogenität sich erst ergibt. Zu diesen
Kritstallisationskernen gehören etwa
Die folgenden kurzen Zusammenfassungen der Beiträge können hierzu
freilich nur sehr begrenzte und meist auf Andeutungen sich
beschränkende Hinweise geben; denn die eigentliche Aufgabe dieser
Kurzfassung besteht darin, dem Leser einen raschen Überblick über
den in einem Aufsatz behandelten Zusammenhang zu ermöglichen.
In einem kurzen Überblick der Geschichte wechselnder Anläufe zur
Analyse und Beschreibung natürlich-sprachlicher Bedeutung in der
Linguistik und den ihr benachbarten Disziplinen, deren
Untersuchungsansätze und Erklärungsparadigmen sie teils übernahm,
teils auch modifizierte, skizziert Hannes Rieser in seinem
Beitrag die derzeitige Forschungssituation der Wortsemantik,
die er von zwei einander ausschließenden Grundströmungen
beherrscht sieht: die mit der Untersuchung
(lexikalisch/konzeptuell) strukturierter Vokabularien befaßten
Richtungen (Wortschatz-Position) und die mit der Analyse
(syntaktisch/pragmatisch) strukturierter Wortketten befaßten
Richtungen (Kontext-Position). Mit den Erläuterungen der
Grundannahmen einer Theorie der prozeduralen Grammatik
wird anschließend die veränderte Position markiert, die das neue
Paradigma dieses primär Performanz-orientierten prozeduralen
Ansatzes ausmacht. Mit älteren Kompetenztheorien ist ihm dabei die
Regularitätsannahme gemeinsam, die - unter einem
erweiterten, variable Zuordnungen erfassenden Regelkonzept - für
alle unterschiedenen Objekte (Strukturen, Prozesse, Prozeduren)
seiner linguistischen Analyse und Beschreibung gilt. Generell
werden dabei (phonetisch/syntaktisch/semantisch/pragmatisch)
ausgezeichnete Strukturen nicht mehr als Eigenschaften
sprachlicher Zeichenaggregate gedeutet, sondern als über
Kontext-Klassen gesteuerte Resultate von (Teil-)Prozessen
verstanden, die während der Verarbeitung (Produktion/Verstehen)
von Äußerungen durch Sprachverwender ablaufen und zu so (oder -
je nach (Teil-)Ergebnissen der Verarbeitungs-Umgebung anders)
gearteten Resultaten bzw. Zuordnungen führen. Für die Beantwortung
der Frage nach der Funktion von Bedeutungen im Diskurs wird
ein von Kontext-Klassen je modifizierter Bedeutungs-Begriff
des Stereotyps entwickelt, der als Entscheidungsbaum
strukturiert mit zunehmender Tiefe größere Präzisierungen erlaubt.
Zur Interpretation vorgegebener Äußerungen durchlaufen
Verarbeitungs-Prozeduren diese Baumstrukturen und
approximieren - je nach Kontextklasse unterschiedliche -
den Verstehensprozeß, dessen Zusammenhänge abschließend an
Beispielen verdeutlicht
werden.
Im Beitrag von Hans-Jürgen Eikmeyer wird
zunächst eine Klärung von Begriffen unternommen, die im
Zusammenhang der prozeduralen Ansätze neuerer Theorie- und
Modellbildungen verschiedener Disziplinen - wenn auch zunächst
nicht in der Linguistik und Semantik - wichtig geworden sind
(Struktur - Prozeß - Prozedur). Nach der Formulierung von
Grundannahmen (Natürlichkeitsbedingungen), denen prozedurale
Modelle des Verstehens im Unterschied zur Analyse
sprachlicher Diskurse zu genügen haben, wird die semantische
Komponente solcher Modelle diskutiert im Hinblick sowohl auf die
darin repräsentierten Entitäten und die in diesen Modellen
verwirklichten Eigenschaften, als auch auf die zwischen diesen
beiden vermittelnden und sie modifizierenden Prozeduren.
Neben den je nach holistischer/deskriptiver Sichtweise
unterschiedenen Entitäten als Objekte/Prototypen, werden
drei Eigenschaften des typenfreien semantischen Modells
näher diskutiert, welche die konzeptuellen Vermögen natürlicher
Sprecher rekonstruieren: unterschiedliche Explizitheit, inhomogene
Repräsentation, Zirkularität. Die Unterscheidung von
Identifizierungs- und Modifizierungs-Information, welche
die linguistischen Begriffsbildungen wie topic/comment oder
Fokus/Präsupposition aufnimmt, übernimmt dabei eine wichtige
Funktion bei der Modellierung der dynamischen Veränderbarkeit des
innerhalb der prozeduralen Grammatik entwickelten
semantischen Modells. Als Prozedur definiert, bestimmt diese
Aspekt-geleitete Unterscheidung verschiedener
Informationsstrukturen, ob eine bearbeitete sprachliche Eingabe im
Rahmen des Modells interpretiert wird oder zu seiner
Veränderung führt. Beispielhaft wird anhand eines Textfragments
abschließend die Konstruktion und Modifikation eines solchen durch
Assoziationsgeflechte strukturierten semantischen
Modells illustriert.
Der Beitrag von Janos S. Petöfi beschäftigt
sich mit Fragen der natürlich-sprachlichen Bedeutung unter dem
Aspekt der prozeduralen Textinterpretation. Diese Konzeption von
Bedeutungskonstitution, in der die Struktur desjenigen
Weltfragments eine wesentliche Rolle spielt, das einem gegebenen
Text in einem Kontext nach Meinung eines Interpreten als
extralinguistisches Korrelat zugeordnet werden kann, basiert auf
der Textstruktur-Weltstruktur-Theorie, die zunächst kurz
referiert wird. Über die Unterscheidung dreier für die explikative
Textinterpretation wichtiger Typen lexikalischen und
enzyklopädischen Wissens (den Mitglieder einer Sprachgemeinschaft
allgemein verfügbar, in einem gegebenen Text möglicherweise
manifestiert, von dessen Interpreten tatsächlich aktiviert),
werden dann einige Aspekte von Wortbedeutung im Zusammenhang des
ersten Typs erörtert. Sie betreffen zum einen Probleme der
adäquaten und expliziten Repräsentation von Wissen in einem
Lexikon, über das Mitglieder einer Sprachgemeinschaft bezüglich
einzelner Wörter ihrer Sprache verfügen, und sie betreffen zum
anderen Fragen, welche Operationen mit und über dem Lexikon
durchgeführt werden müssen, damit den in einer zu
interpretierenden Textstruktur vorkommenden Wörtern die ihre
Bedeutung konstituierenden, Welt-strukturellen Korrelate
zugeordnet werden können. Bedingungen, Durchführung und Verlauf
des explikativen Interpretationsprozesses werden so
angebbar. Überlegungen zur Adäquatheit der formalen Analyse und
Modellierung solcher Prozesse sowie ihrer möglichen Implementation
in Rechnern als Simulation natürlicher
Interpretationsprozesse weisen abschließend auf die Verbindung zur
künstlichen Intelligenz-Forschung hin.
Anhand von (Satz-)Äußerung mit den Konnektiven
weil und aber untersucht Jörg Kindermann in seinem
Beitrag, welche Präsuppositionen auf Seiten des Rezipienten
anzusetzen sind, wenn dessen Interpretationen dieser Äußerungen im
Rahmen eines Verstehensmodells der Petöfischen
Textstruktur-Weltstruktur-Theorie expliziert werden. Dabei wird
der Begriff der Präsuppostition im herkömmlichen Sinne
bestimmt, d. h. als derjenige (nicht geäußerte) Sachverhalt, der
die Wahrheit/Falschheit oder auch nur die Konsistenz eines
(geäußerten) Sachverhalts bedingt. Als
Rezipient-Präsuppositionen werden dagegen die für Leser/Hörer
entscheidenden (nicht explizierten) (Zugänglichkeits-) Relationen
zwischen Textproduzent und Sachverhalt bezeichnet, deren
(praktische bzw. formale) Explikation über die
erfolgreiche/erfolglose oder auch nur konsistente Interpetation
einer Äußerung im Verstehensprozeß entscheidet. Über die Analyse
dieser Zugänglichkeits-Relation sowohl zum
geäußerten Sachverhalt als auch zu den ihn ausmachenden
Teiläußerungen, die durch eines der untersuchten Konnektive
verbunden sind, werden anhand kanonischer Repräsentationen von
Beispielsätzen die Rezipient-Präsuppositionen formal
rekonstruiert. Ziel dieser Rekonstruktion ist es, die natürlichen
(Verstehens-) Prozesse durch deren theoretische Explikationen zu
approximieren und dabei möglichst jene (minimale/optimale) Menge
der Rezipient-Präsuppositionen zu isolieren, die zur
Interpretation einer gegebenen (Text- bzw. Satz-)Äußerung notwendig sind.
Der Beitrag von Leo G.M. Noordman geht von
der psycholinguistischen Grundannahme aus, daß das Verstehen
sprachlicher Äußerungen ein Prozeß psychisch-kognitiver
Aktivitäten der Informationsverarbeitung ist. Sie muß aus dieser
Sicht als noch weitgehend unerklärte, dabei sehr komplexe
Wechselwirkung psychologischer und linguistischer Faktoren
verstanden werden, die mit Hilfe experimentalpsychologischer
Untersuchungsmethoden isoliert und in ihrem Zusammenspiel
möglicherweise auch einmal übergreifend charakterisiert werden
können. Dabei werden in kontrollierten Tests gezielt formulierte
Beispiel-Sätze ausgewählten Lesern/Hörern zu Verstehen gegeben,
deren Antworten bzw. deren benötigte Reaktionszeiten sodann
statistische Schlüsse erlauben in Bezug auf entweder
abzuschätzende Resultate oder zu testende Hypothesenbildungen.
Eine dieser übergreifenden Hypothesen betrifft den Einfluß, den
Hintergrundinformation auf die Schnelligkeit, Sicherheit
und/oder Leichtigkeit von Verstehensprozessen und deren Resultate
ausübt. Was dabei jedoch einem Leser/Hörer als Hintergrundwissen
in Form von Präsuppositionen verfügbar wird, hängt wiederum von
unterschiedlichen linguistischen, konzeptuellen und individuellen
Faktoren ab, welche von der Äußerung (dem sprachlichen
Kontext), deren Bedeutung (der Art der Aufgabe) und dem
Leser/Hörer (der persönliche Orientierung) bestimmt werden.
Die zahlreich vorgelegten (eigenen und fremden) Experimente zur
Verarbeitung (Produktion und Verstehen) semantisch bzw.
konzeptuell unterschiedlicher Merkmale (männlich - weiblich,
links - rechts) und linguistischer Strukturen (Negation,
Passiv, Konditional) in sprachlichen Äußerungen belegen
eindrucksvoll eine durch unterschiedliche Aktivierung
unterschiedlicher Hintergrundinformationen erklärbare Asymmetrie,
welche nahelegt, keine invariante Beziehung zwischen
linguistischen Faktoren und
psychischen Prozessen beim Sprachverstehen anzunehmen.
Anhand der Verständlichkeitsforschung, die sich
quasi ohne Beteiligung der linguistischen Semantik zu etablieren
beginnt, kann Walther Kindt einleitend verdeutlichen, daß
die (vornehmlich) synchrone Betrachtung von Sprache als
Bedeutungssystem, die (weitgehend) untergeordnete Rolle der
Semantikkomponente in Grammatiktheorien und ein (genereller)
Mangel an empirischer Semantikforschung die Defizite statischer,
nicht-dynamischer Modelle der linguistischen Sprachbeschreibung
ausmachen. Vor dem Hintergrund des für formale Sprachen
entwickelten modelltheoretischen Apparats wird die
Unzulänglichkeit interpretativer Semantikmodelle für die
natürliche Sprache verdeutlicht. Beispiele für die Dynamik
von Prozessen der Bedeutungskonstitution (wie
Bedeutungsvielfalt und Bedeutungswechsel, Abhängigkeiten
von Kontext und von Weltwissen, Neuentstehung
und Verschiebung von Bedeutung, retrospektive und
progressive Interpretationsrevisionen) legen eine auch
dynamische Interpretation nahe, der ein neuer
Situationsbegriff entspricht. Mit dem Plädoyer für eine
dynamische Semantik sowie deren gleichzeitiger
Empirisierung werden ihre Modellierungsaufgaben umrissen:
die systematische Analyse und Beschreibung der
Interpretationsmöglichkeiten und Kommunikationsbedingungen, welche
Sprechern/Hörern die flexible Konstitution von Bedeutung
erlauben, und die (re-)konstruktive Beschreibung und
Modellierung derjenigen Verfahren und Regeln, deren Anwendung ein
Verständnis als gemeinsame Interpretation zwischen
Sprecher/Hörer zu sichern gestattet. Hierfür wird ein
formal-theoretischer Rahmen geliefert, der über eine Modifikation
des prädikatenlogischen Situationskonzepts die
Interpretationsfunktion mit dynamischen Eigenschaften
anreichert, welche eine explizite theoretische Verbindung zwischen
Kontext-, Situations- und Interpretationsbegriff
herstellen. Abschließend wird die Beschreibungskapazität dieses
Explikationsversuchs im Rahmen eines topologischen Modells
der Interpretationsdynamik
veranschaulicht.
Aspekte dynamischer Semantik bietet auch der
Beitrag von Peter Bosch, der nach einer Kritik der
Ausgangspositionenen statisch-interpretativer
Semantikkonzepte die Grundlagen einer
empiristisch-dynamischen Semantik skizziert. Darin wird
Bedeutung - dem prozeduralen Paradigma entsprechend - nicht als
Voraussetzung, sondern als Resultat von Kommunikationsprozessen
begriffen, wodurch deren empirische Analyse erforderlich wird.
Sprachkenntnis und Weltwissen sind dabei als (induktive)
Hypothesenbildungen über die im Verlaufe kommunikativer Akte sich
ändernden Dispositionen der Interaktanten zu beschreiben und als
(mehr oder weniger individuelle) Systemzusammenhänge zu
rekonstruieren. Im Zentrum dieser kognitiv-dynamischen Konzeption
steht daher das Kontextmodell, das - als veränderbare
Repräsentation der (sprachlichen/ außersprachlichen) Umgebung
einer Person/eines Organismus konzipiert - die Grundlage
dynamischer (Sprach-/Welt-)Strukturierungen bildet. Deren
wichtigste Mechanismen werden anhand anaphorischer und
deiktischer Prozesse der Interpretation sprachlicher Äußerungen
vorgeführt. Dabei wird ein Konzept stereotypischer
Information entwickelt, das Bedeutung von Äußerungen als
Veränderung von Kontextmodellen zu repräsentieren erlaubt,
ohne des für wahrheitsfunktionale, satzsemantische
Repräsentationen erforderlichen Apparats (Komposition, Intension,
mögliche Welten) zu bedürfen. Er wird ersetzt durch die
Eigenschaften der Stereotype, die als Elemente des
Hintergrundwissens - quasi Merkmals-tolerant definiert aber
Merkmals-sensitiv adressiert - erst in Äußerungszusammenhängen
sich konstituieren. Explorationen der Verarbeitungsweisen von
Stereotypen in der empiristisch-dynamischen Semantik betonen
den Default-Charakter dieser Induktionsprodukte. Sie stellen
empirisch rekonstruierbare Ähnlichkeitsklassen möglicher
Interpretationen bereit, welche solche Informationslücken zu
füllen gestatten, die in einer Kommunikationssituation direkt
nicht geschlossen werden. Damit werden die auf dem
Hintergrundwissen operierenden Mechanismen zur Auswahl und
Veränderung von Kontextmodellen zum
prozeduralen Kern einer dynamischen Semantik.
Die im Beitrag von Burghard Rieger
vorgestellte empirische Rekonstruktion von Wortbedeutungen als
semantische Dispositionen unternimmt es, das Format
stereotypischer Repräsentationen und die Möglichkeiten
prozeduraler Bedeutungsbeschreibung zu verbinden mit
empirisch-quantitativen Verfahren der Textanalyse. Hierzu wird
zunächst der Rahmen eines (re-)konstruktiven Ansatzes
prozeduraler Semantik skizziert, in dem die Konzeptionen der
Dispositions-Struktur, der Frame-Theorie und der
prototypischen Bedeutungsrepräsentation in ihren relevanten
Aspekten diskutiert werden. Daraus wird ein auf dem Gebrauch von
Wörtern in Texten basierendes Bedeutungsmodell entwickelt,
das eine Rekonstruktion assoziativ strukturierter
Wissenszusammenhänge erlaubt, die sich aus den
Verwendungsregularitäten lexikalischer Einheiten aufbauen und über
einen statistischen Ansatz analysiert werden können. Formal
als (metrische) Raumstruktur darstellbar, lassen sich im
semantischen Raum Bedeutungselemente derart abbilden, daß deren
Positionen semantische Ähnlichkeiten repräsentieren. Auf
ihnen kann sodann ein Algorithmus operieren, der die Bedeutung
eines sprachlichen Terms prozedural als eine Abhängigkeitsstruktur
von relevanten Bedeutungselementen generiert. Diese liefert die -
je nach variierenden Wissensbasen, Kontexten und Aspekten -
unterschiedlichen, dabei veränderlichen semantischen
Dispositionen. Sie können als eine Veraussetzung nicht nur dafür
gelten, daß natürlich-sprachlichen Termen - je nach
Gegenstandsbereich, Kommunikationszusammenhang und Redeintention
- unterschiedliche Bedeutungen und/oder Interpretationen
zugewiesen werden, sonder dürfen darüber hinaus auch - ähnlich
den Mengen- und Begriffs-hierarchischen Beziehungen, die
logisch-deduktiven Schlußprozessen zugrundeliegen - als Grundlage
gelten für eine durch Inhalte gesteuerte algorithmische
Simulation analog-assoziativer Folgerungen, die zumindest für
eingrenzbare Gegenstandsbereiche absehbar erscheint. Einige
konkrete Beispiele aus dem auf einem Computer implementierten
System veranschaulichen
abschließend die entwickelten Verfahren und Mechanismen.
In seinem Beitrag zur Psychologie der
Kontextveränderung entwickelt Thomas T. Ballmer die These,
daß Logik und Psychologie sich aufeinanderzubewegen und eine
Psycho-Logik bilden werden. In einer
historisch-phänomenologischen Betrachtung wird dies zunächst
anhand der Entwicklung von der harten zur weichen und
natürlichen Logik skizziert, der in der linguistischen
Semantik eine Verschiebung des Forschungsinteresses entspricht
vom abstrakt-mathematischen Verständnis logischer Systeme zur
Auffassung dieser Systeme und ihrer Weiterentwicklungen als den
Modellen und Rekonstruktionen von natürlich-sprachlichen
Funktionen. Die innere Dynamik dieser historischen
Entwicklungstendenz führt dabei zwangsläufig zu einem
Zusammenschluß von Logik und Psychologie, für den das Konzept der
Kontextveränderung zentral ist. Ihre Logik wird damit
als eine Rekonstruktion der dynamischen Veränderungsprozesse
bestimmt, die sich anhand sprachlicher Phänomene im Rahmen der
linguistischen Semantik als Thesaurus- und
Kontextveränderungs-Logik darstellen. Sie bilden das
Verbindungsglied in der Entwicklungskette von der harten
Logik über die Sprachwissenschaft zur Psychologie.
Nach einem Überblick über die Prinzipien (Elemente, Syntax,
Semantik) von Thesaurus- und Veränderungs-Logik -
welche letztere anhand konstitutiver Kategorien (Zeit, Situation,
Veränderung, Erwartung, Ähnlichkeit, Negation, etc.) als ein
System allgemein kognitiven Vermögens lebender Organismen
erscheint - wird die abschließende Frage nach der Relevanz
der Auswahl und Organisation von (veränderlichen) Kontexten mit
einem Prinzip beantwortet, wonach die Dynamik der
Strukturierung des Bedeutungsraums in Sprache,
Kontext und Kontextveränderungsfunktion in den
kommunikativen Interaktionen von Sprachverwendern selbst begründet
ist, deren Äußerungszusammenhänge daher die empirische
Komponente der theoretischen Anforderungen einer
psychologisch orientierten Logik der Kontextveränderung
bereitstellen.
Neue Begrifflichkeiten und die Instrumentarien der
Theorie der dynamischen Systeme werden im Beitrag von
Wolfgang Wildgen vorgestellt. Er überprüft sie im Hinblick auf
ihre Tragfähigkeit beim Entwurf und Aufbau einer neuen
dynamischen Semantik. Die Beschränkung auf die in der
Katastrophentheorie von René Thom entwickelte
Begriffsbildung rechtfertigt sich dabei - neben der historischen
Priorität, die sie vor vergleichbaren anderen Entwicklungen
dynamischer Modelle auszeichnet - aufgrund der schon früh
versuchten Übertragung auf allgemein semiotische bzw.
linguistische Phänomenbereiche. Ausgehend von der Hypothese onto-
wie phylogenetischer Bedeutungskonstitution, die als biologisch
wie sozial motivierter Prozeß kontinuierlicher
Reorganisationen älterer kognitiver Fähigkeiten gedeutet wird,
läßt sich die Sprachfähigkeit des Menschen als Resultat von
Prozessen interdependenter Anschauungs- und
Erfahrungsformen herleiten, die zur Ausbildung von
Ausdrucksformen (Zeichengestalten) in der Sprache führen. Die
Prinzipien dieser Formentstehung werden in ihren Grundschemata
als elementare Katastrophen abgebildet. Angewandt auf die
Semantik führt dies zur Archetypensemantik, die kurz
eingeführt und anhand eines Beispiels illustriert wird. Der
Übergang von den Archetypen zur dynamischen Semantik
wird eingehender diskutiert und im Zusammenhang kognitiver
Kategoriesierungsleistungen im Wahrnehmungsbereich sowie
fundamentaler Kontrollstrukturen im Inneren als eine auch
die Struktur sprachlicher Inhalte konstituierenden
Polariät erläutert. Deren Dynamik wird in Entsprechungen
faßbar, welche auch die Prinzipien der sprachlichen
Strukturierungen bestimmen, von denen abschließend - im Hinblick
auf das Frege'sche Prinzip - etwa die
Kompositionalität (Wort, Affixbildung, Kompositum, Phrase,
Proposition) neu entwickelt werden kann.
1In: Rieger, B. (Hrsg.): Dynamik in der Bedeutungskonstitution [Papers in Textlinguistics 46], Hamburg (H. Buske) 1985, S. 1-17.