Im Zusammenhang der Entwicklung sprachverstehender Systeme und neuer Kommunikationstechnologien sowie im Hinblick auf die Folgen, die mit ihnen in einer Informationsgesellschaft verbundenen sein können, wird aber die Notwendigkeit übergreifender Zusammenarbeit verschiedener wissenschaftlicher Disziplinen besonders deutlich: denn gerade im Anwendungsfall, durch den die Resultate wissenschaftlicher Grundlagenforschung in die Praxis umgesetzt werden und über verschiedene Modifikationen zur Entwicklung und Produktion von zum Teil massenhaft genutzten Gebrauchsgütern führen, wird eine Abschätzung nicht nur der erwarteten Vor- sondern auch der potentiellen Nachteile solcher Technologien und ihrer Konsequenzen zu einer unabweisbaren Aufgabe. Sie sollte möglichst frühzeitig und nach den verfügbaren Informationen auch verläßlich von den wissenschaftlichen Disziplinen selbst angegangen werden. Für die Kognitionstheorie und angewandte Kognitionswissenschaft , die sich im Konvergenzbereich der durch Erkenntnisinteresse, Forschungsgegenstand oder Untersuchungsmethode miteinander verbundenen Grundlagen- und Anwendungsforschung der einschlägigen, dem Verstehen natürlicher Sprache und der Verarbeitung von Wissen gewidmeten Disziplinen etabliert, bildet Interdisziplinarität zugleich Voraussetzung und Resultat der bisherigen Entwicklung wie der künftigen Aufgabenstellungen.
Im Licht der Theorie informationsverarbeitender Systeme wird die Bedeutung des Sprachvermögens als Teil der kognitiven Leistungen des Menschen erkennbar. Der Beitrag, den die Sprachkompetenz eines (natürlichen wie künstlichen) kognitiven Systems bei dessen Verarbeitung der Umgebungsinformationen liefert, ist kaum zu überschätzen. Im Vergleich zu anderen kognitiven Systemen, mit denen der Mensch als Lebewesen konkurriert, zeigt sich, daß die menschliche Überlegenheit bei der Erfüllung von Ausgleichs- und Anpassungsfunktionen zur Systemstabilisierung und -erhaltung vornehmlich in solchen Bereichen liegt, die mit der Verarbeitung von Wissen, seinem beschleunigten Erwerb, seiner besonderen Repräsentation und seiner allgemeinen Verfügbarkeit durch sprachliche Vermittlung zusammenhängen.
So kann das kognitive System Mensch , das gerade durch sein Sprachvermögen vor anderen informationsverarbeitenden Systemen ausgezeichnet scheint, durch eben diese besondere Fähigkeit auch dazu verleitet werden, die Welt, die es mit anderen Lebewesen als gemeinsame Lebenswelt teilt, als nahezu ausschließlich s e i n e Umwelt mißzuverstehen. Die immer noch weitgehend anthropozentrische Nutzung ihrer Resourcen hat sie ja nicht nur verschmutzt und anderen Systemen als mögliche Lebenswelt entzogen sondern diese Nutzung hat - mit zunehmendem technologischen Wissen sogar noch beschleunigt - schon den globalen Systemzusammenhang destabilisiert, dessen Teil (nicht dessen Kontrollinstanz) der Mensch ist. Das ist zwar eine auch für die neuere wissensbasierte, computerlinguistische Forschung noch wenig geläufige oekologische Einsicht, hat dafür aber in der kognitiven und systemtheoretisch orientierten Sprachphilosophie prominente Proponenten 2.
Die besondere Aktualität der sprachorientierten Verstehensforschung kognitiver Modellierungen auf dem Computer hat in dieser Dimension des Sprachvermögens ihren Grund: Bedingung der Möglichkeit des Erwerbs und der Verarbeitung von Wissen zu sein, dessen unsystematische Nutzung zunehmend System-gefährdend, dessen systematische Nutzung aber ohne die Hilfe künstlicher sprachverstehender Systeme inzwischen schon nicht mehr möglich scheint.
Dies geschieht durch Repräsentation von Welt in Form von Zeichensystemen der Sprache und ihrer Realisierung in Texten. Texte funktionieren dabei wie potentielle System-Umgebungen, deren informations-systematische Besonderheit darin besteht, die Identität der Ort-Zeit-Paare für alle Koordinaten von System und Systemumgebung zu dispensieren. Durch diese grundlegende Abstraktion kann ein System in relativer Unabhängigkeit unterschieden werden von seiner Systemumgebung, was deren weitere Differenzierung möglich und nötig macht. Danach sind unmittelbare, Ort-Zeit-identische Systemumgebungen von solchen Umgebung zu unterscheiden sind, die aufgrund ihrer Ort-Zeit-Abstraktion erst durch Aktualisierung wieder zu soetwas wie Systemumgebungen gemacht werden können. Für den hier betrachteten Zusammenhang wird dabei - informationssystematisch gesprochen - der Ausschnitt von Welt , der einem System zugänglich ist, beträchtlich erweitert und zwar um jene Ort-Zeit-versetzten, weil repräsentierten und so vermittelten Umgebungen, die zu verarbeiten einem System aufgrund seiner Beschaffenheit überhaupt möglich ist.
Die Aktualisierung solcher Quasi-Umgebungen bewirkt dabei nicht nur eine bloße Vermehrung von Wechselbeziehungen der Art, wie sie ein System zu seiner unmittelbaren Systemumgebung unterhält, vielmehr bildet diese Aktualisierung eine neue, semiotische Qualität von Systemerfahrung. Sie erlaubt es, Erfahrungen nicht nur zu machen sondern wie Hypothesen anzusetzen und deren Resultate auch wieder zu verwerfen. Diese gleichsam experimentelle Qualität semiotisch repräsentierter Umgebungen, durch die ein System sie durch Aktualisierung zu seiner Systemumgebung zu machen vermag, begründet dessen kognitive Fähigkeit. Sie läßt sich zusammenfassend als das Vermögen eines informationsverarbeitenden Systems kennzeichnen, seine Erfahrungsresultate von den ihnen zugrundeliegenden Erfahrungen zu unterscheiden und diese Resultate in Zeichen und Zeichenaggregationen als sein Wissen zu repräsentieren.
Erst die Sprachkompetenz als herausragende kognitive Fähigkeit scheint der Spezies Mensch dabei ermöglicht zu haben, sein Wissen als Menge der verfügbaren faktischen und hypothetischen Erfahrungsresultate in Form von (gesprochenen oder geschriebenen) Texten zum Gegenstand von faktischen und hypothetischen Erfahrungen zu machen, die dieses Wissen selbst verändern. Obwohl das System Mensch - wie jedes informationsverarbeitende System - in unmittelbarer Wechselbeziehung zu seiner Systemumgebung steht, besteht diese Umgebung selbst zum Teil auch wieder aus einer (in Zeichenaggregaten symbolisch repräsentierten) Quasi-Umgebung, deren Aktualisierung die Ort-Zeit-Identität von System und Systemumgebung herzustellen und zu erweitern vermag. Die Unmittelbarkeit dieser Wechselbeziehung beschränkt sich dabei - wie für jedes kognitive System - auf die Ort-Zeit-Identität, während die Vermitteltheit dieser Wechselbeziehung - wie für jedes sprachkompetente System - in ihrer der Aktualisierung bedürftigen Zeichenrelation besteht. Sie erlaubt es, neben praktischen auch theoretische, neben faktischen auch hypothetische, neben realen auch fiktive Erfahrungen zu erproben und deren Resultate als Wissen zu vermitteln.
Gerade diese Fähigkeit sprachkompetenter Systeme zur Aktualisierung von Ort-Zeit-versetzten Quasi-Umgebungen aufgrund eigenen Erfahrungswissens, das durch solches Ort-Zeit-identische Aktualisieren sich ständig verändert, kennzeichnet die Offenheit oder Dynamik Sprach-verstehender, kognitiver Systeme, für deren pragmatische Eingebettetheit der Begriff der Situation kennzeichnend ist5.
Angesichts wahrheitsfunktionaler Modellierung wurde unübersehbar, daß Bedeutungen von sprachlichen Ausdrücken uns korrekte Information aber auch Ungenauigkeiten und Irrtümer sowohl über die externe Wirklichkeit (als System-Umgebung) als auch über die innere Welt (als Systems-Struktur) vermitteln. Aufgrund abbildungstheoretischer Modelle ergab sich, daß Ausdrücke in systematischer, d.h. nicht-zufälliger Weise verbunden sein müssen mit Entitäten der externen Wirklichkeit (System-Umgebung) einerseits und mit Komponenten der inneren Welt (System-Struktur) andererseits. Wären sie das nicht, vermöchte die (verbale/schriftliche) Äußerung einer Ausdrucks keine Bedeutung zu vermitteln; wir (als beteiligte Systeme) würden sie nur als Geräusch hören bzw. als Kritzel sehen. Im Rahmen semiotischer Modellbildungen zeigte sich, daß die Fähigkeit, vermittels Sprache sowohl unsere Gedanken als auch die Wirklichkeit zu strukturieren, auch auf die Sprache selbst müsse angewandt werden können: Ausdrücke lassen sich danach klassifizieren, wie sie einerseits Wirklichkeit (die System-Umgebung) und andererseits unsere Wissen über sie (das System selbst) strukturieren.
Aufgrund einer vergleichsweise radikalen Revision einiger Basisannahmen modelltheoretischer Semantiktheorien haben Barwise und Perry (1983) die Analyse natürlichsprachlicher Bedeutung als formale Analyse der kommunikativen Zusammenhänge konzipiert, in denen sprachliche Ausdrücke geäußert, interpretiert und verstanden werden. Anders als in den Mögliche-Welt-Semantiken, die ko- und kontextuellen Einbettungen nur als pragmatische Erweiterungen ergänzend einzubeziehen vermochten, ist die derzeit wohl aktuellste Modellbildung in der Semantik auf ein systemtheoretisch fundiertes Konzept der pragmatischen Kontexte aufgebaut, das Situation heißt.
Der Neuansatz läuft auf die Entwicklung einer abstrakten Theorie zur Klassifizierung pragmatischer Kontexte von sprachlichen Ausdrücken hinaus. Als Basis der Situationssemantik bildet sie die Grundlage dessen, was den Informations-verarbeitenden (natürlichen wie künstlichen) Systemen (organisms ) von der sie umgebenden Wirklichkeit und externen Realität als ihre System-Umgebung jeweils zugänglich ist6.
Wenn Realität derart als zunächst heterogene Überdeckung von Situationen gedacht wird, aus der informationsverarbeitende Systeme die ihnen zugänglichen Ausschnitte als ihre System-Umgebungen wahrnehmen, dann ist das Vermögen, einige Situationen als einander ähnlich zu erkennen und in Zusammenhang zu bringen, abhängig von der Fähigkeit, auf bestimmte ihrer Komponenten in gleicher oder ähnlicher Weise zu reagieren, was deren Invarianz oder Gleichförmigkeit konstituiert. Die Konstitution derartiger Zusammenhänge, die von der Struktur und der Einstellung des Informations-verarbeitenden Systems abhängt, bildet aber gleichzeitig auch die Grundlage dafür, aus dem Verständnis und der Kenntnis der Verhältnisse einer Situation auf die Verhältnisse in ähnlichen Situationen zu schließen, die mit diesen durch Invariante verbundenen sind7.
Mit Hilfe dieser Invarianten lassen sich nun Situationen als abstrakte Typen (abstract situations ) bzw. deren Aktualisierungen (actual situations ) definieren, die mit tatsächlichen Situationen (real situations ) nur in (den auch belegten) Teilbereichen übereinzustimmen brauchen. Als Ereignisfolge kann jede (partielle) Funktion von Raum-Zeit-Punkten auf Situations-Typen gelten, wobei eine Ereignisfolge , die nur für einen Punkt definiert ist, Sachverhalt heißt.
Durch Ausnutzung der im Kontext abstrakter, aktueller und realler Situationen enthaltenen Invarianten kann dabei der Übergang - trotz einer systematischen Unterbestimmtheit von Bedeutung und Interpretation - vollzogen werden: von der sprachlichen Bedeutung (linguistic meaning ) eines Ausdrucks über die Interpretation seiner Gebrauchsweise (context of use ) bis zu dem, was seine tatsächliche Äußerung (on a particular occasion ) an Information vermittelt. Die Betonung des informatorischen Gehalts von Äußerungen führt dabei auf die direkte Entsprechung von externer und mentaler Bedeutsamkeit von Ausdrücken und deren wechselseitiger Interpretierbarkeit.
Die Konzeption des adaptiven (natürlichen oder künstlichen) Systems, das sich in bezug auf seine Umwelt intelligent verhält aufgrund und vermöge seiner (veränderbaren) Anpassung an die Invarianten, welche seine Umgebung in Situationen strukturieren, weil es selber deren Strukturen (als Kenntnis von Invarianten) besitzt, scheint im Begriff der relationalen Bedeutung deren externe und interne Modellierungen miteinander vermitteln zu können.
Gleichwohl bleibt die Situationssemantik noch auf die Einheit Satz im Unterschied zum Text beschränkt, sie ist ausschließlich erst extern-semantisch ausgearbeitet, und es fehlen ihr bisher noch alle Hinweise auf eine mögliche empirische Rekonstruktion der Basiseinheit Situation , welche die formale ergänzen könnte.
Dabei geht es inzwischen nicht mehr vordringlich um eine noch umfassendere, noch verläßlichere Bereitstellung zusätzlicher Daten und Informationen, mithilfe derer bessere Problemlösungen etwa automatisch gefunden oder anstehende Entscheidungen mechanisch und schneller getroffen werden könnten; vielmehr stellt die über alle Maßen gewachsene Menge von Daten und Informationen und deren Verfügbarkeit mittlerweile selbst eines der zentralen Probleme dar: denn eine sachgerechte Auswahl des jeweils relevanten Materials überfordert vielfach den einzelnen menschlichen Problemlöser wie meistens auch ganze Expertenteams. Bei der Tragweite und den oft unabsehbaren Risiken nicht-optimaler8 Problemlösungen ergibt sich daher die Notwendigkeit, die spezifische Weise, in der das natürliche kognitive System Mensch das ihm verfügbare Wissen zu Problemlösungen nutzt, auch in künstlichen intelligenten Systemen nachzubilden. Dies erscheint umso dringlicher angesichts des Unvermögens sogenannter intelligenter, wissensbasierter, sprachverstehender Systeme der bisherigen kommunikationstechnologischen KI-Forschung9. Deren bisher eher behauptete als schon realisierte kognitive Fähigkeiten beruhen auf Funktionen, die Problemlösungen im wesentlichen als (algorithmische oder heuristische) Suche und Auswahl optimaler Wege durch die Menge antizipierter Lösungsmöglichkeiten im so definierten Problemraum modellieren. Derartige Systeme - oder ihre Weitereintwicklungen - werden aber kaum je in den Stand gesetzt werden können, das als unzulänglich erfahrene Vermögen des Menschen zu verbessern, sich in einer Umgebung zu orientieren, die ihm als seine Welt zu verstehen ja gerade deswegen so schwerfällt, weil er Menge und Art der sich ihm bietenden Möglichkeiten und ihm abverlangten Entscheidungen nicht entfernt mehr zu durchschauen, d.h. zu antizipieren vermag.
Eine solche Auffassung von Operabilität hätte freilich ernst zu machen mit einem auch phänomenologischen Verständnis von Systemaktivität10, das weder die Repräsentation einer System-umgebenden Wirklichkeit noch das Wirklichkeits-angemessene System-Verhalten in Form von Programmen zur Verarbeitung von Daten und Informationen schon voraussetzen kann, sondern diese Aktivität in Form von Prozeduren beschreibt, deren zeitlicher Ablauf in Prozessen gerade jene Veränderungen zu simulieren gestattet, die sowohl das System selbst als auch die ihm zugänglichen Umgebungen in Abhängigkeit von den jeweils erreichten Zuständen modifizieren. Derartig dynamische Systemarchitekturen11 könne daher selbstorganisierend und in einem neuen Sinn wissensbasiert insofern genannt werden, als sie Verstehen nicht mehr mit dem Prozeß des Interpretierens von Gegebenheiten oder Zusammenhängen aufgrund von vorgegebenem Wissen gleichsetzen, sondern als diejenige Aktivität des Systems selbst begreifen lassen, die vermöge der Zustands-abhängigen Interpretation von Gegebenheiten und Zusammenhängen aufgrund von System-ëigenem Wissen eben dieses Wissen kontinuierlich verändert12.
Als kognitive Hilfssysteme des Menschen konzipiert, bestände die Leistung eines solchen informationsverarbeitenden Tools als zeughaftem Modellsystem daher nicht mehr nur - wie in den sogenannten wissensbasierten Systemen der traditionellen KI-Forschung - in der Anwendung schon vorausgesetzter, jedenfalls unveränderlicher Strategien und Operationen auf vorgegebenen Daten und Strukturen, sondern vielmehr darin, daß sein kognitives Vermögen - dem lebender Systeme vergleichbar - es innerhalb seiner strukturellen Beschränkungen und den durch seine jeweiligen Umgebungen vorgegebenen Restriktionen lernfähig macht, was sich in der kontinuierlichen Veränderung seines Wissens durch Anwendung dieses Wissens wie auch in seiner damit sich verändernden Brauchbarkeit auswiese.
Insbesondere ist der Bereich des Wissenserwerbs aus Texten und die Modellierung der hierfür verantwortlichen Sprachverstehens- und Lernprozesse noch weitgehend ungeklärt. Der Umstand, daß es sich bei dieser Forschungsproblematik nicht mehr nur ausschließlich um eine ingenieurswissenschaftliche Umsetzung von theoretisch geklärten und formal expliziten Modellbildungen handelt, sondern um einen mit der sprachlichen Bedeutungskonstitution verbundenen, allgemeinen semiotischen Prozeß (das Erkennen solcher Zusammenhängen, die durch dieses Erkennen vielfach erst gestiftet werden), macht deutlich, weshalb hier die Computerlinguistik in höherem Maße gefordert ist als die traditionelle KI-Forschung, deren (z.T. negativen) Ergebnisse und (z.T. unzureichenden) Systeme gleichwohl die anstehende Problematik zumindest zu erkennen halfen.
Die jüngsten Fortschritte in der Wissens-basierten Verarbeitung von Daten und Informationen in der KI-Forschung, sowie der Umsetzung ihrer zunächst theoretischen Ergebnisse in praktische Anwendungszusammenhänge etwa in der Entwicklung von Expertensystemen, Arbeitsumgebungen, etc. sind bisher im wesentlichen dem Bereich der Ingenieur- und Naturwissenschaften zugute gekommen. Deren weitgehend auf formalisierbarem Wissen beruhende Problemlösungen sowie die dabei verwendeten logisch-deduktiven Verfahren ihrer Durchführung, Überprüfung und Evaluierung legten es nahe, gerade innerhalb dieser Gebiete nach übergreifenden Algorithmisierungen zu suchen. Voraussetzung hierfür war, daß die stürmische Entwicklung der Hard- und Software in der Computertechnologie es erlaubte, die elektronischen Rechner nicht mehr nur zur Verarbeitung numerischer Ausdrücke einzusetzen, sondern den Computer zunehmend auch als eine symbolverarbeitende Maschine zu verwenden mit der Fähigkeit, die als logische Formeln repräsentierten sprachlichen Aussagen zu interpretieren und ihre Richtigkeit (oder Falschheit) zu beweisen.
Trotz zahlreicher entweder schon als Software-Produkte auf dem Markt befindlicher oder aber noch in der Entwicklung stehender sog. "intelligenter", weil Wissens-basierter Systeme, kann von einer erfolgreichen Anwendung und Übertragung dieser Ansätze im Bereich der Geisteswissenschaften bisher nicht die Rede sein.
Den weitgehend in logischen Ausdrücken formalisierbaren Wissensbeständen der exakten Wissenschaften stehen damit die in natürlich-sprachlichen Texten formulierten (oder doch formulierbaren) Verstehenszusammenhänge der Geistenwissenschaften gegenüber, wobei letztere - nicht zuletzt durch das Medium der natürlichen Sprache13 - ihrem rationalistischen Mangel an methodischer Strenge und formalem Rigorismus die Universalität in Richtung und Skopus ihres hermeneutischen Verstehens- und Erklärungsanspruchs entgegenstellen kann. In dieser Offenheit und Flexibilität liegt begründet, daß es bisher noch keine - den Algorithmen der logisch-deduktiven Verarbeitungsprozesse vergleichbaren - Algorithmisierungen jener hermeneutischen Prozesse zu geben scheint, die mit unscharfem Wissen und vagen Bedeutungen in analoger Weise umzugehen vermögen, wie es das Lernverhalten kognitiver, informationsverarbeitender Systeme in solchen Umgebungen nahelegt, die diese als Umwelten zu interpretieren und als ihre Welten zu verstehen vermögen.
Für die meisten Anwendungszusammenhänge ist die Linearität der textuellen Darbietungsweise dessen, was wir als Bedeutung oder Inhalt von sprachlichen Ausdrücken zu bezeichnen uns angewöhnt haben, ein nicht nur ausreichendes Darstellungsprinzip, sondern in seiner linguistischen Funktion sogar eine Bedingung semiotischer Struktur- und Systembildung. Ohne den Zwang zur Linearisierung ist etwa die Konstitution syntagmatischer und paradigmatischer Relationen zwischen sprachlichen Elementen nicht denkbar, die schon F. de Saussure als eine strukturbildend-funktionelle Beschreibung sehr fundamentaler Ordnungsprinzipien der kommunikativen Verwendung und Aggregation von Zeichen unterschied. Darüber hinaus stellt Linearisierung aber auch ein gewissermaßen erzieherisches Prinzip dar bei der ''allmählichen Verfertigung der Gedanken beim Sprechen'' und/oder Schreiben zur Überführung vieldimensionaler, konzeptueller Zusammenhänge in Texte, wie ebenso auch umgekehrt beim allmählichen Aufbau und Vollzug gedanklicher und konzeptueller Zusammenhänge aus der Linearität sprachlicher Texte. Diese Prozesse, bei deren Analyse und Rekonstruktion sich das strukturbildende Moment der Linearisierung wie eine Art Leitlinie nutzen läßt zur Modellierung von Bedeutung und Wissen in Texten, können übergreifend - sowohl als Verstehen in der Anknüpfung an schon vorhandene wie auch als Lernen im Zustandekommen neuer Zusammenhänge - als Bedeutungskonstitution 15 bezeichnet werden, deren (simulative/kreative) Nachbildung im Computer heute die zentrale Herausforderung der einschlägigen Forschung bildet.
Insbesondere unter dem Aspekt des Erwerbs von Wissen und des Lernens von Bedeutungen ist deutlich geworden, daß die Versuche, die Wahrheitsfunktionalität von Sätzen als regelgeleitete Komposition der Bedeutungen von Wörtern zu rekonstruieren sich nicht würde übertragen lassen auf die Art und Weise, wie sich aus der Verbindung von Sätzen zu Texten etwa jene Strukturen ergeben, die als sprachliche Repräsentationen jenes (aktuelle wie hypothetische) Wissen vermitteln, das zu aktualisieren gerade solchen Systemen möglich ist, die diese Textstrukturen als System-Umgebung zu interpretieren vermögen, um aus ihnen wie aus Situationen zu lernen.
Hierbei geht es nicht mehr nur um eine analytische Beschreibung sondern die nachvollziehende Simulation eines semiotischen Prozesses, der die situative Verwendung von sprachlichen Zeichen und deren kommunikative Aggregation in Texten zum Gegenstand hat. Anders als in einer Satzsemantik , in der Äußerungen als von ihren pragmatischen Einbettungen losgelöst nur unter dem kompositorischen Aspekt der beteiligten Wörter betrachtet werden, läßt Textbedeutung sich als pragmatische Information nur dynamisch rekonstruieren aufgrund der Regularitäten, die jede performative Zeichenaggregation zum Zweck der Kommunikation befolgt und verändert, und anhand der Strukturen, die diese Regularitäten in sprachlichen Texten erkennen und wiedererkennen lassen. Für beide, Regularitäten und Strukturen, sind dabei die systematischen Korrelationen entscheidend: sie ermöglichen es, einerseits über die lineare Verknüpfung beliebiger Zeichenaggregate zu abstrahieren, was die variablen Strukturen syntagmatischer Verkettungs-Beschränkungen erkennen und wiedererkenn läßt, und andererseits über die situative Verknüpfung beliebiger Zeichenaggregate zu abstrahieren, was die variablen Strukturen paradigmatischer Ersetzungs-Beschränkungen zu interpretieren und zu verstehen erlaubt.
Anders als in den durch Introspektion gewonnen Daten zur semantischen Beschreibung von Wortbedeutungen ist der neue Ansatz auf die algorithmische Analyse von Texten gestützt, die von wirklichen Sprechern/Schreibern in realen Situationen tatsächlich vollzogener (oder doch intendierter) Kommunikation über bestimmte Sachgebiete produziert wurden. Hierbei wurde unter Begriffsbildungen wie lexikalischer Relevanz und semantischen Dispositionen ein System zur konzeptbasierten Bedeutungsrepräsentation entwickelt, das sich aufgrund empirischer Analysen von natürlichsprachlichen Texten (re-)konstruieren läßt. Es ist aus sprachphilosophischen Vorstellungen wie den Wittgensteinschen Sprachspielen abgeleitet und auf deren Grundannahme gestützt, daß die Analyse und Beschreibung der Regularitäten , mit denen Wörter in Mengen von Sprachspielen oder ihnen entsprechenden pragmatisch homogenen Texten verwendet werden, auch wesentliche Teile dessen zu erfassen vermag, was diese Texte an Begrifflichkeiten und Bedeutungen vermitteln. An anderer Stelle17 konnte gezeigt werden, daß selbst in sehr großen Corpora pragmatisch homogener Texte nur sehr begrenzte Anzahlen unterschiedlicher Wörter verwendet werden, wie umfassend die persönlichen (aktiven) Wortschätze ihrer jeweiligen Autoren auch sein mögen. Diejenigen Wörter, die zur Übermittlung bestimmter Informationen innerhalb eines Sachgebiets Verwendung finden, werden sich deswegen - den mit ihnen verbundenen konventionalisierten kommunikativen Eigenschaften entsprechend - in den betreffenden Texten verteilen und demgemäß lexiko-semantische Regelhaftigkeiten ausbilden, die empirisch-statistisch ermittelbar sind.
Im Unterschied zu einer bloß formalen Modellierung des gebrauchstheoretischen Bedeutungskonzepts erfordert eine auch empirische Analyse und quantitative Beschreibung von Wortbedeutungen in ihrem strukturalen Systemzusammenhang, daß den beiden Funktionen a und d auch anwendbare numerische Koeffizienten zugeordnet werden können, die eine statistische Analyse der Verwendungsregularitäten lexikalischer Einheiten in sprachlichen Texten durchzuführen erlauben. Für die empirische Rekonstruktion der Verwendungsweisen jedes Wortes xi, xj Î V wurde ein modifiziertes Korrelationsmaß a(xi,xj) , für die Unterschiede yi,yj Î C dieser Verwendungsweisen wurde ein euklidisches Distanzmaß d1(yi,yj) und für die Nähe oder Ferne von so definierten Bedeutungspunkten zi,zj Î S zueinander wurde die Distanz d2(zi,zj) verwendet. Die Distanzmaße können darüber hinaus als Metriken interpretiert werden, wodurch aus dem lexikalischen Mengensystem C der Corpusraum áC,d1ñ und aus dem semantischen Mengensystem S der Bedeutungs- oder semantische Raum áS,d2ñ wird, mit i,j = 1,...,n £ m . Die Topologien beider Hyperräume, die auch durch mengentheoretische Operationen ( und und oder-Verknüpfung, Negation) entstandene Elemente enthalten, werden dabei zur Ableitung und Erklärung von Eigenschaften der modellierten lexikalisch-ßemantischen Zusammenhangsstrukturen genutzt. So gibt etwa die Lage der Bedeutungspunkte z Aufschluß über sehr grundlegende Bedeutungsbeziehungen, die sich als semantische Abstände der entsprechenden Worttypen x ergeben, wie sie aufgrund der systematischen Unterschiede ihrer Verwendungsregularitäten in Texten bestimmbar sind.
Die derart repräsentierten lexikalischen Bedeutungszusammenh"nge bildet eine relationale Datenstruktur, dessen sprachlich etikettierte Elemente (Bedeutungspunkte) und dessen wechselseitigen Abstände (Bedeutungsunterschiede) ein System einander überdeckender Stereotype bilden. Die Bedeutung eines Elements kann daher sowohl als unscharfe Teilmenge des Vokabulars, als Vektor eines Bedeutungspunkts wie auch als topologische Umgebung eines Bedeutungspunkts dargestellt werden. Letztere besteht aus allen Namen und Werten der nach zunehmenden Abständen aufgelisteten Bedeutungspunkte, die sich innerhalb einer Hyperkugel des Radius r um einen Bedeutungspunkt zi Î áS,d2ñ finden. Sie repräsentieren die Bedeutung des betreffenden Wortes daher indirekt als Stereotyp , d.h. als Zustand, Muster oder Verteilung von Bedeutungspunkt-Wert-Paaren (Tab. 1).
Im Rahmen der experimental-psychologischer Modellierung von Wissens- und Gedächtnisstrukturen19, sowie der in diesen Modellen definierten Operationen (spreading activation, priming ), welche die zuweilen schnellere Identifikation bzw. höhere Erinnerungsleistung konzeptuell verbundener Wortbedeutungen durch Versuchspersonen zu erklären suchten, vermag ein zweistufiges Repräsentations- und Lernsystem eine weiterführende Heuristik zu liefern. Sie legt nämlich nahe, die zwischen Konzepten bestehenden Relationen, welche für eine temporale Voraktivierung (priming ) wie für die assoziative Aktivierung der Konzepte selbst (activation ) vorausgesetzt werden, nicht mehr als vorgegebene statische Struktur sondern als Resultat von Struktur-ïnduzierenden Prozessen dynamisch zu modellieren. Für diese konnten zumindest Algorithmen gefunden und als Prozeduren in ersten systematischen Modellierungen implementiert werden.
Da der semantische Hyperraum zunächst als eine distanzrelationale Struktur vorliegt, können wohlbekannte algorithmische Suchstrategien nicht unmittelbar eingesetzt werden. Denn sie arbeiten nur auf nicht-ßymmetrischen, relationalen Datenstrukturen, wie sie etwa im Format der gerichteten Graphen in der traditionellen Bedeutungs- und Wissensrepräsentation als semantische Netzwerke geläufig sind. Für die Umwandlung der Hyperraumstruktur in eine solche Knoten-Zeiger-Struktur kann der semantische Raum als eine Art assoziativer Basisstruktur nurmehr potentieller konzeptueller Zusammenhänge verstanden werden. Bestimmte Prozeduren übernehmen es dabei, - je nach Aufgabenstellung, Bedeutung und/oder auslösender Situation - diese Basiskomponenten so zu reorganisieren, daß sie als konzeptuelle Zusammenhänge überhaupt in Erscheinung treten und als Wege oder Leitungsbahnen nachfolgender Verarbeitung zur Verfügung stehen. Was daher zunächst als ein Nachteil der verteilten Bedeutungsrepräsentation im Modell des semantischen Hyperraums erschien, erweist sich nun im Hinblick auf die Modellierung der dynamischen Veränderbarkeit von begrifflich-konzeptuellen Zusammenhangsstrukturen als ein Vorteil gegenüber den traditionellen symbolischen Repräsentationsformaten. Ungleich den vorgegebenen, präfixierten und unelastischen Strukturen semantischer Netze zur Modellierung prädikativen Wissens, können nicht-prädikative Bedeutungsrelationen als bloße Dispositionen konzeptueller Zusammenhänge aus lexikalischer Relevanz und semantischer Dependenz abgeleitet werden. Da sie in hohem Maße von situativen Bedingungen bestimmt sind, lassen sie sich besser prozedural modellieren, und zwar durch generative Algorithmen, die derartige dispositionellen Dependenzstrukturen (DDS) aufgrund sich verändernder Basisdaten immer erst dann induzieren, wenn sie benötigt werden. Das wird erreicht durch Aufruf einer rekursiv definierten Prozedur, die Hierarchien von Bedeutungspunkten als Baumgraphen unter bestimmten Aspekten generiert, je nach Dependenz und Relevanz der darin repräsentierten Bedeutungszusammenhänge.
So wurde beispielsweise ein Algorithmus gefunden, der auf den Daten des semantischen Hyperraums operiert und dessen konzeptuell verbundene Elemente, d.h. unscharfe Teilmengen von benachbarten Bedeutungspunkten als Baumstrukturen semantisch abhängiger Bedeutungspunkte reorganisiert, welche die unter einem konzeptuellen Aspekt (Wurzelknoten ) jeweils relevanten Zusammenhänge (Nachfolgerknoten ) darstellt.
Der rekursiv aufgebaute Algorithmus ermittelt dabei - je nach Lage des Bedeutungspunkts, von dem er gestartet wird und je nach Größe der Distanzen zwischen den Bedeutungspunkten, die er abarbeitet - ein Fragment des im semantischen Hyperraum repräsentierten lexikalisierten Wissens. Zwischen dessen Elementen wird dabei eine reflexive, nicht-symmetrische Abhängigkeitsrelation induziert, die den Baumgraph zu generieren erlaubt. Dessen Knoten bilden jene Bedeutungspunkte , die der Algorithmus nach abnehmender Relevanz zum Wurzelknoten bemißt (Kriterialitätswerte ) und anordnet (Dependenzrelation ). Diese Bäume liefern die - je nach variierenden Wissensbasen, Kontexten und Aspekten - unterschiedlichen, dabei veränderlichen semantischen Dispositionen (Abb. 1). Sie bilden die perspektivischen , je nach inhaltlichem Aspekt varierenden Zusammenhängen zwischen Bedeutungspunkten als konzeptuelle Komponenten auf eine Modellstruktur ab, welche die - je nach Aspekt - unterschiedliche, konzeptuelle Relevanz gleicher Lexeme in verschiedenen Bedeutungs- und/oder Interpretationszusammenhängen als Modelleigenschaft abzulesen gestattet.
Hierzu wurde eine Prozedur entwickelt und getestet, die gleichzeitig auf zwei (oder mehr) DDS -Bäumen in einer Art (simulierter) Parallelverarbeitung operiert. Der Algorithmus wird dabei durch Eingabe der Namen von zwei (oder mehr) Bedeutungspunkten gestartet, die als quasi konzeptuelle Prämissen fungieren. Die ihnen entsprechenden DDS -Bäume werden aus den Bedeutungspunkten des semantischen Hyperraums Knoten für Knoten generiert, während die eigentliche Folgerungsprozedur diese beiden (oder mehr) Teilbäume (breadth-first, depth-first oder nach höchster Kriterialität ) abarbeitet, wobei jeder abgearbeitete Knoten und der ihm entsprechende Bedeutungspunkt markiert wird. Die Verarbeitungprozedur kommt zu einem Halt, sobald ein schon markierter Bedeutungspunkt angetroffen wird, dessen entsprechender Knoten im Baum einer (der) anderen Prämisse(n) schon maraktiviert wurde. Er gilt als konzeptuelle Konklusion , von dem aus die Pfade zurück zu den jeweiligen konzeptuellen Prämissen die inhalts-semantischen Folgerungsschritte erkennen lassen, die - von den Startknoten aus - entlang der hierzu aktivierten semantischen Dependenzen (wie in Tab. ) zu dem betreffenden inhalts-semantischen Schluß geführt haben.
Auf der Basis des bisher grundlagentheoretisch erarbeiteten kognitiv-ßemiotischen Modells zur (algorithmischen) Analyse und Repräsentation von (vor-prädikativen) Bedeutungen in Texten bieten sich die besonderen (formalen und inhaltlichen) Modelleigenschaften an, die lexikalisch-ßemantischen Beziehungen als Teil des in natürlichsprachlichen Texten vermittelten, konzeptuellen Wissens nicht mehr auf ein (statisches) Netzwerk vorgegebener Konzeptstrukturen abzubilden, sondern als eine Sammlung von Prozeduren darzustellen, deren Operationen auf einer Menge von strukturierten Basisdaten (dynamisch) sich ändernde, variable Verarbeitungsresultate liefern, welche die Menge und Struktur dieser Basisdaten selbst zu verändern vermögen.
Anders als in den (propositionalen) Formaten zur (prädikativen) Bedeutungs- und Wissensrepräsentation der bisherigen KI-Forschung werden die skizzierten Prozeduren als zeitkritische Algorithmen unterschiedlicher (z.T. noch zu testender) Aufgabenstellungen und Operationscharakteristiken weiterzuentwickeln sein,
welche semantische Beziehungen zwischen Konzepten nicht voraussetzen müssen, sondern diese induktiv aus den Strukturen der analysierten Corpora als Funktion des Gebrauchs von Wörtern in Texten zu berechnen gestatten; welche - durch die Trennung von Basisstruktur und den auf dieser Basis operierenden Prozeduren - es erlauben, semantische Beziehungen zwischen den stereotypischen Repräsentationen (Bedeutungspunkten im semantischen Hyperraum ) von deren - je nach Aspekt, Perspektive, Kontext - variablen konzeptuellen Abhängigkeiten untereinander zu unterscheiden; welche - auf der Grundlage dieser konzeptuellen Hierarchien und der sie aktivierenden Prozeduren - assoziativ-analoges im Unterschied zu deduktiv-logischem Schließen als semantische Inferenzen modellieren; welche schließlich - durch ihre teils rekursiven, teils rückbezüglichen Strukturen - die Resultate solcher Verarbeitungsprozesse eben diesen Verarbeitungsprozessen zu unterwerfen vermögen.
Diese Prozeduren werden den Kern bilden für das TESKI -System21 zum ''orientierenden Verständnis'' von natürlich-sprachlichen Texten eines Sachgebiets, das den Systembenutzern ermöglichen soll, sich aufgrund von Anfragen zu frei wählbaren Stichwörtern, Begriffen, etc. über konzeptuelle Zusammenhänge zu informieren, die vom System unter diesen (oder anderen semantisch relevanten) Stichwörtern durch die Verarbeitung der Texte dieses Gegenstandsbereichs (als seinen semantischen Hyperraum ) aufgebaut und - Aspekt-abhängig nach Kriterien inhaltlicher Zusammengehörigkeit geordnet - in Form dynamischer, dispositioneller Dependenzstrukturen (DDS ) ausgegeben werden.
Eine sich anpassende Veränderung der Basisstruktur ist durch kontinuierliche Hinzunahme jeweils neuer Primärtexte ebenso möglich, wie durch Rückkopplung (Updating ), was über die Verarbeitung der Abfrage-Äntwort-Dialoge geschehen soll. Für deren Analyse kann das System die gleichen textanalytischen Verfahren einsetzen, wie beim automatischen Aufbau des semantischen Hyperraums , was eine System-ïmmanente, Benutzer-äbhängige Relevanz-Steuerung des Lernens/Vergessens von in der sprachlichen Umgebung des Systems erkennbaren Konzepten erlaubt. Mit seiner stereotypischen Repräsentation von vagen Bedeutungen lexikalischer Einheiten und den aus diesen durch konzeptuelle Abhängigkeiten aufgebauten semantischen Dispositionen werden darüber hinaus Beziehungen zwischen Bedeutungsrepräsentationen generiert, welche die in den vom System verarbeiteten Texten enthaltenen relevanten Informationen - je nach semantischer Perspektive und inhaltlichem Aspekt der Benutzer-Anfrage - inhaltlich re-organisiert und variabel darbieten.
Erste, gewiß noch vorläufige Resultate aus Versuchen mit Teilimplementationen sind inzwischen so ermutigend, daß die Entwicklungsarbeit - durch industrielle Anwender unterstützt - verstärkt auch im Rahmen jener konnektionistischen Neuansätze fortgesetzt werden, die das kognitive Verhalten natürlicher sprachverarbeitender Systeme in bezug auf fehlerhafte, unsichere bzw. unscharfe Bedeutungen (und deren Repräsentationen) sowie auf Vorgänge des Erkennens, Identifizierens, Lernens und Veränderns von solchen Bedeutungen (und deren Repräsentationen) anhand künstlicher dynamischer, selbst-regulierender und reflexiver Systeme studieren.
Barwise, J./Perry, J. (1983): Situations and
Attitudes. Cambridge, MA (MIT Press)
Collins, A.M./Loftus, E.F. (1975): "A spreading
activation theory of semantic processing."
Psychological Review
6: 407-428
Heidegger, M. (1927): Sein und Zeit.
Tübingen (M. Niemeyer) 101963
Kemke, C. (1988): "Der Neuere Konnektionismus. Ein Überblick",
Informatik-Spektrum 11: 143-162
Maturana, H.R. (1978): "Biology of Language. The epistomology of reality"
in: Miller, G.A./Lenneberg, e. (Hrsg): Psychology and Biology of
Language and Thought. NewYork (Academic Press), S. 27-64
Norvig, P. (1987): Unified Theory of Inference
for Text Understanding. (EECS-Report UCB/CSD 87/339) University of
California, Berkeley
Quillian, M.R. (1968): "Semantic Memory" in:
Minsky, M. (Hrsg): Semantic Information Processing. Cambridge
(MIT Press), S. 216-270
Rieger, B. (1977): "Bedeutungskonstitution. Einige Bemerkungen zur
semiotischen Problematik eines linguistischen Problems",
Zeitschrift für Literaturwissenschaft und Linguistik 27/28:
55-68
Rieger, B. (1981): "Feasible Fuzzy Semantics."
In: Eikmeyer, H.J./Rieser, H. (Hrsg):
Words, Worlds, and Contexts. New Approaches in
Word Semantics. Berlin/NewYork (de Gruyter), S. 193-209
Rieger, B. (1985): "Lexical Relevance and Semantic Disposition. On
stereotype word meaning representation in procedural semantics."
in: Hoppenbrouwes, G./Seuren, P./Weijters, T. (Hrsg): Meaning and
the Lexicon. Dordrecht (Foris), S. 387-400
Rieger, B. (1987): "Wissensrepräsentation und empirische Semantik.
Aufgaben der Computerlinguistik?" in: Pasternak, G. (Hrsg):
Theorie und Empirie. Ringvorlesung des Zentrum Philosophische
Grundlagen der Wissenschaft der Universität Bremen. Bremen (UP),
S. 99-149
Rieger, B. (1988): "TESKI - A natural
language TExt-SKImmer for shallow understanding and conceptual
structuring of textually conveyed knowledge." LDV/CL-Report 10/88,
FB II: Linguistische Datenverarbeitung, Universität Trier
Rieger, B. (1989a): Unscharfe Semantik.
Die empirische Analyse,
quantitative Beschreibung, formale Repräsentation und prozedurale
Modellierung vager Wortbedeutungen in Texten.
Frankfurt/Bern/Paris (P. Lang) 1989
Rieger, B. (1989b): "Computerlinguistik und
Verstehenstechnologie. Zur Abschätzung ihrer Aufgaben und möglichen
Folgen" in: Gatzemeier, M. (Hrsg): Verantwortung in Wissenschaft
und Technik. Mannheim/Wien/Zürich (B.I. Wissenschaftsverlag)
[im Druck]
Rieger, B./Thiopoulos, C. (1989): "Situations,
Topoi, and Dispositions. On the phenomenological modelling of meaning",
in: Retti, J./Leidlmair, K. (Hrsg): Proceedings: 5.
Österreichische Artificial-Intelligence-Tagung, Innsbruck-Igls März
1989, (Informatik-Fachberichte 208), Berlin/Heidelberg/New York
(Springer), S. 365-375
Schank, R.C. (1982): Dynamic Memory. A
Theory of Reminding and Learning in Computers and People.
Cambridge/London/New York (Cambridge UP)
Winograd, T./Flores, F. (1986): Understanding
Computers and Cognition: A New Foundation for Design. Norwood, NJ
(Ablex Publishing)
Wittgenstein, L. (1969): Über Gewißheit -
On Certainty. New York/San Francisco/London (Harper & Row),
[No.61-65], S. 10e
Zadeh, L.A. (1965): "Fuzzy sets." Information
and Control 8: 338-353
1Erschienen in: Kühlwein, W./Raasch, A. (Hrsg.): Angewandte Linguistik heute. [forum Angewandte Linguistik Bd. 20], Frankfurt/Bern/New York/Paris (Lang) 1990, S. 101-124.
2So etwa Barwise und Perry, die ihrer Situationssemantik (1983) wünschen "that the book will, in some small way, contribute to a rethinking of the relation of people to the world around them, a world full of constraints and meaning, both for people and for the other beings with whom they share it."(S. xiv).
3Speicherung und Weitergabe system-genetischer Eigenerfahrung
4Identifikation und Übernahme symbol-repräsentierter Fremderfahrung
5vgl. hierzu etwa Rieger (1989a) und Rieger/Thiopoulos (1989)
6"Meaning's natural home is the world, for meaning arises out of the regular relations that hold among situations - bits of reality. We believe linguistic meaning should be seen within this general picture of a world teeming with meaning, a world full of information for organisms approriately attuned to that meaning."(Barwise/Perry, S.16)
7"One situation s can contain information about another situation s¢ only if there is a systematic relation M that holds between situations sharing some configuration of uniformities with s and situations that share some other configuration of uniformities with s¢. These uniformities may be physical objects, abstract objects like words, physical or abstract properties or relations, places, times, or other uniformities. But in any case, it is the relationship M that allows us to say that the first situation means the second." (Barwise/Perry, S.14)
8nicht-optimal werden hier Problemlösungen genannt, welche Handlungsweisen zur Folge haben, die die zum Zeitpunkt der Entscheidung für oder gegen eine oder mehrere Alternativen solchen Handelns verfügbaren Informationen und Kenntnisse über dessen mögliche Konsequenzen nur deswegen nicht berücksichtigen, weil sie - wiewohl vorhanden - den Entscheidungsträgern nicht zugänglich waren oder aber als irrelevant erschienen.
9vgl. hierzu Rieger (1989a), insbesondere Kapitel 5 und 6
10Den ersten aus dem Kreis der KI-Forschung selbst hervorgegangenen Ansatz in dieser Richtung machten T. Winograd und F. Flores (1986), die eine aus phänomenologischer Sicht vorgetragene Kritik der bisherigen KI-Forschung und ihrer Systementwicklungen zur Verarbeitung natürlicher Sprache (natural language processing ) lieferten. Die Verwirklichung ihrer Forderung aber, sprachverstehende Tools - durchaus im Heidegger'schen Sinne - als kognotive System-Zeuge zu entwickeln, würde es notwendig machen, gerade auch die semiotischen Bedingungen solcher Systementwürfe phänomenologisch zu reflektieren, was bei Winograd/Flores jedoch unterbleibt (vgl. Rieger 1989b).
11Hierzu zählen insbesondere die konnektionistischen Modellbildungen neuronaler Netzwerke , die im Rahmen massiv paralleler Informationsverarbeitung zu neuen (verteilten) Formen der Informations-Repräsentation wie der Prozessoren-Anordnung in Rechnersystemen geführt haben (vgl. C. Kemke (1988)).
12Maturana, H.R. (1978)
13im subjektiven wie objektiven Sinne dieses Genitivs
14Norvig (1987)
15Der Begriff wird hier in einem schon früher entwickelten Verständnis verwendet, das Verfasser im einzelnen in Rieger (1977) entwickelt hat.
16Die Theorie wurde 1965 von L.A. Zadeh begründet und hat mit ihren vielfältigen Fortentwicklungen seither Eingang in fast alle Bereichen der Mathematik und in zahlreiche mathematisch-ëmpirisch arbeitenden Disziplinen gefunden.
17Rieger (1981)
18vgl. im einzelnen hierzu etwa Rieger (1989a)
19Quillian (1968); Collins/Loftus (1975)
20Schank 1982
21Rieger (1988)