Computerlinguistik
und Verstehenstechnologie

Zur Abschätzung ihrer Aufgaben und möglichen Folgen1

Burghard Rieger
FB II: Linguistische Datenverarbeitung/Computerlinguistik
Universität Trier

4. April 1989

1  Die Problemsituation

1.1  

Im Zeichen einer allgemeinen Informatisierung unserer Gesellschaft und unter dem Druck wie den Verheißungen tiefgreifender kommunikations-technologischer Veränderungen werden derzeit weltweit große Anstrengungen unternommen und beträchtliche Mittel in die Forschung investiert zur Untersuchung und Analyse jener Strukturen und Prozesse, aufgrund deren die Menschen in der Lage sind, sprachlich-semiotische Systeme zu entwickeln, zu erlernen und zu verwenden, um miteinander zu kommunizieren. Die jüngsten Fortschritte in der maschinellen Verarbeitung natürlicher Sprache (NLP: natural language processing ) im Schnittbereich der Forschungen zur künstlichen Intelligenz (AI: artificial intelligence ), der Kognitionstheorie (CS: cognitive science ) und der Computerlinguistik (CL: computational linguistics ), sowie der Umsetzung ihrer zunächst theoretischen Ergebnisse in praktische Anwendungszusammenhänge etwa in der Entwicklung von Expertensystemen, Arbeitsumgebungen, Ausbildungswerkzeugen, etc. sind bisher im wesentlichen dem Bereich der Ingenieur- und Naturwissenschaften zugute gekommen. Deren weitgehend auf formalisierbarem Wissen beruhende Problemlösungen sowie die dabei verwendeten logisch-deduktiven Verfahren ihrer Durchführung, überprüfung und Evaluierung legten es nahe, gerade innerhalb dieser Gebiete nach übergreifenden Algorithmisierungen zu suchen.

Diese Entwicklung hat gezeigt, daß der Einsatz von Computern nicht mehr nur als Rechner erfolgt, um numerische Ausdrücke zu verarbeiten, sondern als eine symbolverarbeitende Maschine mit der Fähigkeit, die als logische Formeln repräsentierten sprachlichen Aussagen zu interpretieren und ihre Richtigkeit (oder Falschheit) zu beweisen.

Trotz zahlreicher entweder schon als Software-Produkte auf dem Markt befindlicher oder aber noch in der Entwicklung stehender sogenannter ''intelligenter'' Systeme, kann von einer erfolgreichen Anwendung und übertragung dieser Ansätze im Bereich der Geisteswissenschaften bisher jedoch nicht die Rede sein.

1.2  

Anders als in Natur- und Ingenieurswissenschaften, deren Forschungsgegenstände und Untersuchungsverfahren in einer von der natürlichen Sprache unterschiedenen formalen oder apparativen Repräsentation höchster Intersubjektivität darstellbar sind, bilden die natürliche Sprache und die in ihr formulierten Texte die Grundlage der Geisteswissenschaften. Deren informatorische Basis besteht geschichtlich ja nicht zuletzt in den unterschiedlichen interpretatorischen Auslegungen von Texten sowie ihres jeweils (historisch, sozial, edukativ, etc.) veränderten Verständnisses, dessen Resultate sich wiederum in Texten niederschlagen, deren unterschiedliche interpretatorischen Auslegungen sowie ihr jeweils verändertes Verständnis sich wiederum ... , und so fort, was so zur lebendigen überlieferung von Geschichte wurde, und auch in Zukunft hoffentlich erhalten bleibt.

Den weitgehend in logischen Ausdrücken formalisierbaren Wissensbeständen der exakten Wissenschaften stehen damit die in sprachlichen Texten formulierten (oder doch formulierbaren) Verstehenszusammenhänge der Geistenwissenschaften gegenüber, wobei letztere - nicht zuletzt durch das Medium der natürlichen Sprache - ihrem Mangel an methodischer Strenge und formalem Rigorismus ihre Flexibilität in Richtung und Skopus ihres Verstehens- und Erklärungsanspruchs entgegensetzen kann. In dieser Offenheit liegt begründet, daß es bisher noch keine - den Algorithmen der logisch-deduktiven Verarbeitungsprozesse vergleichbaren - Algorithmisierungen jener hermeneutischen Prozesse zu geben scheint, die unscharfes Wissen und vage Bedeutungen in analoger Weise zu verarbeiten vermöchten.

2  Die natürliche Sprache

2.1  

Seit ihrer schriftlichen Fixierung und insbesondere seit der Entwicklung und Vervollkommnung der drucktechnischen Möglichkeiten hat sich die natürliche Sprache als ein kulturgeschichtlich einzigartiges, vergeichsweise universelles Repräsentationsmedium erwiesen. Vielfach den rein abbildenden (auch neueren) Formen klanglicher und/oder visueller Darstellung durch eine vergleichsweise hohe semiotische Abstraktheit überlegen, konnte und kann Sprache dabei nicht nur den unterschiedlichsten Aufgaben entsprechen, welche eine gleichermaßen auf Generalisierung wie Spezifizierung ausgerichtete, umfassende Informations- und Wissensvermittlung stellt, sondern sie erwies sich darüber hinaus als flexibles und anpassungsfähiges Medium sehr grundlegender, zudem veränderbarer Strukturierungen von Welt und Wirklichkeit (oder Ausschnitten daraus), dessen sich sprachbeherrschende, kognitive Systeme - wie der Mensch - per Kommunikation zu ihrer wechselseitigen Orientierung bedienen.

Für die meisten Anwendungszusammenhänge ist die Linearität der sprachlichen Darbietungsform dessen, was wir als Bedeutung oder Inhalt von Texten zu bezeichnen uns angewöhnt haben, nicht nur eine Darstellungsweise, sondern in ihrer linguistischen Funktion gleichzeitig auch Bedingung semiotischer Struktur- und Systembildung2. Darüber hinaus stellt diese lineare Ordnung ein gewissermaßen erzieherisches Prinzip dar bei der ''allmählichen Verfertigung der Gedanken beim Sprechen'' und/oder Schreiben zur überführung vieldimensionaler, konzeptueller Zusammenhänge in eindimesionale Verkettungen sprachlicher Zeichen in Texten, wie ebenso auch umgekehrt beim allmählichen Aufbau und Vollzug gedanklicher und konzeptueller Zusammenhänge aus der Linearität sprachlicher Texte. Diese Prozesse können wir übergreifend - sowohl als Verstehen in der Anknüpfung an schon vorhandene wie auch als Lernen im Zustandekommen neuer Zusammenhänge - als Bedeutungskonstitution 3 bezeichnen, deren (simulative/kreative) Nachbildung im Computer heute die zentrale Herausforderung der einschlägigen Forschung bildet.

2.2  

Das Vermögen der Menschen, sprachliche Texte produzieren und rezipieren zu können, die in ihnen vermittelten Bedeutungen zu verstehen und aus ihnen Kenntnisse zu erwerben, die sie als Wissen (ähnlich dem aus eigenen, praktischen Erfahrungen aufgebauten Erkenntnissen) verwenden, ist eine der wichtigsten Voraussetzungen bei der gemeinsamen Lösung neuer Probleme. Dieses Vermögen, nicht ausschließlich nur aus real-weltlichen Gegebenheiten und Erfahrungen, sondern auch aus den semiotischen Repräsentationen solcher Gegebenheiten und Erfahrungen (tatsächlicher oder fiktiver Art) oder aus repräsentierten Lern resultaten selbst wiederum lernen zu können, erweist sich als  d i e  grundlegende, sozio-historisch wirksame Bedingung für das Zusammenleben der Menschen in Gemeinschaften unterschiedlichster Strukturierung. Daß dieses Vermögen jedoch angesichts des tiefgreifend veränderten Umgangs mit Sprache und Schrift unter dem Einfluß der informatischen Technologien mittlerweile häufig als unzureichend ausgebildet erscheint, macht sicherlich verstärktes Training und intensivere Einweisung erforderlich, damit solches Vermögen auch praktisch anwendbar bleibt. Die heute schon vorliegenden Mengen sprachlicher Texte, deren massenhafte Produktion in Zukunft eher zu- als abnehmen wird, ebenso wie die bisher kaum absehbare Lösungsmöglichkeit derzeit schon bestehender und zukünftig noch entstehender Problemlagen, läßt es wünschenswert erscheinen, eine Unterstützung durch eben jene Techniken und Technologien zu erwarten, deren bloß technisch-informatischer, nicht aber schon semiotisch-kognitiver Einsatz das hier auszugleichende kommunikative Defizit hervorgerufen hat4.

3  Verstehen als technologisches Problem?

3.1  

Es muß betont werden, daß es bei diesem Defizit nicht um quantitativen Mangel von jener Art geht, welcher durch umfassendere Bereitstellung zusätzlicher Daten und Informationen sich beheben, und dessen Ausgleich daher bessere Problemlösungen automatisch finden oder anstehende Entscheidungen mechanisch und schneller treffen ließe; vielmehr gilt es zu erkennen, daß - wie bei allen industriellen Produktionsformen am Markt - auch bei den Produktions- und Verwertungszyklen von Daten und Informationen nicht nur ein überfluß des Angebots entsteht, sondern auch massenhaft Abfall . Die technisch-informatische Ununterscheidbarkeit von verwertbarem Produkt und unverwertbarem Ausschuß potenziert dabei das Problem angesichts eines über alle Maßen anwachsenden Angebots an und der ständigen (elektronisch gewährleisteten) Verfügbarkeit von Daten und Information , deren Kanalisierung nach einer kognitiv-semiotischen Unterscheidung von relevanten und irrelevanten Zusammenhängen verlangt.

Eine sachgerechte Auswahl von jeweils wichtigem Material aus einem Gegenstandsbereich im Hinblick auf bestimmte Zusammenhänge oder unter dem Aspekt bestimmter Interessen ist mittlerweile kaum mehr möglich. Sie überfordert in vielfacher Hinsicht den einzelnen menschlichen Problemlöser wie meistens auch ganze Expertenteams. Bei der Tragweite und den oft unabsehbaren Risiken nicht-optimaler5 Problemlösungen ergibt sich daher die Notwendigkeit, die spezifische Weise, in der das natürliche kognitive System Mensch das ihm verfügbare Wissen zu Problemlösungen nutzt, auch in künstlichen intelligenten Systemen nachzubilden.

3.2  

Dies erscheint umso dringlicher angesichts des Unvermögens sogenannter intelligenter, wissensbasierter, sprachverstehender Systeme der bisherigen AI-Forschung6. Deren bisher eher behauptete als schon realisierte kognitive Fähigkeiten beruhen nämlich auf Funktionen, die diese Systeme - oder ihre Weitereintwicklungen - zwar in die Lage versetzen, bestimmte Aufgaben- und Problemstellungen, die von den Systementwicklern innerhalb bestimmter schon verstandener Zusammenhänge antizipiert werden, lösen zu können, durch die diese Systeme aber kaum je in den Stand gesetzt werden können, die inzwischen als unzulänglich erfahrene Fähigkeit des Menschen zu verbessern, sich in einer ihm zunehmend fremden, weil komplexer strukturierten Umgebung zu orientieren und sie als seine Welt zu verstehen . Als im kognitiven Sinne intelligent könnten demnach erst solche Systeme bezeichnet werden, die dieses spezifische Unvermögen des Menschen in ähnlich effizienter Weise auszugleichen im Stande wären, wie eine die Linsenbrechung der Augen korrigierende Brille das defiziente Sehvermögen ihres Trägers seinen Erfordernissen anzupassen vermag. Die Rede ist von einer durchaus neuartigen funktionellen Operabilität sogenannter poly-texturaler 7 Systeme und deren Handhabbarkeit, welche durch ihre - wie selbstverständlich genutzten - Leistungen die Benutzer quasi vergessen lassen, daß sie sich überhaupt eines Hilfsmittels bedienen. Jedes derartige System8 und die wünschenswerte Besonderheit seiner Leistungen läßt sich daher als Zeug kennzeichen, dessen Zuhandenheit eine quasi vor-theoretische Erschließung von Wirklichkeit als Welt konstituiert.

4  Der neue Systemansatz

4.1  

Eine solche Auffassung macht freilich ernst mit einem auch phänomenologischen Verständnis von Systemaktivität9, das weder die Repräsentation einer System-umgebenden Wirklichkeit noch das Wirklichkeits-angemessene System-Verhalten in Form von Programmen zur Verarbeitung von Daten und Informationen schon voraussetzen kann, sondern diese Aktivität in Form von Prozeduren beschreibt, deren zeitlicher Ablauf in Prozessen gerade jene Veränderungen zu simulieren gestattet, die sowohl das System selbst als auch die ihm zugänglichen Umgebungen in Abhängigkeit von den jeweils erreichten Zuständen modifizieren.

Derartig dynamische Architekturen offener Systeme10 können in einem neuen Sinne wissensbasiert insofern genannt werden, als sie Verstehen 11 nicht mehr mit dem Prozeß des Interpretierens von Gegebenheiten oder Zusammenhängen aufgrund von Wissen gleichsetzen sondern als diejenige Aktivität des Systems begreifen, die vermöge der Zustands-abhängigen Interpretation von Gegebenheiten und Zusammenhängen aufgrund von System-eigenem Wissen eben dieses Wissen kontinuierlich verändert (strukturelle Kopplung )12.

4.2  

Im Modell vermöchte ein solches kognitives System danach aufgrund seiner Wissens-Strukturen nur jene Elemente in seiner Umgebung zu erkennen, die sich aufgrund seiner eigenen Wissens-Organisation als potentielle Zusammenhänge erschließen lassen. Als die Menge möglicher Zusammenhangsstrukturen bilden diese Umgebung die Welt des Systems, insofern sie sich ihm durch veränderte Interpretationen der dadurch jeweils zugänglichen Aspekte erschließt. Der Prozeß des Erschließens wird dabei als zeitliche Abfolge von Wissens-Zuständen faßbar. Deren Aufbau und deren Veränderungen modellieren das Verstehen und Lernen des kognitiven Systems übergreifend als seine Weise der Bedeutungskonstititution .

Als kognitive Hilfssysteme des Menschen konzipiert, bestände die Leistung eines solchen informationsverarbeitenden Tools als eines zeug haften Modellsystems daher nicht mehr nur - wie in den sogenannten wissensbasierten Systemen der traditionellen AI-Forschung - in der Anwendung unveränderlicher, jedenfalls schon vorausgesetzter Strategien und Operationen auf vorgegebenen Daten und Strukturen, sondern vielmehr darin, daß sein quasi kognitives Vermögen - dem lebender Systeme vergleichbar - es innerhalb seiner strukturellen Beschränkungen und im Rahmen der durch seine jeweiligen Umgebungen vorgegebenen Restriktionen lernfähig macht. Diese Lernfähigkeit wiese sich in der kontinuierlichen Veränderung seines Wissens durch Anwendung dieses Wissens aus und ließe sich ablesen an der damit sich erhöhenden Brauchbarkeit des Systems. Modellsysteme dieser Art sind daher - wenn überhaupt - noch am ehesten als Prototypen anzusehen für die Entwicklung und Erprobung einer zukünftigen Verstehenstechnologie.

5  Stellung und Aufgabe der Computerlinguistik

5.1  

Technologisch war der übergang von der Daten- zur Informationsverarbeitung gekennzeichnet durch die elektronische Speicherung und weltweit abrufbare Verfügbarkeit von (fachspezifischen) Teilbereichen des vorhandenen Wissens in Daten- und Informationsbanken. Der weiterführende Schritt von der Informations- zur Wissensverarbeitung ist derzeit als Herausforderung erkannt und wird inzwischen als zukunftweisende Aufgabenstellung in der Forschung angegangen.

Im Rahmen der Systementwicklungen, die in der auf die Verarbeitung der natürlichen Sprache gerichteten AI-Forschung und der Computerlinguistik verfolgt werden, stehen Forschungsbereiche im Vordergrund, welche weitgehend noch durch Begriffe wie Grammatikformalismen und Parsingstrategien natürlicher Sprache, Maschinelle übersetzung, Wissens- und Bedeutungsrepräsentation, Verstehenssimulation abgedeckt werden; gleichzeitig beherrschen Schlüsselwörter wie Wissensbasiertheit, Lernfähigkeit, Selbstorganisation, Fehlertoleranz und Dynamik den Forderungskatalog, durch den wünschenswerte Systemeigenschaften in der Anwenderdiskussion umrissen werden. Sie richtet sich verstärkt auf Expertensysteme, integrierte Arbeitsplätze, Kommunikations-, Ausbildungs- und Denkwerkzeuge , die schon keine bloßen Schlagworte mehr sind sondern inzwischen durchaus auch merkantil nutzbare und genutzte Entwicklungen bezeichnen. Denn es gibt mittlerweile derartige Systeme, wir selbst arbeiten in meiner Arbeitsgruppe an der Lösung eines Teil-Aspekts der mit ihnen heraufkommenden neuartigen Probleme - und wir erfahren dabei unversehens, wie diese sich ausweiten und zu einiger Radikalität in der (möglichen und/oder nötigen) Revision sehr vertrauter Vorstellungen z.B. von Text, Verstehen, Wissen aber auch von Autor, Individualität, Kreativität führen.

5.2  

Die überzeugung, daß das Sprachvermögen zu jenen Eigenschaften gehört, welche den Menschen als überlegenes kognitives System vor anderen natürlichen, Informations-verarbeitenden Systemen auszeichnet, ist vielen wissenschaftlichen Disziplinen gemeinsam. Daß aber gerade das Sprachvermögen jene besondere Fähigkeit sein könnte, welche dem Menschen - zumindest mittelbar - erst erlaubte, die Welt, die er mit anderen lebenden Systemen als gemeinsame Lebenswelt teilt, weitgehend und fast ausschließlich zu  s e i n e r  Umwelt zu machen, ist auch für die neuere kognitive, systemtheoretisch orientierte Forschung eine noch nicht geläufige oekologische Einsicht13. Denn erst die Möglichkeit, nicht nur Erfahrungen zu machen, deren Resultate über genetische Speicherung und Weitergabe zu Veränderungen langfristig System-erhaltender Anpassung an neue Lebensbedingungen führen, sondern diesen sehr zeitraubenden Prozeß der endotopen Anpassung (Speichern system-genetischer Eigenerfahrung) durch exotope Veränderungen (übernahme symbol-repräsentierter Fremderfahrung) zu beschleunigen, zeichnet das kognitive System Mensch vor anderen aus. Seine Fähigkeit, Erfahrungsresultate ganzer Generationen (unabhängig von ihrer genetischen Vermittlung) allgemein zugänglich und kurzfristig vermittelbar in Symbolen zu repräsentieren, deren relative System-Unabhängigkeit die relative Unabhängigkeit der Systeme bedingt, potenziert und beschleunigt deren Veränderungen. Das Wissen , das das System Mensch so über kognitiv-semiotische Prozesse des Verstehens und Lernens von Repräsentationen von Erfahrungen anderer Systeme anhand sprachlicher Texte aufbaut und ständig verändert solange es lebt, konstituiert und modifiziert die den Menschen umgebende Welt (und zwar leider ganz offenbar in dem Maße und Tempo, wie er sie - durch anthropozentrische Ausbeutung ihrer Resourcen und durch Verschmutzung mit seinen Abfällen - sich und anderen lebenden Systemen eben dadurch als mögliche Lebenswelt entzieht).

5.3  

Man kann - was aus dem bisher Gesagten auch schon deutlich geworden sein dürfte - zusammenfassend sagen, daß es sich bei Entwurf und Konstruktion solcher neuartigen intelligenten, Wissens-basierten Systeme, die wir hier kognitiv genannt haben, nicht mehr nur um eine ingenieurswissenschaftliche Umsetzung von theoretisch geklärten und formal expliziten Modellbildungen handelt, sondern daß es um die Modellierung eines mit der sprachlichen Bedeutungskonstitution verbundenen, allgemeinen kognitiv-semiotischen Prozesses geht. Da er - quasi sich selbst organisierend - auf das Erkennen solcher (sprachlicher) Zusammenhänge zu zielen scheint, die durch dieses (verstehende) Erkennen vielfach erst gestiftet werden, wird deutlich, weshalb hier die Computerlinguistik in höherem Maß gefordert ist als die traditionelle AI-Forschung, deren (z.T. negativen) Ergebnisse und (z.T. unzureichenden) Systeme gleichwohl die anstehende Problematik zumindest zu erkennen halfen.

6  Hypertext

6.1  

Anhand einer der vielversprechenden Systementwicklungen, die - als Denkwerkzeug apostrophiert14 - seit Neuestem (etwa 1986) viel diskutiert wird, soll im folgenden versucht werden, wenigstens einige Aufgaben- und Problemstellungen beispielhaft zu illustrieren, die mit einer über die bloß technologischen Veränderungen der Textproduktion und -vermittlung hinausgehenden Veränderung der kommunikativ-medialen Funktionen wie auch der diese erst ermöglichenden text-sprachlichen Strukturen verbunden sind; sie werden in ihren kaum abschätzbare Auswirkungen daher auch nur angedeutet werden können.

Obwohl im Prinzip aus Komponenten aufgebaut, die traditionellerweise der Systementwicklung der maschinellen Verarbeitung natürlicher Sprache (NLP)15 zugerechnet werden, bilden die sog. Hypertext (HT) -Systeme eine neue Entwicklungsstufe im übergang von der Informations- zur Wissensverarbeitung. Auf älteren Ansätzen und überlegungen aufbauend16, die das menschliche Vermögen zur Konzeptualisierung durch maschinelle Hilfen zu verbessern suchten, wird diese neue Kommunikations- und Verstehens-Technologie aufgrund fortgeschrittener Hard- und Software-Lösungen heute zu preiswerten und damit weitverbreiteten Anwendungssystem führen. Deren Prinzipien sollen hier kurz vorgestellt werden, um (mögliche) Veränderungen ein- und abschätzen zu können, die sich aus der allgemeinen Nutzung dieser neuen Technologie für den Umgang mit Sprache als dem kognitiv-semiotischen Repräsentationsmedium des Menschen, für das Welt und Wissen verändernde Sprachverstehen und für die sprachliche Kommunikation ergeben könnten.

6.2  

Den meisten modernen Systemen der Daten- und Informationsverarbeitung ist gemeinsam, daß sie als Verzeichnisse aufgebaut sind, die Dateien enthalten, welche aus Texten bestehen und ihrerseits aus Zeichen zusammengesetzt sind. Diese lineare Ordnung ist für die Mehrzahl der Aufgabenstellungen heutiger Daten- und Informationsverarbeitungssysteme ausreichend. Mit der Verfügbarkeit von zunehmend komfortableren Entwicklungsumgebungen und Arbeitplätzen (Workstations ), die zahlreiche z.T. sehr unterschiedlicher Werkzeuge zur Bewältigung einer Vielzahl von Aufgaben etwa der Textbearbeitung, der Informations- und Dokumentationsarbeit, der graphischen Darstellung, der numerischen Kalkulation, der statistischen Auswertung, der formal-logischen Analyse und überprüfung, etc. integrieren und für einzelne Teilbereiche mit den erforderlichen Daten und Wissensbasen ausstatten, wuchs allerdings das Bedürfnis danach, neben der ein-dimensionalen (linearen) Darbietung von Informationen im Text auch höhere Formen der mehr-dimensionalen Daten- und Informations-Organisation zur Verfügung zu haben.

So stehen heute Mechanismen bereit, die einen direkten Verweis von einem Teil eines Texts auf einen anderen im selben oder in einem (oder mehreren) anderen Texten nicht nur elektronisch herzustellen sondern als Zusammenhang auch derart zu repräsentieren erlauben, daß er jederzeit reproduzierbar ist. Verschiedene Einzelinformationen können auf diese Weise zu kleineren oder größeren Einheiten zusammengefaßt und durch Verweise auf ihre wechselseitigen Komponenten so dargestellt werden, daß unterschiedliche Zuordnungen auch unterschiedlichen Verbindungen entsprechen.

6.3  

Dieses im Grunde einfache Schema von HT-Systemen hat nun durch die Fenstertechnik auf dem Bildschirm und direkte Unterstützung durch Datenbasen für eine neue Sicht von Information gesorgt, weil sprachlich vermittelte Bedeutung sich nicht mehr nur als lineare Verkettung von Zeichen sondern erstmals als vieldimensionale Aggregation von bedeutungstragenden Elementen sehr verschiedener semiotischer Ebenen darstellen, erkennen, und sichtbar machen ließ.

Jedem (benennbaren) Fenster auf dem Bildschirm sind (identifizierbare) Objekte in der Datenbasis zugeordnet, und es können Verbindungen hergestellt (und benannt) werden sowohl zwischen diesen Objekten innerhalb der Datenbasis (durch Zeigerstrukturen: pointer ) als auch graphisch auf dem Bildschirm (durch kommentierbare Etiketten/Bildsymbole: icons ). Die Datenbasis erscheint so als ein Netzwerk von Verweis-Kanten zwischen textuellen (oder graphischen) Knoten , das - als gerichteter (Hyper-)Graph selbst eine Art Hyperdokument - in beliebigen Teilausschnitten auf den Bildschirm gebracht werden kann. Da jedem Bildschirm-Fenster ein Knoten in der Datenbasis entspricht, kann dessen Inhalt - durch öffnen des betreffenden Fensters - auf den Bildschirm gebracht werden, wobei freilich die Zahl der gleichzeitig offenen Knoten/Fenster beschränkt ist.

Maus-gesteuerten Standardfunktionen der Fenstertechnik, die das öffnen, Verschieben, Verändern der Größen/Ausschnitte, öffnen und Schließen von Fenstern auf dem Bildschirm umfassen, werden dabei ergänzt durch HT-spezifische Funktionen: die mnemotechnisch über Etikette/Bildsymbole angezeigten Inhalte von Knoten und Kanten werden durch Anklicken als Fenster geöffnet, Schließen eines Fensters bewirkt übertragung aller im Fenster vorgenommenen Veränderungen in die Datenbasis, Anklicken des Icons per Maus öffnet das Fenster wieder auf dem Bildschirm, etc.

Da Fenster eine beliebige Anzahl von etikettierten Verbindungen (Namen von Kanten zu anderen Fenstern) als Verweise enthalten können, die Zeigern zu anderen Knoten in der Datenbasis entsprechen, kann der Benutzer von jedem Knoten beliebig viele neue Verbindungen herstellen sowohl zu neuen Knoten (z.B. um Anmerkungen, Kommentare, Zusätze aufzunehmen) oder zu schon bestehenden Knoten (z.B. um eine noch nicht bestehende Verbindung neu zu definieren). Das rekursive Bauprinzip der HT-Architektur läßt dabei eine beliebige (nur durch die Rechnerleistung beschränkte) Tiefe vieldimensionaler Beziehungsgeflechte zu, deren spezifische Ausfüllung von der jeweiligen Ordnungsebene einer semiotischen und/oder konzeptuellen Strukturierung abhängt. Das macht HT-Systeme zu geeigneten Werkzeugen bei der Maschinen-unterstützen Sammlung, Darstellung, Veränderung und Verfügbarkeit vieldimensionaler konzeptueller Verbindungstrukturen, deren Zusammenhänge sich sowohl aus den Microstrukturen der in den einzelnen Knoten enthaltenen Informationen als auch aufgrund von interpretativen Akten der die Makrostruktur des Hyperdokuments bearbeitenden Benutzer ergeben können.

Damit scheinen HT -Systeme sich in der Tat als Kandidaten anzubieten, deren Einsatz als Denk-Zeuge den kommunikativen Umgang mit Sprache und mit in sprachlichen Strukturen repräsentierten Inhalten und Bedeutungen revolutionieren könnte. Als ein dem menschlichen Gedächtnis (vermutlich) näheres, weil assoziativ-parallel (nicht deduktiv-seriell) strukturiertes Modell der Wissensverarbeitung befreit es seine Benutzer ganz offenbar vom Zwang der Linearisierung, dem sie bei der Umsetzung ihrer (vermutlich) vieldimensionalen, kognitiv-konzeptuellen Vorstellungen in sprachlich vermittelbare Zusammenhänge bisher unterworfen waren.

7  Das Strukturierungsproblem

7.1  

Im Falle eines Korpus von Texten unterschiedlicher Autoren zu einem übergeifenden Thema könnte dieses Korpus das Hyperdokument bilden. Im Hyperdokument erschiene etwa jeder Autorentext als ein Knoten, dessen wechselseitigen Verbindungen (wegen der übergeifenden Thematik) durch ihr gleichartiges Vokabular, identische oder verwandte Inhalte, Sachbezüge, Ideen, aber auch durch direkte wechselseitieg Verweise, etc. hergestellt würden. Dem an diesem Thema interessierten Neuling fällt eine Einarbeitung als Benutzer dieser HT -Struktur leicht: textmateriell bestehende Zusammenhänge brauchte er nicht mehr herauszufinden, da sie ihm optisch als Graph dargeboten werden; geläufige konzeptuelle Zusammenhänge erkennt er wieder, ihm unbekannte kann er als solche erkennen und - falls gewünscht - die ihnen zugrunde liegenden Informationen als Inhalte der betreffenden Knoten bzw. Kanten sich ansehen; zugeordnete neue versuchsweise definieren, um schließlich einen Gesamtzusammenhang der bearbeiteten Thematik als ''sein'' Hyperdokument abzulegen. Eine solche HT -Struktur ist wie eine Moment-Aufnahme der gedanklichen, textualen Verstehens-Arbeit eines Bearbeiters über ein Thema, mit einer (für ihn und andere Bearbeiter) wieder abrufbaren Entwicklungsgeschichte bis zu diesem Zustand, eine Art Verlaufsmodell seines sprachlich-kondensierten Verstehens-Prozesses, wiederaufnehmbar, nicht abgeschlossen, jederzeit veränderbar in Breite (durch neue Knoten) und Tiefe (durch neue Verbindungen).

7.2  

Im Verlaufe der (individuellen und/oder kollektiven Arbeit) an einem Hyperdokument (i.e. einer Datenbasis, einem Entwurf eines Textes, einem konzeptuellen Brainstorming bei der Entwicklungsarbeit, etc.) kann die Struktur der alten und neuen Knoten und Kanten schnell eine Komplexität erreichen, die im multi-dimensionalen Repräsentationsformat des HT -Systems angelegt ist.

Wegen dieser vieldimensionalen Repräsentationsstruktur von HT , die das Prinzip der linearen Ordnung sprachlicher Texte wesentlich ergänzt, werden aber - über die graphische Darbietung des inhaltlichen Verweissystems (oder Ausschnitten daraus) als Netzwerk von Knoten und Kanten hinaus - solche Ordnungsprinzipien wichtig, die als Grundlage unterschiedlicher Verfahren der Durchmusterung und Suche (browsing ) von in HT -Strukturen organisierter Information dienen können. Conklin17 nennt drei Such-Prinzipien:

  • entlang bestehender Verbindungen, wodurch die angetroffenen Knoten nacheinander als Fenster geöffnet werden und deren Inhalt sichtbar machen;
  • aufgrund der Netzwerkstruktur (oder Teilen davon), wobei nach bestimmten Zeichenketten, Schlüsselwörtern oder Attribut-Werten gefragt wird;
  • vermittels einer strukturellen Steuerung, die es aufgrund graphischer Darstellung der jeweiligen Regionen erlaubt, durchs Netzwerk zu navigieren, wobei die Knoten als Icons und die Verbindungen als Kanten dargestellt werden, jeweils mit oder ohne ihre Namen bzw. Etiketten.
  • Da die Suchstrategie den gesamten Strukturzusammenhang des Hyperdokuments (oder Teile davon) als Graphen abbildet, bietet sie gleichzeitig Aufschluß über Nähe und Ferne von Knoten sowie die Anzahl und das Gewicht ihrer Verbindungen als wichtige Hinweise auf konzeptuelle Zusammenhänge und Nachbarschaften.

    7.3  

    Die Möglichkeit zu struktureller Orientierung und zielgerichteter Bewegung in HT -Repräsentationen mittels eines geeigneten Navigationsinstruments (HND) 18 bildet dabei eine entscheidende - bisher jedoch erst in Ansätzen realisierte - Voraussetzung der praktischen Nutzung und Zeug -haften Handhabbarkeit von HT -Systemen als einer neuartiger Wissenstechnologie.

    Das leuchtet sofort ein, wenn man sich die Veränderungen vor Augen führt, die mit dem übergang von der linearen Strukturierung herkömmlicher Textdokumente zur Vieldimensionalität von Hyperdokumenten verbunden ist:

  • Die Unterscheidung, die wir in bezug auf lineare sprachliche Texte noch zwischen Textautor und Textleser sinnvoll machen können, wird angesichts viel-dimensionaler Hypertexte und ihrer Benutzer , die zumindest potentiell immer sowohl HT-Leser als auch HT-Autoren sind, bedeutungslos.
  • Von jedem Benutzer werden in den unterschiedlichsten Weisen, je nach Erfahrungsstand und herangetragenem Verständnis durch Hinzufügung und Aktivierung von, wie durch Erweiterung und Kommentierung zu einzelnen Schlüsselwörtern, Relationen oder ganzen Konzeptzusammenhängen jene Veränderungen in ein Hyperdokument eingeführt, die - sowohl als erweiternde Ergänzungen wie auch als vereinfachende Zusammenfassungen - nicht mehr dem Zwang zur Linearisierung unterworfen sind und damit schnell die so entstehenden Hyperstrukturen nach Gliederung und Tiefe unüberschaubar werden lassen.
  • Selbst wenn nur ein Benutzer in einem Sachbereich an einem Hyperdokument arbeitet, wird dieses je nach Domaine und Kreativität dieses Autors schon bald ein Maß an Komplexität erreichen, daß es ihm schwer macht, sein HT -System ohne Navigationshilfe fruchtbar zu nutzen.
  • Vor diesem Hintergrund versagen Herkömmliche Strukturierungsprinzipien (prädikativer Zuordnungen) ersichtlich deswegen, weil sie als Wertzuweisungen auf propositionaler Basis eine Linearisierung schon voraussetzen, die aufgegeben zu haben gerade die (formale) Stärke jeder Hyperstruktur ist.

    8  Die Entwicklung eines Text-Skimmers

    8.1  

    Das Projekt stellt den Versuch einer den modernen Technologien entsprechenden Antwort dar auf den durch eben diese Technologien ausgelösten Informationsüberfluß sowie auf die mit industrieller überflußproduktion verbundenen Probleme der Entsorgung . Diese sollte - wenn schon nicht auf eine Beseitigung so doch zumindest - auf eine Kanalisierung des anfallenden Informations-Mülls oder Abfalls hinauslaufen und zwar mit dem Ziel, durch diese Kanalisierung das Verhältnis von Informations-Nachfragern und Informations-Anbietern zu spezifizieren. Ein damit sich verengender Informations-Markt könnte bei saubererer Produktion zu einem Kosten-günstigeren Informations-Angebot führen.

    Die Rede ist von der oben schon angesprochenen Flut sprachlicher Produkte, Texte und Neuerscheinungen. Sie wird in den meisten industriellen Anwendungsbereichen, wissenschaftlichen Disziplinen und selbst in einzelnen, sehr spezialisierten Teilgebieten - durch Textverarbeitungssysteme erleichtert und innerhalb Welt-umspannender Informationsnetze verbreitet - von der Menge der Forscher/Entwickler/Änwender weltweit gespeist, gleichzeitig aber kann sie von den einzelnen betroffenen Forschern/Entwicklern/Anwendern kaum mehr bewältigt, d.h. nicht mehr rezipiert werden im Sinne einer umfassenden und intensiven Lektüre.

    Ein automatisches System zum orientierenden diagonalen Lesen (skimming) von Texten19, das lernfähig sein Wissen verändert je nach gelesenen Texten und aufgrund freiwählbarer Stichwörter inhaltlich relevante Zusammenhänge dieses Wissens unter wiederum freiwählbaren Aspekten dem Benutzer darbietet, kann in dieser Situation helfen, die Menge des in sprachlichen Texten verfügbaren Wissens zu sichten, zu organisieren, und auf jene Zusammenhangsstrukturen einzuschränken, deren sprachliche und/oder graphische Darbietung - unter dem gewünschten Aspekt der betreffenden und das in den Texten vermittelte Wissen charakterisierenden Stichwörter - erkennen läßt, welche der vom System verarbeiteten Texte noch am ehesten eine zeitaufwendige Lektüre mit Aussicht auf Kenntniszuwachs und Verstehensgewinn rechtfertigen.

    Anknüpfend an früher entwickelte Modellbildungen und deren Implementationen20 bietet die Theorie der unscharfen (fuzzy ) Mengen in Verbindung mit statistischen Verfahren der quantitativen Analyse großer Textcorpora die Möglichkeit, die Vagheit natürlich-sprachlicher Bedeutungen als Stereotype zu repräsentieren und in ihrem systematischen Zusammenhang topologisch als Raumstruktur darzustellen. Deren besondere (formale und inhaltliche) Eigenschaften können dabei dazu benutzt werden, die lexikalisch-semantischen Beziehungen nicht nur als ein (statisches) Netzwerk abzubilden sondern als (dynamisch) sich ändernde, variable Resultate von Prozeduren darzustellen.

    8.2  

    Auf dieser Basis eines grundlagentheoretisch erarbeiteten kognitiv-semiotischen Modells zur (algorithmischen) Analyse und Repräsentation (vor-prädikativer) Bedeutungen in Texten und anders als in den (propositionalen) Formaten zur (prädikativen) Bedeutungs- und Wissensrepräsentation der bisherigen AI-Forschung wurden diese Prozeduren als zeitkritische Algorithmen unterschiedlicher (z.T. noch zu testender) Aufgabenstellungen und Operationscharakteristiken entwickelt,

  • welche semantische Beziehungen zwischen Konzepten nicht voraussetzen müssen, sondern diese induktiv aus den Strukturen der analysierten Corpora als Funktion des Gebrauchs von Wörtern in Texten zu berechnen gestatten;
  • welche - durch die Trennung von Basisstruktur und den auf dieser Basis operierenden Prozeduren - es erlauben, semantische Beziehungen zwischen den stereotypischen Repräsentationen (Bedeutungspunkten im semantischen Hyperraum ) von deren - je nach Aspekt, Perspektive, Kontext - variablen konzeptuellen Abhängigkeiten untereinander (DDS: dispositionelle Dependenzstrukturen ) zu unterscheiden;
  • welche schließlich - auf der Grundlage dieser konzeptuellen Hierarchien und der sie aktivierenden Prozeduren - assoziativ-analoges im Unterschied zu deduktiv-logischem Schließen als semantische Inferenzen modellieren.
  • 8.3  

    Diese Prozeduren bilden den Kern des TESKI -Systems zum ''orientierenden Verständnis'' von natürlich-sprachlichen Texten eines Sachgebiets, das den Systembenutzern ermöglichen soll, sich aufgrund von Anfragen zu frei wählbaren Stichwörtern, Begriffen, etc. über konzeptuelle Zusammenhänge zu informieren, die vom System unter diesen (oder anderen semantisch relevanten) Stichwörtern durch die Verarbeitung der Texte dieses Gegenstandsbereichs (als semantischer Raum ) aufgebaut und - Aspekt-abhängig nach Kriterien inhaltlicher Zusammengehörigkeit geordnet - in Form dynamischer, konzeptueller Dependenz-Strukturen (DDS ) ausgegeben werden.

    Eine Rückkopplung (Updating ) der Basisstruktur ist durch kontinuierliche Hinzunahme jeweils neuer Primärtexte ebenso gegeben, wie durch die Verarbeitung der Abfragedialoge, deren (rück-koppelnde) Analyse durch das System dessen Benutzer-abhängige Relevanz-Steuerung das Lernen/Vergessen von Konzepten ermöglicht. Mit seiner stereotypischen Repräsentation von vagen Bedeutungen lexikalischer Einheiten und den aus diesen durch konzeptuelle Abhängigkeiten aufgebauten semantischen Dispositionen werden darüber hinaus inhaltliche Beziehungen zwischen Bedeutungsrepräsentationen generiert, welche die in den vom System verarbeiteten Texten enthaltenen relevanten Informationen - je nach semantischer Perspektive und inhaltlichem Aspekt der Benutzer-Anfrage - in konzeptuellen Stereotypen re-organisiert darbieten.

    Die Eigenschaften der dispositionellen Dependenzstrukturen (DDS) legen es nahe, sie auch als das dynamische, inhalts-gesteuerte Organisationsprinzip zu erproben, das als Kern eines leistungsfähigen Hypertext-Navigation-Device (HND) gefordert wurde. Erste, gewiß noch vorläufige Resultate aus Versuchen mit Teil-Implementationen sind indes so ermutigend, daß wir die Entwicklungsarbeit - durch industrielle Anwender unterstützt - verstärkt fortsetzen werden.

    9  Die möglichen Folgen

    9.1  

    Unbestritten sind die mit HT -Strukturen verbundenen Vorteile, die es erlauben, eine beliebig komplexe Verweisstruktur beliebiger Tiefe nicht nur aufzubauen und als statische Struktur von bestehenden Zusammenhängen darzustellen, sondern als ein veränderbares System wechselseitig aufeinander beziehbarer Konzepte, Inhalte und Bedeutungen in nahezu beliebigen Informationsträgern (Sprache, Bild, Ton, Film, etc.) praktisch verfügbar zu haben. Was als Fußnoten-Arsenal und Lesarten-Apparat jedem Historiker und Philologen geläufig und als (unvollkommenes) Abbild der (eher vielfältigeren) Bezüge innerhalb eines Sachgebiets in seiner (linearisierten) Darstellungsweise jedem Benutzer (mehr oder weniger) schmerzlich bewußt ist, wird in der dynamischen und auf Abruf bereitstehenden HT -Strukturierung (vieldimensionaler) Zusammenhänge eines Gegenstandbereichs praktisch überwunden. Diese Aspekte, welche den im Zwang zur Linearisierung seiner Vorstellungen, Ideen und Gedanken Geübten als durchaus positiv zu bewertende Möglichkeiten von HT -Strukturen erscheinen werden, sollen uns hier jedoch nicht weiter beschäftigen.

    Vielmehr soll hingewiesen werden auf einen bisher übersehenen Zusammenhang, der sich im Umgang mit HT -Strukuren dann ergibt, wenn deren (absehbare) Einführung als edukatives Medium etwa in der Primar- und Sekundarstufen-Ausbildung nicht mehr Ausnahme sondern die Regel sein wird. Hier stellen sich zahlreiche Fragen, deren Beantwortung umso schwerer fällt, je tiefgreifender die möglichen Veränderungen sein werden, die sich durch den Welt-erschließenden Umgang mit HT-Strukuren im sprachlichen wie kommunikativen Verhalten und Vermögen der Betroffenen ergeben.

    9.2  

    Man stelle sich eine Kindergeschichte oder die Geschichte der Französischen Revolution vor: als HT -Struktur wären sie beide ein vieldimensionales Gebilde. Dessen Aktivierung auf einem Bildschirm bringt dabei nicht  e i n e  Geschichte (mit Anfang und Ende) hervor, sondern stellt ein modulares Wissenssystem in einer Art Baukasten bereit. Als strukturierte Menge der durch vielfältige Beziehungen untereinander verbundenen Informationsblöcke enthält er quasi die  P o t e n z m e n g e  aller möglichen Geschichten, aus denen ein potentieller Benutzer (Leser?) erst durch seine Mensch-Maus-Manipulationen eine zeitliche Abfolge als "seine" Geschichte (Autor?) aufbaut21.

    Schon heute ist eine Generation vorstellbar, die - anstatt mit einer zweidimensionalen Ebene (Tafel, Papier, etc.) zur Aufnahme linearisierter Symbolketten (d.h. sprachlicher Texte ) während ihrer Alphabetisierungsphase konfrontiert worden zu sein - mit dem Bildschirm (groß, farbig, flimmerfrei) als primärem Ausbildungsmedium aufwächst. Den heute noch im Leseerlebnis von Texten gemachten (emotionalen, intellektuellen, sozialen) Erfahrungen von interpretierter Welt - auch als Stimulans und Motivation zum Erlernen der sie vermittelnden Schriftzeiche - entsprächen bei jener zukünftigen Generatioî die (emotionalen¬ intellektuellen, sozialen) Sensationen der via Bildschirm erlebbaren Mensch-Maus-Manipulationen , über deren Welt-erschließende Kraft sich bestenfalls spekulieren läßt.

    Es wurde oben wiederholt auf die beliebige Manipulierbarkeit von HT -Strukturen in Computern hingewiesen und darauf, daß damit die für alles sprachliche Mitteilen bisher geltende Notwendigkeit , "Gemeintes" in ein (zeitliches und/oder räumliches) Nacheinander sprachlicher Linearität transformieren zu müssen, wenn nicht vollends aufgehoben so doch entscheidend gelockert werde. Im Hinblick auf einen allgemeinen edukativen und weltweiten kommunikativen Einsatz von HT -Systemen in nahezu allen Bereichen des privaten und öffentlichen Lebens einer Gesellschaft wäre selbst eine Veränderung der natürlichen Sprache in Richtung auf einen durch Hyperstrukturen unterstützten Code denkbar. So unvorstellbar eine solche Entwicklung heute auch erscheinen mag, so einsichtig scheint das Argument, wonach das grundlegende Ordnungsprinzip sprachlicher Strukturierung in syntagmatische und paradigmatische Beziehungen von Zeichenaggregaten abgelöst und ersetzt werden könnte durch die prozessuale Verfügbarkeit vieldimensionaler Zusammenhangsstrukturen, welche die HT -Systeme in optischer, topologischer und manipulativer Hinsicht gewähren.

    Wenn die Grundlage unseres wechselseitigen Kommunizierens nicht mehr natürlich-sprachliche Texte (oder wenigstens durch syntagmatische und paradigmatische Regularitäten eingeschränkte Zeichenaggregate) sind, sondern aus Icons, Symbolen und Zeichencodes an Knoten und Kanten komplexer Netzwerke und Graphenstrukturen bestände, was - so ist zu fragen - würde verhindern, daß sich die Bedeutung von beispielsweise "Demokratie" in der nur am Bildschirm erfahrbaren Hypertext-Struktur eines komplexen Relationengeflechts erschöpft, dessen "Wirklichkeit" darin bestünde, am Bildschirm - durch Farbbild-, Ton- und Zeichen-Information vielfältig ergänzbar - Maus-gesteuert und in beliebiger Folge und Schachtelungstiefe explorativ durchmessen zu werden.

    Die Möglichkeit jedenfalls sei angedeutet, daß die in nahezu beliebiger Tiefe nahezu beliebig manipulierbaren Zusammenhangsstrukturen, die durch HT -Systeme auf dem Bildschirm zugänglich werden, nicht nur dessen zweidimensionale Oberfläche vergessen lassen könnten sondern auch die Notwendigkeit der kognitiv-semiotischen Beherrschung (Verstehen ) dieser Oberfläche. Ihre als Zwang zur Linearisierung erfahrenen Bedeutung-konstituierenden Restriktionen, welche durch die Regelhaftigkeiten syntagmatischer Verknüpfungen von paradigmatischen Selektionen die (intersubjektive) Interpretation von Zeichenaggregationen erst ermöglichen, könnten sich als eine Bedingung der Interpretierbarkeit gerade auch jener vieldimensionalen Strukturen erweisen, deren bloße Manipulation auf dem Bildschirm nicht schon seine Zuhandenheit bedeutet und Bedeutungskonstitution weder ersetzen noch befördern kann.

    Literatur

    Barwise, J. / Perry, J. (1983): Situations and Attitudes. Cambridge, MA (MIT Press)

    Conklin, J. (1987): ''Hypertext: An Introduction and Survey'', Computer 20,9: 17-41

    Engelbart, D.C. (1963): ''A Conceptual Framework for the Augmentation of Man's Intellect'' in: Howerton, P.W. / Weeks, D.C. (Hrsg): Vistas in Information Handling, Vol. I. London (Spartan)

    Heidegger, M. (1927): Sein und Zeit. Tübingen (M. Niemeyer) 101963

    Kaehr, R. / von Goldammer, E. (1988): ''Again Computers and the Brain'' Journal of Molecular Electronics 4,12: 232-238

    Kemke, C. (1988): ''Der Neuere Konnektionismus. Ein überblick'', Informatik-Spektrum 11: 143-162

    Maturana, H. / Varela, F. (1980): Autopoiesis and Cognition. Dordrecht (Reidel)

    Nündel, E. / Hebel, F. (Hrsg) (1983): Neue Formen der Sprachverwendung Der Deutschunterricht 4

    Rieger, B. (1977): ''Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems'', Zeitschrift für Literaturwissenschaft und Linguistik 27/28: 55-68

    Rieger, B.(1987): ''Wissensrepräsentation und empirische Semantik. Aufgaben der Computerlinguistik?'' in: Pasternak, G. (Hrsg): Theorie und Empirie. Bremen (Universitäts Presse), S. 99-149

    Rieger, B.(1988a): ''Computerlinguistik: eine Positionsbestimmung'' in: Batori, I.S. / Hahn, U. / Pinkal, M. / Wahlster, W. (Hrsg): Computerlinguistik und ihre theoretischen Grundlagen. (Informatik-Fachberichte 195), Berlin / Heidelberg / New York (Springer), S. 192-197

    Rieger, B.(1988b): ''TESKI - A natural language TExt-SKImmer for shallow understanding and conceptual structuring of textually conveyed knowledge.'' LDV/CL-Report 10/88, FB II: Linguistische Datenverarbeitung, Universität Trier

    Rieger, B.(1989): Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Zur Computerlinguistik als Semiotik. Bern / Frankfurt / New York / Paris (P. Lang)

    Rieger, B. / Thiopoulos, C. (1989): ''Situations, Topoi, and Dispositions. On the phenomenological modelling of meaning'', in: Retti, J. / Leidlmair, K. (Hrsg): Proceedings: 5. österreichische Artificial-Intelligence-Tagung, Innsbruck-Igls März 1989, (Informatik-Fachberichte 208), Berlin / Heidelberg / New York (Springer), S. 365-375

    Winograd, T. / Flores, F. (1986): Understanding Computers and Cognition: A New Foundation for Design. Norwood, NJ (Ablex Publishing)


    Footnotes:

    1erscheint in: Gatzemeier, M. (Hrsg): Verantwortung in Wissenschaft und Technik. Mannheim/Wien/Zürich (B.I. Wissenschaftsverlag) 1989, S. 256-276

    2So ist etwa die Konstitution syntagmatischer und paradigmatischer Relationen zwischen sprachlichen Elementen, die als eine linguistisch-funktionelle Beschreibung semiotischer Ordnungsprinzipien gelten kann, ohne den Zwang zur Linearisierung sprachlicher Ausdrücke nicht denkbar.

    3Der Begriff wird hier in einem schon früher (Rieger (1977)) entwickelten Verständnis verwendet, das Autor im einzelnen in Rieger (1987) entfaltet hat.

    4etwa E. Nündel f ,/ F. Hebel (1983)

    5nicht-optimal werden hier Problemlösungen genannt, welche Handlungsweisen zur Folge haben, die die zum Zeitpunkt der Entscheidung für oder gegen eine oder mehrere Alternativen solchen Handelns verfügbaren Informationen oder Kenntnisse über mögliche Konsequenzen solchen Handelns nur deswegen nicht berücksichtigen, weil sie - wiewohl vorhanden - den Entscheidungsträgern nicht als Problem-relevant erschienen, ihnen also nicht zuhanden waren

    6vgl. hierzu Rieger (1989), insbesondere Kap. 5 und 6 (S. 103-160)

    7Kaehr/von Goldammer (1988)

    8Der hier geforderte Funktionszusammenhang von wissensbasierten AI-Systemen als kognitive Hilfen für den Menschen ist wohl am ehesten im Rahmen der fundamental-ontologischen Terminologie Heideggers (1927, S. 68f) erfaßbar: ''Zum Sein von Zeug gehört je immer ein Zeugganzes, darin es dieses Zeug sein kann, das es ist. Zeug ist wesenhaft »etwas, um zu..«. Die verschiedenen Weisen des »Um-zu« wie Dienlichkeit, Beiträglichkeit, Verwendbarkeit, Handlichkeit konstituieren eine Zeugganzheit. ... Die Seinsart von Zeug, in der es sich von ihm selbst her offenbart, nennen wir die Zuhandenheit. Nur weil Zeug dieses »An-sich-sein« hat und nicht lediglich noch vorkommt, ist es handlich im weitesten Sinne und verfügbar. Das schärfste Nur-noch-hinsehen auf das so und so beschaffene »Aussehen« von Dingen vermag Zuhandenes nicht zu entdecken. Der nur »theoretisch« hinsehende Blick auf Dinge entbehrt des Verstehens von Zuhandenheit.''

    9Den ersten aus dem Kreis der AI-Forschung selbst hervorgegangenen Ansatz in dieser Richtung machten Winograd/Flores (1986), die eine aus phänomenologischer Sicht vorgetragene Kritik der bisherigen Forschungsresultate und Systementwicklungen der AI anhand der Verarbeitung natürlicher Sprache lieferten. Die Verwirklichung ihrer Forderung aber, sprachverstehende Tools als System-Zeuge zu entwickeln, würde es notwendig machen, gerade auch die semiotischen Bedingungen solcher Systementwürfe phänomenologisch zu reflektieren, was bei Winograd/Flores jedoch unterbleibt.

    10Hierzu zählen insbesondere die konnektionistischen Modellbildungen neuronaler Netzwerke , die im Rahmen massiv paralleler Informationsverarbeitung zu neuen (verteilten) Formen der Informations-Repräsentation wie der Prozessoren-Anordnung in Rechnersystemen geführt haben (vgl. hierzu C. Kemke (1988))

    11Durchaus als eine Modellierung der Heidegger'schen Sichtweise: ''Dadurch, daß gezeigt wird, daß alle Sicht primär im Verstehen gründet ... , ist dem puren Anschauen sein Vorrang genommen, der noetisch dem traditionellen ontologischen Vorrang des Vorhandenen entspricht. »Anschauung« und »Denken« sind beide schon entfernte Derivate des Verstehens.'' (1963, S. 147)

    12Maturana/Varela (1980)

    13vgl. aber etwa Barwise/Perry, die ihrer Situationssemantik (1983) wünschen ''that the book will, in some small way, contribute to a rethinking of the relation of people to the world around them, a world full of constraints and meaning, both for people and for the other beings with whom they share it.''(S. xiv).

    14J. Conklin, der 1987 den bisher wohl besten, weil umfassenden, sachlich informativen und gut lesbaren überblick über Entwicklung und derzeit verfügbare Produkte zum Hypertext -Konzept vorgelegt hat, schreibt u.a.: ''People who think for a living - writers, scientists, artists, designers, etc. - must contend with the fact that the brain can create ideas faster than the hand can write them or the mouth can speak them. There is always a balance between refining the current idea, returning to a previous idea to refine it, and attending to any of the vague ''proto-ideas'' which are hovering at the edge of consciousness. Hypertext simply offers a sufficiently sophisticated ''pencil'' to begin to engage the richness, variety, and interrelatedness of creative thought.'' (S. 40)

    15für: natural langue processing

    16Engelbart (1963)

    17Conklin (1987), S. 19

    18für Hypertext Navigation Device

    19Rieger 1988b

    20vgl. hierzu den überblick der von Verf. vorgelegten Modellansätze und Systementwicklungen in Rieger (1989)

    21Da es sich bei den Informationsblöcken um Einheiten aus sprachlichen bildlichen akkustischen, filmischen, etc. Komponenten handeln kann, würde jede Realisation daraus im Prinzip auch eine multi-mediale Geschichte sein.