Diese Entwicklung hat gezeigt, daß der Einsatz von Computern nicht mehr nur als Rechner erfolgt, um numerische Ausdrücke zu verarbeiten, sondern als eine symbolverarbeitende Maschine mit der Fähigkeit, die als logische Formeln repräsentierten sprachlichen Aussagen zu interpretieren und ihre Richtigkeit (oder Falschheit) zu beweisen.
Trotz zahlreicher entweder schon als Software-Produkte auf dem Markt befindlicher oder aber noch in der Entwicklung stehender sogenannter ''intelligenter'' Systeme, kann von einer erfolgreichen Anwendung und übertragung dieser Ansätze im Bereich der Geisteswissenschaften bisher jedoch nicht die Rede sein.
Den weitgehend in logischen Ausdrücken formalisierbaren Wissensbeständen der exakten Wissenschaften stehen damit die in sprachlichen Texten formulierten (oder doch formulierbaren) Verstehenszusammenhänge der Geistenwissenschaften gegenüber, wobei letztere - nicht zuletzt durch das Medium der natürlichen Sprache - ihrem Mangel an methodischer Strenge und formalem Rigorismus ihre Flexibilität in Richtung und Skopus ihres Verstehens- und Erklärungsanspruchs entgegensetzen kann. In dieser Offenheit liegt begründet, daß es bisher noch keine - den Algorithmen der logisch-deduktiven Verarbeitungsprozesse vergleichbaren - Algorithmisierungen jener hermeneutischen Prozesse zu geben scheint, die unscharfes Wissen und vage Bedeutungen in analoger Weise zu verarbeiten vermöchten.
Für die meisten Anwendungszusammenhänge ist die Linearität der sprachlichen Darbietungsform dessen, was wir als Bedeutung oder Inhalt von Texten zu bezeichnen uns angewöhnt haben, nicht nur eine Darstellungsweise, sondern in ihrer linguistischen Funktion gleichzeitig auch Bedingung semiotischer Struktur- und Systembildung2. Darüber hinaus stellt diese lineare Ordnung ein gewissermaßen erzieherisches Prinzip dar bei der ''allmählichen Verfertigung der Gedanken beim Sprechen'' und/oder Schreiben zur überführung vieldimensionaler, konzeptueller Zusammenhänge in eindimesionale Verkettungen sprachlicher Zeichen in Texten, wie ebenso auch umgekehrt beim allmählichen Aufbau und Vollzug gedanklicher und konzeptueller Zusammenhänge aus der Linearität sprachlicher Texte. Diese Prozesse können wir übergreifend - sowohl als Verstehen in der Anknüpfung an schon vorhandene wie auch als Lernen im Zustandekommen neuer Zusammenhänge - als Bedeutungskonstitution 3 bezeichnen, deren (simulative/kreative) Nachbildung im Computer heute die zentrale Herausforderung der einschlägigen Forschung bildet.
Eine sachgerechte Auswahl von jeweils wichtigem Material aus einem Gegenstandsbereich im Hinblick auf bestimmte Zusammenhänge oder unter dem Aspekt bestimmter Interessen ist mittlerweile kaum mehr möglich. Sie überfordert in vielfacher Hinsicht den einzelnen menschlichen Problemlöser wie meistens auch ganze Expertenteams. Bei der Tragweite und den oft unabsehbaren Risiken nicht-optimaler5 Problemlösungen ergibt sich daher die Notwendigkeit, die spezifische Weise, in der das natürliche kognitive System Mensch das ihm verfügbare Wissen zu Problemlösungen nutzt, auch in künstlichen intelligenten Systemen nachzubilden.
Derartig dynamische Architekturen offener Systeme10 können in einem neuen Sinne wissensbasiert insofern genannt werden, als sie Verstehen 11 nicht mehr mit dem Prozeß des Interpretierens von Gegebenheiten oder Zusammenhängen aufgrund von Wissen gleichsetzen sondern als diejenige Aktivität des Systems begreifen, die vermöge der Zustands-abhängigen Interpretation von Gegebenheiten und Zusammenhängen aufgrund von System-eigenem Wissen eben dieses Wissen kontinuierlich verändert (strukturelle Kopplung )12.
Als kognitive Hilfssysteme des Menschen konzipiert, bestände die Leistung eines solchen informationsverarbeitenden Tools als eines zeug haften Modellsystems daher nicht mehr nur - wie in den sogenannten wissensbasierten Systemen der traditionellen AI-Forschung - in der Anwendung unveränderlicher, jedenfalls schon vorausgesetzter Strategien und Operationen auf vorgegebenen Daten und Strukturen, sondern vielmehr darin, daß sein quasi kognitives Vermögen - dem lebender Systeme vergleichbar - es innerhalb seiner strukturellen Beschränkungen und im Rahmen der durch seine jeweiligen Umgebungen vorgegebenen Restriktionen lernfähig macht. Diese Lernfähigkeit wiese sich in der kontinuierlichen Veränderung seines Wissens durch Anwendung dieses Wissens aus und ließe sich ablesen an der damit sich erhöhenden Brauchbarkeit des Systems. Modellsysteme dieser Art sind daher - wenn überhaupt - noch am ehesten als Prototypen anzusehen für die Entwicklung und Erprobung einer zukünftigen Verstehenstechnologie.
Im Rahmen der Systementwicklungen, die in der auf die Verarbeitung der natürlichen Sprache gerichteten AI-Forschung und der Computerlinguistik verfolgt werden, stehen Forschungsbereiche im Vordergrund, welche weitgehend noch durch Begriffe wie Grammatikformalismen und Parsingstrategien natürlicher Sprache, Maschinelle übersetzung, Wissens- und Bedeutungsrepräsentation, Verstehenssimulation abgedeckt werden; gleichzeitig beherrschen Schlüsselwörter wie Wissensbasiertheit, Lernfähigkeit, Selbstorganisation, Fehlertoleranz und Dynamik den Forderungskatalog, durch den wünschenswerte Systemeigenschaften in der Anwenderdiskussion umrissen werden. Sie richtet sich verstärkt auf Expertensysteme, integrierte Arbeitsplätze, Kommunikations-, Ausbildungs- und Denkwerkzeuge , die schon keine bloßen Schlagworte mehr sind sondern inzwischen durchaus auch merkantil nutzbare und genutzte Entwicklungen bezeichnen. Denn es gibt mittlerweile derartige Systeme, wir selbst arbeiten in meiner Arbeitsgruppe an der Lösung eines Teil-Aspekts der mit ihnen heraufkommenden neuartigen Probleme - und wir erfahren dabei unversehens, wie diese sich ausweiten und zu einiger Radikalität in der (möglichen und/oder nötigen) Revision sehr vertrauter Vorstellungen z.B. von Text, Verstehen, Wissen aber auch von Autor, Individualität, Kreativität führen.
Obwohl im Prinzip aus Komponenten aufgebaut, die traditionellerweise der Systementwicklung der maschinellen Verarbeitung natürlicher Sprache (NLP)15 zugerechnet werden, bilden die sog. Hypertext (HT) -Systeme eine neue Entwicklungsstufe im übergang von der Informations- zur Wissensverarbeitung. Auf älteren Ansätzen und überlegungen aufbauend16, die das menschliche Vermögen zur Konzeptualisierung durch maschinelle Hilfen zu verbessern suchten, wird diese neue Kommunikations- und Verstehens-Technologie aufgrund fortgeschrittener Hard- und Software-Lösungen heute zu preiswerten und damit weitverbreiteten Anwendungssystem führen. Deren Prinzipien sollen hier kurz vorgestellt werden, um (mögliche) Veränderungen ein- und abschätzen zu können, die sich aus der allgemeinen Nutzung dieser neuen Technologie für den Umgang mit Sprache als dem kognitiv-semiotischen Repräsentationsmedium des Menschen, für das Welt und Wissen verändernde Sprachverstehen und für die sprachliche Kommunikation ergeben könnten.
So stehen heute Mechanismen bereit, die einen direkten Verweis von einem Teil eines Texts auf einen anderen im selben oder in einem (oder mehreren) anderen Texten nicht nur elektronisch herzustellen sondern als Zusammenhang auch derart zu repräsentieren erlauben, daß er jederzeit reproduzierbar ist. Verschiedene Einzelinformationen können auf diese Weise zu kleineren oder größeren Einheiten zusammengefaßt und durch Verweise auf ihre wechselseitigen Komponenten so dargestellt werden, daß unterschiedliche Zuordnungen auch unterschiedlichen Verbindungen entsprechen.
Jedem (benennbaren) Fenster auf dem Bildschirm sind (identifizierbare) Objekte in der Datenbasis zugeordnet, und es können Verbindungen hergestellt (und benannt) werden sowohl zwischen diesen Objekten innerhalb der Datenbasis (durch Zeigerstrukturen: pointer ) als auch graphisch auf dem Bildschirm (durch kommentierbare Etiketten/Bildsymbole: icons ). Die Datenbasis erscheint so als ein Netzwerk von Verweis-Kanten zwischen textuellen (oder graphischen) Knoten , das - als gerichteter (Hyper-)Graph selbst eine Art Hyperdokument - in beliebigen Teilausschnitten auf den Bildschirm gebracht werden kann. Da jedem Bildschirm-Fenster ein Knoten in der Datenbasis entspricht, kann dessen Inhalt - durch öffnen des betreffenden Fensters - auf den Bildschirm gebracht werden, wobei freilich die Zahl der gleichzeitig offenen Knoten/Fenster beschränkt ist.
Maus-gesteuerten Standardfunktionen der Fenstertechnik, die das öffnen, Verschieben, Verändern der Größen/Ausschnitte, öffnen und Schließen von Fenstern auf dem Bildschirm umfassen, werden dabei ergänzt durch HT-spezifische Funktionen: die mnemotechnisch über Etikette/Bildsymbole angezeigten Inhalte von Knoten und Kanten werden durch Anklicken als Fenster geöffnet, Schließen eines Fensters bewirkt übertragung aller im Fenster vorgenommenen Veränderungen in die Datenbasis, Anklicken des Icons per Maus öffnet das Fenster wieder auf dem Bildschirm, etc.
Da Fenster eine beliebige Anzahl von etikettierten Verbindungen (Namen von Kanten zu anderen Fenstern) als Verweise enthalten können, die Zeigern zu anderen Knoten in der Datenbasis entsprechen, kann der Benutzer von jedem Knoten beliebig viele neue Verbindungen herstellen sowohl zu neuen Knoten (z.B. um Anmerkungen, Kommentare, Zusätze aufzunehmen) oder zu schon bestehenden Knoten (z.B. um eine noch nicht bestehende Verbindung neu zu definieren). Das rekursive Bauprinzip der HT-Architektur läßt dabei eine beliebige (nur durch die Rechnerleistung beschränkte) Tiefe vieldimensionaler Beziehungsgeflechte zu, deren spezifische Ausfüllung von der jeweiligen Ordnungsebene einer semiotischen und/oder konzeptuellen Strukturierung abhängt. Das macht HT-Systeme zu geeigneten Werkzeugen bei der Maschinen-unterstützen Sammlung, Darstellung, Veränderung und Verfügbarkeit vieldimensionaler konzeptueller Verbindungstrukturen, deren Zusammenhänge sich sowohl aus den Microstrukturen der in den einzelnen Knoten enthaltenen Informationen als auch aufgrund von interpretativen Akten der die Makrostruktur des Hyperdokuments bearbeitenden Benutzer ergeben können.
Damit scheinen HT -Systeme sich in der Tat als Kandidaten anzubieten, deren Einsatz als Denk-Zeuge den kommunikativen Umgang mit Sprache und mit in sprachlichen Strukturen repräsentierten Inhalten und Bedeutungen revolutionieren könnte. Als ein dem menschlichen Gedächtnis (vermutlich) näheres, weil assoziativ-parallel (nicht deduktiv-seriell) strukturiertes Modell der Wissensverarbeitung befreit es seine Benutzer ganz offenbar vom Zwang der Linearisierung, dem sie bei der Umsetzung ihrer (vermutlich) vieldimensionalen, kognitiv-konzeptuellen Vorstellungen in sprachlich vermittelbare Zusammenhänge bisher unterworfen waren.
Wegen dieser vieldimensionalen Repräsentationsstruktur von HT , die das Prinzip der linearen Ordnung sprachlicher Texte wesentlich ergänzt, werden aber - über die graphische Darbietung des inhaltlichen Verweissystems (oder Ausschnitten daraus) als Netzwerk von Knoten und Kanten hinaus - solche Ordnungsprinzipien wichtig, die als Grundlage unterschiedlicher Verfahren der Durchmusterung und Suche (browsing ) von in HT -Strukturen organisierter Information dienen können. Conklin17 nennt drei Such-Prinzipien:
Da die Suchstrategie den gesamten Strukturzusammenhang des Hyperdokuments (oder Teile davon) als Graphen abbildet, bietet sie gleichzeitig Aufschluß über Nähe und Ferne von Knoten sowie die Anzahl und das Gewicht ihrer Verbindungen als wichtige Hinweise auf konzeptuelle Zusammenhänge und Nachbarschaften.entlang bestehender Verbindungen, wodurch die angetroffenen Knoten nacheinander als Fenster geöffnet werden und deren Inhalt sichtbar machen; aufgrund der Netzwerkstruktur (oder Teilen davon), wobei nach bestimmten Zeichenketten, Schlüsselwörtern oder Attribut-Werten gefragt wird; vermittels einer strukturellen Steuerung, die es aufgrund graphischer Darstellung der jeweiligen Regionen erlaubt, durchs Netzwerk zu navigieren, wobei die Knoten als Icons und die Verbindungen als Kanten dargestellt werden, jeweils mit oder ohne ihre Namen bzw. Etiketten.
Das leuchtet sofort ein, wenn man sich die Veränderungen vor Augen führt, die mit dem übergang von der linearen Strukturierung herkömmlicher Textdokumente zur Vieldimensionalität von Hyperdokumenten verbunden ist:
Die Unterscheidung, die wir in bezug auf lineare sprachliche Texte noch zwischen Textautor und Textleser sinnvoll machen können, wird angesichts viel-dimensionaler Hypertexte und ihrer Benutzer , die zumindest potentiell immer sowohl HT-Leser als auch HT-Autoren sind, bedeutungslos. Von jedem Benutzer werden in den unterschiedlichsten Weisen, je nach Erfahrungsstand und herangetragenem Verständnis durch Hinzufügung und Aktivierung von, wie durch Erweiterung und Kommentierung zu einzelnen Schlüsselwörtern, Relationen oder ganzen Konzeptzusammenhängen jene Veränderungen in ein Hyperdokument eingeführt, die - sowohl als erweiternde Ergänzungen wie auch als vereinfachende Zusammenfassungen - nicht mehr dem Zwang zur Linearisierung unterworfen sind und damit schnell die so entstehenden Hyperstrukturen nach Gliederung und Tiefe unüberschaubar werden lassen. Selbst wenn nur ein Benutzer in einem Sachbereich an einem Hyperdokument arbeitet, wird dieses je nach Domaine und Kreativität dieses Autors schon bald ein Maß an Komplexität erreichen, daß es ihm schwer macht, sein HT -System ohne Navigationshilfe fruchtbar zu nutzen.
Vor diesem Hintergrund versagen Herkömmliche Strukturierungsprinzipien (prädikativer Zuordnungen) ersichtlich deswegen, weil sie als Wertzuweisungen auf propositionaler Basis eine Linearisierung schon voraussetzen, die aufgegeben zu haben gerade die (formale) Stärke jeder Hyperstruktur ist.
Die Rede ist von der oben schon angesprochenen Flut sprachlicher Produkte, Texte und Neuerscheinungen. Sie wird in den meisten industriellen Anwendungsbereichen, wissenschaftlichen Disziplinen und selbst in einzelnen, sehr spezialisierten Teilgebieten - durch Textverarbeitungssysteme erleichtert und innerhalb Welt-umspannender Informationsnetze verbreitet - von der Menge der Forscher/Entwickler/Änwender weltweit gespeist, gleichzeitig aber kann sie von den einzelnen betroffenen Forschern/Entwicklern/Anwendern kaum mehr bewältigt, d.h. nicht mehr rezipiert werden im Sinne einer umfassenden und intensiven Lektüre.
Ein automatisches System zum orientierenden diagonalen Lesen (skimming) von Texten19, das lernfähig sein Wissen verändert je nach gelesenen Texten und aufgrund freiwählbarer Stichwörter inhaltlich relevante Zusammenhänge dieses Wissens unter wiederum freiwählbaren Aspekten dem Benutzer darbietet, kann in dieser Situation helfen, die Menge des in sprachlichen Texten verfügbaren Wissens zu sichten, zu organisieren, und auf jene Zusammenhangsstrukturen einzuschränken, deren sprachliche und/oder graphische Darbietung - unter dem gewünschten Aspekt der betreffenden und das in den Texten vermittelte Wissen charakterisierenden Stichwörter - erkennen läßt, welche der vom System verarbeiteten Texte noch am ehesten eine zeitaufwendige Lektüre mit Aussicht auf Kenntniszuwachs und Verstehensgewinn rechtfertigen.
Anknüpfend an früher entwickelte Modellbildungen und deren Implementationen20 bietet die Theorie der unscharfen (fuzzy ) Mengen in Verbindung mit statistischen Verfahren der quantitativen Analyse großer Textcorpora die Möglichkeit, die Vagheit natürlich-sprachlicher Bedeutungen als Stereotype zu repräsentieren und in ihrem systematischen Zusammenhang topologisch als Raumstruktur darzustellen. Deren besondere (formale und inhaltliche) Eigenschaften können dabei dazu benutzt werden, die lexikalisch-semantischen Beziehungen nicht nur als ein (statisches) Netzwerk abzubilden sondern als (dynamisch) sich ändernde, variable Resultate von Prozeduren darzustellen.
welche semantische Beziehungen zwischen Konzepten nicht voraussetzen müssen, sondern diese induktiv aus den Strukturen der analysierten Corpora als Funktion des Gebrauchs von Wörtern in Texten zu berechnen gestatten; welche - durch die Trennung von Basisstruktur und den auf dieser Basis operierenden Prozeduren - es erlauben, semantische Beziehungen zwischen den stereotypischen Repräsentationen (Bedeutungspunkten im semantischen Hyperraum ) von deren - je nach Aspekt, Perspektive, Kontext - variablen konzeptuellen Abhängigkeiten untereinander (DDS: dispositionelle Dependenzstrukturen ) zu unterscheiden; welche schließlich - auf der Grundlage dieser konzeptuellen Hierarchien und der sie aktivierenden Prozeduren - assoziativ-analoges im Unterschied zu deduktiv-logischem Schließen als semantische Inferenzen modellieren.
Eine Rückkopplung (Updating ) der Basisstruktur ist durch kontinuierliche Hinzunahme jeweils neuer Primärtexte ebenso gegeben, wie durch die Verarbeitung der Abfragedialoge, deren (rück-koppelnde) Analyse durch das System dessen Benutzer-abhängige Relevanz-Steuerung das Lernen/Vergessen von Konzepten ermöglicht. Mit seiner stereotypischen Repräsentation von vagen Bedeutungen lexikalischer Einheiten und den aus diesen durch konzeptuelle Abhängigkeiten aufgebauten semantischen Dispositionen werden darüber hinaus inhaltliche Beziehungen zwischen Bedeutungsrepräsentationen generiert, welche die in den vom System verarbeiteten Texten enthaltenen relevanten Informationen - je nach semantischer Perspektive und inhaltlichem Aspekt der Benutzer-Anfrage - in konzeptuellen Stereotypen re-organisiert darbieten.
Die Eigenschaften der dispositionellen Dependenzstrukturen (DDS) legen es nahe, sie auch als das dynamische, inhalts-gesteuerte Organisationsprinzip zu erproben, das als Kern eines leistungsfähigen Hypertext-Navigation-Device (HND) gefordert wurde. Erste, gewiß noch vorläufige Resultate aus Versuchen mit Teil-Implementationen sind indes so ermutigend, daß wir die Entwicklungsarbeit - durch industrielle Anwender unterstützt - verstärkt fortsetzen werden.
Vielmehr soll hingewiesen werden auf einen bisher übersehenen Zusammenhang, der sich im Umgang mit HT -Strukuren dann ergibt, wenn deren (absehbare) Einführung als edukatives Medium etwa in der Primar- und Sekundarstufen-Ausbildung nicht mehr Ausnahme sondern die Regel sein wird. Hier stellen sich zahlreiche Fragen, deren Beantwortung umso schwerer fällt, je tiefgreifender die möglichen Veränderungen sein werden, die sich durch den Welt-erschließenden Umgang mit HT-Strukuren im sprachlichen wie kommunikativen Verhalten und Vermögen der Betroffenen ergeben.
Schon heute ist eine Generation vorstellbar, die - anstatt mit einer zweidimensionalen Ebene (Tafel, Papier, etc.) zur Aufnahme linearisierter Symbolketten (d.h. sprachlicher Texte ) während ihrer Alphabetisierungsphase konfrontiert worden zu sein - mit dem Bildschirm (groß, farbig, flimmerfrei) als primärem Ausbildungsmedium aufwächst. Den heute noch im Leseerlebnis von Texten gemachten (emotionalen, intellektuellen, sozialen) Erfahrungen von interpretierter Welt - auch als Stimulans und Motivation zum Erlernen der sie vermittelnden Schriftzeiche - entsprächen bei jener zukünftigen Generatioî die (emotionalen¬ intellektuellen, sozialen) Sensationen der via Bildschirm erlebbaren Mensch-Maus-Manipulationen , über deren Welt-erschließende Kraft sich bestenfalls spekulieren läßt.
Es wurde oben wiederholt auf die beliebige Manipulierbarkeit von HT -Strukturen in Computern hingewiesen und darauf, daß damit die für alles sprachliche Mitteilen bisher geltende Notwendigkeit , "Gemeintes" in ein (zeitliches und/oder räumliches) Nacheinander sprachlicher Linearität transformieren zu müssen, wenn nicht vollends aufgehoben so doch entscheidend gelockert werde. Im Hinblick auf einen allgemeinen edukativen und weltweiten kommunikativen Einsatz von HT -Systemen in nahezu allen Bereichen des privaten und öffentlichen Lebens einer Gesellschaft wäre selbst eine Veränderung der natürlichen Sprache in Richtung auf einen durch Hyperstrukturen unterstützten Code denkbar. So unvorstellbar eine solche Entwicklung heute auch erscheinen mag, so einsichtig scheint das Argument, wonach das grundlegende Ordnungsprinzip sprachlicher Strukturierung in syntagmatische und paradigmatische Beziehungen von Zeichenaggregaten abgelöst und ersetzt werden könnte durch die prozessuale Verfügbarkeit vieldimensionaler Zusammenhangsstrukturen, welche die HT -Systeme in optischer, topologischer und manipulativer Hinsicht gewähren.
Wenn die Grundlage unseres wechselseitigen Kommunizierens nicht mehr natürlich-sprachliche Texte (oder wenigstens durch syntagmatische und paradigmatische Regularitäten eingeschränkte Zeichenaggregate) sind, sondern aus Icons, Symbolen und Zeichencodes an Knoten und Kanten komplexer Netzwerke und Graphenstrukturen bestände, was - so ist zu fragen - würde verhindern, daß sich die Bedeutung von beispielsweise "Demokratie" in der nur am Bildschirm erfahrbaren Hypertext-Struktur eines komplexen Relationengeflechts erschöpft, dessen "Wirklichkeit" darin bestünde, am Bildschirm - durch Farbbild-, Ton- und Zeichen-Information vielfältig ergänzbar - Maus-gesteuert und in beliebiger Folge und Schachtelungstiefe explorativ durchmessen zu werden.
Die Möglichkeit jedenfalls sei angedeutet, daß die in nahezu beliebiger Tiefe nahezu beliebig manipulierbaren Zusammenhangsstrukturen, die durch HT -Systeme auf dem Bildschirm zugänglich werden, nicht nur dessen zweidimensionale Oberfläche vergessen lassen könnten sondern auch die Notwendigkeit der kognitiv-semiotischen Beherrschung (Verstehen ) dieser Oberfläche. Ihre als Zwang zur Linearisierung erfahrenen Bedeutung-konstituierenden Restriktionen, welche durch die Regelhaftigkeiten syntagmatischer Verknüpfungen von paradigmatischen Selektionen die (intersubjektive) Interpretation von Zeichenaggregationen erst ermöglichen, könnten sich als eine Bedingung der Interpretierbarkeit gerade auch jener vieldimensionalen Strukturen erweisen, deren bloße Manipulation auf dem Bildschirm nicht schon seine Zuhandenheit bedeutet und Bedeutungskonstitution weder ersetzen noch befördern kann.
Barwise, J. / Perry, J. (1983): Situations and Attitudes. Cambridge, MA (MIT Press)
Conklin, J. (1987): ''Hypertext: An Introduction and Survey'', Computer 20,9: 17-41
Engelbart, D.C. (1963): ''A Conceptual Framework for the Augmentation of Man's Intellect'' in: Howerton, P.W. / Weeks, D.C. (Hrsg): Vistas in Information Handling, Vol. I. London (Spartan)
Heidegger, M. (1927): Sein und Zeit. Tübingen (M. Niemeyer) 101963
Kaehr, R. / von Goldammer, E. (1988): ''Again Computers and the Brain'' Journal of Molecular Electronics 4,12: 232-238
Kemke, C. (1988): ''Der Neuere Konnektionismus. Ein überblick'', Informatik-Spektrum 11: 143-162
Maturana, H. / Varela, F. (1980): Autopoiesis and Cognition. Dordrecht (Reidel)
Nündel, E. / Hebel, F. (Hrsg) (1983): Neue Formen der Sprachverwendung Der Deutschunterricht 4
Rieger, B. (1977): ''Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems'', Zeitschrift für Literaturwissenschaft und Linguistik 27/28: 55-68
Rieger, B.(1987): ''Wissensrepräsentation und empirische Semantik. Aufgaben der Computerlinguistik?'' in: Pasternak, G. (Hrsg): Theorie und Empirie. Bremen (Universitäts Presse), S. 99-149
Rieger, B.(1988a): ''Computerlinguistik: eine Positionsbestimmung'' in: Batori, I.S. / Hahn, U. / Pinkal, M. / Wahlster, W. (Hrsg): Computerlinguistik und ihre theoretischen Grundlagen. (Informatik-Fachberichte 195), Berlin / Heidelberg / New York (Springer), S. 192-197
Rieger, B.(1988b): ''TESKI - A natural language TExt-SKImmer for shallow understanding and conceptual structuring of textually conveyed knowledge.'' LDV/CL-Report 10/88, FB II: Linguistische Datenverarbeitung, Universität Trier
Rieger, B.(1989): Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Zur Computerlinguistik als Semiotik. Bern / Frankfurt / New York / Paris (P. Lang)
Rieger, B. / Thiopoulos, C. (1989): ''Situations, Topoi, and Dispositions. On the phenomenological modelling of meaning'', in: Retti, J. / Leidlmair, K. (Hrsg): Proceedings: 5. österreichische Artificial-Intelligence-Tagung, Innsbruck-Igls März 1989, (Informatik-Fachberichte 208), Berlin / Heidelberg / New York (Springer), S. 365-375
Winograd, T. / Flores, F. (1986): Understanding Computers and Cognition: A New Foundation for Design. Norwood, NJ (Ablex Publishing)
1erscheint in: Gatzemeier, M. (Hrsg): Verantwortung in Wissenschaft und Technik. Mannheim/Wien/Zürich (B.I. Wissenschaftsverlag) 1989, S. 256-276
2So ist etwa die Konstitution syntagmatischer und paradigmatischer Relationen zwischen sprachlichen Elementen, die als eine linguistisch-funktionelle Beschreibung semiotischer Ordnungsprinzipien gelten kann, ohne den Zwang zur Linearisierung sprachlicher Ausdrücke nicht denkbar.
3Der Begriff wird hier in einem schon früher (Rieger (1977)) entwickelten Verständnis verwendet, das Autor im einzelnen in Rieger (1987) entfaltet hat.
4etwa E. Nündel f ,/ F. Hebel (1983)
5nicht-optimal werden hier Problemlösungen genannt, welche Handlungsweisen zur Folge haben, die die zum Zeitpunkt der Entscheidung für oder gegen eine oder mehrere Alternativen solchen Handelns verfügbaren Informationen oder Kenntnisse über mögliche Konsequenzen solchen Handelns nur deswegen nicht berücksichtigen, weil sie - wiewohl vorhanden - den Entscheidungsträgern nicht als Problem-relevant erschienen, ihnen also nicht zuhanden waren
6vgl. hierzu Rieger (1989), insbesondere Kap. 5 und 6 (S. 103-160)
7Kaehr/von Goldammer (1988)
8Der hier geforderte Funktionszusammenhang von wissensbasierten AI-Systemen als kognitive Hilfen für den Menschen ist wohl am ehesten im Rahmen der fundamental-ontologischen Terminologie Heideggers (1927, S. 68f) erfaßbar: ''Zum Sein von Zeug gehört je immer ein Zeugganzes, darin es dieses Zeug sein kann, das es ist. Zeug ist wesenhaft »etwas, um zu..«. Die verschiedenen Weisen des »Um-zu« wie Dienlichkeit, Beiträglichkeit, Verwendbarkeit, Handlichkeit konstituieren eine Zeugganzheit. ... Die Seinsart von Zeug, in der es sich von ihm selbst her offenbart, nennen wir die Zuhandenheit. Nur weil Zeug dieses »An-sich-sein« hat und nicht lediglich noch vorkommt, ist es handlich im weitesten Sinne und verfügbar. Das schärfste Nur-noch-hinsehen auf das so und so beschaffene »Aussehen« von Dingen vermag Zuhandenes nicht zu entdecken. Der nur »theoretisch« hinsehende Blick auf Dinge entbehrt des Verstehens von Zuhandenheit.''
9Den ersten aus dem Kreis der AI-Forschung selbst hervorgegangenen Ansatz in dieser Richtung machten Winograd/Flores (1986), die eine aus phänomenologischer Sicht vorgetragene Kritik der bisherigen Forschungsresultate und Systementwicklungen der AI anhand der Verarbeitung natürlicher Sprache lieferten. Die Verwirklichung ihrer Forderung aber, sprachverstehende Tools als System-Zeuge zu entwickeln, würde es notwendig machen, gerade auch die semiotischen Bedingungen solcher Systementwürfe phänomenologisch zu reflektieren, was bei Winograd/Flores jedoch unterbleibt.
10Hierzu zählen insbesondere die konnektionistischen Modellbildungen neuronaler Netzwerke , die im Rahmen massiv paralleler Informationsverarbeitung zu neuen (verteilten) Formen der Informations-Repräsentation wie der Prozessoren-Anordnung in Rechnersystemen geführt haben (vgl. hierzu C. Kemke (1988))
11Durchaus als eine Modellierung der Heidegger'schen Sichtweise: ''Dadurch, daß gezeigt wird, daß alle Sicht primär im Verstehen gründet ... , ist dem puren Anschauen sein Vorrang genommen, der noetisch dem traditionellen ontologischen Vorrang des Vorhandenen entspricht. »Anschauung« und »Denken« sind beide schon entfernte Derivate des Verstehens.'' (1963, S. 147)
12Maturana/Varela (1980)
13vgl. aber etwa Barwise/Perry, die ihrer Situationssemantik (1983) wünschen ''that the book will, in some small way, contribute to a rethinking of the relation of people to the world around them, a world full of constraints and meaning, both for people and for the other beings with whom they share it.''(S. xiv).
14J. Conklin, der 1987 den bisher wohl besten, weil umfassenden, sachlich informativen und gut lesbaren überblick über Entwicklung und derzeit verfügbare Produkte zum Hypertext -Konzept vorgelegt hat, schreibt u.a.: ''People who think for a living - writers, scientists, artists, designers, etc. - must contend with the fact that the brain can create ideas faster than the hand can write them or the mouth can speak them. There is always a balance between refining the current idea, returning to a previous idea to refine it, and attending to any of the vague ''proto-ideas'' which are hovering at the edge of consciousness. Hypertext simply offers a sufficiently sophisticated ''pencil'' to begin to engage the richness, variety, and interrelatedness of creative thought.'' (S. 40)
15für: natural langue processing
16Engelbart (1963)
17Conklin (1987), S. 19
18für Hypertext Navigation Device
19Rieger 1988b
20vgl. hierzu den überblick der von Verf. vorgelegten Modellansätze und Systementwicklungen in Rieger (1989)
21Da es sich bei den Informationsblöcken um Einheiten aus sprachlichen bildlichen akkustischen, filmischen, etc. Komponenten handeln kann, würde jede Realisation daraus im Prinzip auch eine multi-mediale Geschichte sein.