Warum Fuzzy Linguistik?
Überlegungen und Ansätze einer computerlinguistischen Neuorientierung*
Burghard Rieger**
Lehrstuhl für Computerlinguistik
Fachbereich II: Linguistische Datenverarbeitung - Universität Trier

1  Zur Situation der Computerlinguistik

In der computerlinguistischen Forschung zeichnen sich derzeit weltweit Veränderungen ab, die übergreifend durch Verschiebungen ihres Erkenntnisinteresses, durch Kritik ihrer Untersuchungsmethoden sowie durch Neubestimmungen ihrer Forschungsgegenstände charaktersierbar sind. Als Indikatoren dieser Veränderungen können zum einen die Erfolge gelten, die dem neue Konnektionismus mit der Modellierung von Phänomenen gelangen, welche die natürliche Sprache und ihre Verwendung ganz offensichtlich bestimmen (Lernbarkeit, Veränderbarkeit, Fehlertoleranz, Unschärfe, etc.), in der Computerlinguistik aber gleichwohl (zunächst) unberücksichtigt blieben. Zum anderen bilden natürlichsprachliche Textkorpora in bisdahin nicht vorstellbaren, geschweige denn verfügbaren Umfängen von mehreren 10- oder gar 100-Millionen Wörtern einen neuen sprachwissenschaftlichen Gegenstandsbereich, dessen Datenmassen empirisch-quantitative Analysen nahelegten und zur Entwicklung auch neuer Untersuchungsmethoden Anlaß gaben und noch geben. In der (Muster-basierten) maschinellen Übersetzung führten diese etwa zu Ergebnissen, die denen (Regel-basierter) Ansätze mehr als nahekommen.

1.1  Die Modellbildung

In beiden Bereichen kam es so zu Modellbildungen, die traditionelle Ansätze der Computerlinguistik wie der sprachverarbeitenden künstlichen Intelligenz in sehr grundsätzlicher Weise in Frage stellen. Maschinelle Sprachanalyse- und -Synthese-Systeme basieren bekanntlich auf korrekten Beschreibungen syntaktischer Strukturen und den ihnen zuordenbaren semantischen Interpretationen. Hierzu wurden Repräsentationen des (syntaktischen und lexikalischen) Sprachwissens in Form von Ersetzungsregeln und deren kontrollierter Abarbeitung (Grammatikformalismen) einerseits und Repräsentationen des (referentiellen und situativen) Weltwissens in Form von prädikatenlogisch motivierten Strukturen und deren inferenzieller Verarbeitung (Wissensrepräsentationsformalismen) andererseits benötigt und bereitgestellt. Derartige Repräsentationsformalismen sind Bestandteil der eben deswegen wissensbasiert genannten, kognitiven Modellbildung, die auf der Grundlage und mit Hilfe symbolanalytischer Techniken (monotone Logiken, symbolische Repräsentationen, regelbasierte Operationen, serielle Verarbeitung, etc.) zunehmend komplexere Systeme entwickeln und erproben ließ. Diese sehen sich - wenngleich aus unterschiedlichen Gründen - von den konnektionistischen ebenso wie den empirischen Ansätzen und deren Resultaten herausgefordert.

Während konnektionistische Modelle durch den Einsatz prozeßsimulierender Techniken (Theorie der dynamischen Systeme, sub-symbolische oder verteilte Repräsentationen, kontinuierlich-numerische Operationen, parallele Verarbeitung) vor allem dynamische Eigenschaften sprachverarbeitender kognitiver Systeme nachzubilden vermögen haben die empirisch-quantitativen Analysen sehr großer Sprachkorpora (wahrscheinlichkeits- und possibilitätstheoretische Basis, stochastische bzw. fuzzy Modelle, numerisch-mathematische und fuzzy-logische Operationen, strenge Verfahren der Hypothesenbewertung) vor allem den Reichtum an funktionalen Zusammenhängen sprachlicher Regularitäten und Strukturen erkennen lassen, der große Textmengen tatsächlicher Sprachverwendung beobachtbar auszeichnet.

1.2  Die Diskussion

Die Unterschiede konnektionistischer vs. regelbasierter Ansätze und Modellbildungen werden dabei von Positionen aus diskutiert, für die ein kognitiv-linguistisches Erkenntnisinteresse verbindlich zu sein scheint. Für Vertreter beider Positionen steht offenbar die Erforschung des Sprachvermögens, seiner Komponenten und deren Organisation im Vordergrund. Die Diskussion konzentriert sich daher vor allem auf die mit den unterschiedlichen, auch hybriden Modellbildungen verbundenen Erklärungsansprüche. Die Auseinandersetzung mit den empirisch-linguistischen Ansätzen, die nicht nur wegen der für Linguisten neuen und lernaufwendigen Untersuchungsmethodik erschwert wird, hat kaum begonnen. Sie wird durch die mit der Analyse von Massendaten veränderte linguistische Gegenstandsbestimmung, der bisher ein noch uneinheitliches Erkenntnisinteresse entspricht, zudem weiter verzögert.

Immerhin beginnt sich unter dem Eindruck des formalen Aufwands wie der praktischen Beschränktheit wissensbasierter Modelle einerseits, der überraschenden Leistungsfähigkeit stochastischer Parser und statistischer Übersetzungssysteme andererseits, eine mögliche Revision der für die kognitive Linguistik verbindlichen Grundhypothese abzuzeichnen. Diese besagt, daß die natürliche Sprache vor allem als Problem der Struktur und des Erwerbs von Sprachvermögen (Kompetenz) zu erforschen und daß dies  o h n e  die Kenntnis empirisch überprüfbarer Parameterwerte aus der Anwendung und Realisation solchen Vermögens in Situationen kommunikativer Sprachverwendung (Performanz) auch (theoretisch) zu analysieren möglich und (formal) zu charakterisieren nötig sei.

1.3  Das Resultat

Ein Ergebnis dieser Auseinandersetzungen ist die wachsende Einsicht, daß die Basis bisheriger kognitiv-linguistischer Forschung sich als eine zu weitgehende Abstraktion der sprachlich-kommunikativen Realität erweisen könnte. Angesichts von nur empirisch nachweisbaren, durch etablierte linguistische Kategorien aber nicht erfaßbare sprachliche Strukturen,1 und vor dem Hintergrund komplexer regelbasierter Modellbildungen in der kognitiven Linguistik (KL), Computerlinguistik (CL) und der sprachverarbeitenden künstlichen Intelligenzforschung (KI), bestehen die Möglichkeiten einer empirisch-performativen Linguistik gerade in ihren komplementären Forschungsgegenständen und -methoden. Sie erlauben quantitativ-statistische wie auch fuzzy-theoretische Modellbildungen und könnten damit eine semiotische Neu- oder Umorientierung des kognitiv-linguistischen Erkenntnisinteresses einleiten.

Durch die Verfügbarkeit sehr großer Texkkorpora2, die natürlichsprachliche Eigenschaften und Phänomene auf der Grundlage von Datenmengen studieren lassen, deren Umfang allein schon eine Neubestimmung dieser Erscheinungen und ihrer Strukturen fordert, erweisen sich bisherige Modellierungsformen zunehmend als inadäquat. Sie führen vermehrt zu Randunschärfen, großen Variationsbreiten und vielfältigen Ambiguitäten bei der Beobachtung sprachlicher Strukturen in performativen Massendaten. Klassisch-kategoriale Konzepte der Linguistik sind daher in einem ersten Schritt zu überprüfen und möglicherweise durch Konzepte weicher Kategorien zu erweitern mit Aussicht auf eine bessere Chance, in einem zweiten Schritt Wissen (über Sprache und die Welt) als eine prozedurale Form der kognitiven Strukturierungsleistung semiotischer Prozesse verstehen und erklären zu können.

1.4  Die Aufgabe

Die Modellierung derartiger performativer Prozesse unterscheidet sich von der Wert-zuweisenden Auffüllung schon vorgegebener, weil kompetenztheoretisch vorausgesetzter Repräsentationsstrukturen dadurch, daß (diesen vergleichbare, neuartige) Repräsentationen als Strukturierungsleistung von den prozeßmodellierenden Prozeduren selbst erbracht werden. Ihre Resultate werden zunächst in Form von Verteilungen oder Vektoren notiert, die in der Regel hochdimensionierte (metrische) Raumstrukturen (semiotische Räume) bilden und deren Elemente als unscharfe (fuzzy) Mengen gedeutet werden können. So werden sich anhand von (morphischen) Vektoren, die auf n-Grammen von Buchstaben und anhand von (semischen) Vektoren, die aus Korrelationen von Wörtern berechnet wurden, vermutlich jene Zusammenhänge studieren lassen, die erst durch vektoriell repräsentierte fuzzy Elemente und Relationen des morphologischen/ bzw. semantischen Raumes erkennbar werden. Inwieweit dabei Modelleigenschaften denen der Modellobjekte entsprechen, wird zu prüfen und in jedem Fall schwierig zu entscheiden sein. Sie ist aber eine Voraussetzung der Untersuchung von semiotischen Funktionen solcher Entitäten, die unterschiedliche Ordnungen, Strukturen und Bedeutungen konstituieren, vielfältiger und in einem (vermutlich) größerem Umfang, als linguistische Beschreibungen bisher zu erfassen, zu analysieren und zu repräsentieren vermochten.

2  Zur semiotischen Dimension

Alle Wissenschaften arbeiten mit Begriffen, die im Hinblick auf einige der Entitäten (Objekte, Eigenschaften, Prozesse, Sachverhalte, etc.), mit denen sie umgehen, als Idealisierungen gelten müssen. Objektwissenschaften - wie Metawissenschaften - stehen daher vor der Aufgabe, die von ihnen verwendeten Begriffe einerseits in Form von bestimmten Zeichen (Designatoren) einzuführen und andererseits zu bestimmen, was diese Zeichen jeweils bezeichnen (Designation). Das geschieht im allgemeinen durch Angabe sog. fachsprachlicher Begriffs- oder Bedeutungsdefinitionen, die in Form von Regeln, Verfahren und/oder Operationen explizieren, wie welche Zeichen (und Zeichenaggregate) sich auf welche Designationen beziehen (lassen). Dabei ist es zweckmäßig, Zuordnungsbeziehungen, welche die Möglichkeiten festlegen, korrekte Zeichen-Zeichen-Verbindungen zu aggregieren (Syntaktik)3, von den Korrespondenzrelationen zu unterscheiden, welche die Beziehungen zwischen Zeichen (und Zeichenaggregaten) einerseits und dem von diesen Bezeichneten andererseits regeln (Semantik). Innerhalb jeder Disziplin ergibt sich mit der Ausbildung ihrer jeweiligen Fachsprache eine quasi metawissenschaftliche Aufgabenstellung, der sich die Sprachwissenschaft im Hinblick auf die natürliche Sprache auch objektwissenschaftlich gegenüber sieht. In dieser doppelten Aufgabenstellung linguistischer Forschung besteht die weit über die Linguistik hinausweisende Bedeutung ihrer Begriffs- und Kategorienbildung.4

2.1  Überprüfbarkeit

Insbesondere für die empirischen Objektwissenschaften erweist sich, daß sie dem Anspruch der (durch intersubjektiven Zustimmungszwang qualifizierten) Überprüfbarkeit ihrer Aussagen nur in dem Maße zu genügen vermögen, wie sie die Klärung der Zuordnungs- und Korrespondenzregeln für ihre fachwissenschaftlichen Notationssysteme haben vorantreiben können. Mit der möglichst eindeutigen Bestimmung und definitorischen Festlegung dieser Beziehungen ergeben sich zahlreiche Aufgaben- und Fragestellungen, denen sich u.a. Sprachphilosophie, Psychologie und Linguistik widmen. Was dabei die Schwierigkeit der Bestimmung dieser Zuordnungs- und Korrespondenz-Beziehungen, die in allen Disziplinen mit der erfolgreichen Theorienkonstruktion und Modellüberprüfung verbunden ist, zu einem Disziplinen übergreifenden und wissenschaftstheoretisch relevanten Problem macht, ist seine semiotische Dimension, die ontologisch begründet ist. Denn jede (wenn auch unbefriedigende) Lösung dieses Problems kann als eine Bedingungen der Möglichkeit gelten, Erfahrungen, die im Umgang mit der Welt gemacht werden, überhaupt repräsentieren bzw. sprachlich darstellen, über diese Darstellungen vermitteln und aufgrund der diese Vermittlung regelnden Verstehensprozesse auch überprüfen zu können.

Im Hinblick auf diejenigen Prozesse, die das Verstehen natürlichsprachlicher Repräsentationen ausmachen, hat sich die Sprachwissenschaft und Linguistik engagiert und zum Objekt ihrer wissenschaftlichen Untersuchungen gemacht, ohne deshalb eine metawissenschaftliche Disziplin zu begründen. Über die beschreibende Analyse und (re-)konstruktive Modellierung der sog. Form-Funktion- bzw. Ausdruck-Inhalt-Beziehungen haben insbesondere die computerlinguistischen Forschungen etwa zur Syntax der natürlichen Sprachen mit der Theorie der formalen Sprachen als automatentheoretischem Modell, in der Semantik der natürlichen Sprache mit referenztheoretisch oder bedeutungsstrukturell modellierenden Repräsentationsformalismen entscheidende Beiträge geliefert. Dabei wird bis heute mit Begriffen und Kategorien gearbeitet, die als Idealisierungen nicht etwa eine Konsequenz strikter Theorien- und Modellbildungen sind, sondern oft selber den Grund bilden für eine erschwerte bis unmögliche Hypothesenbildung mit deswegen kaum forderbarer bis leistbarer strikten Überprüfbarkeit.

2.2  Notation

Solange eine umfassende Sprachtheorie fehlt, welche die formal erklärenden Terme (ihres theoretischen Teils) über wohldefinierte Meßoperationen (eines Zuordnungsteils) mit quantitativ numerischen Termen (ihres empirischen Teils) verbindet, ist es (noch) nicht möglich, linguistische Gesetzeshypothesen so zu formulieren, daß daraus beobachtbare Zusammenhänge deduktiv prognostiziert und in Form experimenteller Versuche auch getestet werden könnten. Zusammenhänge, die daher nur aufgrund bestimmter Beobachtungen und eher rudimentärer theoretischer Vorstellungen bestenfalls vermutet werden können, werden - in Ermangelung theoretischer Gesetzeshypothesen, aus denen sie ableitbar wären, und in Ermangelung auch einer damit bereitstehenden formalen Notationsform, welche sie überprüfbar zu repräsentieren erlaubte - deshalb nur als Zusammenhang von Beobachtungen mitteilbar sein oder als Resultat jener Prozesse beschrieben werden können, die für das Zustandekommen dieser Beobachtungen vermutet werden. Dabei zeigt sich leider, daß das Vermögen, mittels natürlichsprachlicher Zeichen und deren Aggregation Bedeutungen konstituieren zu können5, wissenschaftliche Aussagen insbesondere solcher Disziplinen zu überprüfen erschwert, deren Forschungsgegenstand aus natürlichsprachlichen Zeichenketten besteht, deren Untersuchungsmethoden auf ein analysierendes Segmentieren und Kategorisieren sprachlicher Strukturen hinausläuft, und deren Erkenntnisinteresse dem Erkennen und Verstehen dieser Strukturen und ihrer Funktionen gilt.

Für die Formulierung diesbezüglicher Hypothesen, die als Behauptungen vermuteter Zusammenhänge ein überprüfbares Modell sollen bilden können, ist deswegen eine besondere Form ihrer Repräsentation Voraussetzung. Erst sie kann gewährleisten, daß zwischen denjenigen Bedingungen, die eher beim Zustandekommen der Vermutung beteiligt sind, und solchen Bedingungen, die eher für die Entstehung der Zusammenhänge maßgeblich sind, unterschieden wird. Natürlichsprachlich formulierte Hypothesen können diese Unterscheidung immer nur natürlichsprachlich vermitteln, nicht aber formal explizieren. Sie müssen die Plausibilität daher dem individuellen Akt einer verstehenden Interpretation solcher Hypothesen überlassen anstatt ihre Überprüfung operational kontrolliert an Kalküle oder Testprozeduren zu delegieren. Dazu wäre ihre formalsprachliche Präzisierung notwendig, die diese Unterscheidung wie den Grad ihrer Plausibiltät explizieren und notieren können müßte. Formalen Notationssysteme mit zugeordneten Meßoperationen sind daher eine wesentliche Voraussetzung umfassender wissenschaftlicher Theorienbildung und experimenteller Überprufbarkeit ihrer Modelle.

2.3  Optimierung

Die Entwicklung und Differenzierung von Wissenschaft in eine Vielzahl (mehr oder weniger) eigenständiger Disziplinen stellt sich als kontinuierlicher Prozeß primären Gewinnens, vermittelnden Darstellens, lernenden Erwerbs und überprüfenden Veränderns von neuen Erkenntnissen der an diesem Prozeß Beteiligten dar. Dieser durch kritisches Verstehen gekennzeichnete historische Prozeß kann seine optimierende Wirkung offenbar deswegen entfalten, weil die zeichenhaft-symbolische Repräsentation individueller Erkenntnisse sie aus der Gebundenheit an ihre Produzenten und Rezipienten (weitgehend) befreit und (durch zunehmend höhere Auflösungsvermögen der verwendeten Notationssysteme) in eine besondere Form (Wissen) überführt, welche die Intersubjektivität des Zugangs (Verstehen) wie der Überprüfbarkeit (Kritik) sichert. Dies leistet im wesentlichen eine von den Erkenntnisträgern abstrahierende Transformation, durch die die situative (Orts- und Zeit-) Gebundenheit (Kontexte) aller Erfahrung in vereinheitlichende Ordnungen (Strukturen) überführt und übergreifend in abstrakten Repräsentationen (Systeme oder Theorien) aufgehoben wird6, die zwischen den Ausgangsbedingungen (Erkenntnisinteresse), den Objekten (Forschungsgegenstand) und den Verfahren ( Untersuchungsmethoden) zu unterscheiden und sie zu spezifizieren erlaubt. Erst eine (auch notationelle) Differenzierung dieser Bestimmungsstücke von Erkenntnis läßt die (metawissenschaftliche) Präzisierung ihrer wechselseitigen Abhängigkeiten zu und erlaubt die Festlegung von Kriterien der Überprüfbarkeit von Aussagen, die innerhalb so bestimmter Disziplinen als wissenschaftliche Hypothesen gelten können. Was so durch die einander ablösenden wissenschaftlichen Theorien in der Zeit [] als Optimierung erscheint, hat seine Entsprechung im Prozeß der Bedeutungskonstitution und des Verstehens, der den situationsangepaßten und deswegen kommunikativen Gebrauch natürlicher Sprache zur (kognitiven) Orientierung in der Welt kennzeichnet.

Übergreifend kann man daher die zureichende Bestimmtheit syntaktischer Zuordnungen und semantischer Korrespondenzen als Bedingung insbesondere solcher Prozesse verstehen, die durch standardisierte Zeichenverwendung eben diese Standards zu verändern vermögen. Das ist freilich kein Selbstzweck, weder der Wissenschaft noch der Sprache, sondern Ergebnis und Voraussetzung kommunikativer Interaktionen zeichenverwendender, informationsverarbeitender Systeme mit dem Ziel, durch Veränderungen solcher Standards den variablen Umgebungsansprüchen effizienter genügen und unterschiedlichen Systembedürfnissen effektiver entsprechen zu können. Zur Charakterisierung der Dynamik derart wechselseitig sich anpassender Veränderung, die nicht auf einem bloß kybernetischen Ausgleich vorgegebener Soll-Ist-Größen von im übrigen stabilen System- und Umgebungsstrukturen beruht, sondern selbst die Unterscheidung zwischen systemtheoretisch so grundlegenden Komponenten wie System und seiner Umgebung als Resultat emergenter Strukturierungen deutet, die erst durch selbstorganisierende Prozesse der Informationsverarbeitung bewirkt wird, bietet sich das ökologische Paradigma der Beschreibung, Analyse und Modellbildung an.

3  Zum Defizit der Linguistik

Anders als in den mit nicht-semiotischen Forschungsgegenständen befaßten Objektwissenschaften (wie etwa der Experimantalphysik, Chemie, Biologie, etc.) aber auch anders als in den von semiotisch vermittelten Forschungsgegenständen bestimmten Beobachtungswissenschaften (wie etwa Psychologie, Soziologie, Etnologie, etc.) hat die Linguistik - wie durch ihren Forschungsgegenstand Sprache verführt - sich von bestimmenden Entwicklungen der modernen Wissenschaftstheorie seit Ende der 70er Jahre7 nahezu unberührt gezeigt. Dabei scheint die traditionelle langue-parole-language-Differenzierung deSaussures ebenso wie die nicht minder einflußreiche competence-performance-Unterscheidung Chomskys eine ganze Klasse von Problemen nachhaltig überdeckt zu haben. Hierzu zählen insbesondere jene, die mit der Frage entstehen, wie denn eine überprüfbare, durch kontrollierte Verfahren wirksame, wechselseitige Vermittlung von formal-theoretischen Konstrukten einerseits und empirisch-deskriptiven Begriffen andererseits so gewährleistet werden könne, daß deren Theorie-geleitete, methodische Anwendung auf empirische Gegenstandsbereiche - durch experimentelle Erprobung in hierzu abgeleiteten Modellen - zur kontinuierlichen Verbesserung dieser Vermittlungsleistung beitrage.

3.1  Zuordnung und Korrespondenz

Als ein möglicher Grund für die Leichtigkeit, mit der die auch in der Sprachwissenschaft anstehenden Probleme übersehen wurden, mag gelten, daß linguistische Konzepte und Abstraktionen den Mangel sprachwissenschaftlicher Begriffs- und Kategorienbildungen offenbar nachhaltig verdeckten. Da sie ja (meist) jeweils einem der beiden für die linguistische Beschreibung unterschiedenen Untersuchungsbereiche des Sprachvermögens (Kompetenz) oder des Sprachgebrauchs (Performanz) zugeordnet werden können8, blieb auch das für die Sprachwissenschaft insgesamt charakteristische unvermittelte Nebeneinander von (spekulativer) Theorie und (weicher) Empirie scheinbar unproblematisch, obwohl den formalen Termen theoretischer Aussagen keine Meßoperationen oder Beobachtungsterme empirischer Aussagen in überprüfbarer Weise systematisch zugeordnet werden können. Weitgehend übersehen wurde und wird dabei, daß auf den unteren semiotischen Beschreibungsebenen (Phonologie, Morphologie, IC-Syntax)-durch die klassisch strukturalen Verfahren der Segmentierung und der Klassifizierung vermittelt - noch eine (wenn auch schwach) operationale Klärung der fachterminologischen Korrespondenzen zwischen theoretischem Konstruktbegriff und empirischem Beobachtungsbegriff methodisch etabliert wird, während diese auf den höheren Beschreibungsebenen (PS-Syntax, Semantik, Pragmatik) fast völlig fehlt. Für diese sind allerdings die Zuordnungen zum Teil eingehender spezifiziert, welche die Bildung korrekter formaler Konstrukte und fachsprachlich Ausdrücke für den jeweiligen Untersuchungsbereich regeln.

Jedenfalls erweisen sich die weitgehend kompetenztheoretischen Modellierungen linguistischer Begriffe zunehmend als inadäquat und revisionsbedürftig angesichts der Probleme, welche die mit ihnen etablierten Kategorisierungen zur Charakterisierung performativer Sprachdaten aufwerfen. Regelbasierte Grammatikformalismen, symbolische Repräsentationen, monotone Logiken und deterministische Strukturmodelle abstrakter Einheiten führen - trotz ihrer in formal-theoretisch ausgearbeiteten Notationssystemen geklärten Zuordnungen- vermehrt zu Randunschärfen, großen Variationsbreiten und vielfältigen Ambiguitäten bei dem Versuch, derartig konzipierten linguistischen Kategorien die beobachtbaren Erscheinungen sprachlicher Phänomene - ohne eine ausgearbeitete Systematik methodisch konstituierter Korrespondenzen - zu subsummieren.

3.2  Theorie und Empirie

Dieser Umstand erschiene kaum beunruhigend, wenn die Linguistik mit Hilfe ihrer bisherigen Kategorien zur Entwicklung anwendungsstarker Verfahren in der Lage gewesen wäre, was aber nicht der Fall ist. Gerade im Hinblich auf die heute verfügbaren, sehr großen natürlichsprachlichen Textkorpora erweisen sich selbst diejenigen Modellbildungen als bestenfalls theoretisch motiviert, über die wir dank langjähriger computerlinguistischer Forschung verfügen. Empirisch testbar - und damit im Sinne wissenschaftlicher Hypothesenbildung überprüfbar - sind die Implementationen der bisher entwickelten Grammatikformalismen allerdings nicht, solange ihr Versagen bei Anwendung auf jeden nicht fragmentierend vor-eingeschränkten Ausschnitt der Erscheinungsvielfalt performativer Sprachdaten als ein (aus den unterschiedlichsten Gründen) nicht angemessenes Verfahren erklärt wird.

So legt die Divergenz zwischen kategorialer Begriffswelt linguistischen Wissens und der Welt der beobachteten Spracherscheinungen die Vermutung nahe, daß kompetenztheoretisch motivierte, mit kategorialen linguistischen Begriffen operierende Theorien- und Modellbildungen den Gegenstandsbereich Sprachkenntnis zwar (grob) strukturieren. Den erfahrbaren Phänomenbereich performativer Sprachrealität vermögen diese Kategorien aber nur sehr unvollkommen zu erfassen, weil hierzu eine sie korrigierende empirische Komponente nötig wäre, die bisher (weitgehend) fehlt. Daß zur Überbrückung dieser Divergenz probabilistische Ansätze nur sehr bedingt einsetzbar sind, liegt in deren wahrscheinlichkeitstheoretischer Fundierung begründet. (Daten-)Schätz- und (Hypothesen-)Test-Verfahren setzen gleichermaßen die Kenntnis jener (theoretischen) Wahrscheinlichkeitsverteilungen von Zufallsvariablen voraus, als deren Realisierungen man die (empirischen) Häufigkeiten von Elementen deuten müßte, welche die traditionellen linguistischen Begriffs- und Kategorienbildungen in Sprachkorpora zu identifizieren erlauben. Beide Konzepte, Zufallsvariable und linguistische Einheit, erweisen sich als - zumindest zeichentheoretisch - unangemessene Abstraktionen.

3.3  Zeichen und Funktion

Warum sollte eine zeichentheoretische Erweiterung der kognitiven Perspektive gerade für die sprachwissenschaftlichen Disziplinen eine Chance eröffnen, das Wissen (über Sprache und die Welt) zu vertiefen und zu erweitern? Es geschieht sicher nicht dadurch, daß die phänomenal begegnende Mannigfaltigkeit der beobachtbaren Objektwelt wieder nur - quasi Aristotelisch - unter dem Aspekt der diese Vielheit vereinheitlichenden Ordnung beschrieben und - quasi Augustinisch - unter (immer wieder neuen Begriffsbildungen von) Typen, Klassen und Kategorien subsummiert wird. Ebensowenig genügt es, Vielheiten aufgrund von Prinzipien ihrer Geordnetheit (von Einheiten über die Eigenschaften und Merkmale zu deren Beziehungen und Relationen) zu analysieren und in Form von Strukturen zu repräsentieren, für die eine in ihren Zuordnungen und Korrespondenzen wohldefinierte formale Zeichennotation gefunden werden kann. Mit Semiotisierung, wie sie in entwickelt wurde, ist vielmehr eine Funktion gemeint, die über einen durch zeichenhafte Repräsentationen vermittelten Zusammenhang läuft, der - nach den Reduktionsformen Ordnung und Struktur - eine übergreifende Kennzeichnung von Vielheiten durch Bestimmung und Angabe von Prozessen erlaubt, und dessen Besonderheit darin zu liegen scheint, daß es ihn überhaupt gibt. Ein Erklärungsanspruch wird (vorerst) nur darin bestehen können, daß dieser Zusammenhang Prozesse betrifft, die in Form von Prozeduren modellierbar sind.

Prozeduren stellen eine besondere Notationsform dar, welche von der Zeitlichkeit von Prozessen abstrahieren und diese formal manipulieren läßt, die aber über Implementationen-geeignete Algorithmen, Programnmiersprachen und Automaten vorausgesetzt - wieder in die zeitlichen Abläufe von Prozessen überführt werden können. Prozedurale Modellierung kognitiver Prozesse erlaubt so deren Simulation unter kontrolliert veränderten Bedingungen mit der quasi empirischen Möglichkeit, beobachtete (oder vermutete) Ergebnisse dieser Prozesse anhand von Resultaten experimenteller Modelläufe zu überprüfen und wechselseitig zu bewerten.

4  Zur kognitiven Perspektive

Im Rahmen der Kognitionswissenschaften, deren Erkenntnisinteresse sich auf die Erweiterung der Kenntnisse über das Wissen (seine Formen, seine Strukturen, seines Erwerbs, seiner Anwendungen und seiner Realität im Denken) richtet, wird unter durchaus uneinheitlicher Wissenschaftsauffassungen anhand unterschiedlichster Forschungsgegenstände und mit den verschiedensten Untersuchungsmethoden an der theoretischen wie praktischen Präzisierung dessen gearbeitet, was Kognition ausmacht.

4.1  Kognitive Prozesse

Verbindlich scheint ein prozessuales Verständnis von Kognition zu sein. Kognitive Prozesse können danach - im weiten Sinn: systemtheoretisch - als adaptive Leistung von informationsverarbeitenden Systemen (Agenten) verstanden werden, die ihre Umgebungen in jeweils dem Maße in strukturierte Repräsentationen zu überführen vermögen, wie dies ihre jeweils eigene Strukturiertheit erlaubt. In den Kognitionswissenschaften heißen diese Prozesse mentale Prozesse. Sie gelten als Bedingung dafür, daß Regularitäten, Ordnungen und Strukturen nicht nur entstehen, sondern auch repräsentiert werden. Sofern es sich dabei um (nicht notwendigerweise auch zeichenhaft-symbolische) Repräsentationen von für das Zustandekommen von Erkenntnis notwendigen (Zwischen-)Resultaten handelt, wird angenommen, daß auch ihnen (andere) Prozesse zugeordnet sind, die einerseits das Enstehen solcher Repräsentationen, andererseits ihre Verarbeitung kontrollieren. Die Semiotisierung der kognitionswissenschaftlichen Sicht besteht - verkürzt gesagt - in der Suche nach solchen Prozessen (und ihren Modellen), die durch die Verarbeitung (von schon repräsentierten) Einheiten der einen Stufe die Repräsentationen (von Einheiten) einer anderen Stufe erst schaffen.

4.2  Kognitive Linguistik

In ihren Modellbildungen geht die kognitive Linguistik von formal konstruierbaren, mentalen Repräsentationen aus, welche eine Bedingung der Möglichkeit der auf ihnen operierenden mentalen Prozesse bilden. Einer durch das Erkenntnisinteresse der theoretischen Linguistik motivierten Perspektive, wonach sich die Fragen nach Struktur und Erwerb von Sprachkenntnis ( Kompetenz als Sprachwissen) weitgehend unabhängig von und jedenfalls vor denen nach ihrer Anwendung und möglichen (materialen) Realisierung (Performanz als Sprachfertigkeit) stellen, entsprechen auch computerlinguistische Modellbildungen, welche vor allem die theoretischen Möglichkeiten und formalen Bedingungen des Sprachwissens zu klären suchen.

Figure 1

Figure 1: Schema der Inkongruenz von Berechenbarkeit und Algorithmisierung sprachlicher Strukturbeschreibungen (nach).

Ein semiotisches Defizit dieser kognitiv-linguistischen Modellierungen des Sprachwissens kann anhand der Forderungen sichtbar gemacht werden, die als Berechenbarkeit, Algorithmisierbarkeit und Implementierbarkeit an prozedurale Modelle kognitiver Prozesse allgemein zu stellen sind. Sie lassen eine eigentümliche Inkompatibilität hervortreten, die in zunächst nur als formales Problem konstatiert wurde. Es stellt sich (Abb. 1) als Inkongruenz der Unterscheidung von sprachlichen Einheiten im Lexikon (LE) und den Verkettungsregeln der Grammatik (G) auf der Modellebene berechenbarer Repräsentationen einerseits und den Einheiten einer Gedächtnisstruktur als mentalem Lexikon (ML) und der Abarbeitung von Regeln in Parsern (P) auf der Ebene der algorithmisierbaren Prozeduren andererseits dar. Diese Inkongruenz benennt eine Algorithmisierungs- bzw. Berechenbarkeitslücke im Modellierungsansatz der kognitiven Linguistik, die deren semiotisches Defizit aufdeckt9. Daß diese Lücke geschlossen werden könnte bzw. gar nicht erst zu entstehen brauchte, wenn geeignetere (als symbolische und regelbasierte) Repräsentationen sprachlicher Einheiten und ihrer Strukturen gewählt würden, ist eine der Arbeitshypothesen für eine semiotisch-funktionale Modellbildung in der (Computer-)Linguistik.

Das empirische Defizit dieser Modellbildungen wird darin faßbar, daß anstelle empirisch-operationaler Kriterien der Überprüfbarkeit von Hypothesen und Theorien für die kognitive Linguistik - trotz ihrer dem realistischen Paradigma verpflichteten Wissenschaftsauffassung - im wesentlichen nur zwei (voneinander nicht unabhängige, zudem mittelbare) Adäquatheitskriterien wie Lernbarkeit und Verarbeitbarkeit gelten sollen, die im Hinblick auf prozedurale Modelle sprachverarbeitender Prozesse nicht nur nicht testbar, geschweige denn entscheidbar sind10. Sie reduzieren vielmehr jede Überprüfung der solchen Modellen zugrundeliegenden Hypothesen auf die bloße Anerkenntnis oder Ablehnung ihrer theoretischen Prämissen (hier: symbolische Repräsentation, regelbasierte Verarbeitung) und machen damit eine operationale Überprüfung des empirischen Gehalts der Hypthesen mit dem Ziel ihrer intersubjektiv nachvollziehbaren Bewertung (hier: Bestätigen oder Verwerfen) unmöglich.

4.3  Kognitive Sprachverarbeitung

Das übergreifende Paradigma von Kognition als (zu modellierendes) System wissensbasierter Prozesse wird auch von der kognitiven Sprachverarbeitung akzeptiert. Sie konfrontiert jedoch kompetenztheoretisch relevante Ergebnisse und Resultate der kognitiven Linguistik mit der performativen Praxis der kommunikativen Produktion und Rezeption natürlichsprachlicher Texte, zu deren Erklärung sie eine ökologisch orientierte Kognitionstheorie fordert. Diese ökologische Einbettung, die erstmals in und thematisch als semiotischer Ansatz informationsverarbeitender Systeme entwickelt wurde, bezieht konsequenterweise die Bedingungen wissenschaftlicher Kommunikation und Modellpluralität als besondere, weil explizierte Form situierter Produktion und Rezeption von Zeichen- und Symbolaggregationen ein. Dem ökologischen Paradigma dieser Wissenschaftsauffassung entspricht dabei eine dynamische Konzeption von Modellierung, deren Überprüfbarkeit weitgehend in der methodischen Realisierung kontextuell situierter Prozeßsimulationen begründet ist. Diese können als semiotische Erklärung für das Entstehen von Strukturen, Ordnungen und Einheiten aus Vielheiten dann gelten, wenn sie - unabhängig von allen übrigen Erklärungsparadigmen - einen durch Berechenbarkeit kontrollierbaren, durch Algorithmisierbarkeit modellierbaren und durch seine Prozeduralität vermittelten Zusammenhang herstellen zwischen Repräsentationen unterschiedlicher Ebenen.

Während das Prinzip der Berechenbarkeit (computational level) mögliche Formate, Einheiten und Operationen über die Repräsentationen aller Beschreibungsebenen sprachlicher Phänomene festzulegen erlaubt, sind aus der Menge ihrer möglichen Algorithmisierungen (algorithmic level) nur diejenigen semiotisch interessant, die durch Verarbeitung der Einheiten einer Repräsenationsebene Einheiten einer anderen Ebene erst konstituieren. Sie bilden offenbar eine Teilklasse der Algorithmen, die in Modellen symbolischer Repräsentationen von Einheiten und der regelbasierten (syntaktischen) Festlegung ihrer Konkatenationen gar nicht vorkommen, sondern überhaupt nur in Modellen mit verteilt repräsentierten Einheiten und nicht-syntaktischen Agglomerationen benötigt werden. Denn während die regelverarbeitenden Algorithmen in den symbolischen Modellen den Bereich der Zuordnungen abdecken, vermögen Algorithmen, die auf sub-symbolischen oder verteilten Repräsentationen operieren, offenbar den Bereich der Korrespondenzen zu modellieren. Diese semiotischen Algorithmen setzen im wesentlichen Einheiten unterschiedlicher Repräsentationsebenen derart zueinander in Beziehung, daß sie (mindestens) eine dieser Ebenen mit ihren Einheiten erst schaffen. Die Rede ist von emergenten Strukturen, welche bisher nicht-unterscheidbare Einheiten dadurch unterscheiden lassen, daß sie als Resultate von Prozessen erscheinen, welche die Daten, die sie verarbeiten, systematisch verändern.

5  Zur unscharfen Modellierung

Weitgehend ungeklärt ist bisher, ob - und gegebenenfalls wie - semiotische Modellbildungen ein stufenweises Entstehen von Strukturen aus Ordnungen und dieser Ordnungen aus Regularitäten von Vielheiten beobachtbarer Entitäten erklären können. Es kann aber aufgrund vorliegender Untersuchungen vermutet werden, daß diese Prozesse der Identifikation von Regelhaftigkeiten und deren Zusammenfassung in solchen (Zwischen-)Repräsentationen, denen wiederum Eigenschaften von beobachtbaren Entitäten zukommen, für das Entstehen und die Verwendung zeichenhaft-funktionaler Strukturen in natürlichsprachlichen Systemen verantwortlich, wenn nicht mit ihnen gar identisch sind. Eine fundierte Hypothese dazu ist, daß sie - unabhängig von allen übrigen Erklärungsparadigmen - einen durch Berechenbarkeit formal kontrollierbaren, durch Algorithmisierbarkeit prozedural modellierbaren und durch ihre Implementationen praktisch vermittelten Zusammenhang überprüfbar herstellen zwischen Repräsentationen verschiedener Ebenen, die sie selbst erzeugen.

Figure 2

Figure 2: Gegenüberstellung der Stufen modular separierter Mechanismen M1 bis M3 symbolisch-regelbasierter Modellbildung mit der vielfachen Überdeckung numerisch-prozedural realisierter Vektorräume Mn-l bis Mn+k in semiotisch-funktionalen Modellierungen einer fuzzy Linguistik.

Für kognitive Prozesse des Sprachverstehens bietet sich eine Modellierung in Form von mehrstufigen Verarbeitungs- und Repräsentationsebenen11 an, weil sie auf Gegebenheiten aufsetzen können, die als sprachliche Manifestationen selber schon (Zwischen-)Repräsentationen sind. Es ist zu untersuchen, ob die klassische Dreistufigkeit linguistischer Analysemechanismen M1 bis M3 (Abb. 2 links) nicht besser durch eine ebenfalls mehrstufige, aber vielfach interdependente Überdeckung semiotischer Prozeduren Mn-l bis Mn+k (Abb. 2 rechts) modelliert werden könnte. Anders als kompetenztheoretische Idealisierungen von Einheiten (Universalien ® Grammatik ® Satz), welche sprachliche Erscheinungsformen auf das Prinzip symbolisch repräsentierbarer und syntaktisch überprüfbarer Korrektheit hin abstrahieren, wird deshalb versucht werden, in einem performanzorientierten Ansatz zunächst die Zeichen- und Bedeutungs-konstituierenden Leistungen kognitiver Prozesse in Form von Funktionen und Funktionensystemen zu modellieren.

5.1  Quantitative Verfahren

Die quantitative Beschreibung und numerische Analyse sprachlicher Elemente, Einheiten und Strukturen bietet sich an, wenn es darum geht, Eigenschaften ihrer Verwendung, ihres Gebrauchs und der damit verbundenen Zusammenhänge zu ermitteln, die als (nicht unmittelbar beobachtbare) abgeleitete Funktionen ihres (beobachtbaren) Vorkommens beschrieben werden können. In Verbindung mit den fuzzy-theoretischen Möglichkeiten der Modellierung erlauben diese Verfahren die Definition von elastischen Einheiten - den soft constraints in sub-symbolischen Modellen entsprechend - durch numerische Spezifizierungen und erhöhtes Auflösungsvermögen von Zugehörigkeitsgraden verbunden mit größeren Toleranzen der Kategorisierung und der Verarbeitung. Weiche Kategorien lassen sich so in ihren Reichweiten (Umfang) über die gleichen Formen numerischer Bestimmung kennzeichnen, wie die Arten der ihnen subsumierbaren Elemente (Inhalt). Unscharfe (fuzzy) Kategorien heißen dabei solche abstrakten Zuordnungen, deren (leeren) Strukturen ebenso wie deren mögliche Füllungen als Resultate von Prozessen erscheinen, die in Form von Prozeduren dargestellt werden können. Die prozedurale Form erlaubt dabei,
  • veränderliche strukturelle Zusammenhänge als dynamisch sich verändernde Resultate von Prozessen zu erklären, deren (wiederholter) Ablauf Veränderungen der (metrischen, topologischen) Struktur der Daten, auf denen sie operieren, zur Folge hat;
  • diese Prozesse als Modell kognitiver Leistungen zu deuten, wodurch die Elemente (und Elementverbindungen) einer Ebene Strukturen anderer Ebenen zugeordnet werden, die durch diese Zuordnung erst entstehen;
  • diese Zuordnung als prozedurale Explikation einer Bedeutungskonstitution zu verstehen, insofern bisher verborgenen (hidden) und uninterpretierten Einheiten und Strukturen durch die sie konstituierenden Prozeduren erkennbare Funktionen erst zukommen.
  • Kategoriale Konstrukte und Begriffsbildungen der strukturellen Linguistik, die immerhin aufgrund operationaler (wenn auch nicht streng algorithmisierbarer) Ansätze gefunden wurden, können hierbei als Leitlinie der Suche dienen, wenn es darum geht, operational definierte, prozedural (re)konstruierende Konzepte zu entwickeln, denen überprüfbare, gegebenenfalls weiche Kategorien entsprechen und für eine semiotische Theorie linguistischer Performanz relevant werden könnten.

    Die Verbindung eines semiotisch fundierten Modells vektorieller Funktionsrepräsentationen linguistischer Einheiten mit einer dem semiotischen Gegenstandsbereich angemessenen mathematischen Analyse dieses Repräsentationsformats eröffnet begründete Aussicht darauf, neuartige Zusammenhänge zwischen den Erscheinungen performativer Sprachverwendung und den Prinzipien kompetenten Sprachvermögens aufzuweisen, deren quasi empirische Überprüfbarkeit durch die prozedurale Modellierung und experimentelle Simulation Zeichen-konstitutiver Prozesse gewährleistet werden kann.

    5.2  Rekonstruktive Modellierung

    Für die Modellbildung kann auf ein Grundprinzip sprachlicher Strukturbildung zurückgegriffen werden, dessen Universalität12 in der spezifischen Form der Einschränkung liegt, welche die in beobachtbaren sprachlichen Regularitäten tatsächlichen realisierten Kombinationen von den theoretisch möglichen Kombinationen dieser sprachlichen Einheiten unterscheidet. Diese als lineare Verkettungsrelationen (Syntagmatik) und als selektive Ersetzungsrelationen (Paradigmatik) von (eben hierdurch unterschiedenen) linguistischen Einheiten wurde schon von den Begründern der strukturellen Linguistik in ihrer Systematik erkannt und zur Konstitution verschiedener Beschreibungsebenen sprachlicher Erscheinungen und ihrer Kategorisierung (Segment und Klasse) genutzt. Diese Unterscheidung kann durch den fuzzy-theoretischen Ansatz für die semiotische Modellbildung verschärft und numerisch präzisiert werden13. Die hierbei zu verarbeitenden primären Eingabedaten sind (eindimensionale) Verteilungen von Elementen, die aufgrund syntagmatischer und paradigmatischer Restriktionen erst als Einheiten unterschieden werden. Verarbeitungsresultate geeigneter Prozeduren werden wiederum als (diesmal: zweidimensionale) Verteilungen (Matrizen) ausgegeben, welche als Relationen, Vektoren oder hochdimensionierte Raumstrukturen interpretiert werden können. Diese semiotische Räume werfen in ihrer Topologie wie in ihrer Metrik noch beträchtliche Probleme auf, die bei der Deutung und Interpretation (durch veranschaulichende Transformationen) selbst kleiner Ausschnitte - möglicherweise aber auch wegen dieser Fragmentierung - auftreten.

    Einige auf semantischer und morphologischer Ebene durchgeführte Untersuchungen, die auf der Grundlage schriftsprachlicher Textdaten des Deutschen basieren, haben die (graphischen) Analoga so unterschiedlicher linguistischer Konzepte wie Wortbedeutung und Silbe als vektorbasierte Strukturierungsleistung von Prozeduren modellieren können, indem sie auf linearen Folgen von Elementen (Wörter und Graphen bzw. Buchstaben) in natürlichsprachlichen Texten großer Korpora operieren. Die vorliegenden Implementationen solcher prozeduralen Modellierungen von weichen (fuzzy) linguistischen Kategorien beruhen dabei auf verteilten Repräsentationen, welche die Zustände eines dynamischen Systems möglicher Graphen-Agglomerationen bzw. Wort-Zusammenhängen partiell festlegen.

    Auf zwei sehr unterschiedlichen Analyseebenen - dem morphologischen Raum mit (morphischen) Vektoren aus Prozeduren auf n-Grammen von Buchstaben und dem semantischen Raum mit (semischen) Vektoren aus Prozeduren auf Korrelationen von Wörtern - hat sich gezeigt, daß die Fülle der in diesem Repräsentationsformat enthaltenen Informationen nur in dem Maße zugänglich und nutzbar ist, wie die Verfügbarkeit von Prozeduren zu ihrer Überführung in Strukturen, die (potentiell) mathematisch und/oder linguistisch14 interpretierbar sind.

    5.2.1  Der morphologische Raum

    Auf dieser Modellierungsebene wurde bisher Teilaspekte dessen untersucht, wie - zunächst von Kategorien und Konzepte der linguistischen Theorienbildung ausgehend - sich Maße, Strukturen und Repräsentationen für Bindungskräfte auf der Graphen-(Buchstaben-)ebene entwickeln ließen, welche die syntagmatischen und paradigmatischen Restriktionen von Einheiten zusammenfassen, aus denen diese (und andere neue) im Deutschen gebildet werden (können). Ausgehend von der graphemischen Umsetzung der traditionell lautlichen Einheit Silbe und unter Nutzung bisheriger phonetischer, phonemischer und morphophonematischer Begriffsbestimmungen und Theoriebildungen als heuristischer Hilfe bei der Suche nach Regularitäten, die in schriftsprachlichen Daten wie dem Trierer dpa-Korpus vorliegen, wurden eine dynamische Kontrollstruktur der positionsabhängigen Bindungsneigungen von Graphemen entwickelt. Sie basiert auf der iterativen Agglomeration von Elementen (Buchstaben), welche die syntagmatischen und paradigmatischen Restriktionen kombinatorisch möglicher (aber nicht realisierter) Verbindungen dieser Einheiten zusammenfaßt und in ihrer Gesamtstruktur wiedergibt.

    Die Übersicht   einiger notationeller und definitorischer Vereinbarungen des Modells betrifft

    n-Gramme
    als n-gliedrige Ketten benachbarter Entitäten. Für n ³ 2 lassen sie sich als geordnete Paare benachbarter Einheiten (Lettern, Graphen, Zeichenketten, Wortketten, etc.) erfassen, welche die Basis bilden, auf der

    Abstraktionen
    über diesen Einheiten als weiche kategoriale Typisierungen (vergleichbar Buchstaben, Graphemen, Morphemen, Silben, Wörtern, etc.) prozedural modellierbar sind. Sie können formal erklärt werden als dispositionelle Dependenz-Strukturen (DDS) von

    fuzzy (Teil-)Mengen
    des jeweiligen Zeichen-Repertoires Zn verschiedener Dimensionen n ³ 1

    (1)

    wobei

    (2)

    den Grad der Zugehörigkeit angibt. Die

    Zugehörigkeitswerte
    mn (x) lassen sich für einen gegebenen Korpus aus den Übergangsneigungen aller linear verketteten Einheiten wie folgt induktiv berechnen. Für eine n-elementige Zeichenkette x Î Zn gebe Hn (x) die Häufigkeit des Auftretens von x in dem zugrundeliegenden Korpus an. Man setze nun für ein

    Bi-Gramm

    (3)

    Mit Z = { z1, ..., zm } erhält man so für jedes y Î Zn-1 einen Vektor

    (4)

    In ihrer Gesamtheit spiegeln diese Vektoren die morphologische Struktur des gegebenen Korpus wider. Auf diese Weise werden

    weiche Kategorien
    konstituiert, die als Systeme von Fuzzy-Mengen der beobachtbaren Verkettungs-Regularitäten definiert sind und aus der Bindungsneigung von Einheiten auf der jeweiligen Ebene elastische Einschränkungen repräsentieren, welche die Systemstruktur bestimmen.

    Die Darstellung   der Entwicklung weicher Kategorien als elastische Constraints (verschiedener Ebenen) wird über ihre formale Darstellung als (mehrstellige) fuzzy-Relationen und den diesen entsprechenden numerischen Formaten in Übergangsmatrizen (auch höherer Ordnungen) erleichtert. Hierzu wird der Raum aller theoretisch möglichen Kombinationen nicht nur auf den Raum der faktisch möglichen, sondern weiter auf den der real auch belegten Kombinationen eingeschränkt, den die beobachteten Einheiten in den analysierten Texten des Korpus tatsächlich aufspannen. Die Umfänge der theoretisch (Tn) und faktisch (Fn) möglichen sowie real (in einem exemplarisch zugrundeliegenden Teil des Trierer dpa -Korpus) belegten (Rn) Mengen unterschiedlicher Zeichenketten gleicher Längen (n-Gramm-types) sind in Tab. 1 zusammengestellt.

    Table 1
    Table 1: Graphen-(Buchstaben-)Kombinatorik und ihre (theoretisch und faktisch) möglichen, sowie die davon real belegten types von n-Grammen in einer Teilmenge der Daten des Trierer dpa-Korpus

    Für schriftsprachliche Texte des Deutschen ergäben sich auf Buchstabenebene bei m unterschiedenen Zeichen (Graphen) und einer maximalen Länge n der betrachteten Zeichenfolgen für m=31 und n=7 zwar theoretisch die möglichen Kombinationen (Tab. 1, Spalte Tn) oder scharfen Relationen Tn = Zn, nämlich

    Formel

    Faktisch erfaßt werden müßten daraus aber nur die auch praktisch auf jeder n-ten Ebene noch zu realisieren möglichen Zeichen-Kombinationen Fn Í Fn-1 ×Z (Tab. 1, Spalte Fn), nämlich

    Formel

    Die fuzzy Modellierung gemäß (3) wird über die relativen Übergangs-Häufigkeiten erreicht, welche die unscharfen Relationen für jede der n-1 langen Ketten bestimmt. Dabei brauchen die Zugehörigkeitswerte gemäß (2) der betreffenden (n-1)-stelligen Relationen nurmehr für Bi-Gramme erhoben und berechnet zu werden. Denn es läßt sich der Umstand ausnutzen, daß in den (jeweils höher-stelligen) Relationen das jeweils erste Glied aller geordneten Paare, die Elemente dieser Relationen sind, aus einer (schon berechneten) Agglomeration von Elementen aus jeweils niedriger-stelligen Relationen besteht. Dieses nicht nur formale Prinzip der prozeduralen Selbstähnlichkeit von n Agglomerationsschritten erlaubt darüber hinaus - aufgrund der besonderen, nach (2) numerisch präzisierten Bindungsneigungen so konstituierter Einheiten - die systematischen Strukturen unterscheidbarer Elemente auf der niedrigeren, (n-1)-ten Ebene mit den neuen Einheiten auf der nächst höheren, n-ten Ebene in Beziehung zu setzen und als elastische Einschränkungen bzw. weiche Typisierungen nicht nur zu modellieren, sondern auch so zu verarbeiten (Tab. 1, Spalte Rn) und als Baumgraph zu repräsentieren (Abb. 3).

    Auf dieser Modellierungsebene werden durchaus differenziertere Maße (als die hier verwendeten relativen Häufigkeiten) zur Erfassung von Bindungskräften und Übergangsneigungen entwickelt werden können, die der Erfassung und Verarbeitung größerer Agglomerationen als (diskreter) Einheiten in kognitiven Prozessen besser Rechnung tragen. Grundüberlegung dabei ist, daß alle sprachperformativen Entitäten ganzheitlich wahrgenommen und verstanden werden und als aus anderen Einheiten aufgebaute Zusammensetzungen in der Regel nur dann analysiert werden, wenn eine Störung (defizienter Modus) der Wahrnehmung bzw. des Verständnisses dies erzwingt.

    Figure 3
    Figure 3: Weiche Kategorie @ Z als Hierarchie abnehmender Übergangneigungen des Buchstaben Z (für 7-Gramme) in Form eines allgemeinen Baumgraphen ermittelt anhand eines Ausschnitts des Trierer dpa- Korpus.

    5.2.2  Der semantische Raum.

    Anknüpfend an schon früher vorgelegte Operationalisierungen dieses Prinzips auf der Ebene lexikalisch-semantischer Einheiten bietet die Theorie der unscharfen (fuzzy) Mengen in Verbindung mit statistischen Verfahren der quantitativen Analyse großer Textmengen die Möglichkeit, natürlich-sprachliche Wortbedeutungen in Form von Vektoren zu repräsentieren, deren Komponenten als Funktionswerte syntagmatischer und paradigmatischer Restriktionen von Wortverwendungsweisen berechnet wurden. Die besonderen (formalen und inhaltlichen) Eigenschaften derart modellierter lexikalisch-semantischer Beziehungen haben eine Reihe sehr interessanter Eigenschaften, deren distanzbestimmter Zusammenhang etwa dem grundlegenden Charakteristikum von Stereotypen entspricht, wie ebenso deren semantische Verwandtschaften sich als strukturelle Eigenschaft des vieldimensionalen Raumes ergeben und zur Modellierung von semantischen (im Unterschied zu syntaktischen) Inferenzprozessen genutzt werden konnten.

    Entscheidender als diese auf dem Repräsentationsformat aufsetzenden Operationalisierungen sind die Prozesse, die - als Prozeduren modelliert - diese Repräsentationen erst liefern und zwar als variable Resultate der textanalytischen Verarbeitung sprachlicher Eingabeketten. Dies geschieht durch die algorithmische Rekonstruktion der syntagmatischen und paradigmatischen Beschränkungen als formalen Abstraktionen auf (Zwischen-)Repräsentationen, die einen zweistufigen Prozeß der Emergenz von Zusammenhängen prozedural modellieren. Diese können als Bedeutungen deswegen gelten, weil sie als vektoriell repräsentierte und unterschiedene Strukturen bestimmten Zeichen (und Zeichenketten) zugeordnet sind, als deren (Verwendungs-)Regularitäten sie sich definieren.

    Die textanalytischen Verfahren,   die hierzu auf der Wortebene angewandt wurden, sind deskriptiv-statistischer Natur und beruhen im wesentlichen auf einer Korrelationsmessung a von (Wort-)Token in einem Korpus pragmatisch-homogener Texte sowie auf einer verteilten Repräsentation der Verwendungsregularitäten ihrer (Wort-)Typen, deren Unterschiede - über ein Distanzmaß d numerisch präzisiert - den semantischen Raum áS,zñ mit abstrakten Bedeutungsrepräsentationen (Bedeutungspunkten) konstituieren.

    Figure 4
    Figure 4: Formalisierung (syntagmatischer/paradigmatischer) Restriktionen (constraints) durch die zweistufige (a- und d-) Abstraktion von Verwendungs-Regularitäten xi und deren Ähnlichkeiten/Unterschieden yj .

    Figure 5
    Figure 5: Abbildungsrelationen a and d zwischen den strukturierten Mengen des Vokabulars xn Î V , seiner Verwendungs-Regularitäten yn Î C und seiner Bedeutungspunkte zn Î S .

    Als Resultat des daraus abgeleiten zweifachen Abstraktionsschritts (Abb. 4) läßt sich die Lage und Position jedes Bedeutungspunkts z Î S in der vieldimensionalen metrischen Struktur des semantischen Raum áS,zñ, auch als Funktion aller Unterschiede (d- oder Distanzwerte) aller Verwendungsregularitäten (a- oder Korrelationswerte) der in den untersuchten Texten verwendeten Wörter des Vokabulars x Î V deuten (Abb. 5). Als Zuordnung von Wörtern zu ihren Bedeutungspunkten stellt diese Funktion eine (mögliche) formale Repräsentation und empirisch überprüfbare Operationalisierung der syntagmatischen und paradigmatischen Restriktionen dar, welche Folgen von Wörtern in Texten pragmatisch homogener Korpora erkennen lassen. Die Visualisierung unscharfer Konzepte mithilfe eines Bäume generierenden Algorithmus, der die Bedeutungspunkte nach ihrer Relevanz (Kriterialität) für die Bedeutung eines Konzepts (Wurzelknoten) reorganisiert stellt dabei bisher die einzige Möglichkeit dar, um eine anschauliche Vorstellung relevanter Ausschnitte des semantischen Raumes zu vermitteln (Abb. 6).

    Figure 6
    Figure 6: DDS- Baumgraph semantischer Dispositionen des Bedeutungspunktes COMPUTER in áS,z ñ mit Punktdistanzen (erster Wert) und Bedeutungskriterialitäten (zweiter Wert) ermittelt anhand eines Teilkorpus deutscher Zeitungstexte ( Die Welt, 1964).

    Der systemtheoretische Zusammenhang   der a, d und z zugeordneten Analyse- und Repräsentationsalgorithmen kann so als ein prozedurales Modell der Verstehens- Fähigkeit gedeutet werden, wonach ein System mit a-, d- und z-Eigenschaften über Analyse-, Repräsentations- und Kontroll-Mechanismen verfügt, die es ihm - ausschließlich durch Verarbeitung der natürlichsprachlichen Texteingaben - erlauben, strukturelle Information seiner (textuellen) Umgebung zu erkennen, zu verarbeiten und als sein (semantisches) Wissen zu repräsentieren. Daß das System dabei in der Lage ist, aufgrund veränderter (textueller) Umgebungen auch sein eigenes (semantisches) Wissen zu modifizieren, macht die (adaptive) Dynamik dieses Modells aus.

    Der Prozeß des Verstehens kann - im weiten Sinn: systemtheoretisch - als adaptive Leistung von informationsverarbeitenden, kognitiven Systemen gedeutet werden, durch welche sie ihre Umgebungen in strukturierte Repräsentationen überführen, und zwar in jeweils dem Maße, wie ihre eigene Strukturiertheit dies erlaubt. Aufgrund sehr früher Untersuchungen zur Bedeutungskonstitution und ihrer späteren Wiederaufnahme und Weiterentwicklung erscheint es plausibel anzunehmen, daß Bedeutungen sprachlicher Einheiten als Resultate einer Klasse kognitiver Prozesse verstanden werden können, deren prozedurale Modellierung darin besteht, durch die Verarbeitung von schon repräsentierten Einheiten (der einen Stufe) die Repräsentationen von Einheiten (einer anderen Stufe) erst zu schaffen.15

    Table 2
    Table 2: Tabellarische Übersicht unterschiedlicher Erkenntnisinteressen, Forschungsgegenstände und Untersuchungsmethoden von traditioneller Linguistik, Computerlinguistik, Quantitativer Linguistik und Fuzzy Linguistik.

    Anders als in den auf die Dynamik konnektionistischer Systeme konzentrierten Charakterisierungen der Entwicklung und Veränderbarkeit von Zustandsräumen, die auch durch Differenzen- und Differentialgleichungen beschrieben werden, richtet sich die semiotische Modellierung auf Prozesse, die quasi ontische Differenzierungen unterschiedlicher Seinsweisen von Entitäten (Zeichen und Zeichenagglomerationen, sowie deren Funktionen) betreffen.

    Da für die prozedurale Modellierung der syntagmatischen und paradigmatischen Restriktionen in natürlichsprachlichen Texten, deren mehrstufige Verbindung das semiotische Modell der Zustansvektoren im semantischen Raum liefert, das Auflösungsvermögen entscheidend ist, mit dem die Erfassung primärer sprachlicher Daten erfolgt, wird nach den Erfahrungen mit den internen, auf der textuellen Strukturiertheit von Korpora beruhenden Maßen des modifizierten Korrelationskoeffizienten a und der Kollokationsgewichtung conf vor allem zu untersuchen sein, inwieweit externe, auf ganze Korpora aufsetzende, aber die Daten über variable Fenstergrößen und Schrittweiten erfassende Maße etwa der Verbundinformation (mutual information) bessere Resultate erzielt werden. Die Hypothese ist, daß die internen Maße, die wegen der bisher nur verfügbaren kleineren Textkorpora ( £ 104 Worttokens) die notwendige Datenkonzentration durch Lemmatisierung erreichen, den externen Maßen weitgehend gleichwertig sind, obwohl diese ohne Lemmatisierung auskommen, dies aber durch extrem große Textkorpora ( ³ 107 Worttokens) ausgleichen. In jedem Fall wird zu studieren sein, ob (und wenn ja, wie) ein externes Maß durch Kombination mit Parametern der internen Korpusstrukturierung (Textlängen, n-Gramme) zu optimieren ist mit dem Ziel, solche syntagmatischen und paradigmatischen Strukturmerkmale zu erfassen, die möglichst unabhängig von den durch ihre prozedurale Modellierung konstituierten Repräsentationsebenen sind.

    6  Zusammenfassung

    Zieht man zur Charakterisierung der beteiligten linguistischen Wissenschaftszweige wiederum die Bestimmungsstücke ihres jeweils dominierenden Erkenntnisinteresses, des dabei isolierten Forschungsgegenstands und der hierzu verwendeten Untersuchungsmethoden heran, so läßt sich - mit allem Vorbehalt, den schematische Verkürzungen dieser Art (Tab. 2) nahelegen sollten - folgende Übersicht der sie unterscheidenden Positionen geben. Die hierzu versuchsweise auch genannten erkenntnistheoretisch wie forschungspraktisch wirksamen Basen der verschiedenen Linguistiken lassen deren Theorie- und Modellbildung eher einordnen und die damit verbundenen Erklärungsansprüche besser abschätzen:

    Neuere Linguistik:
    ihr Erkenntnisinteresse richtet sich auf eine Theorie der Kompetenz (Universalgrammatik). Ihren Forschungsgegenstand bildet daher das Sprachvermögen, das mithilfe der Untersuchungsmethoden von Introspektion, analysierender Beschreibung und Kategorisierung, formaler (regelbasierter) Repräsentation, etc. studiert wird. Als Basis dieses Ansatzes kann das Postulat natürlichsprachlicher Korrektheit gelten, die über Grammatikalitätsurteile scheint zugänglich gemacht werden zu können.

    Computerlinguistik:
    ihr Erkenntnisinteresse gilt den Prinzipien der Kognition sofern sie das Sprachverstehen betreffen. Ihren Forschungsgegenstand bilden mentale Repräsentationen und Prozesse, die formal zu modellieren sind. Als Untersuchungsmethoden stehen Operationalisierung, Prozeduralisierung, und Algorithmisierung im Vordergund. Die Basis dieses Ansatzes bildet das automatentheoretisch begründete Berechenbarkeitspostulat.

    Quantitative Linguistik:
    ihr Erkenntnisinteresse richtet sich auf die Sprachgesetze, d.h. auf (universell gültige) Prinzipien von Spracherscheinung. Den Forschungsgegenstand bilden daher Sprachmaterialien nahezu jeder Art, die mit Untersuchungsmethoden der Statistik, der mathematischen Analysis, der Systemtheorie, etc. analysiert und charakterisiert werden. Basis dieses Angangs ist die diskretisierende Kategorisierung sprachlicher Entitäten und damit ihre Abzählbarkeit.

    Fuzzy Linguistik:
    ihr Erkenntnisinteresse ist ein integratives, das sich auf eine Theorie der Performanz richtet. Dieser liegt aber nicht primär ein Vermögen zur Produktion korrekter Sätze zugrunde, sondern die kommunikative Kompetenz des sinnvollen Gebrauchs pragmatisch-funktionaler, d.h. bedeutsamer sprachlicher Äußerungen. Den Untersuchungsgegenstand bilden (verbale/ßchriftliche) Zeugnisse situierter sprachlicher Kommunikation, wobei die Untersuchungsmethoden alle Techniken der unscharfen (fuzzy) Modellierung umfassen, also auch solcher Verfahren, die von der Neueren Linguistik, Computerlinguistik und Quantitative Linguistik eingesetzt werden. Basis dieses Ansatzes bildet eine Hypothese, wonach semiotische Prozesse die Repräsentationen, auf denen sie operieren, selbst liefern. Modularität, Rekursivität, und Emergenz sind daher Grundlagen der Modellierung semiotischer, kognitiver, informationsverarbeitender Systeme (SCIPS).

    References

    [1]
    S. Armstrong-Warwick (Hrsg.) (1993): Using Large Corpora I & II.. [Special Issues: Computational Linguistics, 19:1 & 2], Boston, MA, (MIT Press for ACL).
    [2]
    G. Bateson (1979): Mind and Nature: A Necessary Unit. New York, (Dutton).
    [3]
    T. Briscoe, J. Carroll (1993): Generalized Probabilstic LR Parsing of Natural Language (Corpora) with Unification-Based Grammars. Computational Linguistics , 1993(1), S. 25-59.
    [4]
    P. Brown, S. DellaPietra, V. DellaPietra, R. Mercer (1993): The Mathematics of Statistical Machine Translation: Parameter Eestimation. Computational Linguistics , 1993(2), S. 263-311.
    [5]
    H. Bandemer, S. Gottwald (1993): Einführung in die Fuzzy-Methoden.. 4.überarb.erweit. Aufl., Berlin, (Akademie Verlag).
    [6]
    M. Bierwisch (1981): Logische und psychologische Determinanten der Struktur natürlicher Sprachen. In: J. Scharf (Hrsg.), Naturwissenschaftliche Linguistik. Halle, (J.A. Barth), S. 176-187; 841-851.
    [7]
    M. Bierwisch (1988): Auspizien einer kognitiven Orientierung der Computerlinguistik. In: I. Batori, U. Hahn, M. Pinkal, W. Wahlster (Hrsg.), Computerlinguistik und ihre theoretischen Grundlagen, DGfS, GI, GLDV, Berlin / Heidelberg / NewYork, (Springer), S. 198-203.
    [8]
    P. E. Brown (1988): A statistical approach to language translation. In: D. Vargha (Hrsg.), COLING-88 Budapest, J.v.Neumann Society of Computing Science, Budapest, (ICCL), S. 71-76.
    [9]
    H. Bergenholtz, B. H. Schaeder (Hrsg.) (1979): Empirische Textwissenschaft. Aufbau und Auswertung von Text-Corpora. [Monographien Linguistik und Kommunikationswissenschaft 39], Königstein, Ts., (Scriptor).
    [10]
    H. Bunke (Hrsg.) (1992): Advances in Structural and Syntactic Pattern Recognition. Singapore, (World Scientific).
    [11]
    G. A. Carpenter, S. Grossberg (Hrsg.) (1991): Pattern Recognition by Self-Organizing Neural Networks. Cambridge, MA, (MIT Press).
    [12]
    K. W. Church, P. Hanks (1990): Word association norms, mutual information, and lexicography. Computational Linguistics , 1990(1), S. 22-29.
    [13]
    N. Chomsky (1965): Aspects of the Theory of Syntax. Cambridge, MA, (MIT).
    [14]
    N. Chomsky (1975): The Logical Structure of Linguistic Theory. New York, (Plenum).
    [15]
    N. Chomsky (1988): Language and Problems of Knowledge. The Managua Lectures. [Current Studies in Linguistics 16], 2nd. Aufl., Cambridge, MA / London, (MIT Press).
    [16]
    K. Church (1988): A stochastic parts program and noun phrase parser for unrestricted text. In: Second Conference on Applied Natural Language Processing, Austin, TX, (ACL), S. 136-143.
    [17]
    K. W. Church, R. L. Mercer (1993): Introduction to the Special Issue on Computational Linguistics Using Large Corpora. Computational Linguistics, 1993(1), S. 1-24.
    [18]
    H. Eikmeyer (1985): Prozedurale Semantik. In: B. Rieger (Hrsg.), Dynamik der Bedeutungskonstitution. Hamburg, (Buske), S. 31-46.
    [19]
    R. Fano (1961): Transmission of Information: A Statistical Theory of Communication. Cambridge, MA, (MIT Press).
    [20]
    S. W. Felix, C. Habel, G. Rickheit (Hrsg.) (1994): Kognitive Linguistik. Repräsentation und Prozesse. [Psycholinguistische Studien], Opladen, (Westdeutscher Verlag).
    [21]
    P. Finke (1979): Grundlagen einer linguistischen Theorie. Empirie und Begründung in der Sprachwissenschaft. [Wissenschaftstheorie undPhilosophie 15], Braunschweig/ Wiesbaden, (Vieweg).
    [22]
    J. Fodor, Z. Pylyshyn (1988): Connectionism and cognitive architecture: A critical analysis. Cognition, 1988(28), S. 3-71.
    [23]
    W. Fucks (1954): On Nahordnung and Fernordnung in samples of literary texts. Biometrica, 1954(2), S. 116-132.
    [24]
    C. Habel (1988): Kognitionswissenschaft als Grundlage der Computerlinguistik. In: I. Batori, U. Hahn, M. Pinkal, W. Wahlster (Hrsg.), Computerlinguistik und ihre theoretischen Grundlagen, DGfS, GI, GLDV, Berlin / Heidelberg / NewYork, (Springer), S. 204-209.
    [25]
    S. Harnad (1982): A Unifying Theme for the Cognitive Science. In: T. Simon, R. Scholes (Hrsg.), Language, Mind, and Brain. Hillsdale, NJ, (Erlbaum), S. 1-12.
    [26]
    G. Hinton (Hrsg.) (1992): Connectionist Symbol Processing. Cambridge, MA, (MIT Press).
    [27]
    D. Hindle, M. Rooth (1993): Structural Ambiguity and Lexical Relations. Computational Linguistics, 1993(1), S. 103-120.
    [28]
    P. Johnson-Laird, P. Wason (Hrsg.) (1977): Thinking. Readings in Cognitive Science. [Open University Set Book], Cambridge / London / NewYork, (Cambridge UP).
    [29]
    R. Kruse, J. Gebhardt, F. Klawonn (1993): Fuzzy Systeme. [Leitfäden und Monographien der Informatik], 1.. Aufl., Stuttgart, (B.G.Teubner).
    [30]
    R. Köhler, B. Rieger (Hrsg.) (1993): Contributions to Quantitative Linguistics. Proceedings of the 1st Quantitative Linguistics Conference - QUALICO-91. Dordrecht, (Kluwer Academic Publishers).
    [31]
    T. S. Kuhn (1962): The Structure of Scientific Revolution. [Intern. Encyclopedia of Unified Science 2/2], Chicago/ London, (Chicago UP).
    [32]
    D. Marr (1982): Vision. . Aufl., SanFrancisco, (Freeman).
    [33]
    H. Maturana, F. Varela (1980): Autopoiesis and Cognition. [Boston Studies in the Philosophy of Science 42], Dordrecht/ Boston/ London, (Reidel).
    [34]
    L. Nadel, L. Cooper, P. Culicover, R. Harnish (Hrsg.) (1989): Neural Connections, Mental Computation. Cambridge, MA, (MIT Press).
    [35]
    V. Novák (1989): Fuzzy Sets and their Applications. Bristol/ Philadelphia, (A. Hilger).
    [36]
    B. Oerder (1994): Zum Problem linguistischer Kategorien: Untersuchungen der Silbenkonstitution im Deutschen und ihre unscharfe Modellierung. Magister-Arbeit, Linguistische Datenverarbeitung/ Computerlinguistik, FB II: Universität Trier.
    [37]
    H. Pilch, H. H. Richer (Hrsg.) (1970): Theorie und Empirie in der Sprachwissenschaft. Basel / München / Paris, (Karger).
    [38]
    R. Pfeiffer, Z. Schreter, F. Fogelman-Soulié, L. Steels (Hrsg.) (1989): Connectionism in Perspective.. Amsterdam, (North Holland).
    [39]
    B. Rieger, P. Badry, M. Reichert (1993): Bedeutungserwerb mit referentieller Kontrolle. Ein System experimentell überprüfbarer Bedeutungskonstitution. In: H. P. Pütz, J. H. Haller (Hrsg.), Sprachtechnologie: Methoden, Werkzeuge, Perspektiven. Hildesheim, (Georg Olms), S. 185-245.
    [40]
    B. Rieger (1972): Warum mengenorientierte Textwissenschaft? Zur Begründung der Statistik als Methode. Zeitschrift für Literaturwissenschaft und Linguistik, 1972(8), S. 11-28.
    [41]
    B. Rieger (1977): Bedeutungskonstitution. Einige Bemerkungen zur semiotischen Problematik eines linguistischen Problems. Zeitschrift für Literaturwissenschaft und Linguistik, 1977(27/28), S. 55-68.
    [42]
    B. B. Rieger (1978): Feasible Fuzzy Semantics. In: K. Heggstad (Hrsg.), COLING-78 7th International Conference on Computational Linguistics, International Committee on Computational Linguistics, Bergen, (ICCL), S. 41-43.
    [43]
    B. Rieger (1979): Repräsentativität: von der Unangemessenheit eines Begriffs zur Kennzeichnung eines Problems linguistischer Korpusbildung. In: H. Bergenholtz, B. Schaeder (Hrsg.), Empirische Textwissenschaft. Aufbau und Auswertung von Text-Corpora. Königstein, (Scriptor), S. 52-70.
    [44]
    B. B. Rieger (1979): Fuzzy Structural Semantics. On a generative model of vague natural language meaning. In: R. Trappl, P. Hanika, F. Pichler (Hrsg.), Progress in Cybernetics and Systems Research. Washington/ New York/ London, (Wiley & Sons), S. 495-503.
    [45]
    B. B. Rieger (1980): Fuzzy Word Meaning Analysis and Representation in Linguistic Semantics. An empirical approach to the reconstruction of lexical meanings in East- and West-German newspaper texts. In: M. Nagao, K. Fuchi (Hrsg.), COLING-80 8th International Conference on Computational Linguistics, International Committee on Computational Linguistics, Tokyo, (ICCL), S. 76-84.
    [46]
    B. Rieger (1981): Unscharfe Semantik natürlicher Sprache. Zum Problem der Repräsentation und Analyse vager Wortbedeutungen. In: J. Scharff (Hrsg.), Naturwissenschaftliche Linguistik. Leopoldina Symposion 1976. Halle, (J. Ambrosius Barth), S. 251-276.
    [47]
    B. B. Rieger (1981): Feasible Fuzzy Semantics. On some problems of how to handle word meaning empirically. In: H. Eikmeyer, H. Rieser (Hrsg.), Words, Worlds, and Contexts. New Approaches in Word Semantics. Berlin/ New York, (de Gruyter), S. 193-209.
    [48]
    B. B. Rieger (1982): Fuzzy Representation Systems in Linguistic Semantics. In: R. Trappl, N. Findler, W. Horn (Hrsg.), Progress in Cybernetics and Systems Research. Washington/ New York/ London, (McGraw-Hill Intern.), S. 249-256.
    [49]
    B. B. Rieger (1982): Procedural Meaning Representation. An empirical approach to word semantics and analogical inferencing. In: J. Horecky (Hrsg.), COLING-82 Proceedings 9th International Conference on Computational Linguistics. Amsterdam/ New York, (North Holland), S. 319-324.
    [50]
    B. B. Rieger (1983): Generating Dependency Structures of Fuzzy Word Meanings in Semantic Space. In: S. Hattori, K. Iounu (Hrsg.), Proceedings of the XIIIth International Congress of Linguists, Comité International Permanent des Linguistes, Tokyo, (CIPL), S. 543-548.
    [51]
    B. B. Rieger (1984): Semantic Relevance and Aspect Dependancy in a Given Subject Domain. In: D. Walker (Hrsg.), COLING-84 10th International Conference on Computational Linguistics, International Committee of Computational Linguistics, Stanford, (ACL-ICCL), S. 298-301.
    [52]
    B. Rieger (1985): Einleitung. In: B. Rieger (Hrsg.), Dynamik in der Bedeutungskonstitution. Hamburg, (Buske), S. 1-17.
    [53]
    B. Rieger (1985): Semantische Dispositionen. Prozedurale Wissenstrukturen mit stereotypisch repräsentierten Wortbedeutungen. In: B. Rieger (Hrsg.), Dynamik in der Bedeutungskonstitution. Hamburg, (Buske), S. 163-228.
    [54]
    B. B. Rieger (1985): Inducing a Relevance Relation in a Distance-like Data Structure of Fuzzy Word Meaning Representations. In: R. Allen (Hrsg.), Data Bases in the Humanities and Social Sciences. 4th International Conference on Data Bases in the Humanities and Social Sciences, ICDBHSS/83, Osprey, FL, (Paradigm Press), S. 374-386.
    [55]
    B. B. Rieger (1985): Lexical Relevance and Semantic Disposition. On stereotype word meaning representation in procedural semantics. In: G. Hoppenbrouwes, P. Seuren, T. Weijters (Hrsg.), Meaning and the Lexicon. Dordrecht, (Foris Publications), S. 387-400.
    [56]
    B. B. Rieger (1985): Stereotype representation and dynamic structuring of fuzzy word meanings for contents-driven semantic processing. In: J. Agrawal, P. Zunde (Hrsg.), Empirical Foundations of Information and Software Sience. New York/ London, (Plenum Press), S. 273-291.
    [57]
    B. Rieger (1988): Theoretische Grundlagen der Computerlinguistik: eine Paneldiskussion mit M. Bierwisch, C. Habel, B. Rieger, H. Uszkoreit und W. Wahlster. In: I. Bátori, U. Hahn, M. Pinkal, W. Wahlster (Hrsg.), Computerlinguistik und ihre theoretischen Grundlagen. Berlin/ Heidelberg/ New York, (Springer), S. 192-218.
    [58]
    B. Rieger (1989): Unscharfe Semantik. Die empirische Analyse, quantitative Beschreibung, formale Repräsentation und prozedurale Modellierung vager Wortbedeutungen in Texten. Frankfurt a.Main/ Bern/ Paris, (Peter Lang).
    [59]
    B. B. Rieger (1991): Distributed Semantic Representation of Word Meanings. In: J. D. Becker, I. Eisele, F. W. Mündemann (Hrsg.), Parallelism, Learning, Evolution. Evolutionary Models and Strategies, WOPPLOT-89. Berlin/ Heidelberg/ NewYork, (Springer), S. 243-273.
    [60]
    B. B. Rieger (1991): On Distributed Representation in Word Semantics. Berkeley, CA, International Computer Science Institute (ICSI), Forschungsbericht TR-91-012.
    [61]
    B. Rieger (1994): Situationssemantik und Computerlinguistik unterwegs zu einer prozeduralen Semiotik? Eine ökologische Perspektive aus Sicht der Theorie informationsverarbeitender Systeme. Universität Trier, Linguistische Datenverarbeitung & Computerlinguistik, Fachbereich II, Forschungsbericht TR-04-1994.
    [62]
    B. B. Rieger (1994): Fuzzy Computational Semantics. In: H. Zimmermann (Hrsg.), Fuzzy Systems. Proceedings of the Japanese-German-Center Symposium. Berlin, (JGCB), S. 197-217.
    [63]
    B. Rieger (1995): Fuzzy Modellierung linguistischer Kategorien. In: W. Feldmann, H. Hinrichs (Hrsg.), Text und Lexikon. Tübingen, (Niemeyer), S. [im Druck].
    [64]
    B. B. Rieger (1995): Meaning Acquisition by SCIPS. In: B. M. Ayyub (Hrsg.), ISUMA-NAFIPS-95, IEEE-Transactions: Joint Intern. Conf. on Uncertainty Modeling and Analysis, North American Fuzzy Information Processing Society, Los Alamitos, CA, (IEEE Computer Society Press), S. 390-395.
    [65]
    B. B. Rieger (1995): Situations, Language Games, and Semiotic Agents. In: J. Albus, A. Meystel, D. Pospelov (Hrsg.), Architectures for Semiotic Modeling and Situation Analysis in Large Complex Systems, 10th IEEE ISIC Workshop, Bala Cynwyd, PA, (AdRem Inc.), S. 130-138.
    [66]
    B. B. Rieger (1996): Situation Semantics and Computational Linguistics: towards Informational Ecology. A semiotic perspective for cognitive information processing systems. In: K. Kornwachs, K. Jacoby (Hrsg.), Information. New Questions to a Multidisciplinary Concept, E.W.-Heraeus-Stiftung, Deutsche Physikalische Gesellschaft, Deutsche Gesellschaft für Systemforschung, Berlin, (Akademie), S. 285-315.
    [67]
    G. Rickheit, H. Strohner (1993): Grundlagen der kognitiven Sprachverarbeitung. [UTB 1735], Tübingen / Basel, (Francke).
    [68]
    B. B. Rieger, C. Thiopoulos (1989): Situations, Topoi, and Dispositions. On the phenomenological modelling of meaning. In: J. Retti, K. Leidlmair (Hrsg.), 5. Österreichische Artificial-Intelligence-Tagung, Innsbruck-Igls. Berlin/ Heidelberg/ New York, (Springer), S. 365-375.
    [69]
    B. B. Rieger, C. Thiopoulos (1993): Semiotic Dynamics: a self-organizing lexical system in hypertext. In: R. Köhler, B. Rieger (Hrsg.), Contributions to Quantitative Linguistics. Proceedings of the 1st Quantitative Linguistics Conference - QUALICO-91. Dordrecht, (Kluwer Academic Publishers), S. 67-78.
    [70]
    H. Schnelle (1990): Die Herausforderung des Konnektionismus in der kognitiven Linguistik. In: H. Friemel, G. Müller-Schönberger, A. Schütt (Hrsg.), Forum-90: Wissenschaft und Technik. Berlin/ Heidelberg/ New York, (Springer), S. 42-58.
    [71]
    K. Schmucker (1984): Fuzzy Sets, Natural Language Computations and Risk Analysis. Rockville, AL, (Computer Science Press).
    [72]
    R. Schneider (1994): Zur empirischen Rekonstruktion der linguistischen Einheit 'Wort' als unscharfer linguistischer Kategorie. Magister-Arbeit, Linguistische Datenverarbeitung/ Computerlinguistik, FB II: Universität Trier.
    [73]
    H. Schnelle (1994): Welcher Sprachwissenschaft auf der Spur? Plädoyer für größere Klarheit und Toleranz. Zeitschr.f.Sprachwissenschaft, 1994(1), S. 110-120.
    [74]
    F. Smadja (1991): Retrieving collocational knowledge from textual corpora. An application: Language generation. PhD. Diss. CS Dept. Columbia, New York.
    [75]
    P. Smolensky (1988): On the proper treatment of connectionism. Behavioral and Brain Sciences, 1988(11), S. 1-74.
    [76]
    P. Smolensky (1989): Connectionism and Constituent Structure. In: R. E. Pfeiffer (Hrsg.), Connectionism in Perspective. Amsterdam/ New York, (North Holland & Elsevier), S. 3-24.
    [77]
    P. Smolensky (1989): Connectionist Modelling: Neural Computation / Mental Connections. In: L. Nadel, L. Cooper, P. Culicover, R. Harnish (Hrsg.), Neural Connections, Mental Computation. Cambridge, MA / London, (MIT Press), S. 49-68.
    [78]
    C. Thiopoulos (1992): Semiosis und Topoi. (Diss. Universität Trier), Pfaffenweiler.
    [79]
    H. Uszkoreit (1988): Computerlinguistik, Linguistik und künstliche Intelligenz. In: I. Batori, U. Hahn, M. Pinkal, W. Wahlster (Hrsg.), Computerlinguistik und ihre theoretischen Grundlagen, DGfS, GI, GLDV, Berlin / Heidelberg / NewYork, (Springer), S. 210-214.
    [80]
    R. Wagner (1995): Harris'sche Konstitutions- und Segmentierungsalgorithmen. Eine Überprüfung und Umsetzung für das Deutsche. Magister-Arbeit, Linguistische Datenverarbeitung/ Computerlinguistik, FB II: Universität Trier.
    [81]
    D. H. Wunderlich (Hrsg.) (1976): Wissenschaftstheorie der Linguistik. Kronberg, Ts., (Athenäum).
    [82]
    L. A. Zadeh (1965): Fuzzy Sets. Information and Control, (8), S. 338-353.
    [83]
    L. Zadeh (Hrsg.) (1975): Fuzzy Sets and their Application to Cognitive and Decision Processes. New York/ San Francisco, (Academic Press).
    [84]
    L. A. Zadeh (1994): Fuzzy Logic, Neural Networks, and Soft Computing. Comm. of the ACM, 37(3), S. 77-84.
    [85]
    D. Zubak (1994): Zwischen Graphemen und Silben: vom distributionellen Muster zur fuzzy Modellierung. Magister-Arbeit, Linguistische Datenverarbeitung/ Computerlinguistik, FB II: Universität Trier.


    Footnotes:

    *Der Aufsatz nimmt Ideen, Gedanken und Skizzen des Autors auf, die - im Laufe der Jahre entstanden und aus Anlaß verschiedener Vortragsverpflichtungen entwickelt - in einer früheren Fassung schon auf der Jahrestagung 1995 der Gesellschaft für Linguistische Datenverarbeitung (GLDV) in Regensburg mitgeteilt aber nicht veröffentlicht wurden. Die vorliegende Überarbeitung des auf dem Essener Gerold-Ungeheuer-Symposium gehaltenen Vortrags stellt überdies Fragen der adäquaten linguistischen Kategorienbildung in den Zusammenhang semiotisch angemessener Modellierungen, wobei Planungsresultate eines neuen Forschungsprojekts zum Thema sowie die Einrichtung eines Arbeitskreises Fuzzy Linguistik in der GLDV beträchtlichen Einfluß hatten.

    Erschienen in: Krallmann, D./Schmitz, H.W. (Hrsg.): Vorträge des Internationalen Gerold-Ungeheuer-Symposium, Essen 1995, Münster (Nodus Wissenschaftsverlag) 1996.

    **E-mail: rieger@ldv01.Uni-Trier.de

    1Phänomene etwa der linearen Nah-Ordnung sprachlich-perfomativer Einheiten (z.B. Ko-okkurenzen), deren Regularitäten sich regelbasierten Notationen entziehen aber in numerischen Ausdrücken von Korrelationen beliebig genau notiert und verarbeitet werden können, erweisen sich als Resultate von Prinzipien, die kompetenztheoretisch bisher nur deswegen übersehen wurden, weil sie keine der linearen Fern-Ordnungen linguistischer Kategorien betreffen, wie sie gängige Grammatikformalismen erfassen.

    2Das Trierer dpa-Korpus besteht bespielsweise aus Textmaterial des sog. Basisdienstes der Jahrgänge 1990-93 (720.000 Dokumente), die dem Autor von der Deutschen Presseagentur (dpa), Hamburg, dankenswerterweise zu Forschungszwecken zur Verfügung gestellt wurde. Nach Säuberung (von Formatier- und Steuerzeichen) umfaßt das Korpus rund 180 Mio. laufende Wörter (Tokens), für die derzeit ein maschinelles Lemmatisierungs- und Tagging-Verfahren entwickelt wird. Dieses Textkorpus bildet das schriftsprachliche Datenmaterial schon laufender und erst noch geplanter fuzzy-linguistischer Untersuchungen.

    3Im Unterschied dazu sprechen wir von Syntax, wenn diese Zuordnungsbeziehungen in Form von (Ersetzungs-)Regeln, Produktionen, etc., d.h. selber wiederum in (formal-)sprachlichen Notationen repräsentiert werden.

    4Vgl. Rieger (1995a)

    5Obwohl der Prozeß der Bedeutungskonstitution als herausragende Leistung und semiotische Dimension der natürlichen Sprache gekennzeichnet wird, ist es gerade diese Eigenschaft, welche sich einer Modellierung (bisher) entzog und Inhalte neuer Bedeutungen natürlichsprachlicher Ausdrücke auch weiterhin ungeeignet sein läßt, etwa durch ein formales Verfahren wie der Wahrheitswert-Zuweisung für prädikaten- und aussagen-logische Terme, bewertet, d.h. anders als durch interpretatives Verstehen realisiert und eingeordnet zu werden.

    6Vgl. hierzu schon Rieger (1972) und die in Rieger (1989) vorgelegte semantische Vagheitstheorie mit ausgearbeiteten formal-theoretischen und quantitativ-empirischen Teilen sowie den beide verbindenden und spezifizierenden Zuordnungs- und Korrespondenzregeln.

    7Vgl. etwa die bisdahin rege Diskussion zumindest in Deutschland um wissenschafttheoretische Positionen der Sprachwissenschaft und Linguistik.

    8So etwa kategoriale Begriffe theoretischer Konstrukte (wie Phonem, Morphem, Wort, Satz etc.) zur Bezeichnung abstrakter Konzepte im System der langue/competence und deskriptive Begriffe empirischer Größen (wie etwa Laut, Phon, Morph, Äußerung etc.) zur Bezeichnung beobachtbarer Erscheinungen (als vermeintlichen Realisationen der Konzepte) in der parole/perfomance.

    9Diese formale Inkongruenz kann als semiotisch begründet deswegen gelten, weil sie besagt, "daß die Regeln und Prinzipien aus G auch den Inhalt von ML kontrollieren, daß der Parser aber nicht allen Regeln und Prinzipien von G korrespondiert".

    10 Lernbarkeit: "... eine Aussage über die mentale Repräsentation sprachlichen Wissens ist nur dann adäquat, wenn die entsprechende Repräsentation prinzipiell lernbar ist" und Verarbeitbarkeit: "... eine vorgeschlagene Repräsentation muß insbesondere durch Prozessoren, etwa einen plausiblen Parser oder Formulator, verarbeitet werden können". Damit wird Adäquatheit der Schnittmenge RL ÇRA aller prinzipiell lernbaren Repräsentationen RL (unabhängig von ihrem Notationsformat) mit allen algorithmisch verarbeitbaren Repräsentationen RA (sofern es nur plausible Implementationen solcher Algorithmen gibt) zugesprochen. Die Entscheidung, wonach bestimmten Repräsentationen, Modellen, Systemen der Vorzug vor anderen zu geben wäre, wird nicht an ihre (oder der ihnen zugrundeliegenden Hypothesen) Überprüfbarkeit gebunden, sondern als von der "Plausibilität" von Parsern und Formulatoren abghängig erklärt.

    11 Bierwisch (1989) spricht im Anschluß an Chomsky (1965, 1975) von "Kaskaden der Vermittlungsstufen" (s. 178)

    12Es ist keine Sprache dieser Welt bekannt, die nicht den Strukturierungsprinzipien der syntagmatischen und paradigmatischen Restriktionen unterläge, wenngleich wesentliche sprachtypologische Unterschiede auf dem unterschiedlichen Gebrauch beruhen, der in den verschiedenen Sprachen von diesen Prinzipien gemacht wird.

    13Daß damit kein Widerspruch zur fuzzy Modellierungstechnik entsteht, ist in der Konzeption unscharfer Mengen begründet, für die die Verbindung von Ausdrücken diskret algebraischer Entitäten mit numerischen Termen mathematischer Kontinua kennzeichnend ist.

    14Als Struktur-analysierende und -generierende Transformationen tatsächlicher Sprachdaten, welche Konzepte und Techniken der unscharfen Modellierung nutzen, gehören diese Untersuchungen in den Bereich der empirisch, (re-)konstruktiv arbeitenden Computerlinguistik, die als Fuzzy Linguistics sich derzeit erst abzuzeichnen beginnt.

    15Die in dieser Sprechweise suggerierte Abfolge primärer vor sekundären Repräsentationen ist der Prozeduralität dieser Phänomens eigentlich unangemessen; die Unterscheidung sowohl der lokalen Repräsenationsebenen als auch ihrer zeitlichen Relate sind Kennzeichen eher der re-konstruktiven Modellierung als des zu modellierenden kognitiven Prozesses, dessen formale Spezifikation als Prozedur von beidem zu abstrahieren erlaubt.