Syntax

Aus besserwiki.de

In der Linguistik befasst sich die Syntax (/ˈsɪntæks/) mit der Frage, wie sich Wörter und Morpheme zu größeren Einheiten wie Phrasen und Sätzen zusammensetzen. Zu den zentralen Aspekten der Syntax gehören die Wortstellung, grammatische Beziehungen, die hierarchische Satzstruktur (Konstituente), die Übereinstimmung, die Art der sprachübergreifenden Variation und die Beziehung zwischen Form und Bedeutung. Es gibt zahlreiche Ansätze zur Syntax, die sich in ihren zentralen Annahmen und Zielen unterscheiden.

Unter Syntax (altgriechisch σύνταξις syntaxis, von σύν syn ‚zusammen‘ und τάξις taxis ‚Ordnung, Reihenfolge‘) versteht man allgemein ein Regelsystem zur Kombination elementarer Zeichen zu zusammengesetzten Zeichen in natürlichen oder künstlichen Zeichensystemen. Die Zusammenfügungsregeln der Syntax stehen hierbei den Interpretationsregeln der Semantik gegenüber.

Insbesondere versteht man unter Syntax die Satzlehre, ein Teilgebiet der Grammatik natürlicher Sprachen, das die Zusammenfügung von Wörtern bzw. Wortgruppen zu Sätzen (Satzbau) auf Basis grammatikalischer Gesetzmäßigkeiten (etwa einer bestimmten vorgeschriebenen Satzstellung) behandelt bzw. den Sätzen zugrunde liegende regelmäßige Muster (Satzstruktur) beschreibt. Die Syntax wird in der Regel unterschieden von der linguistischen Morphologie, die den inneren Aufbau der Wörter behandelt, obwohl die Übergänge zwischen beiden Bereichen fließend sein können.

Der Ausdruck Syntax wird für natürliche und formale Sprachen verwendet. Das Verhältnis zwischen natürlicher und formaler Syntax wird unterschiedlich gesehen. Für den Logiker Richard Montague (Universal Grammar, 1970) bestand kein prinzipieller Unterschied.

Ebenso wie der Begriff Grammatik kann sich der Begriff Syntax auf die Struktureigenschaften von Zeichensystemen selbst oder auf die theoretisch-wissenschaftliche Beschreibung dieser Struktureigenschaften beziehen.

Etymologie

Das Wort Syntax stammt aus dem Altgriechischen: σύνταξις "Koordination", das sich aus σύν syn, "zusammen", und τάξις táxis, "Ordnung", zusammensetzt.

Themen

Der Bereich der Syntax enthält eine Reihe von verschiedenen Themen, die in einer syntaktischen Theorie oft behandelt werden sollen. Die Beziehung zwischen den Themen wird in den verschiedenen Theorien unterschiedlich behandelt, und einige von ihnen können nicht als eigenständig, sondern als voneinander abgeleitet betrachtet werden (z. B. kann die Wortfolge als Ergebnis von Bewegungsregeln betrachtet werden, die von grammatischen Beziehungen abgeleitet sind).

Abfolge von Subjekt, Verb und Objekt

Eine grundlegende Beschreibung der Syntax einer Sprache ist die Reihenfolge, in der Subjekt (S), Verb (V) und Objekt (O) normalerweise in Sätzen erscheinen. In über 85 % der Sprachen steht das Subjekt in der Regel an erster Stelle, entweder in der Reihenfolge SVO oder in der Reihenfolge SOV. Die anderen möglichen Reihenfolgen sind VSO, VOS, OVS und OSV, wobei die letzten drei selten sind. In den meisten generativen Theorien der Syntax ergeben sich die oberflächlichen Unterschiede aus einer komplexeren Satzstruktur, und jede Reihenfolge kann mit mehreren Ableitungen vereinbar sein. Die Wortfolge kann jedoch auch die Semantik oder Funktion der geordneten Elemente widerspiegeln.

Grammatische Beziehungen

Eine weitere Beschreibung einer Sprache befasst sich mit der Menge der möglichen grammatischen Relationen in einer Sprache oder im Allgemeinen und damit, wie sie sich in der morphosyntaktischen Anordnung der Sprache zueinander verhalten. Die Beschreibung der grammatischen Relationen kann auch Transitivität, Passivierung und kopfabhängige Markierung oder andere Vereinbarungen berücksichtigen. Sprachen haben unterschiedliche Kriterien für grammatische Relationen. Beispielsweise können Subjektkriterien Auswirkungen darauf haben, wie auf das Subjekt in einem Relativsatz verwiesen wird oder wie es mit einem Element in einem infiniten Satz koreferiert.

Konstituierung

Konstituierung ist die Eigenschaft, eine Konstituente zu sein und wie Wörter zusammenwirken können, um eine Konstituente (oder einen Satz) zu bilden. Konstituenten werden oft als Einheiten verschoben, und die Konstituente kann die Domäne der Vereinbarung sein. Einige Sprachen lassen diskontinuierliche Phrasen zu, in denen Wörter, die zur gleichen Konstituente gehören, nicht unmittelbar nebeneinander stehen, sondern durch andere Konstituenten unterbrochen werden. Konstituenten können rekursiv sein, da sie aus anderen Konstituenten bestehen können, die möglicherweise vom gleichen Typ sind.

Frühe Geschichte

Die Aṣṭādhyāyī von Pāṇini aus dem 4. Jahrhundert v. Chr. in Altindien wird oft als Beispiel für ein vormodernes Werk angeführt, das sich der Raffinesse einer modernen syntaktischen Theorie annähert, da Werke über Grammatik lange vor der Entstehung der modernen Syntax geschrieben wurden. Im Westen begann die Denkschule, die als "traditionelle Grammatik" bekannt wurde, mit dem Werk von Dionysius Thrax.

Jahrhundertelang beherrschte ein Rahmenwerk, das als grammaire générale bekannt ist und erstmals 1660 von Antoine Arnauld in einem Buch gleichen Titels dargelegt wurde, die Arbeit an der Syntax: als Grundvoraussetzung gilt die Annahme, dass die Sprache eine direkte Widerspiegelung von Denkprozessen ist und es daher eine einzige, möglichst natürliche Art gibt, einen Gedanken auszudrücken.

Im 19. Jahrhundert jedoch, mit der Entwicklung der historisch-vergleichenden Linguistik, begannen die Linguisten, die Vielfalt der menschlichen Sprache zu erkennen und grundlegende Annahmen über die Beziehung zwischen Sprache und Logik in Frage zu stellen. Es wurde deutlich, dass es nicht so etwas wie die natürlichste Art und Weise gibt, einen Gedanken auszudrücken, und dass man sich daher nicht mehr auf die Logik als Grundlage für die Untersuchung der Sprachstruktur verlassen konnte.

In der Port-Royal-Grammatik wurde das Studium der Syntax an das der Logik angelehnt. (In der Tat wurden große Teile der Port-Royal-Logik aus der Grammaire générale kopiert oder angepasst.) Die syntaktischen Kategorien wurden mit den logischen identifiziert, und alle Sätze wurden im Sinne von "Subjekt - Kopula - Prädikat" analysiert. Diese Sichtweise wurde anfangs sogar von den frühen vergleichenden Sprachwissenschaftlern wie Franz Bopp übernommen.

Die zentrale Rolle der Syntax innerhalb der theoretischen Linguistik wurde erst im 20. Jahrhundert deutlich, das man mit Fug und Recht als das "Jahrhundert der syntaktischen Theorie" bezeichnen kann, was die Linguistik betrifft. (Für einen detaillierten und kritischen Überblick über die Geschichte der Syntax in den letzten zwei Jahrhunderten siehe das monumentale Werk von Giorgio Graffi (2001)).

Theorien

Es gibt eine Reihe von theoretischen Ansätzen für die Disziplin der Syntax. Eine Denkschule, die auf die Arbeiten von Derek Bickerton zurückgeht, betrachtet die Syntax als einen Zweig der Biologie, da sie die Syntax als das Studium des sprachlichen Wissens, wie es im menschlichen Geist verkörpert ist, versteht. Andere Linguisten (z.B. Gerald Gazdar) vertreten eine eher platonistische Sichtweise, da sie die Syntax als das Studium eines abstrakten formalen Systems betrachten. Wieder andere (z. B. Joseph Greenberg) betrachten die Syntax als taxonomisches Mittel, um zu weitreichenden Verallgemeinerungen über alle Sprachen hinweg zu gelangen.

Syntaktiker haben versucht, die Ursachen für die Variation der Wortstellung innerhalb einzelner Sprachen und zwischen verschiedenen Sprachen zu erklären. Ein großer Teil dieser Arbeit wurde im Rahmen der generativen Grammatik geleistet, die davon ausgeht, dass die Syntax von einer genetischen Ausstattung abhängt, die der menschlichen Spezies gemeinsam ist. In diesem und in anderen Rahmen sind linguistische Typologie und Universalien die primären Erklärungsansätze.

Alternative Erklärungen, wie die der funktionalen Linguisten, wurden in der Sprachverarbeitung gesucht. Es wird angenommen, dass es dem Gehirn leichter fällt, syntaktische Muster zu analysieren, die entweder rechts- oder linksverzweigt sind, aber nicht gemischt. Der am weitesten verbreitete Ansatz ist die Performance-Grammar-Correspondence-Hypothese von John A. Hawkins, die besagt, dass Sprache eine nicht angeborene Anpassung an angeborene kognitive Mechanismen ist. Man geht davon aus, dass sprachübergreifende Tendenzen darauf beruhen, dass Sprachbenutzer Grammatiken bevorzugen, die effizient organisiert sind, und dass sie Wortanordnungen vermeiden, die Schwierigkeiten bei der Verarbeitung verursachen. Einige Sprachen weisen jedoch regelmäßig ineffiziente Muster auf, wie z. B. die VO-Sprachen Chinesisch mit der Adjektivphrase vor dem Verb und Finnisch mit Postpositionen, aber es gibt nur wenige andere Sprachen, die sich von der Norm abheben. In jüngerer Zeit wurde die Vermutung geäußert, dass die Muster der Links- und Rechtsverzweigung sprachübergreifend nur mit der Stellung der rollenmarkierenden Konnektive (Adpositionen und Subordinatoren) zusammenhängen, was die Phänomene mit der semantischen Zuordnung von Sätzen verbindet.

Theoretische syntaktische Modelle

In der allgemeinen Linguistik besteht eine Vielfalt und Konkurrenz von Syntaxmodellen, Theorien und Schulen. „Jedes der vorgestellten Modelle hat seine Stärken und Schwächen.“ Neben den Modellen der traditionellen Schulgrammatik wird die Syntax anhand hypothetischer universeller, angeborener Formprinzipien (Noam Chomsky) oder ihres kommunikativen Zwecks (Funktionale Syntax) oder ihrer Rolle beim Aufbau von komplexen Bedeutungen (logische Semantik, Montague- bzw. kategoriale Grammatik) untersucht. Zahlreiche solche Modelle sind im Artikel Syntaxtheorie aufgeführt. Zu den wichtigeren zählen:

  • die Dependenzgrammatik
  • die Government and Binding-Theorie (Chomsky 1981), eine Variante der generativen Grammatik
  • die Head-driven Phrase Structure Grammar.

Die syntaktische Struktur eines natürlichsprachlichen Satzes wird in diesen Modellen verschieden dargestellt. Die Varianten der Phrasenstrukturgrammatik stellen sie in Form eines Strukturbaums dar, welcher die Teil-Ganzes-Beziehungen der Konstituenten des Satzes graphisch wiedergibt. Die Dependenzgrammatik stellt sie in Form eines Stemmas dar, welches die Abhängigkeiten zwischen den Wörtern wiedergibt.

Dependenzgrammatik

Die Dependenzgrammatik ist ein Ansatz für die Satzstruktur, bei dem die syntaktischen Einheiten nach der Abhängigkeitsrelation angeordnet werden, im Gegensatz zur Konstituentenrelation der Phrasenstrukturgrammatiken. Abhängigkeiten sind gerichtete Verbindungen zwischen Wörtern. Das (finite) Verb wird als die Wurzel aller Satzstrukturen angesehen, und alle anderen Wörter im Satz sind entweder direkt oder indirekt von der Wurzel abhängig. Einige bekannte abhängigkeitsbasierte Theorien der Syntax sind die folgenden:

  • Rekursive kategoriale Syntax, oder algebraische Syntax
  • Funktionale generative Beschreibung
  • Bedeutungs-Text-Theorie
  • Operator-Grammatik
  • Wortgrammatik

Lucien Tesnière (1893-1954) gilt weithin als der Vater der modernen abhängigkeitsbasierten Theorien der Syntax und Grammatik. Er argumentierte vehement gegen die binäre Aufteilung des Satzes in Subjekt und Prädikat, die mit den Grammatiken seiner Zeit verbunden ist (S → NP VP) und auch heute noch den Kern der meisten Phrasenstrukturgrammatiken bildet. An die Stelle dieser Unterteilung setzte er das Verb als Wurzel aller Satzstrukturen.

Kategoriale Grammatik

Die kategoriale Grammatik ist ein Ansatz, bei dem Konstituenten als Funktion und Argument kombiniert werden, und zwar entsprechend den Kombinationsmöglichkeiten, die in ihren syntaktischen Kategorien festgelegt sind. Während andere Ansätze beispielsweise eine Regel aufstellen, die eine Substantivphrase (NP) und eine Verbphrase (VP) kombiniert, stellt CG eine syntaktische Kategorie NP und eine andere NP\S auf, die als "eine Kategorie, die links (durch \ angezeigt) nach einer NP (das Element auf der linken Seite) sucht und einen Satz (das Element auf der rechten Seite) ausgibt" verstanden wird. Die syntaktische Kategorie für ein intransitives Verb ist also eine komplexe Formel, die die Tatsache repräsentiert, dass das Verb als Funktionswort fungiert, das eine NP als Input benötigt und eine Satzstruktur als Output produziert. Die komplexe Kategorie wird als (NP\S) anstelle von V notiert. Die Kategorie des transitiven Verbs ist definiert als ein Element, das zwei NPs (sein Subjekt und sein direktes Objekt) benötigt, um einen Satz zu bilden. Das wird als (NP/(NP\S)) notiert, was bedeutet: "Eine Kategorie, die auf der rechten Seite (angegeben durch /) nach einer NP (dem Objekt) sucht und eine Funktion (äquivalent zur VP) erzeugt, die (NP\S) ist, die wiederum eine Funktion darstellt, die auf der linken Seite nach einer NP sucht und einen Satz erzeugt."

Die baumadjungierende Grammatik ist eine kategoriale Grammatik, die den Kategorien partielle Baumstrukturen hinzufügt.

Stochastische/probabilistische Grammatiken/Netzwerktheorien

Theoretische Ansätze zur Syntax, die auf der Wahrscheinlichkeitstheorie beruhen, werden als stochastische Grammatiken bezeichnet. Eine gängige Implementierung eines solchen Ansatzes verwendet ein neuronales Netz oder Konnektionismus.

Funktionale Grammatiken

Funktionalistische Grammatikmodelle untersuchen die Interaktion zwischen Form und Funktion, indem sie eine strukturelle und eine funktionale Analyse durchführen.

  • Funktionale Diskursgrammatik (Dik)
  • Prager Linguistischer Kreis
  • Rollen- und Referenzgrammatik (RRG)
  • Systemische funktionale Grammatik

Generative Syntax

Generative Syntax ist das Studium der Syntax innerhalb des übergreifenden Rahmens der generativen Grammatik. Generative Theorien der Syntax schlagen typischerweise Analysen von grammatischen Mustern vor, wobei formale Werkzeuge wie Phrasenstrukturgrammatiken verwendet werden, die durch zusätzliche Operationen wie syntaktische Bewegung ergänzt werden. Ihr Ziel bei der Analyse einer bestimmten Sprache ist es, Regeln festzulegen, die alle und nur die Ausdrücke erzeugen, die in dieser Sprache wohlgeformt sind. Auf diese Weise versuchen sie, angeborene domänenspezifische Prinzipien der sprachlichen Kognition zu identifizieren, die mit den allgemeinen Zielen des generativen Ansatzes übereinstimmen. Die generative Syntax gehört zu den Ansätzen, die sich das Prinzip der Autonomie der Syntax zu eigen machen, indem sie davon ausgehen, dass die Bedeutung und die kommunikative Absicht durch die Syntax bestimmt werden und nicht andersherum.

Die generative Syntax wurde in den späten 1950er Jahren von Noam Chomsky vorgeschlagen, aufbauend auf früheren Arbeiten von Zellig Harris, Louis Hjelmslev und anderen. Seitdem wurden zahlreiche Theorien unter diesem Dach vorgeschlagen:

  • Transformationsgrammatik (TG) (ursprüngliche Theorie der generativen Syntax, die Chomsky 1957 in Syntaktische Strukturen darlegte)
  • Regierungs- und Bindungstheorie (GB) (überarbeitete Theorie in der Tradition der TG, die hauptsächlich von Chomsky in den 1970er und 1980er Jahren entwickelt wurde)
  • Minimalistisches Programm (MP) (eine Überarbeitung der Theorie aus dem GB-Rahmen, veröffentlicht von Chomsky 1995)

Andere Theorien, die ihren Ursprung im generativen Paradigma finden, sind:

  • Bogenpaargrammatik
  • Verallgemeinerte Phrasenstrukturgrammatik (GPSG)
  • Generative Semantik
  • Kopfgesteuerte Phrasenstrukturgrammatik (HPSG)
  • Lexikalische Funktionsgrammatik (LFG)
  • Nanosyntax
  • Relationale Grammatik (RG)
  • Harmonische Grammatik (HG)

Kognitive und gebrauchsbasierte Grammatiken

Der Rahmen der kognitiven Linguistik geht auf die generative Grammatik zurück, orientiert sich aber eher an der evolutionären als an der tschomskischen Linguistik. Kognitive Modelle erkennen oft die generative Annahme an, dass das Objekt zur Verbphrase gehört. Zu den kognitiven Rahmenwerken gehören die folgenden:

  • Kognitive Grammatik
  • Konstruktionsgrammatik (CxG)
  • Emergente Grammatik

Syntax natürlicher Sprachen (natürliche Syntax)

Stellung der Syntax in der Grammatik

Bezogen auf natürliche Sprachen ist die Syntax eine Abteilung der Grammatik und eng benachbart zur Morphologie. Die Abgrenzung zwischen ihnen nimmt auf Komplexitätsebenen der grammatischen Struktur sprachlicher Ausdrücke Bezug. Zum Beispiel: Vom minimalen Sprachzeichen (Morphem) frag als Wort-Stamm über die erweiterte Form durch Anfügung des Präfixes be bis zur Wortform befragst ist die Morphologie zuständig. Für die Komplexitätsebenen von da an aufwärts, also vom Syntagma den Kandidaten befragst über den einfachen Satz (wenn) du den Kandidaten befragst bis zum zusammengesetzten Satz halt dich zurück, wenn du den Kandidaten befragst, ist die Syntax zuständig. Für die Syntax ist die Wortform eine Ganzheit, mit deren innerer Struktur syntaktische Regeln nichts zu schaffen haben; diese müssen nur „wissen“, welchen syntaktisch relevanten morphologischen Kategorien die Wortform überhaupt angehört. So bestimmt z. B. eine syntaktische Regel, dass das Prädikatsverb in wenn du den Kandidaten befragst in Kongruenz mit seinem Subjekt in der zweiten Person Singular steht. Wie aber diese Form (bei diesem Verb) lautet, darum kümmert sich die Morphologie (wenn das Verb z. B. hereinlässt wäre, so wiese es – im Gegensatz zu befragst – Umlaut auf).

Die Abgrenzungsprobleme zwischen Syntax und Morphologie kann man u. a. ermessen an phrasalen Komposita wie hinuntergehen (ein oder zwei Wörter?) oder reitende Artillerietruppe (das Attribut reitend gehört zu Artillerie, das aber seinerseits Bestandteil eines anderen Wortes ist). Auch die Derivation, die als Teil der Wortbildung zur Morphologie gehört, hat einen syntaktischen Aspekt.

Syntax formaler Sprachen

Unter der Syntax einer formalen Sprache (formale Syntax) – wie etwa Kalküle in der Logik und Mathematik oder auch Programmiersprachen in der Informatik – versteht man ein System von Regeln, nach denen wohlgeformte („syntaktisch korrekte“) Ausdrücke, Formeln, Programmtexte oder andere Texte aus einem grundlegenden Zeichenvorrat (dem Alphabet) gebildet werden. Die Regeln können dabei die Form von Herleitungsregeln einer formalen Grammatik haben oder in natürlicher Sprache formuliert sein.

Geht es nur um die Wohlgeformtheit oder Korrektheit, kann von der inhaltlichen Bedeutung der Zeichen abgesehen werden. Soll aber eine Semantik auf den wohlgeformten Ausdrücken definiert werden, so geschieht das meist induktiv anhand derselben Regeln, durch die auch die Syntax definiert ist, sodass sich die Bedeutung eines komplexen Ausdrucks aus der Bedeutung seiner Bestandteile und der Regel für die Zusammensetzung ergibt (Frege-Prinzip). Beispielsweise spiegelt sich in der Sprachdefinition von Programmiersprachen die Priorität der Operatoren in der formalen Grammatik der Sprache wider, sodass nach deren syntaktischen Regeln ein Ausdruck wie nur als Summe, nicht aber als Produkt gelesen werden kann. Für die bloße Wohlgeformtheit hätte das keine Rolle gespielt.

Die Programmiersprache Algol 60 wurde als erste mit einer formalen Syntax beschrieben, die in der Backus-Naur-Form (BNF; nach zwei der Autoren der Sprachdefinition benannt) abgefasst war. Seither haben sich für Programmiersprachen formale Syntaxbeschreibungen, nämlich mit Hilfe von verschiedenen Versionen und Erweiterungen der BNF oder von Syntaxdiagrammen allgemein durchgesetzt, nicht zuletzt deswegen, weil sich aus den formalen Regeln unter bestimmten Voraussetzungen Analyseprogramme (Parser) automatisch generieren lassen. Als Folge davon versteht man unter der Syntax einer Programmiersprache oft nur diese Regeln, nicht aber solche Syntaxregeln, die sich nicht durch kontextfreie Grammatiken ausdrücken lassen, wie etwa die Pflicht, vorkommende Namen zu deklarieren.

Bei der Auszeichnungssprache XML gibt es eine für alle Dokumente gültige Syntax, die je nach Anwendungsbereich durch zusätzliche Syntaxregeln weiter eingeschränkt wird. Die Übereinstimmung mit der allgemeinen Syntax wird Wohlgeformtheit, die darüber hinaus auch mit den zusätzlichen Regeln wird Validität genannt.