Orthogonalität

Aus besserwiki.de
Die Linienabschnitte AB und CD sind orthogonal zueinander.

In der Mathematik ist die Orthogonalität die Verallgemeinerung des Begriffs der Rechtwinkligkeit auf die lineare Algebra der Bilinearformen. Zwei Elemente u und v eines Vektorraums mit bilinearer Form B sind orthogonal, wenn B(u, v) = 0. Je nach bilinearer Form kann der Vektorraum selbst orthogonale Vektoren enthalten, die nicht Null sind. Im Falle von Funktionsräumen werden Familien orthogonaler Funktionen zur Bildung einer Basis verwendet.

Im weiteren Sinne wird der Begriff Orthogonalität auch für die Trennung bestimmter Merkmale eines Systems verwendet. Der Begriff hat auch spezielle Bedeutungen in anderen Bereichen wie Kunst und Chemie.

In der Elementargeometrie nennt man zwei Geraden oder Ebenen orthogonal (bzw. senkrecht), wenn sie einen rechten Winkel, also einen Winkel von 90°, einschließen.

Diese Bedeutung wird auch auf Abbildungen zwischen Vektorräumen übertragen, die das Skalarprodukt und damit die Orthogonalität zweier Vektoren unverändert lassen.

Etymologie

Das Wort stammt aus dem Altgriechischen ὀρθός (orthós), was "aufrecht" bedeutet, und γωνία (gōnía), was "Winkel" bedeutet.

Das altgriechische ὀρθογώνιον (orthogṓnion) und das klassisch-lateinische orthogonium bezeichneten ursprünglich ein Rechteck. Später wurden sie zur Bezeichnung eines rechtwinkligen Dreiecks. Im 12. Jahrhundert bezeichnete das nachklassische lateinische Wort orthogonalis einen rechten Winkel oder etwas, das mit einem rechten Winkel zusammenhängt.

Mathematik und Physik

Orthogonalität und Drehung von Koordinatensystemen im Vergleich zwischen links: Euklidischer Raum durch den Kreiswinkel ϕ, rechts: in der Minkowski-Raumzeit durch den hyperbolischen Winkel ϕ (rote Linien mit der Bezeichnung c bezeichnen die Weltlinien eines Lichtsignals, ein Vektor ist orthogonal zu sich selbst, wenn er auf dieser Linie liegt).

Definitionen

  • In der Geometrie sind zwei euklidische Vektoren orthogonal, wenn sie senkrecht zueinander stehen, d. h. einen rechten Winkel bilden.
  • Zwei Vektoren, x und y, in einem Raum mit innerem Produkt, V, sind orthogonal, wenn ihr inneres Produkt gleich Null ist. Diese Beziehung wird folgendermaßen bezeichnet .
  • Eine orthogonale Matrix ist eine Matrix, deren Spaltenvektoren zueinander orthonormal sind.
  • Zwei Vektorunterräume A und B eines inneren Produktraums V heißen orthogonale Unterräume, wenn jeder Vektor in A orthogonal zu jedem Vektor in B ist. Der größte Unterraum von V, der orthogonal zu einem gegebenen Unterraum ist, ist sein orthogonales Komplement.
  • Bei einem Modul M und seinem Dual M sind ein Element m′ von M und ein Element m von M orthogonal, wenn ihre natürliche Paarung Null ist, d. h. d. h. ⟨m′, m⟩ = 0. Zwei Mengen S′ ⊆ M und S ⊆ M sind orthogonal, wenn jedes Element von S′ orthogonal zu jedem Element von S ist.
  • Ein Termumschreibungssystem heißt orthogonal, wenn es links-linear und nicht-eindeutig ist. Orthogonale Termumschreibungssysteme sind konfluent.

Eine Menge von Vektoren in einem Raum mit innerem Produkt heißt paarweise orthogonal, wenn jede Paarung von ihnen orthogonal ist. Eine solche Menge wird als orthogonale Menge bezeichnet.

In bestimmten Fällen wird das Wort normal verwendet, um orthogonal zu bedeuten, insbesondere im geometrischen Sinne wie bei der Normalen auf eine Oberfläche. Zum Beispiel ist die y-Achse normal auf die Kurve y = x2 im Ursprung. Normal kann sich aber auch auf die Größe eines Vektors beziehen. Insbesondere wird eine Menge orthonormal (orthogonal plus normal) genannt, wenn sie eine orthogonale Menge von Einheitsvektoren ist. Daher wird die Verwendung des Begriffs "normal" im Sinne von "orthogonal" häufig vermieden. Das Wort "normal" hat auch eine andere Bedeutung in der Wahrscheinlichkeitsrechnung und Statistik.

Ein Vektorraum mit einer bilinearen Form verallgemeinert den Fall eines inneren Produkts. Wenn die bilineare Form auf zwei Vektoren angewendet Null ergibt, dann sind sie orthogonal. Im Fall einer pseudo-euklidischen Ebene wird der Begriff hyperbolische Orthogonalität verwendet. Im Diagramm sind die Achsen x′ und t′ für jedes gegebene ϕ hyperbolisch-orthogonal.

Euklidische Vektorräume

Im euklidischen Raum sind zwei Vektoren dann und nur dann orthogonal, wenn ihr Punktprodukt gleich Null ist, d. h. sie bilden einen Winkel von 90° (π/2 Radiant), oder einer der Vektoren ist gleich Null. Die Orthogonalität von Vektoren ist also eine Erweiterung des Konzepts der rechtwinkligen Vektoren auf Räume beliebiger Dimension.

Das orthogonale Komplement eines Unterraums ist der Raum aller Vektoren, die orthogonal zu jedem Vektor im Unterraum sind. In einem dreidimensionalen euklidischen Vektorraum ist das orthogonale Komplement einer Linie durch den Ursprung die Ebene durch den Ursprung, die senkrecht zu ihr steht, und umgekehrt.

Man beachte, dass das geometrische Konzept, dass zwei Ebenen senkrecht zueinander stehen, nicht mit dem orthogonalen Komplement übereinstimmt, da sich in drei Dimensionen ein Paar von Vektoren, jeweils einer aus einem Paar von senkrechten Ebenen, in einem beliebigen Winkel treffen kann.

Im vierdimensionalen euklidischen Raum ist das orthogonale Komplement einer Geraden eine Hyperebene und umgekehrt, und das einer Ebene ist eine Ebene.

Orthogonale Funktionen

Mit Hilfe der Integralrechnung ist es üblich, das innere Produkt zweier Funktionen f und g in Bezug auf eine nichtnegative Gewichtsfunktion w über ein Intervall [a, b] wie folgt zu definieren:

In einfachen Fällen ist w(x) = 1.

Wir sagen, dass die Funktionen f und g orthogonal sind, wenn ihr inneres Produkt (bzw. der Wert dieses Integrals) Null ist:

Die Orthogonalität zweier Funktionen in Bezug auf ein inneres Produkt impliziert nicht die Orthogonalität in Bezug auf ein anderes inneres Produkt.

Wir schreiben die Norm in Bezug auf dieses innere Produkt als

Die Mitglieder einer Menge von Funktionen {fi : i = 1, 2, 3, ...} sind orthogonal in Bezug auf w auf dem Intervall [a, b], wenn

Die Glieder einer solchen Menge von Funktionen sind orthonormal bezüglich w auf dem Intervall [a, b], wenn

wobei

das Kronecker-Delta ist. Mit anderen Worten, jedes Paar von ihnen (mit Ausnahme der Paarung einer Funktion mit sich selbst) ist orthogonal, und die Norm von jedem ist 1. Siehe insbesondere die orthogonalen Polynome.

Beispiele

  • Die Vektoren (1, 3, 2)T, (3, -1, 0)T, (1, 3, -5)T sind zueinander orthogonal, da (1)(3) + (3)(-1) + (2)(0) = 0, (3)(1) + (-1)(3) + (0)(-5) = 0, und (1)(1) + (3)(3) + (2)(-5) = 0.
  • Die Vektoren (1, 0, 1, 0, ...)T und (0, 1, 0, 1, ...)T sind orthogonal zueinander. Das Punktprodukt dieser Vektoren ist 0. Wir können dann die Verallgemeinerung machen und die Vektoren in Z2n betrachten:
    Für irgendeine positive ganze Zahl a und für 1 ≤ k ≤ a - 1 sind diese Vektoren orthogonal, zum Beispiel , , orthogonal sind.
  • Die Funktionen 2t + 3 und 45t2 + 9t - 17 sind orthogonal in Bezug auf eine Einheitsgewichtsfunktion auf dem Intervall von -1 bis 1:
  • Die Funktionen 1, sin(nx), cos(nx) : n = 1, 2, 3, ... sind orthogonal in Bezug auf die Riemannsche Integration auf den Intervallen [0, 2π], [-π, π] oder jedem anderen geschlossenen Intervall der Länge 2π. Diese Tatsache ist ein zentrales Element der Fourier-Reihen.

Orthogonale Polynome

Verschiedene Polynomreihen, die nach Mathematikern der Vergangenheit benannt sind, sind Reihen von orthogonalen Polynomen. Im Besonderen:

  • Die Hermite-Polynome sind orthogonal in Bezug auf die Gauß-Verteilung mit Mittelwert Null.
  • Die Legendre-Polynome sind orthogonal in Bezug auf die Gleichverteilung auf dem Intervall [-1, 1].
  • Die Laguerre-Polynome sind orthogonal in Bezug auf die Exponentialverteilung. Etwas allgemeinere Laguerre-Polynomfolgen sind orthogonal in Bezug auf Gamma-Verteilungen.
  • Die Tschebyscheff-Polynome der ersten Art sind orthogonal in Bezug auf das Maß
  • Die Tschebyscheff-Polynome der zweiten Art sind orthogonal in Bezug auf die Wigner-Halbkreisverteilung.

Orthogonale Zustände in der Quantenmechanik

  • In der Quantenmechanik ist es eine hinreichende (aber nicht notwendige) Bedingung, dass zwei Eigenzustände eines hermiteschen Operators, und orthogonal sind, ist, dass sie verschiedenen Eigenwerten entsprechen. In der Dirac-Notation bedeutet dies, dass wenn und verschiedenen Eigenwerten entsprechen. Dies folgt aus der Tatsache, dass die Schrödinger-Gleichung eine Sturm-Liouville-Gleichung ist (in der Schrödinger-Formulierung) oder dass Observablen durch hermitsche Operatoren gegeben sind (in der Heisenberg-Formulierung).

Kunst

In der Kunst werden die perspektivischen (imaginären) Linien, die auf den Fluchtpunkt zeigen, als "orthogonale Linien" bezeichnet. In der Literatur der modernen Kunstkritik hat der Begriff "orthogonale Linie" oft eine ganz andere Bedeutung. Viele Werke von Malern wie Piet Mondrian und Burgoyne Diller zeichnen sich durch die ausschließliche Verwendung von "orthogonalen Linien" aus - allerdings nicht in Bezug auf die Perspektive, sondern im Sinne von geraden, ausschließlich horizontalen oder vertikalen Linien, die im Schnittpunkt einen rechten Winkel bilden. So heißt es in einem Essay auf der Website des Thyssen-Bornemisza-Museums, dass "Mondrian ... sein gesamtes Werk der Untersuchung des Gleichgewichts zwischen orthogonalen Linien und Primärfarben gewidmet hat." Archiviert am 2009-01-31 auf der Wayback Machine

Computerwissenschaft

Orthogonalität bei der Entwicklung von Programmiersprachen ist die Fähigkeit, verschiedene Sprachmerkmale in beliebigen Kombinationen mit konsistenten Ergebnissen zu verwenden. Diese Verwendung wurde von Van Wijngaarden bei der Entwicklung von Algol 68 eingeführt:

Die Anzahl unabhängiger primitiver Konzepte wurde minimiert, damit die Sprache einfach zu beschreiben, zu lernen und zu implementieren ist. Andererseits wurden diese Konzepte "orthogonal" angewandt, um die Ausdruckskraft der Sprache zu maximieren, während gleichzeitig versucht wurde, schädliche Überflüssigkeiten zu vermeiden.

Orthogonalität ist eine Eigenschaft des Systementwurfs, die gewährleistet, dass die Änderung der technischen Wirkung einer Systemkomponente weder Nebenwirkungen auf andere Komponenten des Systems erzeugt noch diese weitergibt. Dies wird in der Regel durch die Trennung von Belangen und die Kapselung erreicht und ist für einen praktikablen und kompakten Entwurf komplexer Systeme unerlässlich. Das emergente Verhalten eines aus Komponenten bestehenden Systems sollte streng durch formale Definitionen seiner Logik kontrolliert werden und nicht durch Seiteneffekte, die sich aus schlechter Integration, d. h. nicht orthogonalem Design von Modulen und Schnittstellen, ergeben. Orthogonalität reduziert die Test- und Entwicklungszeit, da es einfacher ist, Entwürfe zu verifizieren, die weder Seiteneffekte verursachen noch von ihnen abhängen.

Ein Befehlssatz wird als orthogonal bezeichnet, wenn er keine Redundanz aufweist (d. h., es gibt nur einen einzigen Befehl, der zur Erfüllung einer bestimmten Aufgabe verwendet werden kann) und so konzipiert ist, dass die Befehle jedes Register in jedem Adressierungsmodus verwenden können. Diese Terminologie ergibt sich aus der Betrachtung eines Befehls als Vektor, dessen Komponenten die Befehlsfelder sind. Ein Feld identifiziert die Register, mit denen gearbeitet werden soll, und ein weiteres gibt den Adressierungsmodus an. Ein orthogonaler Befehlssatz kodiert eindeutig alle Kombinationen von Registern und Adressierungsmodi.

Kommunikation

In der Kommunikation sind Mehrfachzugriffsverfahren orthogonal, wenn ein idealer Empfänger beliebig starke unerwünschte Signale mit Hilfe unterschiedlicher Basisfunktionen vollständig vom gewünschten Signal trennen kann. Ein solches Verfahren ist der Zeitmultiplex-Vielfachzugriff (TDMA), bei dem die orthogonalen Basisfunktionen nicht überlappende Rechteckimpulse ("Zeitschlitze") sind.

Ein anderes Verfahren ist das orthogonale Frequenzmultiplexing (OFDM), bei dem ein einziger Sender eine Reihe von Frequenzmultiplexsignalen mit genau dem minimalen Frequenzabstand verwendet, der erforderlich ist, um sie orthogonal zu machen, so dass sie sich nicht gegenseitig stören. Bekannte Beispiele sind die (a-, g- und n-)Versionen von 802.11 Wi-Fi, WiMAX, ITU-T G.hn, DVB-T, das terrestrische digitale Fernsehübertragungssystem, das in den meisten Ländern außerhalb Nordamerikas verwendet wird, und DMT (Discrete Multi Tone), die Standardform von ADSL.

Bei OFDM werden die Unterträgerfrequenzen so gewählt, dass die Unterträger orthogonal zueinander sind, was bedeutet, dass ein Übersprechen zwischen den Unterkanälen ausgeschlossen ist und keine Schutzbänder zwischen den Trägern erforderlich sind. Dies vereinfacht den Entwurf sowohl des Senders als auch des Empfängers erheblich. Beim herkömmlichen FDM ist für jeden Unterkanal ein eigener Filter erforderlich.

Statistik, Ökonometrie und Wirtschaftswissenschaften

Bei der statistischen Analyse werden unabhängige Variablen, die sich auf eine bestimmte abhängige Variable auswirken, als orthogonal bezeichnet, wenn sie unkorreliert sind, da die Kovarianz ein inneres Produkt bildet. In diesem Fall erhält man die gleichen Ergebnisse für die Wirkung einer der unabhängigen Variablen auf die abhängige Variable, unabhängig davon, ob man die Wirkung der Variablen einzeln mit einfacher Regression oder gleichzeitig mit multipler Regression modelliert. Liegt eine Korrelation vor, sind die Faktoren nicht orthogonal und die beiden Methoden führen zu unterschiedlichen Ergebnissen. Diese Verwendung ergibt sich aus der Tatsache, dass unkorrelierte Variablen, wenn sie durch Subtraktion des Erwartungswerts (des Mittelwerts) zentriert werden, sowohl als beobachtete Daten (d. h. Vektoren) als auch als Zufallsvariablen (d. h. Dichtefunktionen) im oben erörterten geometrischen Sinne orthogonal sind. Ein ökonometrischer Formalismus, der eine Alternative zum Maximum-Likelihood-Rahmen darstellt, die verallgemeinerte Momentenmethode, stützt sich auf Orthogonalitätsbedingungen. Insbesondere der Ordinary Least Squares-Schätzer lässt sich leicht aus einer Orthogonalitätsbedingung zwischen den erklärenden Variablen und den Modellresiduen ableiten.

Taxonomie

In der Taxonomie ist eine orthogonale Klassifikation eine Klassifikation, bei der kein Element Mitglied von mehr als einer Gruppe ist, d. h. die Klassifikationen schließen sich gegenseitig aus.

Kombinatorik

In der Kombinatorik werden zwei n×n lateinische Quadrate als orthogonal bezeichnet, wenn ihre Überlagerung alle möglichen n2 Kombinationen von Einträgen ergibt.

Chemie und Biochemie

In der synthetischen organischen Chemie ist der orthogonale Schutz eine Strategie, die es ermöglicht, funktionelle Gruppen unabhängig voneinander zu entschützen. In der Chemie und Biochemie liegt eine orthogonale Wechselwirkung vor, wenn zwei Stoffpaare vorhanden sind und jeder Stoff mit seinem jeweiligen Partner in Wechselwirkung treten kann, jedoch nicht mit einem der Stoffe des anderen Paares. Bei der DNA gibt es beispielsweise zwei orthogonale Paare: Cytosin und Guanin bilden ein Basenpaar, Adenin und Thymin bilden ein weiteres Basenpaar, aber andere Basenpaar-Kombinationen sind stark benachteiligt. Ein chemisches Beispiel: Tetrazin reagiert mit trans-Cycloocten und Azid reagiert mit Cyclooctin, ohne dass es zu Kreuzreaktionen kommt; es handelt sich also um zueinander orthogonale Reaktionen, die gleichzeitig und selektiv durchgeführt werden können. Bioorthogonale Chemie bezieht sich auf chemische Reaktionen, die in lebenden Systemen ablaufen, ohne mit natürlich vorhandenen zellulären Komponenten zu reagieren. In der supramolekularen Chemie bezieht sich der Begriff der Orthogonalität auf die Möglichkeit, dass zwei oder mehr supramolekulare, oft nicht kovalente, Wechselwirkungen miteinander kompatibel sind, d. h. sich reversibel und ohne gegenseitige Beeinflussung bilden.

In der analytischen Chemie sind Analysen "orthogonal", wenn sie eine Messung oder Identifizierung auf völlig unterschiedliche Weise vornehmen und dadurch die Zuverlässigkeit der Messung erhöhen. Die orthogonale Prüfung kann somit als "Gegenprobe" der Ergebnisse angesehen werden, und der Begriff "Kreuz" entspricht dem etymologischen Ursprung der Orthogonalität. Orthogonale Tests werden häufig im Rahmen von Anträgen für neue Arzneimittel verlangt.

Systemzuverlässigkeit

Im Bereich der Systemzuverlässigkeit ist die orthogonale Redundanz diejenige Form der Redundanz, bei der sich die Form der Sicherungseinrichtung oder -methode vollständig von der fehleranfälligen Einrichtung oder Methode unterscheidet. Der Fehlermodus eines orthogonal redundanten Sicherungsgeräts oder -verfahrens überschneidet sich nicht mit dem Fehlermodus des Geräts oder Verfahrens, das der Redundanz bedarf, und unterscheidet sich völlig von diesem, um das Gesamtsystem vor einem katastrophalen Ausfall zu schützen.

Neurowissenschaften

In den Neurowissenschaften wird eine sensorische Karte im Gehirn, die eine überlappende Reizkodierung (z. B. Ort und Qualität) aufweist, als orthogonale Karte bezeichnet.

Spiele

In Brettspielen wie Schach, die mit einem Gitter aus Quadraten gespielt werden, bedeutet "orthogonal" "in der gleichen Reihe/dem gleichen Rang" oder "in der gleichen Spalte/dem gleichen Feld". Dies ist das Gegenstück zu Feldern, die "diagonal benachbart" sind. In dem alten chinesischen Brettspiel Go kann ein Spieler die Steine eines Gegners schlagen, indem er alle orthogonal benachbarten Punkte besetzt.

Andere Beispiele

Auf Stereo-Schallplatten sind sowohl der linke als auch der rechte Stereokanal in einer einzigen Rille kodiert. Die V-förmige Rille in der Schallplatte hat Wände, die in einem Winkel von 90 Grad zueinander stehen, wobei Variationen in jeder Wand separat einen der beiden analogen Kanäle kodieren, aus denen das Stereosignal besteht. Der Tonabnehmer nimmt die Bewegung der Nadel wahr, die der Rille in zwei orthogonalen Richtungen folgt: 45 Grad von der Vertikalen zu jeder Seite. Eine rein horizontale Bewegung entspricht einem Monosignal, was einem Stereosignal entspricht, bei dem beide Kanäle identische (gleichphasige) Signale übertragen.

Orthogonalität in der Geometrie

Analytische Geometrie

Vektoren

Den Winkel zweier Vektoren und im kartesischen Koordinatensystem kann man über das Skalarprodukt

berechnen. Dabei bezeichnen und jeweils die Längen der Vektoren und den Kosinus des von den beiden Vektoren eingeschlossenen Winkels. Bilden zwei Vektoren und einen rechten Winkel, dann gilt

.

Zwei Vektoren sind somit zueinander orthogonal, wenn ihr Skalarprodukt gleich null ist. Der Nullvektor ist dabei zu allen Vektoren orthogonal.

Eine Menge von Vektoren wird als paarweise orthogonal bezeichnet, wenn für alle gilt, dass und orthogonal zueinander sind.

Synthetische Geometrie

In der synthetischen Geometrie kann eine Orthogonalität durch die axiomatische Beschreibung einer Orthogonalitätsrelation zwischen Geraden auf gewissen affinen Inzidenzebenen eingeführt werden.

Orthogonalität in der linearen Algebra

Orthogonale Projektionen

Ist ein endlichdimensionaler reeller oder komplexer Vektorraum mit einem Skalarprodukt, so gibt es zu jedem Untervektorraum die Projektion entlang des orthogonalen Komplements von , welche Orthogonalprojektion auf genannt wird. Sie ist die eindeutig bestimmte lineare Abbildung mit der Eigenschaft, dass für alle

  • und
  •   für alle  

gilt. Ist ein unendlichdimensionaler Hilbertraum, so gilt diese Aussage mit dem Projektionssatz entsprechend auch für abgeschlossene Untervektorräume . In diesem Fall kann stetig gewählt werden.

Orthogonalität in normierten Räumen

In einem Skalarproduktraum ist äquivalent zu für alle Skalare . Das motiviert folgende Definition:

Für aus einem normierten Raum sei für alle

Dieser Orthogonalitätsbegriff in normierten Räumen ist wesentlich schwächer als in Skalarprodukträumen. Im Allgemeinen ist Orthogonalität weder symmetrisch noch additiv, das heißt aus folgt im Allgemeinen nicht und aus und folgt im Allgemeinen nicht .

Dieser Umstand führt zu weiteren Begriffsbildungen, denn man wird sich für solche normierten Räume interessieren, in denen die Orthogonalität additiv ist. Es stellt sich heraus, dass das genau die glatten normierten Räume sind.

Anwendungen

Orthogonalität wird in vielen Anwendungen genutzt, weil dadurch Berechnungen einfacher oder robuster durchgeführt werden können. Beispiele sind:

  • die Fourier-Transformation und die Wavelet-Transformation in der Signalverarbeitung
  • QR-Zerlegungen von Matrizen zur Lösung von Eigenwertproblemen
  • die Gauß-Quadratur zur numerischen Berechnung von Integralen
  • orthogonale Felder in der statistischen Versuchsplanung
  • orthogonale Codes, etwa der Walsh-Code, in der Kanalkodierung
  • das Orthogonalverfahren zur Vermessung in der Geodäsie