Hesse-Matrix
Teil einer Serie von Artikeln über ⓘ |
Kalkül |
---|
|
In der Mathematik ist die Hessische Matrix oder Hessian eine quadratische Matrix der partiellen Ableitungen zweiter Ordnung einer skalaren Funktion oder eines skalaren Feldes. Sie beschreibt die lokale Krümmung einer Funktion mit vielen Variablen. Die Hess'sche Matrix wurde im 19. Jahrhundert von dem deutschen Mathematiker Ludwig Otto Hesse entwickelt und später nach ihm benannt. Hesse verwendete ursprünglich den Begriff "funktionale Determinanten". ⓘ
Die Hesse-Matrix taucht bei der Approximation einer mehrdimensionalen Funktion in der Taylor-Entwicklung auf. Sie ist unter anderem in Zusammenhang mit der Optimierung von Systemen von Bedeutung, die durch mehrere Parameter beschrieben werden, wie sie beispielsweise in den Wirtschaftswissenschaften, in der Physik, theoretischen Chemie oder in den Ingenieurwissenschaften häufig auftreten. ⓘ
Definitionen und Eigenschaften
Angenommen, sei eine Funktion, die als Eingabe einen Vektor und gibt einen Skalar aus Wenn alle zweiten partiellen Ableitungen von existieren, dann ist die hessische Matrix von eine quadratische Matrix, die normalerweise wie folgt definiert und angeordnet ist:
Wenn darüber hinaus die zweiten partiellen Ableitungen alle stetig sind, ist die hessische Matrix nach dem Satz von Schwarz eine symmetrische Matrix. ⓘ
Die Determinante der hessischen Matrix wird als Hesssche Determinante. ⓘ
Die Hessian-Matrix einer Funktion ist die Jacobimatrix des Gradienten der Funktion das heißt: ⓘ
Anwendungen
Wendepunkte
Wenn ein homogenes Polynom in drei Variablen ist, ist die Gleichung die implizite Gleichung einer ebenen projektiven Kurve. Die Wendepunkte der Kurve sind genau die nicht-singulären Punkte, an denen die Hess'sche Determinante Null ist. Aus dem Satz von Bézout folgt, dass eine kubische ebene Kurve höchstens Wendepunkte hat, da die Hess'sche Determinante ein Polynom vom Grad ⓘ
Test der zweiten Ableitung
Die Hessian-Matrix einer konvexen Funktion ist positiv semidefinit. Durch Verfeinerung dieser Eigenschaft lässt sich prüfen, ob ein kritischer Punkt ein lokales Maximum, ein lokales Minimum oder ein Sattelpunkt ist, wie folgt: Wenn die Hessian-Matrix positiv-definit ist bei dann ein isoliertes lokales Minimum bei Wenn der Hessian negativ-definit ist bei dann erreicht ein isoliertes lokales Maximum bei Wenn der Hessian sowohl positive als auch negative Eigenwerte hat, dann ein Sattelpunkt für Andernfalls ist der Test nicht schlüssig. Dies bedeutet, dass bei einem lokalen Minimum die Hessian positiv-halbfinit ist und bei einem lokalen Maximum die Hessian negativ-halbfinit ist. ⓘ
Für positiv-halbfinite und negativ-halbfinite Hessians ist der Test nicht schlüssig (ein kritischer Punkt, an dem die Hessian halbfinit, aber nicht definitiv ist, kann ein lokales Extremum oder ein Sattelpunkt sein). Aus der Sicht der Morse-Theorie kann jedoch mehr gesagt werden. ⓘ
Der Test der zweiten Ableitung für Funktionen mit einer und zwei Variablen ist einfacher als im allgemeinen Fall. Bei einer Variablen enthält der Hessian genau eine zweite Ableitung; wenn diese positiv ist, dann ein lokales Minimum, und wenn sie negativ ist, dann ein lokales Maximum; wenn sie Null ist, ist der Test nicht schlüssig. Bei zwei Variablen kann die Determinante verwendet werden, denn die Determinante ist das Produkt der Eigenwerte. Wenn sie positiv ist, sind die Eigenwerte beide positiv oder beide negativ. Wenn sie negativ ist, haben die beiden Eigenwerte unterschiedliche Vorzeichen. Ist sie gleich Null, ist der Test der zweiten Ableitung nicht schlüssig. ⓘ
Äquivalent dazu können die Bedingungen zweiter Ordnung, die für ein lokales Minimum oder Maximum hinreichend sind, als Folge von Hauptminoren (Determinanten von Untermatrizen) der Hessian ausgedrückt werden; diese Bedingungen sind ein Spezialfall der im nächsten Abschnitt für begrenzte Hessians für eingeschränkte Optimierung gegebenen Bedingungen - der Fall, in dem die Anzahl der Einschränkungen Null ist. Insbesondere besteht die hinreichende Bedingung für ein Minimum darin, dass alle diese Hauptminoren positiv sind, während die hinreichende Bedingung für ein Maximum darin besteht, dass die Minoren sich im Vorzeichen abwechseln, wobei der Minor negativ ist. ⓘ
Ist auf ihrer Definitionsmenge strikt konvex, so besitzt höchstens ein globales Minimum auf . Jedes lokale Minimum ist zugleich das (einzige) globale Minimum. Ist strikt konkav, so besitzt höchstens ein globales Maximum. Jedes lokale Maximum ist zugleich ihr (einziges) globales Maximum. ⓘ
Kritische Punkte
Wenn der Gradient (der Vektor der partiellen Ableitungen) einer Funktion in einem bestimmten Punkt Null ist dann hat einen kritischen Punkt (oder stationären Punkt) an Die Determinante der Hessian bei wird in manchen Zusammenhängen auch als Diskriminante bezeichnet. Wenn diese Determinante Null ist, dann ein sogenannter degenerierter kritischer Punkt von oder ein nicht-Morse-kritischer Punkt von Andernfalls ist er nicht entartet und wird als kritischer Morse-Punkt von ⓘ
Die Hess'sche Matrix spielt in der Morse- und Katastrophentheorie eine wichtige Rolle, da ihr Kern und ihre Eigenwerte eine Klassifizierung der kritischen Punkte ermöglichen. ⓘ
Die Determinante der Hess'schen Matrix ist, wenn sie an einem kritischen Punkt einer Funktion ausgewertet wird, gleich der Gaußschen Krümmung der Funktion, die als Mannigfaltigkeit betrachtet wird. Die Eigenwerte der Hess'schen Matrix an diesem Punkt sind die Hauptkrümmungen der Funktion, und die Eigenvektoren sind die Hauptrichtungen der Krümmung. (Siehe Gaußsche Krümmung § Beziehung zu den Hauptkrümmungen). ⓘ
Verwendung in der Optimierung
Hessian-Matrizen werden bei großen Optimierungsproblemen im Rahmen von Newton-Methoden verwendet, da sie der Koeffizient des quadratischen Terms einer lokalen Taylor-Entwicklung einer Funktion sind. Das heißt,
Solche Approximationen können die Tatsache ausnutzen, dass ein Optimierungsalgorithmus den Hessian nur als linearen Operator verwendet und gehen so vor, dass sie zunächst feststellen, dass der Hessian auch in der lokalen Erweiterung des Gradienten erscheint:
Lässt man für einen Skalar ergibt dies
Was die Randomized Search Heuristiken betrifft, so passt sich die Kovarianzmatrix der Evolutionsstrategie bis auf einen skalaren Faktor und kleine Zufallsschwankungen an die Inverse der Hessian-Matrix an. Dieses Ergebnis wurde für eine Ein-Eltern-Strategie und ein statisches Modell mit zunehmender Populationsgröße unter Verwendung der quadratischen Approximation formal bewiesen. ⓘ
Andere Anwendungen
Die Hessian-Matrix wird häufig verwendet, um Bildverarbeitungsoperatoren in der Bildverarbeitung und der Computer Vision auszudrücken (siehe den Laplacian of Gaussian (LoG) Blob-Detektor, den Determinant of Hessian (DoH) Blob-Detektor und den Scale Space). Die Hessian-Matrix kann auch in der Normalmodenanalyse zur Berechnung der verschiedenen Molekularfrequenzen in der Infrarotspektroskopie verwendet werden. ⓘ
Laplace-Operator
Der Laplace-Operator einer zweimal stetig differenzierbaren Funktion mit ist gleich der Spur ihrer Hesse-Matrix und daher unabhängig von der Wahl der Koordinaten:
Verallgemeinerungen
Gebundene Hessische Matrix
A gerahmte Hessian wird für den Test der zweiten Ableitung bei bestimmten eingeschränkten Optimierungsproblemen verwendet. Gegeben die Funktion die zuvor betrachtet wurde, aber unter Hinzufügung einer Nebenbedingungsfunktion derart, dass ist die gerahmte Hessian die Hessian der Lagrange-Funktion
Wenn es zum Beispiel gibt, dann ist die Null in der oberen linken Ecke ein Block von Nullen, und es gibt Randzeilen am oberen Rand und Randspalten auf der linken Seite. ⓘ
Die obigen Regeln, die besagen, dass Extrema (unter den kritischen Punkten mit einer nicht-singulären Hessischen) durch eine positiv-definite oder negativ-definite Hessische charakterisiert werden, können hier nicht gelten, da eine umrandete Hessische weder negativ-definit noch positiv-definit sein kann, da wenn ein beliebiger Vektor ist, dessen einziger Nicht-Null-Eintrag sein erster ist. ⓘ
Der zweite Ableitungstest besteht hier aus Vorzeichenbeschränkungen der Determinanten einer bestimmten Menge von Untermatrizen der begrenzten Hessischen. Intuitiv können die Beschränkungen als eine Reduzierung des Problems auf ein Problem mit freien Variablen. (Zum Beispiel ist die Maximierung von vorbehaltlich der Nebenbedingung kann reduziert werden auf die Maximierung von ohne Einschränkung). ⓘ
Insbesondere werden Vorzeichenbedingungen für die Abfolge der führenden Hauptminoren (Determinanten der oben-links-justierten Submatrizen) der gerahmten Hessian auferlegt, für die die ersten führenden Hauptminoren vernachlässigt werden, wobei die kleinste Minorität aus den abgeschnittenen ersten Zeilen und Spalten besteht, die nächste aus den abgeschnittenen ersten Zeilen und Spalten besteht, und so weiter, wobei die letzte die gesamte gerahmte Hessische ist; wenn größer ist als ist, dann ist die kleinste führende Hauptunterordnung die Hessische selbst. Es sind also Nebenwerte zu berücksichtigen, die jeweils an dem Punkt ausgewertet werden, der als Maximum oder Minimum in Frage kommt. Eine hinreichende Bedingung für ein lokales Maximum ist, dass die Vorzeichen dieser Minoren abwechseln, wobei der kleinste das Vorzeichen von Eine hinreichende Bedingung für ein lokales Minimum ist, dass alle diese Minoren das Vorzeichen von (Im unbeschränkten Fall von stimmen diese Bedingungen mit den Bedingungen überein, unter denen die ungebundene Hessian negativ bzw. positiv definiert ist). ⓘ
Vektorwertige Funktionen
Wenn ist stattdessen ein Vektorfeld das heißt,
Verallgemeinerung auf den komplexen Fall
Im Zusammenhang mit mehreren komplexen Variablen kann der Hessian verallgemeinert werden. Nehmen wir an, und schreiben Sie Dann ist der verallgemeinerte Hessian Wenn die n-dimensionalen Cauchy-Riemann-Bedingungen erfüllt, dann ist die komplexe Hessian-Matrix identisch Null. ⓘ
Verallgemeinerungen für Riemannsche Mannigfaltigkeiten
Sei sei eine riemannsche Mannigfaltigkeit und ihre Levi-Civita-Verbindung. Sei sei eine glatte Funktion. Definieren Sie den Hessischen Tensor durch
Siehe auch
- Geränderte Hesse-Matrix ⓘ
Weblinks
Literatur und Einzelnachweise
- Konrad Königsberger: Analysis. Band 2. 3. überarbeitete Auflage. Springer-Verlag, Berlin u. a. 2000, ISBN 3-540-66902-7. ⓘ