Delta-Distribution

Aus besserwiki.de
Schematische Darstellung des Dirac-Deltas durch eine Linie, die von einem Pfeil überragt wird. Die Höhe des Pfeils gibt normalerweise den Wert einer multiplikativen Konstante an, die die Fläche unter der Funktion ergibt. Die andere Konvention besteht darin, die Fläche neben die Pfeilspitze zu schreiben.
Das Dirac-Delta als der Grenzwert von (im Sinne von Verteilungen) der Folge von nullpunktzentrierten Normalverteilungen

In der Mathematik ist die Dirac-Delta-Verteilung (δ-Verteilung), auch bekannt als Einheitsimpuls, eine verallgemeinerte Funktion oder Verteilung über den reellen Zahlen, deren Wert überall außer bei Null gleich Null ist und deren Integral über die gesamte reelle Linie gleich Eins ist.

Nach heutigem Verständnis ist der Impuls eine lineare Funktion, die jede kontinuierliche Funktion auf ihren Wert bei Null abbildet, oder der schwache Grenzwert einer Folge von Höckerfunktionen, die über den größten Teil der reellen Linie Null sind, mit einer hohen Spitze am Ursprung. Bump-Funktionen werden daher manchmal als "ungefähre" oder "entstehende" Delta-Verteilungen bezeichnet.

Die Deltafunktion wurde von dem Physiker Paul Dirac als Hilfsmittel für die Normalisierung von Zustandsvektoren eingeführt. Sie wird auch in der Wahrscheinlichkeitstheorie und der Signalverarbeitung verwendet. Ihre Gültigkeit war umstritten, bis Laurent Schwartz die Theorie der Verteilungen entwickelte, in der sie als eine lineare Form definiert ist, die auf Funktionen wirkt.

Die Kronecker-Delta-Funktion, die in der Regel auf einem diskreten Gebiet definiert ist und die Werte 0 und 1 annimmt, ist das diskrete Analogon der Dirac-Delta-Funktion.

Die Delta-Distribution (auch δ-Funktion; Dirac-Funktion, -Impuls, -Puls, -Stoß (nach Paul Dirac), Stoßfunktion, Nadelimpuls, Impulsfunktion oder Einheitsimpulsfunktion genannt) als mathematischer Begriff ist eine spezielle irreguläre Distribution mit kompaktem Träger. Sie hat in der Mathematik und Physik grundlegende Bedeutung. Ihr übliches Formelsymbol ist δ (kleines Delta).

Motivation und Überblick

Die Kurve des Dirac-Deltas wird in der Regel als eine Kurve entlang der gesamten x-Achse und der positiven y-Achse betrachtet. Das Dirac-Delta wird zur Modellierung einer hohen schmalen Spike-Funktion (eines Impulses) und anderer ähnlicher Abstraktionen wie einer Punktladung, Punktmasse oder eines Elektronenpunktes verwendet. Um zum Beispiel die Dynamik einer Billardkugel zu berechnen, die gestoßen wird, kann man die Kraft des Stoßes durch ein Dirac-Delta annähern. Dadurch werden nicht nur die Gleichungen vereinfacht, sondern man kann auch die Bewegung der Kugel berechnen, indem man nur den Gesamtimpuls des Aufpralls berücksichtigt, ohne ein detailliertes Modell der gesamten elastischen Energieübertragung auf subatomarer Ebene (zum Beispiel).

Nehmen wir an, eine Billardkugel befindet sich im Ruhezustand. Zum Zeitpunkt wird sie von einer anderen Kugel gestoßen, die ihr einen Impuls , in . Der Impulsaustausch erfolgt zwar nicht sofort, da er durch elastische Prozesse auf molekularer und subatomarer Ebene vermittelt wird, doch für praktische Zwecke ist es zweckmäßig, diese Energieübertragung als tatsächlich sofort zu betrachten. Die Kraft ist daher . (Die Einheiten von sind .)

Um diese Situation strenger zu modellieren, nehmen wir an, dass die Kraft stattdessen gleichmäßig über ein kleines Zeitintervall verteilt ist . Das bedeutet,

Dann wird der Impuls zu jedem Zeitpunkt t durch Integration ermittelt:

Die Modellsituation einer momentanen Impulsübertragung erfordert nun, dass man den Grenzwert als , was überall ein Ergebnis außer bei 0 ergibt:

Hier sind die Funktionen als nützliche Annäherungen an die Idee der momentanen Impulsübertragung betrachtet werden.

Die Deltafunktion ermöglicht es uns, einen idealisierten Grenzwert dieser Annäherungen zu konstruieren. Leider ist der tatsächliche Grenzwert der Funktionen (im Sinne der punktweisen Konvergenz) überall gleich Null, außer an einem einzigen Punkt, wo er unendlich ist. Um dem Dirac-Delta einen angemessenen Sinn zu geben, sollten wir stattdessen darauf bestehen, dass die Eigenschaft

die für alle gilt, auch im Grenzwert gelten sollte. So wird in der Gleichung wird davon ausgegangen, dass der Grenzwert immer außerhalb des Integrals liegt.

In der angewandten Mathematik, wie wir es hier getan haben, wird die Deltafunktion oft als eine Art Grenzwert (schwacher Grenzwert) einer Folge von Funktionen behandelt, von denen jedes Mitglied eine hohe Spitze am Ursprung hat: zum Beispiel eine Folge von Gaußschen Verteilungen, die im Ursprung zentriert sind und deren Varianz gegen Null tendiert.

Das Dirac-Delta ist keine echte Funktion, zumindest keine gewöhnliche mit Bereich und Reichweite in reellen Zahlen. Zum Beispiel sind die Objekte f(x) = δ(x) und g(x) = 0 überall gleich, außer bei x = 0, haben aber unterschiedliche Integrale. Nach der Lebesgue-Integrationstheorie ist f nur dann integrierbar, wenn g integrierbar ist und die Integrale von f und g identisch sind, wenn f und g solche Funktionen sind, dass f = g fast überall ist. Ein rigoroser Ansatz zur Betrachtung der Dirac-Delta-Funktion als eigenständiges mathematisches Objekt erfordert die Maßtheorie oder die Theorie der Verteilungen.

Geschichte

Joseph Fourier stellte in seiner Abhandlung Théorie analytique de la chaleur den so genannten Fourier-Integralsatz in der Form:

was gleichbedeutend ist mit der Einführung der δ-Funktion in der Form:

Später drückte Augustin Cauchy das Theorem mit Hilfe von Exponentialen aus:

Cauchy wies darauf hin, dass die Reihenfolge der Integration in diesem Ergebnis unter bestimmten Umständen von Bedeutung ist (vgl. Fubinis Theorem).

Wie mit der Verteilungstheorie begründet, kann die Cauchy-Gleichung so umgestellt werden, dass sie der ursprünglichen Formulierung von Fourier ähnelt und die δ-Funktion wie folgt dargestellt wird

wobei die δ-Funktion wie folgt ausgedrückt wird

Eine strenge Interpretation der Exponentialform und die verschiedenen Einschränkungen der Funktion f, die für ihre Anwendung notwendig sind, erstreckten sich über mehrere Jahrhunderte. Die Probleme mit einer klassischen Interpretation werden im Folgenden erläutert:

Der größte Nachteil der klassischen Fourier-Transformation ist eine recht enge Klasse von Funktionen (Originalen), für die sie effektiv berechnet werden kann. Diese Funktionen müssen nämlich hinreichend schnell (in der Nähe des Unendlichen) gegen Null abfallen, um die Existenz des Fourier-Integrals zu gewährleisten. Zum Beispiel existiert die Fourier-Transformation von so einfachen Funktionen wie Polynomen nicht im klassischen Sinne. Durch die Erweiterung der klassischen Fourier-Transformation auf Verteilungen wurde die Klasse der zu transformierenden Funktionen erheblich vergrößert, wodurch viele Hindernisse beseitigt wurden.

Zu den weiteren Entwicklungen gehörte die Verallgemeinerung des Fourier-Integrals, "beginnend mit Plancherels bahnbrechender L2-Theorie (1910), fortgesetzt mit den Arbeiten von Wiener und Bochner (um 1930) und gipfelnd in der Verschmelzung mit L. Schwartz' Theorie der Verteilungen (1945) ...", und führte zur formalen Entwicklung der Dirac-Delta-Funktion.

Eine Infinitesimalformel für eine unendlich hohe Einheitsimpuls-Deltafunktion (infinitesimale Version der Cauchy-Verteilung) erscheint ausdrücklich in einem Text von Augustin Louis Cauchy aus dem Jahr 1827. Siméon Denis Poisson betrachtete das Thema im Zusammenhang mit der Untersuchung der Wellenausbreitung, ebenso wie Gustav Kirchhoff etwas später. Kirchhoff und Hermann von Helmholtz führten auch den Einheitsimpuls als Grenzwert von Gaußschen Kräften ein, der auch Lord Kelvins Vorstellung von einer punktförmigen Wärmequelle entsprach. Ende des 19. Jahrhunderts verwendete Oliver Heaviside formale Fourier-Reihen, um den Einheitsimpuls zu manipulieren. Die Dirac-Deltafunktion als solche wurde von Paul Dirac 1927 in seinem Aufsatz The Physical Interpretation of the Quantum Dynamics eingeführt und in seinem Lehrbuch The Principles of Quantum Mechanics verwendet. Er nannte sie "Deltafunktion", da er sie als kontinuierliches Analogon des diskreten Kronecker-Deltas verwendete.

Definitionen

Die Funktion kann man nun mit einer regulären Distribution

identifizieren. Nur im Limes erhält man das ungewöhnliche Verhalten der Delta-Distribution

wobei zu beachten ist, dass die Limes-Bildung nicht unter dem Integral, sondern davor erfolgt. Würde man den Limes unter das Integral ziehen, so wäre fast überall Null, nur nicht bei . Ein einzelner Punkt hat jedoch das Lebesgue-Maß Null und das ganze Integral würde verschwinden.

Anschaulich stellt man sich die Delta-Distribution als eine beliebig hohe und beliebig schmale Funktion vor, die über der x-Achse eine Fläche mit Größe 1 Flächeneinheit einschließt. Man lässt nun die Funktion immer schmaler und dafür immer höher werden – die Fläche darunter muss konstant 1 bleiben. Es existieren auch mehrdimensionale Dirac-Distributionen, diese werden anschaulich zu mehrdimensionalen „Keulen“ mit dem Volumen 1.

Das Dirac-Delta kann man sich grob als eine Funktion auf der reellen Linie vorstellen, die überall Null ist, außer am Ursprung, wo sie unendlich ist,

und die außerdem die Identität erfüllen muss

Dies ist lediglich eine heuristische Charakterisierung. Das Dirac-Delta ist keine Funktion im herkömmlichen Sinne, da keine auf den reellen Zahlen definierte Funktion diese Eigenschaften hat. Die Dirac-Delta-Funktion kann entweder als eine Verteilung oder als ein Maß definiert werden.

Als Maß

Eine Möglichkeit, den Begriff der Dirac-Deltafunktion genau zu erfassen, ist die Definition eines Maßes, des so genannten Dirac-Maßes, das eine Teilmenge A der reellen Linie R als Argument akzeptiert und δ(A) = 1 liefert, wenn 0 ∈ A, und δ(A) = 0 andernfalls. Wenn man sich die Deltafunktion als Modell einer idealisierten Punktmasse bei 0 vorstellt, dann repräsentiert δ(A) die in der Menge A enthaltene Masse. Man kann dann das Integral gegen δ als das Integral einer Funktion gegen diese Massenverteilung definieren. Formal liefert das Lebesgue-Integral das notwendige analytische Mittel. Das Lebesgue-Integral in Bezug auf das Maß δ erfüllt

für alle stetigen, kompakten Funktionen f. Das Maß δ ist nicht absolut stetig in Bezug auf das Lebesgue-Maß - es ist sogar ein singuläres Maß. Folglich hat das Deltamaß keine Radon-Nikodym-Ableitung (in Bezug auf das Lebesgue-Maß) - keine echte Funktion, für die die Eigenschaft

gilt. Folglich ist die letztgenannte Schreibweise ein bequemer Missbrauch der Schreibweise und kein Standardintegral (Riemann- oder Lebesgue-Integral).

Als Wahrscheinlichkeitsmaß auf R ist das Deltamaß durch seine kumulative Verteilungsfunktion charakterisiert, die die Einheitsschrittfunktion ist.

Das bedeutet, dass H(x) das Integral der kumulativen Indikatorfunktion 1(-∞, x] in Bezug auf das Maß δ ist; d.h.,

wobei letzteres das Maß dieses Intervalls ist, genauer gesagt, δ((-∞, x]). So kann insbesondere die Integration der Deltafunktion gegen eine stetige Funktion richtig als Riemann-Stieltjes-Integral verstanden werden:

Alle höheren Momente von δ sind Null. Insbesondere sind die charakteristische Funktion und die momenterzeugende Funktion beide gleich eins.

Als eine Verteilung

In der Verteilungstheorie wird eine verallgemeinerte Funktion nicht als Funktion an sich betrachtet, sondern nur in Bezug darauf, wie sie sich auf andere Funktionen auswirkt, wenn sie gegen diese "integriert" wird. Um die Deltafunktion richtig zu definieren, genügt es, zu sagen, was das "Integral" der Deltafunktion gegen eine hinreichend "gute" Testfunktion φ ist, die auch als Bump-Funktion bezeichnet wird. Wenn die Deltafunktion bereits als Maß verstanden wird, dann liefert das Lebesgue-Integral einer Testfunktion gegen dieses Maß das notwendige Integral.

Ein typischer Raum von Testfunktionen besteht aus allen glatten Funktionen auf R mit kompakter Unterstützung, die so viele Ableitungen wie nötig haben. Als Verteilung ist das Dirac-Delta ein lineares Funktional auf dem Raum der Testfunktionen und ist definiert durch

 

 

 

 

(1)

für jede Testfunktion .

Damit δ eine richtige Verteilung ist, muss sie in einer geeigneten Topologie auf dem Raum der Testfunktionen stetig sein. Damit eine lineare Funktion S auf dem Raum der Testfunktionen eine Verteilung definiert, ist es im Allgemeinen notwendig und ausreichend, dass es für jede positive ganze Zahl N eine ganze Zahl MN und eine Konstante CN gibt, so dass für jede Testfunktion φ die Ungleichung gilt

Bei der δ-Verteilung hat man eine solche Ungleichung (mit CN = 1) mit MN = 0 für alle N. Somit ist δ eine Verteilung der Ordnung Null. Sie ist außerdem eine Verteilung mit kompakter Unterstützung (die Unterstützung ist {0}).

Die Delta-Verteilung kann auch auf mehrere gleichwertige Arten definiert werden. Zum Beispiel ist sie die verteilungsmäßige Ableitung der Heaviside-Stufenfunktion. Das bedeutet, dass für jede Testfunktion φ gilt

Intuitiv, wenn die Integration durch Teile erlaubt wäre, dann müsste sich das letztgenannte Integral vereinfachen zu

und tatsächlich ist eine Form der Integration durch Teile für das Stieltjes-Integral erlaubt, und in diesem Fall hat man

Im Rahmen der Maßtheorie führt das Dirac-Maß zu einer Verteilung durch Integration. Umgekehrt definiert Gleichung (1) ein Daniell-Integral auf dem Raum aller kompakt unterstützten stetigen Funktionen φ, das durch den Riesz-Darstellungssatz als das Lebesgue-Integral von φ über ein Radon-Maß dargestellt werden kann.

Im Allgemeinen wird der Begriff "Dirac-Deltafunktion" im Sinne von Verteilungen und nicht von Maßen verwendet, wobei das Dirac-Maß einer von mehreren Begriffen für den entsprechenden Begriff in der Maßtheorie ist. In einigen Quellen wird auch der Begriff Dirac-Delta-Verteilung verwendet.

Verallgemeinerungen

Die Deltafunktion kann im n-dimensionalen euklidischen Raum Rn als das Maß definiert werden, für das gilt

für jede kompakt unterstützte stetige Funktion f. Als Maß ist die n-dimensionale Deltafunktion das Produktmaß der 1-dimensionalen Deltafunktionen in jeder Variablen einzeln. Formal hat man also für x = (x1, x2, ..., xn)

 

 

 

 

(2)

Die Deltafunktion kann auch im Sinne von Verteilungen genau wie oben im eindimensionalen Fall definiert werden. Trotz der weit verbreiteten Verwendung in technischen Zusammenhängen sollte (2) jedoch mit Vorsicht behandelt werden, da das Produkt von Verteilungen nur unter recht engen Bedingungen definiert werden kann.

Der Begriff des Dirac-Maßes ist für jede Menge sinnvoll. Wenn also X eine Menge ist, x0X ein markierter Punkt ist und Σ eine beliebige Sigma-Algebra von Teilmengen von X ist, dann ist das Maß, das auf den Mengen A ∈ Σ durch

definiert ist, das Deltamaß oder die auf x0 konzentrierte Einheitsmasse.

Eine weitere gängige Verallgemeinerung der Deltafunktion ist die auf eine differenzierbare Mannigfaltigkeit, wo die meisten ihrer Eigenschaften als Verteilung aufgrund der differenzierbaren Struktur ebenfalls genutzt werden können. Die Deltafunktion auf einer Mannigfaltigkeit M, die im Punkt x0M zentriert ist, ist als die folgende Verteilung definiert:

 

 

 

 

(3)

für alle kompakten glatten reellwertigen Funktionen φ auf M. Ein üblicher Spezialfall dieser Konstruktion ist der, bei dem M eine offene Menge im euklidischen Raum Rn ist.

Auf einem lokal kompakten Hausdorff-Raum X ist das Dirac-Delta-Maß, das auf einen Punkt x konzentriert ist, das Radon-Maß, das mit dem Daniell-Integral (3) auf kompakt unterstützten stetigen Funktionen φ assoziiert ist. Auf dieser Ebene der Allgemeinheit ist die Infinitesimalrechnung als solche nicht mehr möglich, es stehen jedoch eine Reihe von Techniken aus der abstrakten Analysis zur Verfügung. Zum Beispiel ist die Abbildung eine kontinuierliche Einbettung von X in den Raum der endlichen Radon-Maße auf X, ausgestattet mit ihrer vagen Topologie. Außerdem ist die konvexe Hülle des Bildes von X unter dieser Einbettung dicht im Raum der Wahrscheinlichkeitsmaße auf X.

Eigenschaften

  • Definierende Eigenschaft der Delta-Distribution: Faltungseigenschaft, auch Ausblendeigenschaft, Siebeigenschaft genannt
bzw. mit den Eigenschaften Translation und Skalierung (siehe unten) folgt:
speziell für den Fall der konstanten Funktion 1:
  • Linearität:
  • Translation:
für ist auch die Bezeichnung gebräuchlich.
  • Skalierung:
und
das heißt die Delta-Distribution ist positiv homogen vom Grad −1.
  • Dimension
Eine direkte Folgerung aus der Skalierungseigenschaft ist die Dimension bzw. Maßeinheit der Delta-Distribution. Sie entspricht genau der reziproken Dimension ihres Arguments. Hat beispielsweise die Dimension einer Länge, so hat die Dimension (1/Länge).
  • Hintereinanderausführung:
wobei die einfachen Nullstellen von sind (sofern nur endlich viele und nur einfache Nullstellen hat). Damit folgt als ein Spezialfall die Rechenregel

Skalierung und Symmetrie

Die Deltafunktion erfüllt die folgende Skalierungseigenschaft für einen von Null verschiedenen Skalar α:

Und so

 

 

 

 

(4)

Beweis:

Insbesondere ist die Deltafunktion eine gerade Verteilung, in dem Sinne, dass

die homogen vom Grad -1 ist.

Algebraische Eigenschaften

Das Verteilungsprodukt von δ mit x ist gleich Null:

Umgekehrt, wenn xf(x) = xg(x), wobei f und g Verteilungen sind, dann

für eine Konstante c.

Übersetzung

Das Integral des zeitverzögerten Dirac-Deltas ist

Dies wird manchmal auch als Siebeigenschaft oder Sampling-Eigenschaft bezeichnet. Man sagt, dass die Deltafunktion den Wert bei t = T "heraussiebt".

Daraus folgt, dass die Wirkung der Faltung einer Funktion f(t) mit dem zeitverzögerten Dirac-Delta eine Zeitverzögerung von f(t) um den gleichen Betrag bewirkt:

Dies gilt unter der genauen Bedingung, dass f eine temperierte Verteilung ist (siehe die Diskussion der Fourier-Transformation weiter unten). Als Spezialfall haben wir zum Beispiel die Identität (verstanden im Sinne der Verteilung)

Komposition mit einer Funktion

Ganz allgemein kann die Delta-Verteilung mit einer glatten Funktion g(x) so zusammengesetzt werden, dass die bekannte Formel für den Variablenwechsel gilt, nämlich

vorausgesetzt, g ist eine stetig differenzierbare Funktion mit g′ nirgendwo Null. Das heißt, es gibt eine eindeutige Möglichkeit, der Verteilung eine Bedeutung zuzuweisen so dass diese Identität für alle kompakt unterstützten Testfunktionen f gilt. Daher muss der Bereich aufgebrochen werden, um den Punkt g′ = 0 auszuschließen. Diese Verteilung erfüllt δ(g(x)) = 0, wenn g nirgendwo Null ist, und andernfalls, wenn g eine reelle Wurzel bei x0 hat, dann

Es ist daher natürlich, die Zusammensetzung δ(g(x)) für kontinuierlich differenzierbare Funktionen g zu definieren durch

wobei sich die Summe über alle Wurzeln (d.h. alle verschiedenen) von g(x) erstreckt, die als einfach angenommen werden. Also zum Beispiel

In der Integralform kann die verallgemeinerte Skalierungseigenschaft geschrieben werden als

Eigenschaften in n Dimensionen

Die Delta-Verteilung in einem n-dimensionalen Raum erfüllt stattdessen die folgende Skalierungseigenschaft,

so dass δ eine homogene Verteilung vom Grad -n ist.

Unter jeder Spiegelung oder Drehung ρ ist die Deltafunktion invariant,

Wie im einvariablen Fall ist es möglich, die Zusammensetzung von δ mit einer Bi-Lipschitz-Funktion g: Rn → Rn eindeutig zu definieren, so dass die Identität

für alle kompakt unterstützten Funktionen f.

Mit Hilfe der Coarea-Formel aus der geometrischen Maßtheorie kann man auch die Komposition der Deltafunktion mit einer Submersion von einem euklidischen Raum in einen anderen mit anderer Dimension definieren; das Ergebnis ist eine Art von Strom. Im Spezialfall einer kontinuierlich differenzierbaren Funktion g : Rn → R, so dass der Gradient von g nirgendwo Null ist, gilt die folgende Identität

wobei das Integral auf der rechten Seite über g-1(0) gilt, der (n - 1)-dimensionalen Fläche, die durch g(x) = 0 in Bezug auf das Minkowski-Inhaltsmaß definiert ist. Dies wird als einfaches Schichtintegral bezeichnet.

Allgemeiner ausgedrückt: Wenn S eine glatte Hypersurface von Rn ist, dann können wir S die Verteilung zuordnen, die jede kompakt unterstützte glatte Funktion g über S integriert:

Dabei ist σ das zu S gehörende Hypersurface-Maß. Diese Verallgemeinerung steht im Zusammenhang mit der Potentialtheorie der einfachen Schichtpotentiale auf S. Wenn D ein Gebiet in Rn mit glattem Rand S ist, dann ist δS gleich der normalen Ableitung der Indikatorfunktion von D im Verteilungssinn,

wobei n die äußere Normale ist. Für einen Beweis siehe z.B. den Artikel über die Oberflächen-Deltafunktion.

Ableitungen

Ableitung der Delta-Distribution

Die Delta-Distribution kann wie jede Distribution beliebig oft distributiv differenziert werden:

Dies gilt auch für die -te distributive Ableitung:

Fourier-Laplace-Transformation

Da die Delta-Distribution einen kompakten Träger hat, ist es möglich, die Fourier-Laplace-Transformation dieser zu bilden. Für diese gilt

Fourier-Transformation

Die Fourier-Laplace-Transformation ist ein Spezialfall der Fourier-Transformation und somit gilt auch

Es gibt auch die Konvention, den Faktor mit der Fourier-Transformation zu multiplizieren. In dem Fall ist ebenfalls das Ergebnis der Fourier-Transformation der Delta-Distribution. Anschaulich bedeutet das Resultat der Transformation, dass in der Delta-Distribution alle Frequenzen enthalten sind, und zwar mit gleicher Stärke. Die Darstellung (beziehungsweise bei der anderen Konvention für den Vorfaktor) ist eine in der Physik wichtige Darstellung der Delta-Distribution.

Laplace-Transformation

Die Laplace-Transformation der Delta-Distribution erhält man als Spezialfall der Fourier-Laplace-Transformation. Es gilt nämlich auch hier

Im Gegensatz zur Fourier-Transformation gibt es hier keine anderen Konventionen.

Transformation der verschobenen Delta-Distribution

Es ist ebenfalls möglich die Fourier-Transformation beziehungsweise die Laplace-Transformation für die um verschobene Delta-Distribution zu berechnen. Es gilt

Fourier-Transformation

Die Deltafunktion ist eine temperierte Verteilung und hat daher eine wohldefinierte Fouriertransformation. Formal findet man

Genau genommen ist die Fourier-Transformierte einer Verteilung definiert, indem man die Selbstadjungiertheit der Fourier-Transformierten unter der Dualitätspaarung von temperierten Verteilungen mit Schwartz-Funktionen. Somit ist als die einzige temperierte Verteilung definiert, die folgende Bedingungen erfüllt

für alle Schwartz-Funktionen . Und in der Tat folgt hieraus, dass

Aus dieser Identität folgt, dass die Faltung der Deltafunktion mit jeder anderen temperierten Verteilung S einfach S ist:

Das heißt, dass δ ein Identitätselement für die Faltung auf temperierten Verteilungen ist, und tatsächlich ist der Raum der kompakt unterstützten Verteilungen unter Faltung eine assoziative Algebra mit der Identität der Deltafunktion. Diese Eigenschaft ist in der Signalverarbeitung von grundlegender Bedeutung, da die Faltung mit einer temperierten Verteilung ein lineares zeitinvariantes System darstellt, und die Anwendung des linearen zeitinvarianten Systems misst seine Impulsantwort. Die Impulsantwort kann mit einem beliebigen Genauigkeitsgrad berechnet werden, indem eine geeignete Näherung für δ gewählt wird. Siehe LTI-Systemtheorie § Impulsantwort und Faltung.

Die inverse Fourier-Transformation der temperierten Verteilung f(ξ) = 1 ist die Deltafunktion. Formal wird sie wie folgt ausgedrückt

und strenger ausgedrückt folgt daraus, dass

für alle Schwartz-Funktionen f.

In diesen Begriffen liefert die Deltafunktion eine suggestive Aussage über die Orthogonalitätseigenschaft des Fourier-Kerns auf R. Formal hat man

Dies ist natürlich eine Kurzform für die Behauptung, dass die Fourier-Transformierte der temperierten Verteilung

ist.

was wiederum aus der Selbstadjungiertheit der Fouriertransformation folgt.

Durch analytische Fortsetzung der Fourier-Transformierten ergibt sich die Laplace-Transformierte der Deltafunktion wie folgt

Ableitungen der Dirac-Deltafunktion

Die Ableitung der Dirac-Delta-Verteilung, bezeichnet mit und auch als Dirac-Delta-Primzahl oder Dirac-Delta-Ableitung bezeichnet, wie in Laplacian des Indikators beschrieben, ist für kompakt unterstützte glatte Testfunktionen definiert durch definiert.

Die erste Gleichung hier ist eine Art Integration durch Teile, denn wenn eine wahre Funktion wäre, dann

Die -te Ableitung von ist in ähnlicher Weise definiert wie die Verteilung, die für Testfunktionen durch

Insbesondere ist ist eine unendlich differenzierbare Verteilung.

Die erste Ableitung der Deltafunktion ist der Verteilungsgrenzwert des Differenzenquotienten:

Genauer gesagt, man hat

wobei der Translationsoperator ist, definiert auf Funktionen durch definiert ist, und auf einer Verteilung durch definiert.

In der Theorie des Elektromagnetismus stellt die erste Ableitung der Deltafunktion einen punktförmigen magnetischen Dipol dar, der sich im Ursprung befindet. Sie wird daher auch als Dipol oder Dublettfunktion bezeichnet.

Die Ableitung der Deltafunktion erfüllt eine Reihe von grundlegenden Eigenschaften, darunter:

Die Ableitung der Deltafunktion erfüllt eine Reihe grundlegender Eigenschaften, die durch Anwendung einer Testfunktion und Integration durch Teile gezeigt werden können.

Die letztgenannte Eigenschaft kann auch durch Anwendung der Definition der Verteilungsableitung, des Liebnitzschen Satzes und der Linearität des inneren Produkts nachgewiesen werden:

Außerdem ist die Faltung von mit einer kompakt gestützten, glatten Funktion ist.

was aus den Eigenschaften der Verteilungsableitung einer Faltung folgt.

Höhere Dimensionen

Allgemeiner ausgedrückt, auf einer offenen Menge im -dimensionalen euklidischen Raum ist die Dirac-Delta-Verteilung mit dem Zentrum in einem Punkt ist definiert durch

für alle den Raum aller glatten Funktionen mit kompakter Unterstützung auf . Wenn ist ein beliebiger Multi-Index mit und den zugehörigen Operator der gemischten partiellen Ableitung bezeichnet, dann ist die -te Ableitung von gegeben durch

Das heißt, die -te Ableitung von ist die Verteilung, deren Wert für jede Testfunktion ist die -te Ableitung von bei (mit dem entsprechenden positiven oder negativen Vorzeichen).

Die ersten partiellen Ableitungen der Deltafunktion werden als Doppelschichten entlang der Koordinatenebenen betrachtet. Allgemeiner ausgedrückt: Die normale Ableitung einer einfachen Schicht, die auf einer Oberfläche aufliegt, ist eine Doppelschicht, die auf dieser Oberfläche aufliegt und einen laminaren magnetischen Monopol darstellt. Höhere Ableitungen der Deltafunktion sind in der Physik als Multipole bekannt.

Höhere Ableitungen kommen in der Mathematik natürlich als Bausteine für die vollständige Struktur von Verteilungen mit Punktauflage vor. Wenn ist eine beliebige Verteilung auf unterstützt auf der Menge die aus einem einzigen Punkt besteht, dann gibt es eine ganze Zahl und Koeffizienten so dass

Darstellungen der Deltafunktion

Die Deltafunktion kann als der Grenzwert einer Folge von Funktionen betrachtet werden

wobei ηε(x) manchmal als entstehende Deltafunktion bezeichnet wird. Dieser Grenzwert ist in einem schwachen Sinne zu verstehen: entweder, dass

 

 

 

 

(5)

für alle stetigen Funktionen f mit kompakter Unterstützung gilt, oder dass dieser Grenzwert für alle glatten Funktionen f mit kompakter Unterstützung gilt. Der Unterschied zwischen diesen beiden leicht unterschiedlichen Arten der schwachen Konvergenz ist oft subtil: Erstere ist Konvergenz im Sinne der vagen Topologie von Maßen, letztere ist Konvergenz im Sinne von Verteilungen.

Annäherungen an die Identität

Typischerweise kann eine naszierende Deltafunktion ηε auf folgende Weise konstruiert werden. Sei η eine absolut integrierbare Funktion auf R mit dem Gesamtintegral 1, und definiere

In n Dimensionen verwendet man stattdessen die Skalierung

Dann zeigt ein einfacher Variablenwechsel, dass ηε ebenfalls das Integral 1 hat. Man kann zeigen, dass (5) für alle stetigen, kompakt unterstützten Funktionen f gilt, und somit konvergiert ηε schwach gegen δ im Sinne der Maße.

Die auf diese Weise konstruierten ηε werden als Annäherung an die Identität bezeichnet. Diese Terminologie kommt daher, dass der Raum L1(R) der absolut integrierbaren Funktionen unter der Operation der Faltung von Funktionen geschlossen ist: f ∗ g ∈ L1(R), wenn f und g in L1(R) liegen. Es gibt jedoch keine Identität in L1(R) für das Faltungsprodukt: kein Element h, so dass f ∗ h = f für alle f. Dennoch approximiert die Folge ηε eine solche Identität in dem Sinne, dass

Dieser Grenzwert gilt im Sinne der mittleren Konvergenz (Konvergenz in L1). Weitere Bedingungen für ηε, z. B. dass es sich um einen Mollifikator handelt, der mit einer kompakt unterstützten Funktion assoziiert ist, sind erforderlich, um die punktweise Konvergenz fast überall sicherzustellen.

Wenn die Anfangsfunktion η = η1 selbst glatt und kompakt unterstützt ist, wird die Folge als Mollifier bezeichnet. Den Standard-Mollifier erhält man, indem man η als eine geeignet normalisierte Höckerfunktion wählt, z. B.

In manchen Situationen, z. B. in der numerischen Analyse, ist eine stückweise lineare Annäherung an die Identität wünschenswert. Dies kann erreicht werden, indem man η1 als Hutfunktion wählt. Mit dieser Wahl von η1 erhält man

die alle stetig und kompakt unterstützt sind, obwohl sie nicht glatt sind und somit kein Mollifikator.

Probabilistische Überlegungen

Im Zusammenhang mit der Wahrscheinlichkeitstheorie ist es naheliegend, die zusätzliche Bedingung aufzustellen, dass die anfängliche η1 in einer Annäherung an die Identität positiv sein sollte, da eine solche Funktion dann eine Wahrscheinlichkeitsverteilung darstellt. Die Faltung mit einer Wahrscheinlichkeitsverteilung ist manchmal vorteilhaft, weil sie nicht zu Über- oder Unterschreitungen führt, da die Ausgabe eine konvexe Kombination der Eingabewerte ist und somit zwischen dem Maximum und dem Minimum der Eingabefunktion liegt. Nimmt man η1 als eine beliebige Wahrscheinlichkeitsverteilung an und lässt ηε(x) = η1(x/ε)/ε gelten, so erhält man eine Annäherung an die Identität. Im Allgemeinen konvergiert diese schneller zu einer Deltafunktion, wenn η zusätzlich den Mittelwert 0 und kleine höhere Momente hat. Wenn η1 zum Beispiel die Gleichverteilung auf [-1/2, 1/2] ist, die auch als Rechteckfunktion bekannt ist, dann:

Ein weiteres Beispiel ist die Wigner-Halbkreisverteilung

Diese ist kontinuierlich und kompakt unterstützt, aber kein Mollifikator, weil sie nicht glatt ist.

Halbgruppen

Naszierende Deltafunktionen treten oft als Faltungshalbgruppen auf. Dies läuft auf die weitere Bedingung hinaus, dass die Faltung von ηε mit ηδ Folgendes erfüllen muss

für alle ε, δ > 0. Faltungshalbgruppen in L1, die eine naszierende Deltafunktion bilden, sind immer eine Annäherung an die Identität im obigen Sinne, aber die Halbgruppenbedingung ist eine ziemlich starke Einschränkung.

In der Praxis treten Halbgruppen, die die Deltafunktion approximieren, als fundamentale Lösungen oder Green'sche Funktionen für physikalisch motivierte elliptische oder parabolische partielle Differentialgleichungen auf. Im Kontext der angewandten Mathematik treten Halbgruppen als Ausgang eines linearen zeitinvarianten Systems auf. Abstrakt ausgedrückt: Wenn A ein linearer Operator ist, der auf Funktionen von x wirkt, dann ergibt sich eine Faltungshalbgruppe durch die Lösung des Anfangswertproblems

wobei der Grenzwert wie üblich im schwachen Sinne zu verstehen ist. Setzt man ηε(x) = η(ε, x), so erhält man die zugehörige naszierende Deltafunktion.

Einige Beispiele für physikalisch wichtige Faltungshalbgruppen, die sich aus einer solchen fundamentalen Lösung ergeben, sind die folgenden.

Der Wärmekern

Der Wärmekern, definiert durch

definiert ist, stellt die Temperatur in einem unendlichen Draht zum Zeitpunkt t > 0 dar, wenn zum Zeitpunkt t = 0 eine Einheit Wärmeenergie am Ursprung des Drahtes gespeichert ist. Diese Halbgruppe entwickelt sich gemäß der eindimensionalen Wärmegleichung:

In der Wahrscheinlichkeitstheorie ist ηε(x) eine Normalverteilung mit der Varianz ε und dem Mittelwert 0. Sie stellt die Wahrscheinlichkeitsdichte der Position eines Teilchens zum Zeitpunkt t = ε dar, das vom Ursprung ausgeht und einer standardmäßigen Brownschen Bewegung folgt. In diesem Zusammenhang ist die Halbgruppenbedingung dann ein Ausdruck der Markov-Eigenschaft der Brownschen Bewegung.

Im höherdimensionalen euklidischen Raum Rn ist der Wärmekern

und hat mutatis mutandis die gleiche physikalische Interpretation. Er stellt auch eine entstehende Deltafunktion in dem Sinne dar, dass ηεδ im Verteilungssinn als ε → 0.

Der Poisson-Kern

Der Poisson-Kernel

ist die fundamentale Lösung der Laplace-Gleichung in der oberen Halbebene. Er stellt das elektrostatische Potenzial in einer halbunendlichen Platte dar, deren Potenzial entlang des Randes durch die Deltafunktion fixiert wird. Der Poisson-Kern ist auch eng mit der Cauchy-Verteilung und den Epanechnikov- und Gauß-Kernfunktionen verwandt. Diese Halbgruppe entwickelt sich gemäß der Gleichung

wobei der Operator streng genommen als Fourier-Multiplikator definiert ist

Oszillatorische Integrale

In Bereichen der Physik wie der Wellenausbreitung und der Wellenmechanik sind die betreffenden Gleichungen hyperbolisch und können daher mehr singuläre Lösungen aufweisen. Daher sind die entstehenden Deltafunktionen, die als fundamentale Lösungen der zugehörigen Cauchy-Probleme auftreten, im Allgemeinen oszillierende Integrale. Ein Beispiel, das aus einer Lösung der Euler-Tricomi-Gleichung der transsonischen Gasdynamik stammt, ist die umskalierte Airy-Funktion

Obwohl die Fourier-Transformation verwendet wird, ist es leicht zu erkennen, dass diese Funktion in gewissem Sinne eine Halbgruppe erzeugt - sie ist nicht absolut integrierbar und kann daher keine Halbgruppe im oben genannten starken Sinne definieren. Viele entstehende Delta-Funktionen, die als oszillierende Integrale konstruiert sind, konvergieren nur im Sinne von Verteilungen (ein Beispiel ist der Dirichlet-Kernel unten) und nicht im Sinne von Maßen.

Ein weiteres Beispiel ist das Cauchy-Problem für die Wellengleichung in R1+1:

Die Lösung u stellt die Verschiebung einer unendlichen elastischen Saite aus dem Gleichgewicht dar, mit einer anfänglichen Störung im Ursprung.

Andere Annäherungen an die Identität dieser Art sind die sinc-Funktion (die in der Elektronik und Telekommunikation weit verbreitet ist)

und die Bessel-Funktion

Zerlegung von ebenen Wellen

Ein Ansatz zur Untersuchung einer linearen partiellen Differentialgleichung

in der L ein Differentialoperator auf Rn ist, besteht darin, zunächst eine Fundamentallösung zu suchen, d. h. eine Lösung der Gleichung

Wenn L besonders einfach ist, kann dieses Problem oft direkt mit Hilfe der Fourier-Transformation gelöst werden (wie im Fall des bereits erwähnten Poisson-Kerns und des Wärmekerns). Bei komplizierteren Operatoren ist es manchmal einfacher, zunächst eine Gleichung der Form

wobei h eine ebene Wellenfunktion ist, d. h. sie hat die Form

für einen Vektor ξ. Eine solche Gleichung kann (wenn die Koeffizienten von L analytische Funktionen sind) durch das Cauchy-Kovalevskaya-Theorem oder (wenn die Koeffizienten von L konstant sind) durch Quadratur aufgelöst werden. Wenn also die Deltafunktion in ebene Wellen zerlegt werden kann, dann kann man im Prinzip lineare partielle Differentialgleichungen lösen.

Eine solche Zerlegung der Deltafunktion in ebene Wellen war Teil einer allgemeinen Technik, die im Wesentlichen von Johann Radon eingeführt und dann in dieser Form von Fritz John (1955) weiterentwickelt wurde. Wählen Sie k so, dass n + k eine gerade ganze Zahl ist, und setzen Sie für eine reelle Zahl s

Dann erhält man δ durch Anwendung einer Potenz des Laplacian auf das Integral von g(x - ξ) für ξ in der Einheitskugel Sn-1 in Bezug auf das Einheitsmaß dω:

Der Laplacian wird hier als schwache Ableitung interpretiert, so dass diese Gleichung bedeutet, dass für jede Testfunktion φ,

Das Ergebnis ergibt sich aus der Formel für das Newtonsche Potential (die fundamentale Lösung der Poissonschen Gleichung). Dies ist im Wesentlichen eine Form der Inversionsformel für die Radon-Transformation, da sie den Wert von φ(x) aus seinen Integralen über Hyperebenen wiederherstellt. Wenn zum Beispiel n ungerade ist und k = 1, dann lautet das Integral auf der rechten Seite

wobei (ξ, p) die Radontransformation von φ ist:

Ein alternativer äquivalenter Ausdruck der ebenen Wellenzerlegung, aus Gelfand & Shilov (1966-1968, I, §3.10), ist

für n gerade, und

für n ungerade.

Fourier-Kerne

Bei der Untersuchung von Fourier-Reihen besteht eine wichtige Frage darin, ob und in welchem Sinne die mit einer periodischen Funktion verbundene Fourier-Reihe gegen die Funktion konvergiert. Die n-te Partialsumme der Fourier-Reihe einer Funktion f mit der Periode 2π ist durch Faltung (im Intervall [-π,π]) mit dem Dirichlet-Kernel definiert:

Daraus folgt,

wobei

Ein grundlegendes Ergebnis der elementaren Fourier-Reihen besagt, dass der Dirichlet-Kernel zu einem Vielfachen der Deltafunktion tendiert, wenn N → ∞. Dies wird im Sinne der Verteilung so interpretiert, dass

für jede kompakt unterstützte glatte Funktion f. Formal hat man also

auf dem Intervall [-π,π].

Trotzdem gilt das Ergebnis nicht für alle kompakt gestützten stetigen Funktionen, d.h. DN konvergiert nicht schwach im Sinne der Maße. Die mangelnde Konvergenz der Fourier-Reihen hat zur Einführung einer Reihe von Summierbarkeitsmethoden geführt, um Konvergenz zu erreichen. Die Methode der Cesàro-Summation führt zum Fejér-Kernel

Die Fejér-Kerne tendieren zur Deltafunktion in einem stärkeren Sinne, nämlich

für jede kompakt unterstützte kontinuierliche Funktion f. Daraus folgt, dass die Fourier-Reihe jeder kontinuierlichen Funktion in jedem Punkt zum Wert der Funktion Cesàro-summierbar ist.

Hilbert-Raum-Theorie

Die Dirac-Delta-Verteilung ist ein dicht definiertes unbeschränktes lineares Funktional auf dem Hilbert-Raum L2 der quadratisch-integrablen Funktionen. In der Tat sind glatte, kompakt unterstützte Funktionen dicht in L2, und die Wirkung der Delta-Verteilung auf solche Funktionen ist wohldefiniert. In vielen Anwendungen ist es möglich, Unterräume von L2 zu identifizieren und eine stärkere Topologie anzugeben, auf der die Delta-Funktion ein beschränktes lineares Funktional definiert.

Sobolev-Räume

Der Sobolev-Einbettungssatz für Sobolev-Räume auf der reellen Geraden R besagt, dass jede quadratisch integrierbare Funktion f, für die gilt

automatisch stetig ist und insbesondere folgende Bedingungen erfüllt

Somit ist δ ein beschränktes lineares Funktional auf dem Sobolev-Raum H1. Äquivalent dazu ist δ ein Element des kontinuierlichen Dualraums H-1 von H1. Allgemeiner, in n Dimensionen, hat man δH-s(Rn) vorausgesetzt s > n / 2.

Räume der holomorphen Funktionen

In der komplexen Analysis kommt die Deltafunktion über die Cauchysche Integralformel ins Spiel, die besagt, dass, wenn D ein Gebiet in der komplexen Ebene mit glattem Rand ist, dann

für alle holomorphen Funktionen f in D, die auf dem Abschluss von D stetig sind. Folglich wird die Deltafunktion δz in dieser Klasse holomorpher Funktionen durch das Cauchy-Integral dargestellt:

Außerdem sei H2(∂D) der Hardy-Raum, der aus der Schließung in L2(∂D) aller holomorphen Funktionen in D besteht, die bis zum Rand von D stetig sind. Dann dehnen sich Funktionen in H2(∂D) eindeutig zu holomorphen Funktionen in D aus, und die Cauchy-Integralformel gilt weiterhin. Insbesondere für z ∈ D ist die Deltafunktion δz eine stetige lineare Funktion auf H2(∂D). Dies ist ein Spezialfall der Situation in mehreren komplexen Variablen, in der für glatte Gebiete D der Szegő-Kernel die Rolle des Cauchy-Integrals spielt.

Auflösungen der Identität

Bei einer vollständigen orthonormalen Basismenge von Funktionen {φn} in einem separablen Hilbert-Raum, zum Beispiel den normalisierten Eigenvektoren eines kompakten selbstadjungierten Operators, kann jeder Vektor f ausgedrückt werden als

Die Koeffizienten {αn} werden gefunden als

was durch die Notation dargestellt werden kann:

eine Form der Bra-Ket-Notation von Dirac. Mit dieser Notation nimmt die Entwicklung von f die dyadische Form an:

Wenn I den Identitätsoperator im Hilbert-Raum bezeichnet, wird der Ausdruck

als eine Auflösung der Identität bezeichnet. Wenn der Hilbert-Raum der Raum L2(D) der quadratisch-integrablen Funktionen auf einer Domäne D ist, ist die Menge:

ist ein Integraloperator, und der Ausdruck für f kann wie folgt umgeschrieben werden

Die rechte Seite konvergiert zu f im Sinne von L2. Sie muss nicht punktweise gelten, selbst wenn f eine stetige Funktion ist. Dennoch ist es üblich, die Notation zu missbrauchen und zu schreiben

zu schreiben, was zur Darstellung der Deltafunktion führt:

Mit einem geeigneten starren Hilbert-Raum (Φ, L2(D), Φ*), in dem Φ ⊂ L2(D) alle kompakt unterstützten glatten Funktionen enthält, kann diese Summation in Φ* konvergieren, abhängig von den Eigenschaften der Basis φn. In den meisten Fällen, die von praktischem Interesse sind, stammt die orthonormale Basis von einem Integral- oder Differentialoperator; in diesem Fall konvergiert die Reihe im Sinne der Verteilung.

Infinitesimal-Delta-Funktionen

Cauchy benutzte ein Infinitesimal α, um eine unendlich hohe und schmale Dirac-Deltafunktion δα mit einem Einheitsimpuls aufzuschreiben, die in einer Reihe von Artikeln im Jahr 1827. Cauchy definierte in Cours d'Analyse (1827) ein Infinitesimal im Sinne einer gegen Null tendierenden Folge. Eine solche Nullfolge wird nämlich in der Terminologie von Cauchy und Lazare Carnot zu einem Infinitesimal.

Die Nicht-Standard-Analyse ermöglicht eine rigorose Behandlung von Infinitesimalen. Der Artikel von Yamashita (2007) enthält eine Bibliographie über moderne Dirac-Delta-Funktionen im Zusammenhang mit einem infinitesimal angereicherten Kontinuum, das durch die Hyperrealen bereitgestellt wird. Hier kann das Dirac-Delta durch eine tatsächliche Funktion gegeben sein, die die Eigenschaft hat, dass für jede reelle Funktion F gilt wie von Fourier und Cauchy vorausgesehen.

Dirac-Kamm

Ein Dirac-Kamm ist eine unendliche Reihe von Dirac-Delta-Funktionen, die in Abständen von T

Ein so genannter gleichmäßiger "Impulszug" von Dirac-Delta-Maßen, der als Dirac-Kamm oder als Shah-Verteilung bekannt ist, erzeugt eine Abtastfunktion, die häufig in der digitalen Signalverarbeitung (DSP) und der diskreten Zeitsignalanalyse verwendet wird. Der Dirac-Kamm ist als unendliche Summe gegeben, deren Grenze im Sinne der Verteilung verstanden wird,

die eine Folge von Punktmassen bei jeder der ganzen Zahlen ist.

Bis zu einer allgemeinen Normalisierungskonstante ist der Dirac-Kamm gleich seiner eigenen Fourier-Transformation. Dies ist von Bedeutung, denn wenn eine beliebige Schwartz-Funktion ist, dann ist die Periodisierung von durch die Faltung gegeben ist

Insbesondere ist

ist genau die Poisson-Summenformel. Allgemeiner ausgedrückt, bleibt diese Formel wahr, wenn eine temperierte Verteilung mit schnellem Abstieg ist oder, äquivalent dazu, wenn eine langsam wachsende, gewöhnliche Funktion im Raum der temperierten Verteilungen ist.

Sokhotski-Plemelj-Theorem

Das Sokhotski-Plemelj-Theorem, das in der Quantenmechanik von Bedeutung ist, setzt die Deltafunktion in Beziehung zur Verteilung p.v. 1/x, dem Cauchy-Hauptwert der Funktion 1/x, definiert durch

Die Formel von Sokhotsky besagt, dass

Hier ist der Grenzwert im Sinne der Verteilung zu verstehen, d. h. für alle kompakten, glatten Funktionen f,

Beziehung zum Kronecker-Delta

Das Kronecker-Delta δij ist die Größe, die durch

für alle ganzen Zahlen i, j. Diese Funktion erfüllt dann das folgende Analogon der Sichtereigenschaft: Wenn eine beliebige zweifach unendliche Folge ist, dann

In ähnlicher Weise erfüllt das Dirac-Delta für jede reelle oder komplexwertige stetige Funktion f auf R die Sichtereigenschaft

Dies zeigt, dass die Kronecker-Delta-Funktion ein diskretes Analogon der Dirac-Delta-Funktion ist.

Anwendungen

Wahrscheinlichkeitsrechnung

In der Wahrscheinlichkeitstheorie und der Statistik wird die Dirac-Delta-Funktion häufig verwendet, um eine diskrete Verteilung oder eine teilweise diskrete, teilweise kontinuierliche Verteilung mit Hilfe einer Wahrscheinlichkeitsdichtefunktion (die normalerweise zur Darstellung absolut kontinuierlicher Verteilungen verwendet wird) darzustellen. Die Wahrscheinlichkeitsdichtefunktion f(x) einer diskreten Verteilung, die aus Punkten x = {x1, ..., xn} mit den entsprechenden Wahrscheinlichkeiten p1, ..., pn besteht, kann beispielsweise wie folgt geschrieben werden

Betrachten wir als weiteres Beispiel eine Verteilung, bei der 6/10 der Zeit eine Standardnormalverteilung und 4/10 der Zeit genau den Wert 3,5 ergibt (d. h. eine teils kontinuierliche, teils diskrete Mischverteilung). Die Dichtefunktion dieser Verteilung kann geschrieben werden als

Die Deltafunktion wird auch verwendet, um die resultierende Wahrscheinlichkeitsdichtefunktion einer Zufallsvariablen darzustellen, die durch eine kontinuierlich differenzierbare Funktion transformiert wird. Wenn Y = g(X) eine stetig differenzierbare Funktion ist, dann kann die Dichte von Y wie folgt geschrieben werden

Die Deltafunktion wird auch auf eine ganz andere Weise verwendet, um die lokale Zeit eines Diffusionsprozesses (wie die Brownsche Bewegung) darzustellen. Die lokale Zeit eines stochastischen Prozesses B(t) ist gegeben durch

und stellt die Zeit dar, die der Prozess an einem Punkt x im Bereich des Prozesses verbringt. Genauer gesagt, kann dieses Integral in einer Dimension wie folgt geschrieben werden

wobei 1[x-ε, x+ε] die Indikatorfunktion des Intervalls [x-ε, x+ε] ist.

Quantenmechanik

Die Deltafunktion ist in der Quantenmechanik von Nutzen. Die Wellenfunktion eines Teilchens gibt die Amplitudenwahrscheinlichkeit an, mit der ein Teilchen in einem bestimmten Bereich des Raums gefunden wird. Man nimmt an, dass Wellenfunktionen Elemente des Hilbert-Raums L2 von quadratisch-integrablen Funktionen sind, und die Gesamtwahrscheinlichkeit, ein Teilchen innerhalb eines bestimmten Intervalls zu finden, ist das Integral des Betrags der Wellenfunktion zum Quadrat über das Intervall. Eine Menge {} von Wellenfunktionen ist orthonormal, wenn sie normalisiert sind durch

wobei das Kronecker-Delta ist. Eine Menge von orthonormalen Wellenfunktionen ist vollständig im Raum der quadratisch-integrablen Funktionen, wenn jede Wellenfunktion sich als Linearkombination der {} mit komplexen Koeffizienten ausgedrückt werden kann:

mit . Vollständige orthonormale Systeme von Wellenfunktionen erscheinen natürlich als die Eigenfunktionen des Hamiltonian (eines gebundenen Systems) in der Quantenmechanik, der die Energieniveaus misst, die Eigenwerte genannt werden. Die Menge der Eigenwerte wird in diesem Fall als Spektrum der Hamiltonfunktion bezeichnet. In der Braket-Schreibweise, wie oben, impliziert diese Gleichheit die Auflösung der Identität:

Hier wird angenommen, dass die Eigenwerte diskret sind, aber die Menge der Eigenwerte einer Beobachtungsgröße kann auch kontinuierlich und nicht diskret sein. Ein Beispiel ist die Positionsmessgröße (x) = xψ(x). Das Spektrum der Position (in einer Dimension) ist die gesamte reelle Linie und wird als kontinuierliches Spektrum bezeichnet. Anders als der Hamilton-Operator hat der Positionsoperator jedoch keine Eigenfunktionen. Der herkömmliche Weg, diesen Mangel zu beheben, besteht darin, die Klasse der verfügbaren Funktionen zu erweitern, indem man auch Verteilungen zulässt, d. h. den Hilbert-Raum der Quantenmechanik durch einen geeigneten manipulierten Hilbert-Raum zu ersetzen. In diesem Zusammenhang verfügt der Positionsoperator über einen vollständigen Satz von Eigenverteilungen, die durch die Punkte y der reellen Linie gekennzeichnet sind und wie folgt lauten

Die Eigenfunktionen der Position werden mit in Dirac-Schreibweise bezeichnet und sind als Lageeigenzustände bekannt.

Ähnliche Überlegungen gelten für die Eigenzustände des Impulsoperators oder jedes anderen selbstadjunkten unbeschränkten Operators P im Hilbert-Raum, sofern das Spektrum von P stetig ist und es keine entarteten Eigenwerte gibt. In diesem Fall gibt es eine Menge Ω von reellen Zahlen (das Spektrum) und eine Sammlung φy von Verteilungen, die durch die Elemente von Ω indiziert sind, so dass

Das heißt, φy sind die Eigenvektoren von P. Wenn die Eigenvektoren so normalisiert werden, dass

im Sinne der Verteilung, dann gilt für jede Testfunktion ψ,

wobei

Das heißt, wie im diskreten Fall, gibt es eine Auflösung der Identität

wobei das Operator-bewertete Integral wieder im schwachen Sinne zu verstehen ist. Wenn das Spektrum von P sowohl kontinuierliche als auch diskrete Teile hat, dann beinhaltet die Auflösung der Identität eine Summation über das diskrete Spektrum und ein Integral über das kontinuierliche Spektrum.

Die Deltafunktion hat auch viele speziellere Anwendungen in der Quantenmechanik, wie z. B. die Deltapotentialmodelle für ein einfaches und ein doppeltes Potentialtopf.

Strukturelle Mechanik

Die Deltafunktion kann in der Strukturmechanik verwendet werden, um transiente Lasten oder Punktlasten zu beschreiben, die auf Strukturen wirken. Die Gleichung für ein einfaches Masse-Feder-System, das durch einen plötzlichen Kraftimpuls I zum Zeitpunkt t = 0 angeregt wird, kann wie folgt geschrieben werden

wobei m die Masse, ξ die Durchbiegung und k die Federkonstante ist.

Ein weiteres Beispiel: Die Gleichung für die statische Durchbiegung eines schlanken Balkens lautet nach der Euler-Bernoulli-Theorie,

wobei EI die Biegesteifigkeit des Trägers, w die Durchbiegung, x die Raumkoordinate und q(x) die Lastverteilung ist. Wird ein Balken durch eine Punktkraft F bei x = x0 belastet, wird die Lastverteilung wie folgt geschrieben

Da die Integration der Deltafunktion zur Heaviside-Stufenfunktion führt, folgt daraus, dass die statische Durchbiegung eines schlanken Trägers, der mehreren Punktlasten ausgesetzt ist, durch eine Reihe von stückweisen Polynomen beschrieben wird.

Auch ein auf einen Balken wirkendes Punktmoment kann durch Deltafunktionen beschrieben werden. Betrachten wir zwei entgegengesetzte Punktkräfte F im Abstand d. Sie erzeugen dann ein Moment M = Fd, das auf den Balken wirkt. Lassen Sie nun den Abstand d gegen den Grenzwert Null gehen, während M konstant gehalten wird. Die Lastverteilung unter der Annahme eines im Uhrzeigersinn wirkenden Moments bei x = 0 wird wie folgt beschrieben

Die Punktmomente können also durch die Ableitung der Deltafunktion dargestellt werden. Die Integration der Balkengleichung führt wiederum zu einer stückweisen polynomialen Durchbiegung.

Definition über Dirac-Maß

Das durch ein positives Radon-Maß erzeugte Funktional (für ) ist eine Distribution. Die Delta-Distribution wird von folgendem Radon-Maß – man spricht hier speziell vom Diracmaß – erzeugt:

wobei . Ein Maß lässt sich physikalisch interpretieren, z. B. als Massenverteilung oder Ladungsverteilung des Raums. Dann entspricht die Delta-Distribution einem Massenpunkt der Masse 1 oder einer Punktladung der Ladung 1 im Ursprung.

Befinden sich an den Stellen Punktladungen , wobei die Summe über alle Ladungen endlich bleibt, dann wird für ein Maß auf der -Algebra aller Teilmengen von definiert, das der Ladungsverteilung entspricht ( durchlaufe alle mit ):

Für dieses Maß ist dann die zugehörige Distribution:

Beispiele für Dirac-Folgen

Im Folgenden werden verschiedene Approximationen (Dirac-Folgen) angegeben, zunächst stetig differenzierbare:

Die angegebenen Funktionen besitzen ein sehr schmales und sehr hohes Maximum bei x=0, die Breite ist etwa und die Höhe etwa . Für alle ist der Flächeninhalt unter der Funktion 1.
  • Lorentzkurven
  • Fresnel-Darstellung
die man sich vorstellen kann als eine Linie, die auf einen Zylinder gewickelt ist, und deren Wicklungen durch das immer enger werden; die Grundfläche (in --Ausrichtung) des Zylinders wird aus dem Imaginär- und Realteil der Funktion gebildet, die Funktion entwickelt sich dann in -Richtung.

Es sind aber auch Approximationen möglich, die nur stückweise stetig differenzierbar sind:

  • Rechteckfunktion
  • Dreiecksfunktion
  • Exponentialfunktion um Ursprung abfallend

Weitere Beispiele

Approximation durch die Sincfunktion
  • Die Funktionenfolge der Sinc-Funktionen

ist keine Dirac-Folge, da ihre Folgenglieder auch negative Werte annehmen. Betrachtet man allerdings den Ausdruck
so konvergiert für alle diese Folge im distributionellen Sinn gegen die Delta-Distribution.

Praktische Anwendung

Praktische Bedeutung hat der Dirac-Stoß bei der Ermittlung der Impulsantwort in der Akustik (in anderen Sparten der Physik spricht man auch von einer -Größe, wenn man meint, dass die betreffende Größe einer schmalst-möglichen Verteilung genügt). So hat jeder Raum ein eigenes Schallverhalten. Mit einem Dirac-Impuls (angenähert durch ein Klatschen mit den Händen) kann dieses Verhalten (durch Messen des „Echos“, also der Systemantwort) ermittelt werden.

Typische, technisch realisierbare Dirac-Werte:

  • Hochspannungstechnik ca. 1–100 ns Halbwertsbreite
  • Hochfrequenztechnik ca. 10–100 ps Halbwertsbreite
  • Pulslasertechnik ca. 10–100 fs Halbwertsbreite

Eine wichtige Anwendung der Delta-Distribution ist die Lösung inhomogener linearer Differentialgleichungen mit der Methode der Greenschen Funktion.

Mehrdimensionale Delta-Distribution

Definition

Im Mehrdimensionalen ist der Raum der Testfunktionen gleich , der Raum der beliebig oft total differenzierbaren Funktionen .

Die Delta-Distribution hat auf die Testfunktion die folgende Wirkung:

In der informellen Integralschreibweise unter Verwendung von Translation und Skalierung:

.

Eigenschaften

Die „mehrdimensionale“ Delta-Distribution lässt sich als Produkt von „eindimensionalen“ Delta-Distributionen schreiben:

.

Speziell im Dreidimensionalen gibt es eine Darstellung der Delta-Distribution, die häufig in der Elektrodynamik eingesetzt wird, um Punktladungen darzustellen:

.

Delta-Distribution in krummlinigen Koordinatensystemen

In krummlinigen Koordinatensystemen muss die Funktionaldeterminante

berücksichtigt werden.

Der Ansatz

mit und führt dabei auf die Gleichung

, falls .

Daran lässt sich ablesen, dass gelten muss

.

In krummlinigen Koordinatensystem muss die Delta-Distribution also mit einem Vorfaktor versehen werden, der dem Kehrwert der Funktionaldeterminante entspricht.

Beispiele

In Kugelkoordinaten mit und gilt:

In Zylinderkoordinaten mit und gilt: