Poisson-Verteilung

Aus besserwiki.de
Poisson-Verteilung
Wahrscheinlichkeits-Masse-Funktion
Poisson pmf.svg
Die horizontale Achse ist der Index k, die Anzahl der Vorkommnisse. λ ist die erwartete Häufigkeit der Vorkommnisse. Die vertikale Achse ist die Wahrscheinlichkeit des Auftretens von k bei λ. Die Funktion ist nur für ganzzahlige Werte von k definiert; die Verbindungslinien sind nur Anhaltspunkte für das Auge.
Kumulative Verteilungsfunktion
Poisson cdf.svg
Die horizontale Achse ist der Index k, die Anzahl der Vorkommnisse. Die kumulative Verteilungsfunktion ist bei den ganzzahligen Werten von k unstetig und überall sonst flach, da eine Poisson-verteilte Variable nur ganzzahlige Werte annimmt.
Schreibweise
Parameter (Rate)
Unterstützung (Natürliche Zahlen, beginnend mit 0)
PMF
CDF

oder oder

(für , wobei die obere unvollständige Gammafunktion ist, die Floor-Funktion ist und Q die regularisierte Gamma-Funktion ist)
Mittelwert
Median
Modus
Varianz
Schiefe
Bsp. Kurtosis
Entropie

(für große )

MGF
CF
PGF
Fisher-Information

In der Wahrscheinlichkeitstheorie und Statistik ist die Poisson-Verteilung eine diskrete Wahrscheinlichkeitsverteilung, die die Wahrscheinlichkeit ausdrückt, dass eine bestimmte Anzahl von Ereignissen in einem festen Zeit- oder Raumintervall eintritt, wenn diese Ereignisse mit einer bekannten konstanten mittleren Rate und unabhängig von der Zeit seit dem letzten Ereignis auftreten. Sie ist nach dem französischen Mathematiker Siméon Denis Poisson (/ˈpwɑːsɒn/; französische Aussprache: [pwasɔ̃]) benannt. Die Poisson-Verteilung kann auch für die Anzahl der Ereignisse in anderen spezifizierten Intervalltypen wie Entfernung, Fläche oder Volumen verwendet werden.

Ein Beispiel: In einem Callcenter gehen durchschnittlich 180 Anrufe pro Stunde ein, und das 24 Stunden am Tag. Die Anrufe sind unabhängig voneinander; wenn ein Anruf eingeht, ändert sich nicht die Wahrscheinlichkeit, wann der nächste eingeht. Die Anzahl der Anrufe, die in einer Minute eingehen, hat eine Poisson-Wahrscheinlichkeitsverteilung mit einem Mittelwert von 3: Die wahrscheinlichsten Zahlen sind 2 und 3, aber auch 1 und 4 sind wahrscheinlich, und es besteht eine geringe Wahrscheinlichkeit, dass sie bei Null liegt, und eine sehr geringe Wahrscheinlichkeit, dass sie 10 beträgt. Ein weiteres Beispiel ist die Anzahl der Zerfallsereignisse, die von einer radioaktiven Quelle während eines bestimmten Beobachtungszeitraums ausgehen.

Wahrscheinlichkeitsfunktion der Poisson-Verteilung für die Erwartungswerte = 1, 5 und 9

Die Zuwächse eines Poisson-Prozesses sind Poisson-verteilte Zufallsvariablen. Erweiterungen der Poisson-Verteilung wie die verallgemeinerte Poisson-Verteilung und die gemischte Poisson-Verteilung werden vor allem im Bereich der Versicherungsmathematik angewendet.

Geschichte

Die Verteilung wurde erstmals von Siméon Denis Poisson (1781-1840) eingeführt und zusammen mit seiner Wahrscheinlichkeitstheorie in seinem Werk Recherches sur la probabilité des jugements en matière criminelle et en matière civile (1837) veröffentlicht. Das Werk stellte Theorien über die Anzahl der ungerechtfertigten Verurteilungen in einem bestimmten Land auf, indem es sich auf bestimmte Zufallsvariablen N konzentrierte, die unter anderem die Anzahl der diskreten Ereignisse (manchmal als "Ereignisse" oder "Ankünfte" bezeichnet) zählen, die während eines Zeitintervalls von bestimmter Länge stattfinden. Das Ergebnis wurde bereits 1711 von Abraham de Moivre in De Mensura Sortis seu; de Probabilitate Eventuum in Ludis a Casu Fortuito Pendentibus angegeben. Damit ist sie ein Beispiel für das Stiglersche Gesetz und hat einige Autoren zu der Auffassung veranlasst, dass die Poisson-Verteilung den Namen von de Moivre tragen sollte.

Im Jahr 1860 passte Simon Newcomb die Poisson-Verteilung an die Anzahl der Sterne in einer Raumeinheit an. Eine weitere praktische Anwendung dieser Verteilung erfolgte 1898 durch Ladislaus Bortkiewicz, als er die Anzahl der Soldaten in der preußischen Armee untersuchte, die versehentlich durch Pferdetritte getötet wurden; dieses Experiment führte die Poisson-Verteilung in den Bereich der Zuverlässigkeitstechnik ein.

Definitionen

Wahrscheinlichkeits-Masse-Funktion

Von einer diskreten Zufallsvariablen X spricht man, wenn sie eine Poisson-Verteilung mit dem Parameter Die Poisson-Verteilung ist eine Wahrscheinlichkeitsverteilung, wenn sie eine Wahrscheinlichkeitsmassenfunktion hat, die durch gegeben ist:

wobei

  • k die Anzahl der Vorkommnisse ist ()
  • e ist die Eulersche Zahl ()
  • ! die Faktorielle Funktion ist.

Die positive reelle Zahl λ ist gleich dem Erwartungswert von X und auch gleich seiner Varianz.

Die Poisson-Verteilung lässt sich auf Systeme mit einer großen Anzahl möglicher Ereignisse anwenden, von denen jedes einzelne selten ist. Die Anzahl solcher Ereignisse, die in einem bestimmten Zeitintervall auftreten, ist unter den richtigen Umständen eine Zufallszahl mit Poisson-Verteilung.

Die Gleichung kann angepasst werden, wenn anstelle der durchschnittlichen Anzahl von Ereignissen die durchschnittliche Rate mit der die Ereignisse auftreten. Dann ist , und

Beispiel

Chewing gum on a sidewalk in Reykjavík.
Kaugummi auf einem Bürgersteig. Die Anzahl der Kaugummis auf einer einzelnen Kachel ist annähernd Poisson-verteilt.

Die Poisson-Verteilung kann nützlich sein, um Ereignisse zu modellieren, wie zum Beispiel:

  • die Anzahl der Meteoriten mit einem Durchmesser von mehr als 1 Meter, die in einem Jahr auf der Erde einschlagen;
  • die Anzahl der Patienten, die zwischen 22 und 23 Uhr in einer Notaufnahme eintreffen; und
  • die Anzahl der Laserphotonen, die in einem bestimmten Zeitintervall auf einen Detektor treffen.

Annahmen und Gültigkeit

Die Poisson-Verteilung ist ein geeignetes Modell, wenn die folgenden Annahmen zutreffen:

  • k ist die Häufigkeit, mit der ein Ereignis in einem Intervall auftritt, und k kann die Werte 0, 1, 2, .... annehmen.
  • Das Auftreten eines Ereignisses hat keinen Einfluss auf die Wahrscheinlichkeit, dass ein zweites Ereignis eintreten wird. Das heißt, die Ereignisse treten unabhängig voneinander auf.
  • Die durchschnittliche Häufigkeit, mit der Ereignisse auftreten, ist unabhängig von den Ereignissen. Der Einfachheit halber wird sie gewöhnlich als konstant angenommen, kann aber in der Praxis mit der Zeit variieren.
  • Zwei Ereignisse können nicht genau zum selben Zeitpunkt eintreten; stattdessen tritt in jedem sehr kleinen Teilintervall entweder genau ein Ereignis oder kein Ereignis ein.

Sind diese Bedingungen erfüllt, so ist k eine Poisson-Zufallsvariable und die Verteilung von k ist eine Poisson-Verteilung.

Die Poisson-Verteilung ist auch der Grenzwert einer Binomialverteilung, bei der die Erfolgswahrscheinlichkeit für jeden Versuch gleich λ geteilt durch die Anzahl der Versuche ist, wenn die Anzahl der Versuche gegen unendlich geht (siehe Verwandte Verteilungen).

Beispiele für Wahrscheinlichkeiten bei Poisson-Verteilungen

In vielen Sportarten geht es in einem Wettbewerb darum, innerhalb eines bestimmten Zeitraums mehr zählende Ereignisse zu erwirken als der Gegner. Der Physiker Metin Tolan hat in seinem Buch zum Fußballspiel die Anwendbarkeit der Poisson-Verteilung im Sport ausführlich untersucht.

Die (zeitliche) Konstanz der Ereigniswahrscheinlichkeit – eine hinreichende Voraussetzung für die Anwendung der Poisson-Statistik (siehe oben unter Poissonsche Annahmen) – ist bei Sportergebnissen in der Regel höchstens näherungsweise gegeben. Aber ist man nur an dem reinen Zählwert, z. B. der Torzahl einer Mannschaft, interessiert, so ergibt sich auch bei zeitabhängiger Torrate eine Poisson-Verteilung. Schwieriger zu rechtfertigen ist die oft getroffene Annahme, dass die Tor- oder Punktzahlen zweier Mannschaften unabhängig sind. Kann man diese Annahme nicht statistisch ausreichend begründen, z. B. durch Hypothesen- oder Anpassungstest auf Übereinstimmung der Daten mit der Poisson-Verteilung, so kann man beispielsweise zur bivariaten Poisson-Verteilung übergehen und durch Schätzung der Kovarianz eine Abhängigkeit einführen.

Tolan argumentiert, dass man die Torzahl einer Mannschaft in einem Fußballspiel in guter Näherung als Poisson-verteilt annehmen darf. In seinem Ansatz berücksichtigt er zur Schätzung allerdings nur die durchschnittliche Anzahl von Toren pro Spiel und Mannschaft, d. h., er betrachtet beispielsweise nicht die Spielstärke der gegnerischen Mannschaft. Er hat auch nachgewiesen, dass über 70 % der Varianz der Punkteverteilung in der Fußball-Bundesliga durch Zufall erklärt werden können. Dies belegt auch aus stochastischer Sicht, warum Fußball spannend ist.

Für das Finale im DFB-Pokal 2015 hätte Tolan z. B. auf Grundlage der abgelaufenen Bundesliga-Saison für den VfL Wolfsburg 2,12 Tore und für Borussia Dortmund 1,38 Tore geschätzt. Andreas Heuer geht einen Schritt weiter und definiert die Spielstärke einer Mannschaft als die mittlere Tordifferenz einer Mannschaft beim Spiel gegen einen durchschnittlichen Gegner auf neutralem Platz. Ebenfalls mit den Daten aus der abgelaufenen Bundesliga-Saison hätte man für den VfL Wolfsburg eine mittlere Tordifferenz von 1 und für Borussia Dortmund von 0,15 geschätzt. Um zu einer Spielprognose zu kommen, muss man nach Heuer noch die mittlere Anzahl der Tore pro Spiel berücksichtigen. Für diese beiden Mannschaften wäre das 2,92, und Heuer würde für den VfL Wolfsburg 1,885 Tore und für Borussia Dortmund 1,035 Tore schätzen. Für Saisonprognosen berücksichtigt Heuer in seinem kompletten Modell noch weitere Parameter wie die Heimstärke, den Marktwert oder das Abschneiden der Mannschaften in den Vorsaisons. Das Endspiel endete in der Praxis dann mit drei Toren für Wolfsburg und einem Tor für Dortmund.

Einmalige Ereignisse in einem Intervall: Der Spezialfall von λ = 1 und k = 0

Angenommen, Astronomen schätzen, dass große Meteoriten (ab einer bestimmten Größe) im Durchschnitt einmal alle 100 Jahre auf der Erde einschlagen (λ = 1 Ereignis pro 100 Jahre), und dass die Anzahl der Meteoritentreffer einer Poisson-Verteilung folgt. Wie groß ist die Wahrscheinlichkeit von k = 0 Meteoritentreffern in den nächsten 100 Jahren?

Unter diesen Annahmen beträgt die Wahrscheinlichkeit, dass in den nächsten 100 Jahren keine großen Meteoriten auf der Erde einschlagen, etwa 0,37. Der Rest von 1 - 0,37 = 0,63 ist die Wahrscheinlichkeit von 1, 2, 3 oder mehr großen Meteoriteneinschlägen in den nächsten 100 Jahren. Im obigen Beispiel trat eine Überschwemmung einmal in 100 Jahren auf (λ = 1). Die Wahrscheinlichkeit, dass in 100 Jahren keine Überschwemmungen auftreten, beträgt nach derselben Berechnung etwa 0,37.

Wenn ein Ereignis im Durchschnitt einmal pro Intervall auftritt (λ = 1) und die Ereignisse einer Poisson-Verteilung folgen, dann ist P(0 Ereignisse im nächsten Intervall) = 0,37. Darüber hinaus ist P(genau ein Ereignis im nächsten Intervall) = 0,37, wie in der Tabelle für Überschwemmungen gezeigt.

Beispiele, die die Poisson-Annahmen verletzen

Die Anzahl der Studenten, die pro Minute im Studentenwerk ankommen, wird wahrscheinlich nicht einer Poisson-Verteilung folgen, da die Rate nicht konstant ist (niedrige Rate während der Unterrichtszeit, hohe Rate zwischen den Unterrichtszeiten) und die Ankünfte der einzelnen Studenten nicht unabhängig sind (die Studenten neigen dazu, in Gruppen zu kommen).

Die Anzahl der Erdbeben der Stärke 5 pro Jahr in einem Land folgt möglicherweise nicht einer Poisson-Verteilung, wenn ein großes Erdbeben die Wahrscheinlichkeit von Nachbeben ähnlicher Stärke erhöht.

Beispiele, bei denen mindestens ein Ereignis garantiert ist, sind nicht Poisson-verteilt, können aber mit einer Poisson-Verteilung mit Nullabstumpfung modelliert werden.

Zählverteilungen, bei denen die Anzahl der Intervalle mit Nullereignissen höher ist als durch ein Poisson-Modell vorhergesagt, können mit einem Null-Inflation-Modell modelliert werden.

Eigenschaften

Deskriptive Statistik

  • Der Erwartungswert und die Varianz einer Poisson-verteilten Zufallsvariablen sind beide gleich λ.
  • Der Variationskoeffizient ist , während der Streuungsindex 1 ist.
  • Die mittlere absolute Abweichung um den Mittelwert ist
  • Der Modus einer Poisson-verteilten Zufallsvariablen mit nicht-ganzzahligem λ ist gleich Dies ist die größte ganze Zahl, die kleiner oder gleich λ ist und wird auch als floor(λ) bezeichnet. Wenn λ eine positive ganze Zahl ist, sind die Modi λ und λ - 1.
  • Alle Kumulanten der Poisson-Verteilung sind gleich dem Erwartungswert λ. Das n-te faktorielle Moment der Poisson-Verteilung ist λn.
  • Der Erwartungswert eines Poisson-Prozesses wird manchmal in das Produkt aus Intensität und Exposition zerlegt (oder allgemeiner ausgedrückt als das Integral einer "Intensitätsfunktion" über die Zeit oder den Raum, manchmal auch als "Exposition" bezeichnet).

Aus Erwartungswert und Varianz erhält man sofort den Variationskoeffizienten

.

Median

Es liegt die Vermutung nahe, dass der Median nahe bei liegt. Eine exakte Formel existiert jedoch nicht, die genauest mögliche Abschätzung ist

Grenzwerte für den Median () der Verteilung sind bekannt und scharf:

Höhere Momente

Die höheren nicht-zentrierten Momente, mk der Poisson-Verteilung, sind Touchard-Polynome in λ:

wobei die {Klammern} Stirlingzahlen der zweiten Art bezeichnen. Die Koeffizienten der Polynome haben eine kombinatorische Bedeutung. Wenn nämlich der Erwartungswert der Poisson-Verteilung 1 ist, dann besagt die Dobinski-Formel, dass das n-te Moment gleich der Anzahl der Partitionen einer Menge der Größe n ist.

Eine einfache Schranke ist

Das -te Moment lässt sich als Polynom von Grad in angeben und ist das -te vollständige Bell-Polynom , ausgewertet an den Stellen :

.

Summen von Zufallsvariablen mit Poisson-Verteilung

Wenn für unabhängig sind, dann Eine Umkehrung ist der Satz von Raikov, der besagt, dass, wenn die Summe zweier unabhängiger Zufallsvariablen Poisson-verteilt ist, auch jede dieser beiden unabhängigen Zufallsvariablen Poisson-verteilt ist.

Andere Eigenschaften

  • Die Poisson-Verteilungen sind unendlich teilbare Wahrscheinlichkeitsverteilungen.
  • Die gerichtete Kullback-Leibler-Divergenz von von ist gegeben durch
  • Schranken für die Schwanzwahrscheinlichkeiten einer Poisson-Zufallsvariablen Die Poisson-Verteilung kann mit Hilfe eines Chernoff-Grenzwertarguments abgeleitet werden.
  • Die obere Schwanzwahrscheinlichkeit kann wie folgt (um einen Faktor von mindestens zwei) verschärft werden:
    wobei ist die gerichtete Kullback-Leibler-Divergenz, wie oben beschrieben.
  • Ungleichungen, die die Verteilungsfunktion einer Poisson-Zufallsvariablen mit der Standardnormalverteilungsfunktion sind wie folgt:
    wobei ist wiederum die gerichtete Kullback-Leibler-Divergenz.

Poisson-Rennen

Sei und seien unabhängige Zufallsvariablen, mit dann haben wir, dass

Die obere Schranke wird mit einer Standard-Chernoff-Schranke bewiesen.

Die untere Schranke kann bewiesen werden, indem man feststellt, dass die Wahrscheinlichkeit ist, dass , wobei ist, die unten begrenzt ist durch , wobei die relative Entropie ist (siehe den Eintrag über Schranken für Schwänze von Binomialverteilungen für Details). Man stellt ferner fest, dass und die Berechnung einer unteren Schranke für die unbedingte Wahrscheinlichkeit ergibt das Ergebnis. Weitere Einzelheiten sind im Anhang von Kamath et al. zu finden.

Rekursionsformel

Es gilt die Rekursionsformel

für mit .

Verteilungsfunktion

Die Verteilungsfunktion der Poisson-Verteilung ist

und gibt die Wahrscheinlichkeit dafür an, höchstens Ereignisse zu finden, wo man im Mittel erwartet. Dabei bezeichnet die regularisierte Gammafunktion der unteren Grenze.

Erwartungswert, Varianz, Moment

Ist die Zufallsvariable Poisson-verteilt, also , so ist zugleich Erwartungswert und Varianz, denn es gilt

sowie

Nach dem Verschiebungssatz folgt nun:

Auch für das dritte zentrierte Moment gilt .

Schiefe und Wölbung

Die Schiefe ergibt sich zu

.

Die Wölbung lässt sich ebenfalls geschlossen darstellen als

.

und der Exzess als

.

Kumulanten

Die kumulantenerzeugende Funktion der Poisson-Verteilung ist

.

Damit sind alle Kumulanten gleich .

Wahrscheinlichkeitserzeugende Funktion

Für die wahrscheinlichkeitserzeugende Funktion erhält man

.

Momenterzeugende Funktion

Die momenterzeugende Funktion der Poisson-Verteilung ist

Berechnung

Die Berechnung von kann folgendermaßen rekursiv erfolgen. Zuerst bestimmt man , dann ergeben sich nacheinander . Mit wachsendem werden dabei die Wahrscheinlichkeiten größer, solange ist. Wird , schrumpfen sie. Der Modus, also der Wert mit der größten Wahrscheinlichkeit, beträgt , wenn nicht ganzzahlig ist, anderenfalls gibt es zwei benachbarte (siehe Diagramm rechts oben).

Falls die Berechnung von wegen zu großer Werte von und Probleme bereitet, dann kann folgende mit der Stirlingformel erhaltene Näherung weiterhelfen:

Poisson-verteilte Zufallszahlen werden üblicherweise mit Hilfe der Inversionsmethode erzeugt.

Verwandte Verteilungen

Allgemein

  • Wenn und unabhängig sind, dann folgt die Differenz einer Skellam-Verteilung folgen.
  • Wenn und unabhängig sind, dann ist die Verteilung von in Abhängigkeit von eine Binomialverteilung. Genauer gesagt, wenn , dann . Allgemeiner ausgedrückt: Wenn X1, X2, ..., Xn unabhängige Poisson-Zufallsvariablen mit den Parametern λ1, λ2, ..., λn sind, dann
    gegeben folgt, dass . In der Tat, .
  • Wenn und die Verteilung von bedingt durch X = k, eine Binomialverteilung ist, , dann folgt die Verteilung von Y einer Poisson-Verteilung . In der Tat, wenn unter der Bedingung von X = k, einer Multinomialverteilung folgt, , dann folgt jede einer unabhängigen Poisson-Verteilung .
  • Die Poisson-Verteilung kann als Grenzfall der Binomialverteilung abgeleitet werden, da die Anzahl der Versuche gegen unendlich geht und die erwartete Anzahl der Erfolge fest bleibt - siehe Gesetz der seltenen Ereignisse weiter unten. Daher kann sie als Annäherung an die Binomialverteilung verwendet werden, wenn n ausreichend groß und p ausreichend klein ist. Es gibt eine Faustregel, die besagt, dass die Poisson-Verteilung eine gute Annäherung an die Binomialverteilung ist, wenn n mindestens 20 und p kleiner oder gleich 0,05 ist, und eine ausgezeichnete Annäherung, wenn n ≥ 100 und np ≤ 10 ist.
  • Die Poisson-Verteilung ist ein Spezialfall der diskreten zusammengesetzten Poisson-Verteilung (oder stotternden Poisson-Verteilung) mit nur einem Parameter. Die diskrete zusammengesetzte Poisson-Verteilung lässt sich aus der Grenzwertverteilung der univariaten Multinomialverteilung ableiten. Sie ist ebenfalls ein Spezialfall der zusammengesetzten Poisson-Verteilung.
  • Für ausreichend große Werte von λ (z. B. λ>1000) ist die Normalverteilung mit Mittelwert λ und Varianz λ (Standardabweichung ) eine ausgezeichnete Annäherung an die Poisson-Verteilung. Ist λ größer als etwa 10, dann ist die Normalverteilung eine gute Annäherung, wenn eine geeignete Stetigkeitskorrektur vorgenommen wird, d. h. wenn P(X ≤ x), wobei x eine nicht negative ganze Zahl ist, durch P(X ≤ x + 0,5) ersetzt wird.
  • Varianzstabilisierende Transformation: Wenn , dann
    und
    Unter dieser Transformation ist die Konvergenz zur Normalität (mit Der Anstieg der Varianz ist viel schneller als bei der untransformierten Variable. Es gibt noch andere, etwas kompliziertere, varianzstabilisierende Transformationen, darunter die Anscombe-Transformation. Siehe Datentransformation (Statistik) für allgemeinere Anwendungen von Transformationen.
  • Wenn für jedes t > 0 die Anzahl der Ankünfte im Zeitintervall [0, t] der Poisson-Verteilung mit dem Mittelwert λt folgt, dann sind die Folgen der Ankunftszeiten zwischen den Ankünften unabhängige und identisch verteilte exponentielle Zufallsvariablen mit dem Mittelwert 1/λ.
  • Die kumulativen Verteilungsfunktionen der Poisson- und der Chi-Quadrat-Verteilung sind auf folgende Weise miteinander verwandt:
    und

Poisson-Approximation

Angenommen, wobei , dann ist multinomial verteilt konditioniert auf .

Das bedeutet unter anderem, dass für jede nichtnegative Funktion , wenn multinomial verteilt ist, dann

wobei .

Der Faktor von kann durch 2 ersetzt werden, wenn weiterhin angenommen wird, dass sie monoton ansteigend oder abnehmend ist.

Bivariate Poisson-Verteilung

Diese Verteilung ist auf den bivariaten Fall erweitert worden. Die erzeugende Funktion für diese Verteilung ist

mit

Die Randverteilungen sind Poisson(θ1) und Poisson(θ2) und der Korrelationskoeffizient ist begrenzt auf den Bereich

Eine einfache Methode zur Erzeugung einer bivariaten Poisson-Verteilung ist die Annahme von drei unabhängigen Poisson-Verteilungen mit Mittelwerten und setzt dann . Die Wahrscheinlichkeitsfunktion der bivariaten Poisson-Verteilung ist

Freie Poisson-Verteilung

Die freie Poisson-Verteilung mit Sprungweite und Rate ergibt sich in der freien Wahrscheinlichkeitstheorie als Grenzwert der wiederholten freien Faltung

mit N → ∞.

Mit anderen Worten, seien Zufallsvariablen sein, so dass den Wert mit der Wahrscheinlichkeit und mit der restlichen Wahrscheinlichkeit den Wert 0. Nehmen Sie außerdem an, dass die Familie beliebig unabhängig sind. Dann ist der Grenzwert als des Gesetzes von durch das Freie-Poisson-Gesetz mit den Parametern .

Diese Definition entspricht einer der Methoden, mit denen die klassische Poisson-Verteilung aus einem (klassischen) Poisson-Prozess gewonnen wird.

Das mit dem freien Poisson-Gesetz verbundene Maß ist gegeben durch

wobei
und hat die Unterstützung .

Dieses Gesetz taucht auch in der Theorie der Zufallsmatrix als Marchenko-Pastur-Gesetz auf. Seine freien Kumulanten sind gleich .

Einige Transformationen dieses Gesetzes

Wir geben die Werte einiger wichtiger Transformationen des freien Poisson-Gesetzes an; die Berechnung findet sich z. B. in dem Buch Lectures on the Combinatorics of Free Probability von A. Nica und R. Speicher

Die R-Transformation des freien Poissonschen Gesetzes ist gegeben durch

Die Cauchy-Transformation (die das Negativ der Stieltjes-Transformation ist) ist gegeben durch

Die S-Transformation ist gegeben durch

für den Fall, dass .

Weibull und Stabile Zählung

Die Poissonsche Wahrscheinlichkeitsmassenfunktion in einer Form ausgedrückt werden kann, die der Produktverteilung einer Weibull-Verteilung und einer abweichenden Form der stabilen Zählverteilung ähnelt. Die Variable kann als Umkehrung des Lévy'schen Stabilitätsparameters in der stabilen Zählverteilung betrachtet werden:

wobei ist eine stabile Standard-Zählverteilung der Form , und ist eine standardmäßige Weibull-Verteilung der Form .

Statistische Inferenz

Schätzung der Parameter

Gegeben eine Stichprobe von n Messwerten für i = 1, ..., n möchten wir den Wert des Parameters λ der Poisson-Grundgesamtheit, aus der die Stichprobe gezogen wurde, schätzen. Die Maximum-Likelihood-Schätzung lautet

Da jede Beobachtung den Erwartungswert λ hat, gilt dies auch für den Stichprobenmittelwert. Daher ist die Maximum-Likelihood-Schätzung ein unverzerrter Schätzer von λ. Sie ist auch ein effizienter Schätzer, da ihre Varianz die untere Schranke von Cramér-Rao (CRLB) erreicht. Er ist also unverzerrt mit minimaler Varianz. Es kann auch bewiesen werden, dass die Summe (und damit der Stichprobenmittelwert, da er eine Eins-zu-Eins-Funktion der Summe ist) eine vollständige und hinreichende Statistik für λ ist.

Zum Nachweis der Hinlänglichkeit können wir das Faktorisierungs-Theorem verwenden. Man kann die Wahrscheinlichkeitsmassenfunktion der gemeinsamen Poisson-Verteilung für die Stichprobe in zwei Teile aufteilen: einen Teil, der nur von der Stichprobe abhängt (genannt ) und einer, der von dem Parameter und der Stichprobe nur durch die Funktion . Dann ist eine hinreichende Statistik für .

Der erste Term, hängt nur ab von . Der zweite Term, hängt von der Stichprobe nur ab durch . Somit ist , ausreichend.

Um den Parameter λ zu finden, der die Wahrscheinlichkeitsfunktion für die Poisson-Population maximiert, können wir den Logarithmus der Likelihood-Funktion verwenden:

Wir nehmen die Ableitung von nach λ und vergleichen sie mit Null:

Die Lösung für λ ergibt einen stationären Punkt.

λ ist also der Durchschnitt der ki-Werte. Das Vorzeichen der zweiten Ableitung von L am stationären Punkt bestimmt, um welche Art von Extremwert es sich bei λ handelt.

Die Auswertung der zweiten Ableitung am stationären Punkt ergibt:

Das ist das Negativ von n mal dem Kehrwert des Mittelwerts von ki. Dieser Ausdruck ist negativ, wenn der Mittelwert positiv ist. Wenn dies erfüllt ist, dann maximiert der stationäre Punkt die Wahrscheinlichkeitsfunktion.

Der Vollständigkeit halber sei gesagt, dass eine Familie von Verteilungen dann und nur dann vollständig ist, wenn impliziert, dass für alle . Wenn die einzelnen iid sind , dann . Da wir die zu untersuchende Verteilung kennen, ist es leicht zu erkennen, dass die Statistik vollständig ist.

Damit diese Gleichheit gilt, Dies ergibt sich aus der Tatsache, dass keiner der anderen Terme 0 ist für alle in der Summe und für alle möglichen Werte von . Daraus folgt, für alle impliziert, dass und die Statistik hat sich als vollständig erwiesen.

Konfidenzintervall

Das Konfidenzintervall für den Mittelwert einer Poisson-Verteilung lässt sich anhand der Beziehung zwischen den kumulativen Verteilungsfunktionen der Poisson- und der Chi-Quadrat-Verteilung ausdrücken. Die Chi-Quadrat-Verteilung ist ihrerseits eng mit der Gamma-Verteilung verwandt, was zu einem alternativen Ausdruck führt. Bei einer Beobachtung k aus einer Poisson-Verteilung mit Mittelwert μ ist ein Konfidenzintervall für μ mit Konfidenzniveau 1 - α

oder äquivalent,

wobei ist die Quantilfunktion (entsprechend einem unteren Schwanzbereich p) der Chi-Quadrat-Verteilung mit n Freiheitsgraden und ist die Quantilsfunktion einer Gammaverteilung mit dem Formparameter n und dem Skalenparameter 1. Dieses Intervall ist "exakt" in dem Sinne, dass seine Überdeckungswahrscheinlichkeit niemals kleiner als der nominale Wert 1 - α ist.

Für den Fall, dass keine Quantile der Gamma-Verteilung verfügbar sind, wurde eine genaue Annäherung an dieses exakte Intervall vorgeschlagen (basierend auf der Wilson-Hilferty-Transformation):

wobei bezeichnet die Standardnormalabweichung mit dem oberen Schwanzbereich α / 2.

Für die Anwendung dieser Formeln im gleichen Kontext wie oben (bei einer Stichprobe von n Messwerten ki, die jeweils aus einer Poisson-Verteilung mit Mittelwert λ gezogen werden) würde man

ein Intervall für μ = berechnen und dann das Intervall für λ ableiten.

Bayes'sche Inferenz

Bei der Bayes'schen Inferenz ist der konjugierte Prior für den Ratenparameter λ der Poisson-Verteilung die Gamma-Verteilung. Sei

bezeichnen, dass λ gemäß der Gamma-Dichte g verteilt ist, die durch einen Formparameter α und einen inversen Skalenparameter β parametrisiert ist:

Bei der gleichen Stichprobe von n Messwerten ki wie zuvor und einem Prior von Gamma(α, β) ist die Posteriorverteilung dann

Man beachte, dass der posteriore Mittelwert linear ist und durch folgende Gleichung gegeben ist

Es kann gezeigt werden, dass die Gamma-Verteilung die einzige Priorität ist, die Linearität des bedingten Mittelwerts induziert. Außerdem gibt es ein umgekehrtes Ergebnis, das besagt, dass, wenn der bedingte Mittelwert nahe einer linearen Funktion im Abstand, dann muss die prioritäre Verteilung von λ nahe an der Gamma-Verteilung im Levy-Abstand liegen.

Der posteriore Mittelwert E[λ] nähert sich der Maximum-Likelihood-Schätzung im Grenzwert als was unmittelbar aus dem allgemeinen Ausdruck für den Mittelwert der Gamma-Verteilung folgt.

Die posteriore prädiktive Verteilung für eine einzige zusätzliche Beobachtung ist eine negative Binomialverteilung, die manchmal auch als Gamma-Poisson-Verteilung bezeichnet wird.

Gleichzeitige Schätzung von mehreren Poisson-Mitteln

Angenommen, sei eine Menge unabhängiger Zufallsvariablen aus einer Menge von Poisson-Verteilungen, jede mit einem Parameter , und wir möchten diese Parameter schätzen. Dann zeigen Clevenson und Zidek, dass unter dem normalisierten quadratischen Fehlerverlust ist, wenn dann ist, ähnlich wie in Steins Beispiel für die normalen Mittelwerte, der MLE-Schätzer unzulässig ist.

In diesem Fall gibt es eine Familie von Minimax-Schätzern für beliebige und als

Vorkommen und Anwendungen

Anwendungen der Poisson-Verteilung sind in vielen Bereichen zu finden, darunter:

  • Zähldaten im Allgemeinen
  • Beispiel Telekommunikation: Telefonanrufe, die in einem System ankommen.
  • Beispiel Astronomie: Photonen, die an einem Teleskop ankommen.
  • Beispiel aus der Chemie: die Molmassenverteilung einer lebenden Polymerisation.
  • Beispiel aus der Biologie: die Anzahl der Mutationen auf einem DNA-Strang pro Längeneinheit.
  • Beispiel aus der Verwaltung: Kunden, die an einem Schalter oder in einem Callcenter eintreffen.
  • Beispiel aus dem Finanz- und Versicherungswesen: Anzahl der in einem bestimmten Zeitraum eingetretenen Verluste oder Ansprüche.
  • Beispiel Erdbebenseismologie: ein asymptotisches Poisson-Modell des Erdbebenrisikos für große Erdbeben.
  • Beispiel Radioaktivität: Anzahl der Zerfälle in einem bestimmten Zeitintervall in einer radioaktiven Probe.
  • Beispiel Optik: die Anzahl der in einem einzigen Laserpuls emittierten Photonen. Dies ist eine wesentliche Schwachstelle der meisten Quantenschlüsselverteilungsprotokolle, die als Photon Number Splitting (PNS) bekannt ist.

Die Poisson-Verteilung taucht im Zusammenhang mit Poisson-Prozessen auf. Sie gilt für verschiedene Phänomene mit diskreten Eigenschaften (d. h. solche, die in einem bestimmten Zeitraum oder in einem bestimmten Gebiet 0, 1, 2, 3, ... Mal auftreten können), wenn die Wahrscheinlichkeit des Auftretens des Phänomens in Zeit oder Raum konstant ist. Beispiele für Ereignisse, die als Poisson-Verteilung modelliert werden können, sind:

  • Die Anzahl der durch Pferdetritte getöteten Soldaten pro Jahr in jedem Korps der preußischen Kavallerie. Dieses Beispiel wurde in einem Buch von Ladislaus Bortkiewicz (1868-1931) verwendet.
  • Die Anzahl der Hefezellen, die beim Brauen von Guinness-Bier verwendet werden. Dieses Beispiel wurde von William Sealy Gosset (1876-1937) verwendet.
  • Die Anzahl der Telefonanrufe, die innerhalb einer Minute in einem Callcenter eingehen. Dieses Beispiel wurde von A.K. Erlang (1878-1929) beschrieben.
  • Internetverkehr.
  • Die Anzahl der Tore in Sportarten mit zwei konkurrierenden Mannschaften.
  • Die Anzahl der Todesfälle pro Jahr in einer bestimmten Altersgruppe.
  • Die Anzahl der Sprünge eines Aktienkurses in einem bestimmten Zeitintervall.
  • Unter der Annahme der Homogenität die Anzahl der Zugriffe auf einen Webserver pro Minute.
  • Die Anzahl der Mutationen in einem bestimmten Abschnitt der DNA nach einer bestimmten Bestrahlung.
  • Der Anteil der Zellen, die bei einer bestimmten Infektionsmultiplikation infiziert werden.
  • Die Anzahl der Bakterien in einer bestimmten Menge an Flüssigkeit.
  • Die Ankunft von Photonen auf einem Pixelschaltkreis bei einer bestimmten Beleuchtung und über einen bestimmten Zeitraum.
  • Der gezielte Abwurf von V-1-Bomben auf London während des Zweiten Weltkriegs, untersucht von R. D. Clarke im Jahr 1946.

Gallagher zeigte 1976, dass die Anzahl der Primzahlen in kurzen Intervallen einer Poisson-Verteilung gehorcht, sofern eine bestimmte Version der unbewiesenen Primzahl-R-Tupel-Vermutung von Hardy-Littlewood wahr ist.

Gesetz der seltenen Ereignisse

Vergleich der Poisson-Verteilung (schwarze Linien) und der Binomialverteilung mit n = 10 (rote Kreise), n = 20 (blaue Kreise), n = 1000 (grüne Kreise). Alle Verteilungen haben einen Mittelwert von 5. Die horizontale Achse zeigt die Anzahl der Ereignisse k. Mit zunehmendem n wird die Poisson-Verteilung zu einer immer besseren Annäherung an die Binomialverteilung mit demselben Mittelwert.

Die Häufigkeit eines Ereignisses hängt mit der Wahrscheinlichkeit zusammen, dass ein Ereignis in einem kleinen Teilintervall (zeitlich, räumlich oder anderweitig) auftritt. Im Falle der Poisson-Verteilung wird angenommen, dass es ein ausreichend kleines Teilintervall gibt, für das die Wahrscheinlichkeit, dass ein Ereignis zweimal auftritt, "vernachlässigbar" ist. Mit dieser Annahme kann man die Poisson-Verteilung aus der Binomialverteilung ableiten, wenn man nur die Information über die erwartete Gesamtzahl der Ereignisse im gesamten Intervall hat.

Die Gesamtzahl der Ereignisse im gesamten Intervall sei bezeichnet durch . Unterteilen Sie das gesamte Intervall in Unterintervalle von gleicher Größe, so dass (da wir nur an sehr kleinen Teilen des Intervalls interessiert sind, ist diese Annahme sinnvoll). Dies bedeutet, dass die erwartete Anzahl von Ereignissen in jedem der n Teilintervalle gleich ist .

Wir nehmen nun an, dass das Auftreten eines Ereignisses im gesamten Intervall als eine Folge von n Bernoulli-Versuchen betrachtet werden kann, wobei der Bernoulli-Versuch der Prüfung entspricht, ob ein Ereignis in dem Teilintervall mit der Wahrscheinlichkeit . Die erwartete Gesamtzahl der Ereignisse in solchen Versuchen wäre die erwartete Anzahl der Gesamtereignisse im gesamten Intervall. Daher haben wir für jede Unterteilung des Intervalls das Auftreten des Ereignisses als einen Bernoulli-Prozess der Form . Wie wir bereits erwähnt haben, wollen wir nur sehr kleine Teilintervalle betrachten. Daher nehmen wir den Grenzwert, wenn gegen unendlich geht.

In diesem Fall konvergiert die Binomialverteilung gegen die so genannte Poisson-Verteilung nach dem Poisson-Grenzwertsatz.

In mehreren der oben genannten Beispiele - wie z. B. die Anzahl der Mutationen in einer bestimmten DNA-Sequenz - handelt es sich bei den zu zählenden Ereignissen tatsächlich um die Ergebnisse diskreter Versuche, die genauer mit der Binomialverteilung modelliert werden sollten, d. h.

In solchen Fällen ist n sehr groß und p sehr klein (so dass der Erwartungswert np eine mittlere Größe hat). Dann kann die Verteilung durch die weniger schwerfällige Poisson-Verteilung angenähert werden

Diese Annäherung wird manchmal als Gesetz der seltenen Ereignisse bezeichnet, da jedes der n einzelnen Bernoulli-Ereignisse selten eintritt.

Der Name "Gesetz der seltenen Ereignisse" kann irreführend sein, da die Gesamtzahl der Erfolgsereignisse in einem Poisson-Prozess nicht selten sein muss, wenn der Parameter np nicht klein ist. Beispielsweise folgt die Anzahl der Telefonanrufe bei einer besetzten Telefonzentrale in einer Stunde einer Poisson-Verteilung, wobei die Ereignisse für den Telefonisten häufig erscheinen, aber aus der Sicht der Durchschnittsbevölkerung selten sind, da es sehr unwahrscheinlich ist, dass sie in dieser Stunde einen Anruf bei dieser Telefonzentrale tätigen.

Die Varianz der Binomialverteilung ist 1 - p mal so groß wie die der Poisson-Verteilung, also fast gleich, wenn p sehr klein ist.

Das Wort Gesetz wird manchmal als Synonym für Wahrscheinlichkeitsverteilung verwendet, und Konvergenz im Gesetz bedeutet Konvergenz in der Verteilung. Dementsprechend wird die Poisson-Verteilung manchmal auch als "Gesetz der kleinen Zahlen" bezeichnet, weil sie die Wahrscheinlichkeitsverteilung für die Anzahl des Auftretens eines Ereignisses darstellt, das zwar selten, aber sehr häufig vorkommt. The Law of Small Numbers ist ein Buch von Ladislaus Bortkiewicz über die Poisson-Verteilung, das 1898 veröffentlicht wurde.

Poisson-Punkt-Prozess

Die Poisson-Verteilung ergibt sich aus der Anzahl der Punkte eines Poisson-Punktprozesses, die in einem endlichen Gebiet liegen. Genauer gesagt, wenn D ein Gebietsraum ist, z. B. der euklidische Raum Rd, für den |D|, die Fläche, das Volumen oder, allgemeiner, das Lebesgue-Maß des Gebiets endlich ist, und wenn N(D) die Anzahl der Punkte in D bezeichnet, dann

Poisson-Regression und negative Binomialregression

Die Poisson-Regression und die negative Binomialregression eignen sich für Analysen, bei denen die abhängige Variable (Antwortvariable) die Anzahl (0, 1, 2, ...) der Ereignisse oder Vorkommnisse in einem Intervall ist.

Andere Anwendungen in der Wissenschaft

Bei einem Poisson-Prozess schwankt die Anzahl der beobachteten Ereignisse um ihren Mittelwert λ mit einer Standardabweichung . Diese Schwankungen werden als Poisson-Rauschen oder (insbesondere in der Elektronik) als Schrotrauschen bezeichnet.

Die Korrelation von Mittelwert und Standardabweichung bei der Zählung unabhängiger diskreter Vorkommnisse ist wissenschaftlich nützlich. Indem man beobachtet, wie die Schwankungen mit dem mittleren Signal variieren, kann man den Beitrag eines einzelnen Ereignisses abschätzen, selbst wenn dieser Beitrag zu gering ist, um direkt erkannt zu werden. So kann beispielsweise die Ladung e eines Elektrons geschätzt werden, indem man die Größe eines elektrischen Stroms mit seinem Schussrauschen korreliert. Wenn N Elektronen einen Punkt in einer gegebenen Zeit t im Durchschnitt passieren, ist der mittlere Strom ; da die Stromschwankungen in der Größenordnung (d. h. der Standardabweichung des Poisson-Prozesses) liegen, kann die Ladung aus dem Verhältnis .

Ein alltägliches Beispiel ist die Körnigkeit, die bei der Vergrößerung von Fotos auftritt; die Körnigkeit ist auf Poisson-Schwankungen in der Anzahl der reduzierten Silberkörner zurückzuführen, nicht auf die einzelnen Körner selbst. Indem man die Körnigkeit mit dem Grad der Vergrößerung korreliert, kann man den Beitrag eines einzelnen Korns abschätzen (das ansonsten zu klein ist, um es ohne Hilfsmittel zu erkennen). Es wurden viele andere molekulare Anwendungen des Poisson-Rauschens entwickelt, z. B. die Schätzung der Dichte von Rezeptormolekülen in einer Zellmembran.

In der Theorie der kausalen Mengen folgen die diskreten Elemente der Raumzeit einer Poisson-Verteilung im Volumen.

Berechnungsmethoden

Die Poisson-Verteilung stellt spezielle Software-Bibliotheken vor zwei unterschiedliche Aufgaben: Die Auswertung der Verteilung und das Ziehen von Zufallszahlen gemäß dieser Verteilung.

Auswertung der Poisson-Verteilung

Berechnung von für gegebene und ist eine triviale Aufgabe, die mit Hilfe der Standarddefinition von in Form von Exponential-, Potenz- und Faktorialfunktionen. Die herkömmliche Definition der Poisson-Verteilung enthält jedoch zwei Terme, die auf Computern leicht überlaufen können: λk und k! Der Bruch von λk zu k! kann außerdem einen Rundungsfehler verursachen, der im Vergleich zu e-λ sehr groß ist und daher ein falsches Ergebnis liefert. Aus Gründen der numerischen Stabilität sollte die Poisson-Wahrscheinlichkeitsmassenfunktion daher wie folgt ausgewertet werden

was mathematisch äquivalent, aber numerisch stabil ist. Der natürliche Logarithmus der Gamma-Funktion kann mit der Funktion lgamma in der C-Standardbibliothek (C99-Version) oder R, der Funktion gammaln in MATLAB oder SciPy oder der Funktion log_gamma in Fortran 2008 und höher berechnet werden.

Einige Programmiersprachen bieten integrierte Funktionen zur Auswertung der Poisson-Verteilung, nämlich

  • R: Funktion dpois(x, lambda);
  • Excel: Funktion POISSON( x, mean, cumulative), mit einem Flag zur Angabe der kumulativen Verteilung;
  • Mathematica: univariate Poisson-Verteilung als PoissonDistribution[], bivariate Poisson-Verteilung als MultivariatePoissonDistribution[,{ , }],.

Zufallsziehung aus der Poisson-Verteilung

Die weniger triviale Aufgabe besteht darin, zufällige ganze Zahlen aus der Poisson-Verteilung mit gegebener .

Lösungen werden bereitgestellt von:

  • R: Funktion rpois(n, lambda);
  • GNU Wissenschaftliche Bibliothek (GSL): Funktion gsl_ran_poisson

Generierung von Poisson-verteilten Zufallsvariablen

Ein einfacher Algorithmus zur Erzeugung von Poisson-verteilten Zufallszahlen (Pseudo-Zufallszahlenstichprobe) wurde von Knuth angegeben:

Algorithmus Poisson-Zufallszahl (Knuth):
    Init:
        Sei L ← e-λ, k ← 0 und p ← 1.
    do:
        k ← k + 1.
        Erzeuge eine gleichmäßige Zufallszahl u in [0,1] und lasse p ← p × u.
    while p > L.
    k - 1 zurückgeben. 

Die Komplexität ist linear mit dem zurückgegebenen Wert k, der im Durchschnitt λ beträgt. Es gibt viele andere Algorithmen, um dies zu verbessern. Einige sind in Ahrens & Dieter aufgeführt, siehe § Referenzen unten.

Für große Werte von λ kann der Wert von L = e-λ so klein sein, dass er schwer darstellbar ist. Dies kann durch eine Änderung des Algorithmus gelöst werden, die einen zusätzlichen Parameter STEP verwendet, so dass e-STEP nicht unterläuft:

Algorithmus Poisson-Zufallszahl (Junhao, basierend auf Knuth):
    Init:
        Sei λLinks ← λ, k ← 0 und p ← 1.
    do:
        k ← k + 1.
        Erzeuge eine gleichmäßige Zufallszahl u in (0,1) und lasse p ← p × u.
        solange p < 1 und λLinks > 0:
            wenn λLinks > STEP:
                p ← p × eSTEP
                λLinks ← λLinks - STEP
            sonst:
                p ← p × eλLinks
                λLinks ← 0
    while p > 1.
    k - 1 zurückgeben. 

Die Wahl von STEP hängt von der Schwelle des Überlaufs ab. Für das Fließkommaformat mit doppelter Genauigkeit liegt der Schwellenwert nahe e700, so dass 500 ein sicherer STEP sein sollte.

Andere Lösungen für große Werte von λ sind das Rejection Sampling und die Verwendung der Gaußschen Approximation.

Die inverse Transformationsstichprobe ist einfach und effizient für kleine Werte von λ und erfordert nur eine einheitliche Zufallszahl u pro Stichprobe. Die kumulativen Wahrscheinlichkeiten werden der Reihe nach untersucht, bis eine den Wert u überschreitet.

Algorithmus Poisson-Generator auf der Grundlage der Inversion durch sequentielle Suche:
    Init:
        Sei x ← 0, p ← e-λ, s ← p.
        Erzeuge eine gleichmäßige Zufallszahl u in [0,1].
    while u > s do:
        x ← x + 1.
        p ← p × λ / x.
        s ← s + p.
    return x. 

Beispiele

Radioaktivität

An einer radioaktiven Probe aus Uran werden pro Sekunde im Mittel Zerfälle gemessen. Die Wahrscheinlichkeiten, dass in einem Zeitintervall von 1 Sekunde Zerfallsereignisse gemessen werden, sind in folgender Tabelle aufgelistet:

k
0 0,0111
1 0,0500
2 0,1125
3 0,1687
4 0,1898
5 0,1708
6 0,1281
7 0,0824
8 0,0463
9 0,0232
10 0,0104

Ergebnisse beim Fußball

Die Fußballmannschaft von SK Rapid Wien erzielt im Mittel 1,39 Tore pro Spiel. Die Fußballmannschaft von SK Sturm Graz hat eine Torquote von 1,61 pro Spiel. Es sollen die Wahrscheinlichkeiten berechnet werden, dass bei einem Match zwischen SK Rapid Wien und SK Sturm Graz bestimmte Ergebnisse erzielt werden. Es wird vereinfacht angenommen, dass die Anzahlen der Tore der zwei Mannschaften stochastisch unabhängig sind. Für das Endergebnis ergibt sich das Produkt der Wahrscheinlichkeiten der zwei Poisson-Verteilungen und mit und , also

Die Wahrscheinlichkeiten für die Ergebnisse 0:0, 0:1, 0:2, 0:3, 1:0, 1:1, 1:2, 1:3, 2:0, 2:1, 2:2, 2:3, 3:0, 3:1, 3:2, 3:3 zeigt die folgende Tabelle:

k1:k2 0 1 2 3
0 0,0498 0,0802 0,0645 0,0346
1 0,0692 0,1114 0,0897 0,0481
2 0,0481 0,0774 0,0623 0,0335
3 0,0223 0,0359 0,0289 0,0155

Das Ergebnis 1:1 hat mit die größte Wahrscheinlichkeit.

Parameterschätzung

Prognoseintervall

Das Prognoseintervall hat die Aufgabe, vor dem Ziehen einer Stichprobe einen Bereich vorherzusagen, in dem man die Realisierung einer Schätzfunktion mit hoher Wahrscheinlichkeit findet. Die Anzahl Poisson-verteilter Ereignisse, die mit vorgegebener Wahrscheinlichkeit nicht überschritten wird, lässt sich aus der Inversion der Verteilungsfunktion berechnen:

Dabei lässt sich wieder durch die regularisierte Gammafunktion ausdrücken. Eine elementare Form der Inversion der Verteilungsfunktion oder der Gammafunktion ist nicht bekannt. Gute Dienste leistet in diesem Fall eine zweispaltige Wertetabelle, die leicht mit der oben im Abschnitt Verteilungsfunktion angegebenen Summe berechenbar ist und zeigt, welche Wahrscheinlichkeiten bestimmten Werten von zugeordnet sind.

Beziehung zu anderen Verteilungen

Beziehung zur verallgemeinerten Binomialverteilung

Auch die verallgemeinerte Binomialverteilung kann für große Stichproben und kleine Erfolgswahrscheinlichkeiten mittels der Poisson-Approximation angenähert werden.

Beziehung zur Normalverteilung

Die Poisson-Wahrscheinlichkeiten für λ = 30 werden durch eine Normalverteilungsdichte angenähert

Die Poisson-Verteilung hat für kleine Werte von eine stark asymmetrische Gestalt. Für größer werdendes wird symmetrischer und ähnelt ab etwa einer gaußschen Normalverteilung mit und :

Anwendungsbeispiele

Ankünfte von Kunden

In Warteschlangensystemen kommen Kunden oder Aufträge im System an, um bedient zu werden. In der Warteschlangentheorie werden die unterschiedlichen Modelle in der Kendall-Notation beschrieben. Dabei werden häufig insb. die Anzahl der Kunden, die in einem gewissen Zeitintervall ankommen, mit einer Poisson-Verteilung modelliert (abgekürzt durch M für exponentialverteilte Zwischenankunftszeiten). Diese Modellbildung ist sehr attraktiv, da sich unter dieser Annahme oft einfache analytische Lösungen ergeben.

Häufig kann diese Annahme auch näherungsweise gerechtfertigt werden, hier soll an einem Beispiel illustriert werden, was diese Annahme bedeutet: Ein Kaufhaus wird beispielsweise an einem Samstag durchschnittlich alle zehn Sekunden von einem Kunden betreten. Werden nun im Takt von einer Minute die Personen gezählt, die neu dazu kamen, so würde man im Mittel sechs Personen erwarten, die das Kaufhaus pro Minute betreten. Die Wahl der Länge des Intervalls liegt beim Beobachter. Würde man eine Stunde als Beobachtungsintervall wählen, ergäbe sich , bei einem Intervall von einer Sekunde wäre . Die relative Schwankung der Kundenanzahl () nimmt mit größer werdendem Intervall und folglich größer werdendem ab. Das längere Intervall erlaubt also über die längere Mittelung eine im Prinzip präzisere Beobachtung, ist aber mit mehr Aufwand verbunden und kann innerhalb des Intervalls auftretende Veränderung der Bedingungen (z. B. Ankunft eines Busses mit einkaufswilligen Touristen) nicht erfassen.

Unter folgenden Randbedingungen könnte eine Poisson-Verteilung vorliegen:

  1. Die Kunden müssen einzeln ankommen. In der Realität kommen aber häufig Personengruppen gemeinsam an.
  2. Die Wahrscheinlichkeit, dass ein Kunde ankommt, könnte proportional zur Länge des Beobachtungszeitraums sein.
  3. Es gibt sicherlich über den Tag verteilt Stoßzeiten mit erhöhtem Kundenaufkommen aber auch Flauten.
  4. Die Kundenankünfte in verschiedenen Zeiträumen sind nicht notwendigerweise unabhängig. Z. B. bei Überfüllung des Kaufhauses könnten Kunden abgeschreckt werden.

In diesem Beispiel ist die Annahme der Poisson-Verteilung nur schwer zu rechtfertigen, daher gibt es Warteschlangenmodelle z. B. mit Gruppenankünften, endlichen Warteschlangen oder anderen Ankunftsverteilungen, um diesen Ankunftsprozess realistischer zu modellieren. Glücklicherweise sind einige wichtige Kennzahlen, wie z. B. nach Littles Gesetz die durchschnittliche Anzahl von Kunden im System, nicht von der konkreten Verteilung abhängig, d. h., auch wenn Annahmen verletzt sind, gilt dasselbe Ergebnis.

Ball-Fächer-Modell

Im Gebiet Abzählende Kombinatorik besteht eine Standard-Aufgabe darin, Bälle oder Kugeln auf Fächer zu verteilen und abzuzählen, wie viele Möglichkeiten es gibt. Ordnet man die Bälle den Fächern zufällig zu, so erhält man für die Anzahl der Bälle in einem festen Fach eine Binomialverteilung mit . Eine Anwendung ist z. B. die Verteilung von Rosinen auf einem Kuchen, mit dem Ziel, dass jedes Stück eine Mindestanzahl von Rosinen enthält.

Zufällig auf dem Boden verstreute Reiskörner

Das Bild rechts zeigt einen Ausschnitt eines Fußbodens mit quadratischen Fliesen, auf dem Reiskörner zufällig verstreut wurden. Die Felder enthalten je Reiskörner, und insgesamt befinden sich Reiskörner im betrachteten Ausschnitt. Man kann die Wahrscheinlichkeiten jetzt direkt über die Binomialverteilung bestimmen, aber es sind auch die Voraussetzungen der Poisson-Approximation erfüllt.

Der Vergleich zwischen Experiment und berechneter Poisson-Verteilung , wobei Reiskörner/Quadrate ist, zeigt intuitiv eine gute Übereinstimmung. Statistisch könnte man die Anpassungsgüte mit einem Anpassungstest überprüfen.

Verteilung des Beispiels, gezählt (blau) und nach Poisson (rot)
gezählt

0

15

12,7

1

15

17,2

2

11

11,6

3

5

5,2

4

1

1,7

5

2

0,5

Die Wahrscheinlichkeit, dass ein bestimmtes Feld leer bleibt, ist etwa 26 %:

Zwei-Drittel-Gesetz beim Roulette

Die Poisson-Verteilung ergibt eine gute Schätzung, wie viele verschiedene Nummern bei 37 Roulette-Spielen getroffen werden.