Binomialverteilung
Binomialverteilung | |
Wahrscheinlichkeitsverteilung Wahrscheinlichkeitsfunktion | |
Verteilungsfunktion Verteilungsfunktion | |
Parameter | <math>n \in \N^+ </math>, <math>p \in [0,1]</math> |
---|---|
Träger | <math>k \in \{0, \dots,n\}</math> |
Wahrscheinlichkeitsfunktion | <math>\textstyle {n\choose k}\, p^k (1-p)^{n-k}</math> |
Verteilungsfunktion | <math>I_{1-p}(n - \lfloor k \rfloor, 1 + \lfloor k \rfloor)</math> |
Erwartungswert | <math>np</math> |
Median | <math>\lfloor np\rfloor \le m \le \lceil np\rceil</math> |
Modus | <math>\lfloor (n+1)p\rfloor </math> oder <math>\lfloor (n+1)p-1\rfloor </math> |
Varianz | <math>np(1-p)</math> |
Schiefe | <math>\frac{1-2p}{\sqrt{np(1-p) |
| kurtosis = <math>3+\frac{1-6p(1-p)}{np(1-p)}</math>
| entropy = <math>\frac12 \log_2 \big( 2\pi \mathrm{e}\, np(1-p) \big)</math>
<math> + \mathcal{O} \left( \frac{1}{n} \right) </math>
| mgf = <math>\left(1-p + p\mathrm{e}^t\right)^n</math>
| char = <math>\left(1-p + p\mathrm{e}^{\mathrm{i}t}\right)^n</math>
}}
mit <math>n</math> und <math>k</math> wie im Pascalschen Dreieck
Die Wahrscheinlichkeit, dass eine Kugel in einem Galtonbrett mit acht Ebenen (<math>n=8</math>) ins mittlere Fach fällt (<math>k=4</math>) ist <math>70/256</math>.
Die Binomialverteilung ist eine der wichtigsten diskreten Wahrscheinlichkeitsverteilungen.
Sie beschreibt die Anzahl der Erfolge in einer Serie von gleichartigen und unabhängigen Versuchen, die jeweils genau zwei mögliche Ergebnisse haben („Erfolg“ oder „Misserfolg“). Solche Versuchsserien werden auch Bernoulli-Prozesse genannt.
Ist <math>p</math> die Erfolgswahrscheinlichkeit bei einem Versuch und <math>n</math> die Anzahl der Versuche, dann bezeichnet man mit <math>B(k \mid p,n)</math>, <math>B_{n,p}(k)</math>, <math>B(n,p,k)</math><ref>Dr.Peter Kissel: MAC08 Stochastik (Teil2). Studiengemeinschaft Darmstadt 2014, S.12.</ref> oder <math>B(n;p;k)</math><ref>Bigalke/Köhler: Mathematik 13.2 Grund- und Leistungskurs. Cornelsen, Berlin 2000, S.130.</ref> die Wahrscheinlichkeit, genau <math>k</math> Erfolge zu erzielen (siehe Abschnitt Definition).
Die Binomialverteilung und der Bernoulli-Versuch können mit Hilfe des Galtonbretts veranschaulicht werden. Dabei handelt es sich um eine mechanische Apparatur, in die man Kugeln wirft. Diese fallen dann zufällig in eines von mehreren Fächern, wobei die Aufteilung der Binomialverteilung entspricht. Je nach Konstruktion sind unterschiedliche Parameter <math>n</math> und <math>p</math> möglich.
Obwohl die Binomialverteilung bereits lange vorher bekannt war, wurde der Begriff zum ersten Mal 1911 in einem Buch von George Udny Yule verwendet.<ref>George Udny Yule: An Introduction to the Theory of Statistics. Griffin, London 1911, S. 287</ref>
Inhaltsverzeichnis
- 1 Beispiele
- 2 Definition der Binomialverteilung
- 3 Eigenschaften der Binomialverteilung
- 4 Beziehung zu anderen Verteilungen
- 4.1 Beziehung zur Bernoulli-Verteilung
- 4.2 Beziehung zur verallgemeinerten Binomialverteilung
- 4.3 Übergang zur Normalverteilung
- 4.4 Übergang zur Poisson-Verteilung
- 4.5 Beziehung zur geometrischen Verteilung
- 4.6 Beziehung zur negativen Binomialverteilung
- 4.7 Beziehung zur hypergeometrischen Verteilung
- 4.8 Beziehung zur Multinomial-Verteilung
- 4.9 Beziehung zur Rademacher-Verteilung
- 4.10 Beziehung zur Panjer-Verteilung
- 4.11 Beziehung zur Betaverteilung
- 4.12 Beziehung zur Beta-Binomialverteilung
- 4.13 Beziehung zur Pólya-Verteilung
- 5 Beispiele
- 6 Zufallszahlen
- 7 Einzelnachweise
- 8 Weblinks
Beispiele
Die Wahrscheinlichkeit, eine Zahl größer als 2 zu würfeln, beträgt <math>p = \tfrac23</math>; die Wahrscheinlichkeit <math>q</math>, dass dies nicht der Fall ist, beträgt <math>q = \tfrac13</math>. Angenommen man würfelt 10-mal (<math>n=10</math>), dann gibt es eine kleine Wahrscheinlichkeit, dass kein einziges Mal eine Zahl größer als 2 gewürfelt wird oder umgekehrt jedes Mal. Die Wahrscheinlichkeit, dass man <math>k</math>-mal eine solche Zahl würfelt <math>(0 \le k \le 10)</math>, wird durch die Binomialverteilung <math>B_{n,p}(k)</math> beschrieben.
Häufig wird der durch die Binomialverteilung beschriebene Prozess auch durch ein sogenanntes Urnenmodell illustriert. In einer Urne seien z. B. 6 Kugeln, 2 davon schwarz, die anderen weiß. Man greife nun 10-mal in die Urne, hole eine Kugel heraus, notiere deren Farbe und lege die Kugel wieder zurück. In einer speziellen Deutung dieses Prozesses wird das Ziehen einer weißen Kugel als „positives Ereignis“ mit der Wahrscheinlichkeit <math>p</math> verstanden, das Ziehen einer nicht weißen Kugel als „negatives Resultat“. Die Wahrscheinlichkeiten sind genauso verteilt wie im vorherigen Beispiel des Würfelns.
Definition der Binomialverteilung
Wahrscheinlichkeitsfunktion, (kumulierte) Verteilungsfunktion, Eigenschaften
Die diskrete Wahrscheinlichkeitsverteilung mit der Wahrscheinlichkeitsfunktion
- <math> B(k \mid p,n) = \binom nk p^k (1-p)^{n-k}</math> für <math>k=0,1,\dotsc, n</math>
heißt die Binomialverteilung zu den Parametern <math>n</math> (Anzahl der Versuche) und <math>p\in [0,1]</math> (der Erfolgs- oder Trefferwahrscheinlichkeit). Statt <math>B(k\mid p,n)</math> schreibt man vielfach auch <math>B_{n,p}(k)</math>, <math>B(n,p,k)</math><ref>Dr.Peter Kissel: MAC08 Stochastik (Teil2). Studiengemeinschaft Darmstadt 2014, S.12.</ref> oder <math>B(n;p;k)</math><ref>Bigalke/Köhler: Mathematik 13.2 Grund- und Leistungskurs. Cornelsen, Berlin 2000, S.130.</ref>.
Die zur Erfolgswahrscheinlichkeit <math>p</math> komplementäre Ausfallwahrscheinlichkeit <math>1-p</math> wird häufig mit <math>q</math> abgekürzt. Wie für eine Wahrscheinlichkeitsverteilung notwendig, müssen sich die Wahrscheinlichkeiten für alle möglichen Werte k zu 1 summieren. Dies ergibt sich aus dem binomischen Lehrsatz wie folgt
- <math>\sum_{k=0}^n \binom nk p^k (1-p)^{n-k} = (p + 1 -p)^n = 1^n = 1</math>.
Eine nach <math>B(\cdot\mid p,n)</math> verteilte Zufallsgröße <math>X</math> heißt dementsprechend binomialverteilt mit den Parametern <math>n</math> und <math>p</math> sowie der Verteilungsfunktion
- <math>F_X(x)=\operatorname P(X\le x) = \sum_{k=0}^{\lfloor x \rfloor}\binom nk p^k (1-p)^{n-k}</math>.
Weitere gebräuchliche Schreibweisen dieser sogen. kumulierten Binomialverteilung sind <math>F(k \mid p,n)</math>, <math>F(n,p,k)</math><ref>Dr.Peter Kissel: MAC08 Stochastik (Teil2). Studiengemeinschaft Darmstadt 2014, S.23.</ref> sowie <math>F(n;p;k)</math><ref>Bigalke/Köhler: Mathematik 13.2 Grund- und Leistungskurs. Cornelsen, Berlin 2000, S.144ff.</ref>.
Herleitung als Laplace-Wahrscheinlichkeit
Versuchsschema: Eine Urne enthält N Bälle, davon sind M schwarz und N-M weiß. Die Wahrscheinlichkeit p, einen schwarzen Ball zu ziehen, ist also <math>p = \frac{M}N</math>. Es werden nacheinander zufällig n Bälle entnommen, untersucht und wieder zurückgelegt.
Wir berechnen die Anzahl der Möglichkeiten, in denen man k schwarze Bälle findet und daraus die sogenannte Laplace-Wahrscheinlichkeit („Anzahl der für das Ereignis günstigen Möglichkeiten geteilt durch Gesamtanzahl der (gleich wahrscheinlichen) Möglichkeiten“).
In jeder der n Ziehungen gibt es N Möglichkeiten, insgesamt also <math>N^n</math> Möglichkeiten für die Auswahl der Bälle. Damit genau k dieser n Bälle schwarz sind, müssen genau k der n Ziehungen einen schwarzen Ball aufweisen. Für jeden schwarzen Ball gibt es M Möglichkeiten, und für jeden weißen Ball N–M Möglichkeiten. Die k schwarzen Bälle können noch auf <math>\tbinom nk</math> mögliche Weisen über die n Ziehungen verteilt sein, also gibt es
- <math>\binom nk M^k(N-M)^{n-k}</math>
Fälle, worin genau k schwarze Bälle ausgewählt worden sind. Die Wahrscheinlichkeit <math>p_k</math>, unter n Bällen genau k schwarze zu finden ist also
- <math>\begin{align}
p_k &= \binom nk \frac{M^k(N-M)^{n-k}}{N^n}\\
&= \binom nk \left(\frac MN\right)^k\left(\frac{N-M}N\right)^{n-k}\\ &= \binom nk p^k (1-p)^{n-k}.
\end{align}</math>
Eigenschaften der Binomialverteilung
Symmetrie
- Die Binomialverteilung ist in den Spezialfällen <math>p = 0</math>, <math>p = 0{,}5</math> und <math>p = 1</math> symmetrisch und ansonsten asymmetrisch.
- Die Binomialverteilung besitzt die Eigenschaft <math>B(k|p,n) = B(n-k|1-p,n).</math>
Erwartungswert
Die Binomialverteilung besitzt den Erwartungswert <math>np</math>.
- Beweis
Den Erwartungswert μ errechnet man direkt aus der Definition <math>\mu=\sum_{i=1}^n x_i p_i</math> und dem binomischen Lehrsatz zu
- <math>\begin{align}
\mu &= \sum_{k=0}^n k\binom nk p^k (1-p)^{n-k}\\ &= np\sum_{k=0}^n k\frac{(n-1)!}{(n-k)!k!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\ &= np\sum_{k=1}^n \frac{(n-1)!}{(n-k)!(k-1)!}p^{k-1} (1-p)^{(n-1)-(k-1)}\\ &= np\sum_{k=1}^n \binom{n-1}{k-1} p^{k-1} (1-p)^{(n-1)-(k-1)}\\ &= np\sum_{\ell=0}^{n-1} \binom{n-1}\ell p^\ell (1-p)^{(n-1)-\ell}\quad\text{mit } \ell:=k-1\\ &= np\sum_{\ell=0}^m \binom m\ell p^\ell (1-p)^{m-\ell}\qquad\text{mit } m:=n-1\\ &= np\left(p+\left(1-p\right)\right)^m=np1^m=np
\end{align}</math> oder alternativ mit der Summenregel für Erwartungswerte, wenn man berücksichtigt, dass die identischen Einzelprozesse <math>X_i</math> der Bernoulli-Verteilung mit <math>\operatorname{E}(X_i)=p</math> genügen, zu <Math>X=X_1+\dotsb+X_n</math> B(n,p)-verteilt, und
- <math>\operatorname E(X) = \operatorname E(X_1+\dotsb+X_n)= \operatorname E(X_1)+\dotsb+\operatorname E(X_n)= n \operatorname E(X_1)=np.</math>
Alternativ kann man ebenfalls mit Hilfe des binomischen Lehrsatzes folgenden Beweis geben: Differenziert man bei der Gleichung
- <math>(a+b)^n=\sum_{k=0}^n \tbinom nk a^k b^{n-k}</math>
beide Seiten nach <math>a</math>, ergibt sich
- <math>n(a+b)^{n-1}=\sum_{k=0}^n k\tbinom n ka^{k-1} b^{n-k}</math>,
also
- <math>na(a+b)^{n-1}=\sum_{k=0}^n k\tbinom n ka^k b^{n-k}</math>.
Mit <math>a=p</math> und <math>b=1-p</math> folgt das gewünschte Ergebnis.
Varianz
Die Binomialverteilung besitzt die Varianz <math>npq</math> mit <math>q=1-p</math>.
- Beweis
Es sei X eine B(n,p)-verteilte Zufallsvariable. Die Varianz bestimmt sich direkt aus dem Verschiebungssatz <math>\operatorname{Var}(X)=\operatorname E\left(X^2\right)-\left(\operatorname E\left(X\right)\right)^2</math> zu
- <math>\operatorname{Var}(X) =\sum_{k=0}^n k^2\binom nk p^k (1-p)^{n-k}-n^2p^2 = np(1-p)=npq</math>
oder alternativ aus der Summenregel für die Varianz unabhängiger Zufallsvariablen, wenn man berücksichtigt, dass die identischen Einzelprozesse <math>X_i</math> der Bernoulli-Verteilung mit <math>\operatorname{Var}(X_i) = p(1-p)= pq</math> genügen, zu
- <math>\operatorname{Var}(X)=\operatorname{Var}(X_1+\dotsb+X_n)=\operatorname{Var}(X_1)+\dotsb+\operatorname{Var}(X_n)=n \operatorname{Var}(X_1)=np\left(1-p\right)=npq.</math>
Die zweite Gleichheit gilt, da die Einzelexperimente unabhängig sind, so dass die Einzelvariablen unkorreliert sind.
Variationskoeffizient
Aus Erwartungswert und Varianz erhält man den Variationskoeffizienten
- <math>\operatorname{VarK}(X) = \sqrt{\frac{1-p}{np}}.</math>
Schiefe
Die Schiefe ergibt sich zu
- <math>\operatorname v(X) = \frac{1-2p}{\sqrt{np(1-p)}}.</math>
Wölbung
Die Wölbung lässt sich ebenfalls geschlossen darstellen als
- <math>\beta_2 = 3+\frac{1-6pq}{npq}.</math>
Damit ist der Exzess
- <math> \gamma = \frac{1-6pq}{npq}.</math>
Modus
Der Modus, also der Wert mit der maximalen Wahrscheinlichkeit, ist für <math>p<1</math> gleich <math>k=\lfloor np+p\rfloor</math> und für <math>p=1</math> gleich <math>n</math>. Falls <math>np+p</math> eine natürliche Zahl ist, ist <math>k= np+p-1</math> ebenfalls ein Modus. Falls der Erwartungswert eine natürliche Zahl ist, ist der Erwartungswert gleich dem Modus.
- Beweis
Sei ohne Einschränkung <math>0<p<1</math>. Wir betrachten den Quotienten
- <math>\alpha_k:=\frac {B(k+1 \mid p,n)}{B(k \mid p,n)} =\frac {\,\frac {n!}{(k+1)!(n-k-1)!}\,}{\frac {n!}{k!(n-k)!}}\cdot\frac{p^{k+1}(1-p)^{n-k-1}}{p^k (1-p)^{n-k}}=\frac{n-k}{k+1}\cdot\frac p{1-p}</math>.
Nun gilt <math>\alpha_k>1</math>, falls <math>k<np+p-1</math> und <math>\alpha_k<1</math>, falls <math>k>np+p-1</math>. Also:
- <math>\begin{align}
k > (n+1)p-1 \Rightarrow \alpha_k < 1 \Rightarrow B(k+1 \mid p,n) < B(k \mid p,n) \\ k = (n+1)p-1 \Rightarrow \alpha_k = 1 \Rightarrow B(k+1 \mid p,n) = B(k \mid p,n) \\ k < (n+1)p-1 \Rightarrow \alpha_k > 1 \Rightarrow B(k+1 \mid p,n) > B(k \mid p,n) \end{align}</math>
Und nur im Fall, dass <math>np+p-1\in\N</math>, hat der Quotient den Wert 1, d. h. <math>B(np+p-1\mid n,p)=B(np+p \mid n,p)</math>.
Median
Für den Median <math> \tilde m </math> gilt
- <math>\lfloor np\rfloor \leq \tilde m \leq \lfloor (n+1)\,p \rfloor</math>.
Kumulanten
Analog zur Bernoulli-Verteilung ist die kumulantenerzeugende Funktion
- <math> g_X(t)=n \ln (pe^t+q) </math>.
Damit sind die ersten Kumulanten <math> \kappa_1=np, \kappa_2=npq </math> und es gilt die Rekursionsgleichung
- <math>\kappa_{k+1}=p (1-p) \frac{d\kappa_k}{dp}.</math>
Charakteristische Funktion
Die charakteristische Funktion hat die Form
- <math>\phi_X(s) = \left(\left(1-p\right)+p\mathrm{e}^{\mathrm{i}s}\right)^n = \left(q+p\mathrm{e}^{\mathrm{i}s}\right)^n.</math>
Wahrscheinlichkeitserzeugende Funktion
Für die wahrscheinlichkeitserzeugende Funktion erhält man
- <math>g_X(s) = (ps+(1-p))^n.</math>
Momenterzeugende Funktion
Die momenterzeugende Funktion der Binomialverteilung lautet
- <math>
\begin{align} m_X(s) & = \operatorname E\left(e^{sX}\right) \\ & = \sum_{X=0}^n \mathrm{e}^{sX} \cdot \binom{n}{X} p^X (1-p)^{n-X} \\ & = \sum_{X=0}^n \binom{n}{X} (\mathrm{e}^s p)^X (1-p)^{n-X} \\ & = \left(p \cdot\mathrm{e}^s + \left(1-p\right)\right)^n. \end{align}</math>
Summe binomialverteilter Zufallsgrößen
Für die Summe <math>Z=X+Y</math> zweier unabhängiger binomialverteilter Zufallsgrößen <math>X</math> und <math>Y</math> mit den Parametern <math>n_1</math>, <math>p</math> und <math>n_2</math>, <math>p</math> erhält man die Einzelwahrscheinlichkeiten
- <math>\begin{align}
\operatorname P(Z=k) &= \sum_{i=0}^k\left[\binom{n_1}i p^i (1-p)^{n_1-i}\right]\left[\binom{n_2}{k-i} p^{k-i} (1-p)^{n_2-k+i}\right]\\ &= \binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k} \qquad k=0,1,\ldots,n_1+n_2
\end{align}</math> also wieder eine binomialverteilte Zufallsgröße, jedoch mit den Parametern <math>n_1+n_2</math> und <math>p</math>. Die Binomialverteilung ist also reproduktiv für fixiertes <math> p </math> bzw. bildet eine Faltungshalbgruppe.
Wenn die Summe <math>Z=X+Y</math> bekannt ist, folgt jede der Zufallsvariablen <math>X</math> und <math>Y</math> unter dieser Bedingung einer hypergeometrischen Verteilung. Dazu berechnet man die bedingte Wahrscheinlichkeit:
- <math>\begin{align}
P(X=\ell|Z=k) &= \frac{P(X=\ell\cap Z=k)}{P(Z=k)}\\ &= \frac{P(X=\ell\cap Y=k-\ell)}{P(Z=k)}\\ &= \frac{P(X=\ell) P(Y=k-\ell)}{P(Z=k)}\\ &= \frac{\binom{n_1}\ell p^\ell (1-p)^{n_1-\ell} \binom{n_2}{k-\ell} p^{k-\ell} (1-p)^{n_2-k+\ell}} {\binom{n_1+n_2}k p^k (1-p)^{n_1+n_2-k}}\\ &= \frac{\binom{n_1}\ell \binom{n_2}{k-\ell}} {\binom{n_1+n_2}k}\\ &=h(\ell;n_1+n_2;n_1;k)
\end{align}</math>
Dies stellt eine hypergeometrische Verteilung dar.
Allgemein gilt: Wenn die <math>m</math> Zufallsvariablen <math>X_i</math> stochastisch unabhängig sind und den Binomialverteilungen <math>B(n_i,p)</math> genügen, dann ist auch die Summe <math>X_1+X_2+\dotsb+X_m</math> binomialverteilt, jedoch mit den Parametern <math>n_1+n_2+\dotsb+n_m</math> und <math>p</math>. Addiert man binomialverteilte Zufallsvariablen <math> X_1,X_2 </math>mit <math> p_1 \neq p_2 </math>, dann erhält man eine verallgemeinerte Binomialverteilung
Beziehung zu anderen Verteilungen
Beziehung zur Bernoulli-Verteilung
Ein Spezialfall der Binomialverteilung für <math>n = 1</math> ist die Bernoulli-Verteilung. Die Summe von unabhängigen und identischen Bernoulli-verteilten Zufallsgrößen genügt demnach der Binomialverteilung.
Beziehung zur verallgemeinerten Binomialverteilung
Die Binomialverteilung ist ein Spezialfall der verallgemeinerten Binomialverteilung mit <math> p_i=p_j </math> für alle <math> i,j \in \{1, \dots, n\} </math>
Übergang zur Normalverteilung
Nach dem Satz von Moivre-Laplace konvergiert die Binomialverteilung im Grenzfall <math>n\to\infty</math> gegen eine Normalverteilung, d. h. die Normalverteilung kann als brauchbare Näherung der Binomialverteilung verwendet werden, wenn der Stichprobenumfang hinreichend groß und der Anteil der gesuchten Ausprägung nicht zu klein ist.
Es gilt <math>\mu=np</math> und <math>\sigma^2=npq.</math> Durch Einsetzen in die Verteilungsfunktion <math>\Phi</math> der Standardnormalverteilung folgt
- <math>B(k \mid p,n)\approx\Phi\left({k+0{,}5-np\over\sqrt{npq}}\right)-\Phi\left({k-0{,}5-np\over\sqrt{npq}}\right) \approx {1\over\sqrt{2\pi npq}}\,\cdot\exp\left(-{{(k-np)}^2\over 2npq}\right).</math>
Die Annäherung der Binomialverteilung an die Normalverteilung wird bei der Normal-Approximation genutzt, um schnell die Wahrscheinlichkeit vieler Stufen der Binomialverteilung zu bestimmen.
Übergang zur Poisson-Verteilung
Eine asymptotisch asymmetrische Binomialverteilung, deren Erwartungswert <math>np</math> für <math>n\rightarrow\infty</math> und <math>p\rightarrow 0</math> gegen eine Konstante <math>\lambda</math> konvergiert, kann man durch die Poisson-Verteilung annähern. Der Wert <math>\lambda</math> ist dann für alle in der Grenzwertbildung betrachteten Binomialverteilungen wie auch für die resultierende Poissonverteilung der Erwartungswert. Diese Annäherung wird auch als Poisson-Approximation, Poissonscher Grenzwertsatz oder als das Gesetz seltener Ereignisse bezeichnet.
- <math>\begin{align}B(k \mid p,n) &= {n \choose k} p^{k}\, (1-p)^{n-k}
=\frac{n!}{(n-k)! \, k!}\left(\frac{np}{n}\right)^k\left(1-\frac{np}{n}\right)^{n-k} \\ &=\frac{n (n-1)(n-2) \dotsm (n-k+1)}{n^k}\, \frac{(np)^k}{k!}\left(1-\frac{np}{n}\right)^{n-k} \\ &=\left(1-\frac{1}{n}\right)\left(1-\frac{2}{n}\right) \dotsm \left(1-\frac{k-1}{n}\right)\frac{(np)^k}{k!} \left(1-\frac{(np)}{n}\right)^{n-k} \\ &\to \, \frac{\lambda^k}{k!} \mathrm{e}^{-\lambda}\quad \text{wenn}\quad n\to\infty\quad \text{und}\quad p\rightarrow 0 \end{align}</math>
Eine Faustregel besagt, dass diese Näherung brauchbar ist, wenn <math>n\geq 50</math> und <math>p\leq 0{,}05</math>.
Die Poisson-Verteilung ist also die Grenzverteilung der Binomialverteilung für große <math>n</math> und kleine <math>p</math>, es handelt sich hierbei um Konvergenz in Verteilung.
Beziehung zur geometrischen Verteilung
Die Zahl der Misserfolge bis zum erstmaligen Eintritt eines Erfolgs wird durch die geometrische Verteilung beschrieben.
Beziehung zur negativen Binomialverteilung
Die negative Binomialverteilung hingegen beschreibt die Wahrscheinlichkeitsverteilung der Anzahl der Versuche, die erforderlich sind, um in einem Bernoulli-Prozess eine vorgegebene Anzahl von Erfolgen zu erzielen.
Beziehung zur hypergeometrischen Verteilung
Bei der Binomialverteilung werden die ausgewählten Stichproben wieder in die Auswahlmenge zurückgeführt, können also zu einem späteren Zeitpunkt erneut ausgewählt werden. Werden im Gegensatz dazu die Stichproben nicht in die Grundgesamtheit zurückgegeben, kommt die hypergeometrische Verteilung zur Anwendung. Die beiden Verteilungen gehen bei großem Umfang <math>N</math> der Grundgesamtheit und geringem Umfang <math>n</math> der Stichproben ineinander über. Als Faustregel gilt, dass für <math>n/N\leq 0{,}05</math> auch bei Nichtzurücklegen der Stichproben die Binomialverteilung statt der mathematisch anspruchsvolleren hypergeometrischen Verteilung verwendet werden kann, da beide in diesem Fall nur unwesentlich voneinander abweichende Ergebnisse liefern.
Beziehung zur Multinomial-Verteilung
Die Binomialverteilung ist ein Spezialfall der Multinomialverteilung.
Beziehung zur Rademacher-Verteilung
Ist <math> Y </math> Binomialverteilt zum Parameter <math> p=0{,}5 </math> und <math> n </math>, so lässt sich <math>Y </math> als skalierte Summe von <math> n </math> Rademacher-Verteilten Zufallsvariablen <math> X_1, \dots, X_n </math> darstellen:
- <math> Y=0{,}5\left(n+\sum_{i=1}^nX_i\right) </math>.
Dies wird insbesondere beim symmetrischen Random Walk auf <math> \mathbb{Z} </math> verwendet.
Beziehung zur Panjer-Verteilung
Die Binomialverteilung ist ein Spezialfall der Panjer-Verteilung, welche die Verteilungen Binomialverteilung, Negative Binomialverteilung und Poisson-Verteilung in einer Verteilungsklasse vereint.
Beziehung zur Betaverteilung
Für viele Anwendungen ist es nötig, die Verteilungsfunktion
- <math>\sum_{i=0}^k B(i \mid p,n)</math>
konkret auszurechnen (beispielsweise bei statistischen Tests oder für Konfidenzintervalle).
Hier hilft die folgende Beziehung zur Betaverteilung
- <math>\sum_{i=0}^k \binom{n}{i} \cdot p^i \cdot (1-p)^{n-i}=\operatorname{Beta}(1-p;n-k;k+1)</math>.
Diese lautet für ganzzahlige positive Parameter <math>a</math> und <math>b</math>:
- <math>\operatorname{Beta}(x;a;b)={(a + b - 1)!\over (a-1)! \cdot (b-1)!}\int_0^x u^{a-1} (1-u)^{b-1}\, \mathrm{d}u</math>.
Um die Gleichung
- <math> \sum_{i=0}^k \binom{n}{i} \cdot p^i \cdot (1-p)^{n-i} = {n!\over (n-k-1)! \cdot k!}\int_0^{1-p} u^{n-k-1} (1-u)^{k}\, \mathrm{d}u</math>
zu beweisen, kann man folgendermaßen vorgehen:
- Die linke und rechte Seite stimmen für <math>p=0</math> überein (beide Seiten sind gleich 1).
- Die Ableitungen nach <math>p</math> stimmen für die linke und rechte Seite der Gleichung überein, sie sind nämlich beide gleich <math>- {n!\over (n-k-1)! \cdot k!} \cdot p^k \cdot (1-p)^{n-k-1}</math>.
Beziehung zur Beta-Binomialverteilung
Eine Binomialverteilung, deren Parameter <math> p </math> Beta-verteilt ist, nennt man eine Beta-Binomialverteilung. Sie ist eine Mischverteilung.
Beziehung zur Pólya-Verteilung
Die Binomialverteilung ist ein Spezialfall der Pólya-Verteilung (wähle <math>c=0</math>).
Beispiele
Symmetrische Binomialverteilung (p = 1/2)
- Bindis-plain.png
p = 0,5 und n = 4,16,64
- Bindis-sym.png
Mittelwert abgezogen
- Bindis-rescaled.png
Skalierung mit Standardabweichung
Dieser Fall tritt auf beim <math>n</math>-fachen Münzwurf mit einer fairen Münze (Wahrscheinlichkeit für Kopf gleich der für Zahl, also gleich 1/2). Die erste Abbildung zeigt die Binomialverteilung für <math>p=0{,}5</math> und für verschiedene Werte von <math>n</math> als Funktion von <math>k</math>. Diese Binomialverteilungen sind spiegelsymmetrisch um den Wert <math>k=n/2</math>:
- <math>B(k \mid 1/2;n) =B(n-k \mid 1/2;n),</math>
Dies ist in der zweiten Abbildung veranschaulicht. Die Breite der Verteilung wächst proportional zur Standardabweichung <math>\sigma = {\sqrt{n} \over 2}</math>. Der Funktionswert bei <math>k=n/2</math>, also das Maximum der Kurve, sinkt proportional zu <math>\sigma</math>.
Dementsprechend kann man Binomialverteilungen mit unterschiedlichem <math>n</math> aufeinander skalieren, indem man die Abszisse <math>k-n/2</math> durch <math>\sigma</math> teilt und die Ordinate mit <math>\sigma</math> multipliziert (dritte Abbildung oben).
Die nebenstehende Graphik zeigt noch einmal reskalierte Binomialverteilungen, nun für andere Werte von <math>n</math> und in einer Auftragung, die besser verdeutlicht, dass sämtliche Funktionswerte mit steigendem <math>n</math> gegen eine gemeinsame Kurve konvergieren. Indem man die Stirling-Formel auf die Binomialkoeffizienten anwendet, erkennt man, dass diese Kurve (im Bild schwarz durchgezogen) eine Gaußsche Glockenkurve ist:
- <math> f(x) = {1 \over \sqrt{2 \pi}}\, {\mathrm e}^{-\frac{x^2}{2}}</math>.
Dies ist die Wahrscheinlichkeitsdichte zur Standard-Normalverteilung <math>\mathcal{N}(0,1)</math>. Im zentralen Grenzwertsatz wird dieser Befund so verallgemeinert, dass auch Folgen anderer diskreter Wahrscheinlichkeitsverteilungen gegen die Normalverteilung konvergieren.
Die zweite nebenstehende Graphik zeigt die gleichen Daten in einer halblogarithmischen Auftragung. Dies ist dann zu empfehlen, wenn man überprüfen möchte, ob auch seltene Ereignisse, die um mehrere Standardabweichungen vom Erwartungswert abweichen, einer Binomial- oder Normalverteilung folgen.
Ziehen von Kugeln
In einem Behälter befinden sich 80 Kugeln, davon sind 16 gelb. Es wird 5-mal eine Kugel entnommen und anschließend wieder zurückgelegt. Wegen des Zurücklegens ist die Wahrscheinlichkeit, eine gelbe Kugel zu ziehen, bei allen Entnahmen gleich groß, und zwar 16/80 = 1/5. Der Wert <math>B\left(k \mid\tfrac{1}{5}; 5\right)</math> gibt die Wahrscheinlichkeit dafür an, dass genau <math>k</math> der entnommenen Kugeln gelb sind. Als Beispiel rechnen wir <math>k=3</math>:
- <math>B\left(3 \mid\tfrac{1}{5};5\right)=\binom{5}{3}\cdot\left(\frac{1}{5}\right)^3\cdot\left(\frac{4}{5}\right)^2 = \frac{5\cdot 4}{1\cdot 2}\cdot\frac{1}{125}\cdot\frac{16}{25}=\frac{64}{1250}=0{,}0512</math>
In ungefähr 5 % der Fälle zieht man also genau 3 gelbe Kugeln.
B(k | 0,2; 5) | |
k | Wahrscheinlichkeit in % |
0 | 32,768 |
1 | 40,96 |
2 | 20,48 |
3 | 5,12 |
4 | 0,64 |
5 | 0,032 |
∑ | 100 |
Erw.Wert | 1 |
Varianz | 0.8 |
Anzahl Personen mit Geburtstag am Wochenende
Die Wahrscheinlichkeit, dass eine Person in diesem Jahr an einem Wochenende Geburtstag hat, betrage (der Einfachheit halber) 2/7. In einem Raum halten sich 10 Personen auf. Der Wert <math>B(k \mid 2/7; 10)</math> gibt (im vereinfachten Modell) die Wahrscheinlichkeit dafür an, dass genau <math>k</math> der Anwesenden in diesem Jahr an einem Wochenende Geburtstag haben.
B(k | 2/7; 10) | |
k | Wahrscheinlichkeit in % (gerundet) |
0 | 3,46 |
1 | 13,83 |
2 | 24,89 |
3 | 26,55 |
4 | 18,59 |
5 | 8,92 |
6 | 2,97 |
7 | 0,6797 |
8 | 0,1020 |
9 | 0,009063 |
10 | 0,0003625 |
∑ | 100 |
Erw.Wert | 2,86 |
Varianz | 2,04 |
Gemeinsamer Geburtstag im Jahr
253 Personen sind zusammengekommen. Der Wert <math>B(k \mid 1/365; 253)</math> gibt die Wahrscheinlichkeit an, dass genau <math>k</math> Anwesende an einem zufällig gewählten Tag Geburtstag haben (ohne Beachtung des Jahrganges).
B(k | 1/365; 253) | |
k | Wahrscheinlichkeit in % (gerundet) |
0 | 49,95 |
1 | 34,72 |
2 | 12,02 |
3 | 2,76 |
4 | 0,47 |
Die Wahrscheinlichkeit, dass „irgendjemand“ dieser 253 Personen, d.h. eine oder mehrere Personen, an diesem Tag Geburtstag haben, beträgt somit <math>1 - B(0 \mid 1/365; 253) = 50.05\%</math>.
Bei 252 Personen beträgt die Wahrscheinlichkeit <math>1 - B(0 \mid 1/365; 252) = 49.91\%</math>. Das heißt, die Schwelle der Anzahl von Personen, ab der die Wahrscheinlichkeit, dass mindestens eine dieser Personen an einem zufällig gewählten Tag Geburtstag hat, größer als 50 % wird, beträgt 253 Personen (siehe dazu auch Geburtstagsparadoxon).
Die direkte Berechnung der Binomialverteilung kann aufgrund der großen Fakultäten schwierig sein. Eine Näherung über die Poisson-Verteilung ist hier zulässig (<math>n>50, p<0{,}05</math>). Mit dem Parameter <math>\lambda = np = 253/365</math> ergeben sich folgende Werte:<ref>Im konkreten Fall muss man für die Binomialverteilung <math>\left(\tfrac{364}{365}\right)^{253}</math> ausrechnen und für die Poissonverteilung <math>e^{-253/365}</math>. Beides ist mit dem Taschenrechner einfach. Bei einer Rechnung mit Papier und Bleistift benötigt man mit der Exponentialreihe 8 oder 9 Glieder für den Wert der Poissonverteilung, während man für die Binomialverteilung durch mehrfaches Quadrieren auf die 256. Potenz kommt und dann noch durch die dritte Potenz teilt.</ref>
P253/365(k) | |
k | Wahrscheinlichkeit in % (gerundet) |
0 | 50 |
1 | 34,66 |
2 | 12,01 |
3 | 2,78 |
4 | 0,48 |
Konfidenzintervall für eine Wahrscheinlichkeit
In einer Meinungsumfrage unter <math>n</math> Personen geben <math>k</math> Personen an, die Partei A zu wählen. Bestimme ein 95-%-Konfidenzintervall für den unbekannten Anteil der Wähler, die Partei A wählen, in der Gesamtwählerschaft.
Eine Lösung des Problems ohne Rückgriff auf die Normalverteilung findet sich im Artikel Konfidenzintervall einer unbekannten Wahrscheinlichkeit.
Auslastungsmodell
Mittels folgender Formel lässt sich die Wahrscheinlichkeit dafür errechnen, dass <math>k</math> von <math>n</math> Personen eine Tätigkeit, die durchschnittlich <math>m</math> Minuten pro Stunde dauert, gleichzeitig ausführen.
<math>P(X=k) = {n \choose k}\cdot\left(\frac{m}{60}\right)^k\cdot\left(1-\frac{m}{60}\right)^{n-k}</math>
Statistischer Fehler der Klassenhäufigkeit in Histogrammen
Die Darstellung unabhängiger Messergebnisse in einem Histogramm führt zur Gruppierung der Messwerte in Klassen.
Die Wahrscheinlichkeit für <math>n_i</math> Einträge in Klasse <math>i</math> ist gegeben durch die Binomialverteilung <math>B_{n,p_i}(n_i)</math> mit <math>n = \Sigma n_i</math> und <math>p_i = n_i /n</math>.
Erwartungswert und Varianz der <math>n_i</math> sind dann <math>E(n_i) = n p_i = n_i</math> und <math>V(n_i) = n p_i (1-p_i)= n_i(1-n_i/n)</math>.
Damit liegt der statistische Fehler der Anzahl von Einträgen in Klasse <math>i</math> bei <math>\sigma (n_i) = \sqrt{n_i(1-n_i/n)}</math>. Bei großer Zahl von Klassen wird <math>p_i</math> klein und <math>\sigma (n_i) \approx \sqrt{n_i}</math>.
So lässt sich beispielsweise die statistische Genauigkeit von Monte-Carlo-Simulationen bestimmen.
Zufallszahlen
Zufallszahlen zur Binomialverteilung werden üblicherweise mit Hilfe der Inversionsmethode erzeugt. Alternativ kann man auch ausnutzen, dass die Summe von Bernoulli-verteilten Zufallsvariablen binomialverteilt ist. Man erzeugt <math> n </math> Bernoulli-verteilte Zufallszahlen und summiert diese auf. Das Ergebnis ist eine binomialverteilte Zufallszahl.
Einzelnachweise
<references />
Weblinks
- Bernoulli-Versuche und Binomialverteilung
- Rechner für einfache und kumulierte Wahrscheinlichkeiten der Binomialverteilung (deutsch)
- Berechnung der Binomialverteilung für einfache und kumulierte Wahrscheinlichkeiten (englisch)
- Binomial- und Normalverteilung – Online-Lehrgang mit dynamischen Arbeitsblättern (Java-Plugin benötigt)
- Interaktive Animation – Universität Konstanz (Java-Plugin benötigt)
- Interaktive Animation (Flash-Plugin benötigt)
- Earliest Known Uses of Some of the Words of Probability & Statistics - Kees Verduin.
Diskrete univariate Verteilungen für endliche Mengen:
Benford |
Bernoulli |
beta-binomial |
binomial |
Dirac |
diskret uniform |
hypergeometrisch |
kategorial |
negativ hypergeometrisch |
Rademacher |
verallgemeinert binomial |
Zipf |
Zipf-Mandelbrot |
Zweipunkt
Diskrete univariate Verteilungen für unendliche Mengen:
Boltzmann |
Conway-Maxwell-Poisson |
discrete-Phase-Type |
erweitert negativ binomial |
Gauss-Kuzmin |
gemischt Poisson |
geometrisch |
logarithmisch |
negativ binomial |
parabolisch-fraktal |
Poisson |
Skellam |
verallgemeinert Poisson |
Yule-Simon |
Zeta
Kontinuierliche univariate Verteilungen mit kompaktem Intervall:
Beta |
Cantor |
Kumaraswamy |
raised Cosine |
Dreieck |
U-quadratisch |
stetig uniform |
Wigner-Halbkreis
Kontinuierliche univariate Verteilungen mit halboffenem Intervall:
Beta prime |
Bose-Einstein |
Burr |
Chi-Quadrat |
Coxian |
Erlang |
Exponential |
F |
Fermi-Dirac |
Folded normal |
Fréchet |
Gamma |
Gamma-Gamma |
Extremwert |
verallgemeinert invers Gauß |
halblogistisch |
halbnormal |
Hotellings T-Quadrat |
hyper-exponentiale |
hypoexponential |
invers Chi-Quadrat |
scale-invers Chi-Quadrat |
Invers Normal |
Invers Gamma |
Lévy |
log-normal |
log-logistisch |
Maxwell-Boltzmann |
Maxwell-Speed |
Nakagami |
nichtzentriert Chi-Quadrat |
Pareto |
Phase-Type |
Rayleigh |
relativistisch Breit-Wigner |
Rice |
Rosin-Rammler |
shifted Gompertz |
truncated normal |
Type-2-Gumbel |
Weibull |
Wilks’ Lambda
Kontinuierliche univariate Verteilungen mit unbeschränktem Intervall:
Cauchy |
Extremwert |
exponential Power |
Fishers z |
Fisher-Tippett (Gumbel) |
generalized hyperbolic |
Hyperbolic-secant |
Landau |
Laplace |
alpha-stabil |
logistisch |
normal (Gauß) |
normal-invers Gauß’sch |
Skew-normal |
Studentsche t |
Type-1-Gumbel |
Variance-Gamma |
Voigt
Diskrete multivariate Verteilungen:
Ewen |
multinomial |
multivariat hypergeometrisch |
Dirichlet compound multinomial
Kontinuierliche multivariate Verteilungen:
Dirichlet |
generalized Dirichlet |
multivariat normal |
multivariat Student |
normalskaliert invers Gamma |
Normal-Gamma
Multivariate Matrixverteilungen:
Invers Wishart |
Matrix-normal |
Wishart