$\gdef \vec#1{\boldsymbol{#1}} \\ \gdef \rank {\mathrm{rank}} \\ \gdef \det {\mathrm{det}} \\ \gdef \Bern {\mathrm{Bern}} \\ \gdef \Bin {\mathrm{Bin}} \\ \gdef \Mn {\mathrm{Mn}} \\ \gdef \Cov {\mathrm{Cov}} \\ \gdef \Po {\mathrm{Po}} \\ \gdef \HG {\mathrm{HG}} \\ \gdef \Geo {\mathrm{Geo}}\\ \gdef \N {\mathrm{N}} \\ \gdef \LN {\mathrm{LN}} \\ \gdef \U {\mathrm{U}} \\ \gdef \t {\mathrm{t}} \\ \gdef \F {\mathrm{F}} \\ \gdef \Exp {\mathrm{Exp}} \\ \gdef \Ga {\mathrm{Ga}} \\ \gdef \Be {\mathrm{Be}} \\ \gdef \NB {\mathrm{NB}}$
(再掲)
$X \sim \Bin (n, p)$である時、その確率関数$p(x)$は、
$$\begin{aligned} p(x) (= Pr\{ X=x \}) = \binom{ n }{ x } p^x (1 – p)^{n – x} ~~ (x = 0, \ldots, n) \end{aligned}$$であり、その特性値は、$$\begin{aligned} &{\small ①平均:}E[X] = np \\ &{\small ②分散:}V[X] = np(1 – p)\\ &{\small ③確率母関数:}G^X(s) = \{ps + (1 – p) \}^n \end{aligned}$$となる。
ここでは$2$通りの方法で証明をします。
どちらもできる様にしておくのが望ましいです!
方法1ではベルヌーイ分布の特性値を用いるので、忘れた方は<離散分布>:「1. ベルヌーイ分布」をご参照ください。
方法1. ベルヌーイ分布を応用する方法
(準備)
$X_j \overset{i.i.d}\sim \Bin(1, p) ~~ {\small (j=1, \ldots, n)}$とすると、$X = \sum_{j=1}^n X_j \sim \Bin(n, p)$、となる。
これは、$X=x$となる確率は$X_1 , \ldots , X_n$のうちいずれか$x$個を$1$として残りを$0$とする確率に等しいためである。 ($\Bin(1,p)$は$\Bern(p)$に相当し、二項分布の再生性を用いたとも捉えられる。)
(①平均$E[X]$の証明)
$$\begin{aligned} E[X] &= E[\sum_{j=1}^{n} X_j] \\ &= \sum_{j=1}^{n} E[X_j] \\ &= \sum_{j=1}^{n} p \\ &= np \end{aligned}$$
(②分散$V[X]$の証明)
$$\begin{aligned} V[X] &= V[\sum_{j=1}^{n} X_j] \\ &= \sum_{j=1}^n V[X_j] \\ &{\scriptsize (X_j ~(j=1, \ldots, n)の独立性から)} \\ &= \sum_{j=1}^n p(1-p) \\ &= np(1 – p) \end{aligned}$$
(③確率母関数$G^X(s)$の証明)
$$\begin{aligned} G^X(s) &= E[s^X] \\[5px] &= E[s^{\sum_{j=1}^n X_j}] \\ &= \prod_{j=1}^n E[s^{X_j}] \\ &{\scriptsize (X_j ~(j=1, \ldots, n)の独立性から)} \\ &= \prod_{j=1}^n \{ ps + (1-p) \} \\ &= \{ ps + (1-p) \}^n \end{aligned}$$
方法2. 愚直に計算する方法
(①平均$E[X]$の証明)
$$\begin{aligned} E[X] &= \sum_{x=0}^{n} x p(x) \\ &= \sum_{x=0}^{n} x \cdot \binom{ n }{ x } p^x (1 – p)^{n – x} \\ &= \sum_{x=0}^{n} x \cdot \dfrac{n!}{x! (n – x)!} p^x (1 – p)^{n – x} \\ &= \sum_{x=1}^{n} n \cdot \dfrac{(n-1)!}{(x – 1)! \{ (n-1) – (x-1) \}!} p^x (1 – p)^{n – x} \\ &= np \cdot \sum_{x=1}^{n} \dfrac{(n-1)!}{(x – 1)! \{ (n-1) – (x-1) \}!} p^{x-1} (1 – p)^{(n – 1) – (x – 1)} \\ &= np \cdot \sum_{y=0}^{n-1} \dfrac{(n-1)!}{y! \{ (n-1) – y \}!} p^y (1 – p)^{(n – 1) – y} \\ &= np \cdot \{ p + (1-p) \}^{n-1} \\ &{\scriptsize (二項定理より、(\circ + \bullet)^\triangle = \sum_x \binom{\triangle}{x}\circ^x \bullet^{\triangle – x} = \sum_x \dfrac{\triangle!}{x! (\triangle – x)!} \circ^x \bullet^{\triangle – x})} \\ &= np \end{aligned}$$
(②分散$V[X]$の証明)
$V[X]$を求めるにあたり、まず$E[X(X-1)]$を求める。
$$\begin{aligned} E[X(X-1)] &= \sum_{x=0}^n x(x-1) \cdot p(x) \\ &= \sum_{x=0}^n x(x-1) \cdot \binom{n}{x} p^x (1-p)^{n-x} \\ &= \sum_{x=0}^n x(x-1) \cdot \dfrac{n!}{x!(n-x)!} p^x (1-p)^{n-x} \\ &= \sum_{x=2}^n n(n-1) \cdot \dfrac{(n-2)!}{(x-2)! \{ (n-2) – (x-2) \}!} p^x (1-p)^{n-x} \\ &= n(n-1)p^2 \cdot \sum_{x=2}^n \dfrac{(n-2)!}{(x-2)! \{ (n-2) – (x-2) \}!} p^{x-2} (1-p)^{(n-2)-(x-2)} \\ &= n(n-1) p^2 \cdot \sum_{y=0}^{n-2} \dfrac{(n-2)!}{y! \{ (n-2)-y \}!} p^y (1-p)^{(n-2)-y} \\ &= n(n-1) p^2 \{ p + (1 – p) \}^{n-2} \\[10px] &= n(n-1) p^2 \end{aligned}$$
よって、$$\begin{aligned} V[X] &= E[X^2] – (E[X])^2 \\[5px] &= \{E[X(X-1)] + E[X] \} – (E[X])^2 \\[5px] &= n(n-1) p^2 + np – (np)^2 \\[5px] &= np(1-p) \end{aligned}$$
(③確率母関数$G^X(s)$の証明)
$$\begin{aligned} G^X(s) &= E[s^X] \\ &= \sum_{x=0}^{n} s^x p(x) \\ &= \sum_{x=0}^{n} s^x \cdot \binom{ n }{ x } p^x (1 – p)^{n – x} \\ &= \sum_{x=0}^{n} \binom{ n }{ x } (ps)^x (1 – p)^{n – x} \\ &= \{ ps + (1-p) \}^n \\ &{\scriptsize (ニ項定理より)} \end{aligned}$$