$\gdef \vec#1{\boldsymbol{#1}} \\ \gdef \rank {\mathrm{rank}} \\ \gdef \det {\mathrm{det}} \\ \gdef \Bern {\mathrm{Bern}} \\ \gdef \Bin {\mathrm{Bin}} \\ \gdef \Mn {\mathrm{Mn}} \\ \gdef \Cov {\mathrm{Cov}} \\ \gdef \Po {\mathrm{Po}} \\ \gdef \HG {\mathrm{HG}} \\ \gdef \Geo {\mathrm{Geo}}\\ \gdef \N {\mathrm{N}} \\ \gdef \LN {\mathrm{LN}} \\ \gdef \U {\mathrm{U}} \\ \gdef \t {\mathrm{t}} \\ \gdef \F {\mathrm{F}} \\ \gdef \Exp {\mathrm{Exp}} \\ \gdef \Ga {\mathrm{Ga}} \\ \gdef \Be {\mathrm{Be}} \\ \gdef \NB {\mathrm{NB}}$
(再掲)
確率ベクトル$\vec X = (X_1, \ldots, X_K)^\top$に対して$\vec X \sim \Mn (n; p_1, \ldots, p_K)$である時、その確率関数$p(\vec x)$は、
$$\begin{aligned} p(\vec x) (&= Pr\{ \vec X= \vec x \} = Pr\{ X_1=x_1, \ldots, X_K=x_K \} ) \\ &= \frac{n!}{x_1! \cdots x_K!} p_1^{x_1} \cdots p_K^{x_K} \end{aligned}$$であり、その特性値は、$$\begin{aligned} &{\small ①平均:}E[X_i] = np_i \\ &{\small ②分散:}V[X_i] = np_i(1 – p_i)\\ &{\small ②’共分散:}\Cov[X_i, X_j] = -n p_i p_j ~~ {\small (ただしi \neq j)} \\ &{\small ③確率母関数:}G^{\vec X}(s_1, \ldots, s_K) (= E[s_1^{X_1} \cdots s_K^{X_K}]) = (p_1 s_1 + \cdots + p_K s_K )^n \end{aligned}$$となる。
<補足. 離散分布_二項分布>の様に$2$通りの証明が考えられますが、ここでは計算の少ない『ベルヌーイ分布を応用する方法』で証明します。
(①平均$E[X]$の証明)
(②分散$V[X]$の証明)
(③確率母関数$G^X(s)$の証明)
$K$カテゴリー試行を$1$回行った時、選択されたカテゴリー$i$の個数を$Z_i$とすると、
$\vec Z(=(z_1, \ldots, z_K)^{\top}) \sim \Mn(1; p_1, \ldots, p_K)$、となる。
カテゴリー$i$とその他カテゴリーに分けると、前者、後者を選択する確率はそれぞれ$p_i, (1 – p_i)$であるため(ベルヌーイ試行に相当)、
$$\begin{aligned} E[Z_i] &= p_i \\[10px] V[Z_i] &= p_i (1 – p_i) \\[10px] \Cov[Z_i, Z_j] &= E[(Z_i – E[Z_i]) (Z_j – E[Z_j])] \\ &{\scriptsize (\Covの定義から)} \\ &= E[Z_i Z_j] – E[Z_i] E[Z_j] \\[10px] &= \{ 0 \cdot 0 \cdot Pr\{ Z_i=0{\small かつ}Z_j=0 \} \\ &+\{ 0 \cdot 1 \cdot Pr\{ Z_i=0{\small かつ}Z_j=1 \} \\ &+\{ 1 \cdot 0 \cdot Pr\{ Z_i=1{\small かつ}Z_j=0 \} \\ &+\{ 1 \cdot 1 \cdot Pr\{ Z_i=1{\small かつ}Z_j=1 \} \} – p_i p_j \\[5px] &= 0 – p_i p_j \\[5px] &= – p_i p_j ~~ {\small (i \neq j)} \\[10px] G^{\vec Z}(s_1, \ldots, s_K) &= E[s_1^{z_1} \cdots s_K^{z_K}] \\[10px] &= (s_1^1 s_2^0 \cdots s_K^0) \cdot p_1 \\ &+ (s_1^0 s_2^1 \cdots s_K^0) \cdot p_2 \\ &+ \cdots \\ &+ (s_1^0 s_2^0 \cdots s_K^1) \cdot p_K \\[5px] &= p_1 s_1 + \cdots + p_K s_K \end{aligned}$$となる。
ところで、$\vec Z^{(l)} \sim \Mn(1; p_1, \ldots, p_K) ~ {\small (l=1, \ldots, n)}$とおくと、$$\begin{aligned} \vec X ( = (X_1, \ldots, X_K)^\top) = \sum_{l=1}^n \vec Z^{(l)} \sim \Mn(n; p_1, \ldots, p_K) \end{aligned}$$となっている。
よって、$\vec Z^{(l)} ~{\small (l=1, \ldots, n)}$の独立性から、$$\begin{aligned} E[X_i] &= np_i \\ V[X_i] &= np_i (1-p_i) \\ \Cov[X_i, X_j] &= -n p_i p_j ~~ {\small (i \neq j)} \\ G^{\vec X}(s_1, \ldots, s_K) &= (p_1 s_1 + \cdots + p_K s_K)^n \end{aligned}$$となる。