はしくれエンジニアもどきのメモ

情報系技術・哲学・デザインなどの勉強メモ・備忘録です。

ごっちゃになりやすい排反と統計的独立のメモ

ごっちゃになりやすい排反と統計的独立のメモ

事象の排反と統計的独立,この2つは確率の教科書の最初の方に登場し, 読み進めていくと(教科書の問題は基本的に整備されている・もしくは暗黙的に仮定されている場合が多く)ここを意識していなくてもトラブルなく, いざ実データを見たときにこのデータは排反なのか特に統計的独立といっていいのかどうか悩むあるあるのような気がするのでメモ.

「排反」とは

定義は,「事象(event)$A, B$が同時に起こらない,すなわち積事象が空集合$\phi$である($A \cap B = \phi$)とき, 事象$A, B$は排反 (exclusive)である」という.なお,事象が複数あっても同様である.

en.wikipedia.org

表記としては,「排反」,「互いに排反(mutually exclusive)」と使う.

図を使った表現では,よくベン図が使われ,事象$A,B$が重なっていない表現で示される.

exclusive
ベン図:事象$A,B$が排反であるとき

事象が排反である例:

  • トランプ52枚中から1枚引くとき,「1を引く事象」と「2を引く事象」は排反である(同時には起こらない).
    exclusive_trump
    ベン図:「1を引く事象」と「2を引く事象」は排反
  • サイコロを1回振ったとき,「奇数が出る事象」と「偶数が出る事象」は排反である(同時には出ない).

    exclusive_dices
    ベン図:サイコロ1回振って「奇数が出る事象」と「偶数が出る事象」は排反

逆に,排反でない例:

  • トランプ52枚中から1枚引くとき,「1を引く事象」と「スペードを引く事象」は排反でない(同時には起こりうる).
    non-exclusive_trump
    ベン図:「1を引く事象」と「スペードを引く事象」は排反でない

排反であることを数式で書くとどうなるか. 積事象が空事象より,積事象の確率は,

$$ (A \text{ and } B \text{ are exclusive} \iff A \cap B = \phi) \Rightarrow P(A \cap B ) = P(\phi) = 0\ $$

Note: 逆(converse)はいえない.つまり,積事象の確率が0だったとしても排反であることはいえない.

$$ P(A \cap B) = 0 \not \Rightarrow {A \cap B = \phi \iff A \text{ and } B \text{ are exclusive}} $$

反例:

例えば $[0, 1)$ の実数からランダムに1つを選ぶ場合、 $A = {x|x ≤ 0.5}, B = {x|x ≥ 0.5}$ とすると積事象の確率は $P(A ∩ B) = P({x|x = 0.5}) = 0$ となるが($[0, 1)$ から 0.5 未満の数が、あるいは 0.5 以上の数が選ばれることはある程度期待できたとしても、選ばれた数が 0.5 であることはほとんど確実に期待できない)、積事象自体は $A ∩ B = {x|x = 0.5}$ であって空事象ではなく、したがって A と B は排反ではない。

参考: ja.wikipedia.org

排反であるときのメリット

特に,確率の加法定理(和事象の確率)を簡単に表せる. 2事象の場合では

\begin{eqnarray} P(A \cup B) &=& P(A) + P(B) - P(A \cap B) \ &=& P(A) + P(B) .(\text{for exclusive } \Rightarrow P(A \cap B) = 0) \end{eqnarray}

3事象の場合:

$B = A_2 \cup A_3$と拡張する.2事象の場合を適用すると,

\begin{eqnarray} P(A_1 \cup (A_2 \cup A_3)) &=& P(A_1) + P(A_2 \cup A_3) - P(A_1 \cap (A_2 \cup A_3)) \ \end{eqnarray}

ここで,

$$ P(A_2 \cup A_3) = P(A_2) + P(A_3) - P(A_2 \cap A_3) $$

\begin{eqnarray} P(A_1 \cap (A_2 \cup A_3)) &=& P( ( A_1 \cap A_2 ) \cup ( A_1 \cap A_3 ))\\ &=& P( A_1 \cap A_2 ) + P( A_1 \cap A_3 ) - P( ( A_1 \cap A_2 ) \cap ( A_1 \cap A_3 ) )\\ &=& P( A_1 \cap A_2 ) + P( A_1 \cap A_3 ) - P( A_1 \cap A_2 \cap A_3 )\\ \end{eqnarray}

より,

\begin{eqnarray} P(A_1 \cup A_2 \cup A_3) &=& P(A_1) + P(A_2 \cup A_3) - P(A_1 \cap (A_2 \cup A_3)) \\ &=& P(A_1) + \{ P(A_2) + P(A_3) - P(A_2 \cap A_3) \} - \{ P(A_1 \cap A_2) + P(A_1 \cap A_3) - P(A_1 \cap A_2 \cap A_3) \} \\ &=& P(A_1) + P(A_2) + P(A_3) - P(A_1 \cap A_2) - P(A_2 \cap A_3) - P(A_1 \cap A_3) + P(A_1 \cap A_2 \cap A_3) \\ \end{eqnarray}

この3事象が互いに排反であれば $P(A_1 \cap A_2) = P(A_2 \cap A_3) = P(A_1 \cap A_3) = P(A_1 \cap A_2 \cap A_3) = 0$より,

\begin{eqnarray} P(A_1 \cup A_2 \cup A_3) &=& P(A_1) + P(A_2) + P(A_3) \\ \end{eqnarray}

4事象の場合も同様に,

\begin{eqnarray} P(A_1 \cup A_2 \cup A_3 \cup A_4) &=& P(A_1) + P(A_2) + P(A_3 \cup A_4)- P(A_1 \cap A_2) - P(A_2 \cap (A_3 \cup A_4)) - P(A_1 \cap (A_3 \cup A_4))+ P(A_1 \cap A_2 \cap (A_3 \cup A_4)) \\ &=& P(A_1) + P(A_2) + { P(A_3) + P(A_4) - P(A_3 \cap A_4) } - P(A_1 \cap A_2) - { P(A_2 \cap A_3) + P(A_2 \cap A_4) - P(A_2 \cap A_3 \cap A_4) } - { P(A_1 \cap A_3) + P(A_1 \cap A_4) - P(A_1 \cap A_3 \cap A_4) } + P(A_1 \cap A_2 \cap (A_3 \cup A_4)\\ \end{eqnarray}

最後の項を展開すると,

$$ P(A_1 \cap A_2 \cap (A_3 \cup A_4) = P(A_1 \cap A_2 \cap A_3) + P(A_1\cap A_2 \cap A_4) - P(A_1 \cap A_2 \cap A_3 \cap A_4) $$

まとめると,

\begin{eqnarray} P(A_1 \cup A_2 \cup A_3 \cup A_4) &=& P(A_1) + P(A_2) + P(A_3) + P(A_4) - P(A_3 \cap A_4) - P(A_1 \cap A_2)- P(A_2 \cap A_3) - P(A_2 \cap A_4) + P(A_2 \cap A_3 \cap A_4) - P(A_1 \cap A_3) - P(A_1 \cap A_4) + P(A_1 \cap A_3 \cap A_4) + { P(A_1 \cap A_2 \cap A_3) + P(A_1\cap A_2 \cap A_4) - P(A_1 \cap A_2 \cap A_3 \cap A_4) } \ &=& P(A_1) + P(A_2) + P(A_3) + P(A_4) - P(A_1 \cap A_2)- P(A_1 \cap A_3) - P(A_1 \cap A_4)- P(A_2 \cap A_3) - P(A_2 \cap A_4) - P(A_3 \cap A_4) +P(A_1 \cap A_2 \cap A_3) + P(A_2 \cap A_3 \cap A_4) + P(A_1 \cap A_3 \cap A_4) + P(A_1\cap A_2 \cap A_4) - P(A_1 \cap A_2 \cap A_3 \cap A_4) \ \end{eqnarray}

互いに排反であれば, \begin{eqnarray} P(A_1 \cup A_2 \cup A_3 \cup A_4) &=& P(A_1) + P(A_2) + P(A_3) + P(A_4) \end{eqnarray}

一般化したn事象で考える. 式中の各項の特徴を見ると.

  • 根源事象が必ず存在し,符号はプラス(ex. $+P(A_1)$)
  • 根源事象以外は,積事象のみで表すことができる.
  • 構成される積事象の事象数が奇数の時,符号はプラス(ex.$+P(A_1 \cap A_2 \cap A_3)$),偶数のときは符号はマイナス(ex.$-P(A_1 \cap A_2), -P(A_1 \cap A_2 \cap A_3 \cap A_4)$)
  • 積事象で構成されるインデックスの並びは,1からnまでのインデックスを集合としたときの部分集合になっている. (ex. $A_1 \cap A_2; \{ 1, 2 \} \subset \{1, 2, \dots, n \}$, $A_2 \cap A_3 \cap A_4; \{ 2, 3, 4 \} \subset \{ 1, 2, \dots, n \}$ )

符号に気を付ける必要があるが,最後4番目の特徴である積集合のインデックスが部分集合で構成されることで式を作ればいい.

\begin{eqnarray} P( A_1 \cup A_2 \cup \cdots \cup A_n ) &=& \sum_{ i=1 }^{ n } (-1)^{ i-1 } \sum_{ j_1 , j_2 , \cdots j_i \in J_i \subset \{ 1, 2, \cdots , n \} } P(A_{j_1} \cap A_{j_2} \cap \cdots \cap A_{j_i}) \} \end{eqnarray}

ここで部分集合$J_{i}$はi個の要素を持つ部分集合の全てを指し2番目のサメーションはその総和を取っている. 例えば,$n=3$ のときの部分集合$ J_2$は,$\{1, 2\}, \{1, 3\}, \{2, 3\} = J_2$を指す.

また,事象が複数あっても互いに排反であれば

\begin{eqnarray} P(A_1 \cup A_2 \cup \cdots \cup A_n) &=& \sum_{i=1}^n P(A_{i})\ &=& P(A_{1})+P(A_{2})+\cdots+P(A_{n}) \end{eqnarray}

数学的確率がわかっている場合の排反でない証明

排反であることは積事象が空事象であることと同値だが,空事象であることがわからなくても根元事象の数学的確率がわかっていれば(実データから推定できる経験的・統計的確率では誤差があるためわからない), 加法定理の式から排反を仮定しそこに矛盾があった場合,排反でないことを証明できる.

前提: - 簡単のため,事象は2つ$A, B$ - 各根元事象の数学的確率$P(A), P(B)$は既知

和事象の確率は加法定理と確率の公理より以下の不等式が常に成立する.

$$ 0 \leq P(A \cup B) \leq 1\ 0 \leq P(A) + P(B) - P(A \cap B) \leq 1\ $$

排反を仮定するとき

$$ 0 \leq P(A) + P(B) \leq 1 \text{ if exclusive} $$

つまり根元事象の確率を足して1を超えた場合,矛盾が起きるので排反でない(同時に起きる)ことがわかる.

$$ \text{when } (P(A) + P(B)) > 1 \Rightarrow P(A \cap B) > 0 \Rightarrow {A\cap B \not= \phi \iff \text{ not exclusive}} $$

相加平均相乗平均の関係からのアプローチ

$P(A)P(B) > \frac{1}{4}$ のとき、$A, B$は互いに排反でない($P(A \cap B)$が存在)ことを証明.

相加相乗平均の関係は、

\begin{eqnarray} \frac{ a+b }{2} - \sqrt{ ab } &=& \frac{ a+b - 2 \sqrt{ ab }}{2}\\ &=& \frac{ \sqrt{ a }^{2} -2\sqrt{ ab } + \sqrt{ b }^{2} }{2}\\ &=& \frac{ ( \sqrt{ a } - \sqrt{ b } )^{ 2 } }{ 2 } \geq 0 \end{eqnarray}

よって、 $$ \frac{a+b}{2} \geq \sqrt{ab} \\ a+b \geq 2\sqrt{ab} $$

確率$P(A), P(B)$の相加相乗平均の関係は、

$$ P(A) + P(B) \geq 2\sqrt{P(A)P(B)} $$

条件より、

$$ P(A)P(B) > \frac{1}{4}\ 4P(A)P(B) > 1\ 2\sqrt{P(A)P(B)} > 1 $$

よって、

$$ P(A) + P(B) \geq 2\sqrt{P(A)P(B)} > 1 $$

和事象の確率は公理より,$P(A \cup B) \leq 1$

事象$A, B$が互いに排反であると仮定すると、

$$ P(A \cup B) = P(A) + P(B) > 1 $$

と矛盾が起きるので、 「事象$A, B$は互いに排反でない」。

統計的独立

条件付確率$P(A|B)=$は$B$が起こったときに$A$が起こる確率である. しかし,$B$が$A$に何も影響を及ぼさないこともある.

$$ P(A|B) = P(A) $$

が成り立つとき、乗法定理は

$$ P(A \cap B) = P(A|B)P(B) = P(A)P(B) $$

となる.これらは同値なのでどちらかを満たしているとき, 事象$A, B$が互いに独立(統計的に独立)であるという。

よって、

$$ \text{事象A, Bがmutually independent} \iff P(A|B) = P(A), P(B|A) = P(B) \iff P(A \cap B) = P(A) P(B) $$

なお,これが成立するのは数学的確率のみで, 実データによる経験的確率の場合は独立性の検定などで判断するしかない.

en.wikipedia.org

独立性であることのメリット

独立性であることを仮定できると, 同時確率(乗法定理)を簡単に書き表すことができる.

\begin{eqnarray} P( X_1 \cap X_2 \cap \cdots \cap X_n ) &=& P( X_2 \cap \cdots \cap X_n | X_1 ) P( X_1 ) \\ &=& P( X_3 \cap \cdots \cap X_n | X_1, X_2 ) P( X_2 | X_1 ) P( X_1 ) \\ &=& P( X_4 \cap \cdots \cap X_n | X_1, X_2, X_3 ) P( X_3 | X_1, X_2 )P( X_2 | X_1 ) P( X_1 ) \\ &=& P( X_n | X_1, X_2, X_3, X_4, \cdots X_{n-1} ) P( X_{n-1} | X_1, X_2, X_3, X_4, \cdots X_{n-2}) \cdots P(X_4 \cap \cdots \cap X_n | X_1, X_2, X_3 ) P( X_3 | X_1, X_2 )P( X_2 | X_1 ) P( X_1 ) \end{eqnarray}

独立性より条件は無関係で条件付確率は等しい.

\begin{eqnarray} P(X_1 \cap X_2 \cap \cdots \cap X_n) &=& P(X_n | X_1, X_2, X_3, X_4, \cdots X_{n-1}) P(X_{n-1} | X_1, X_2, X_3, X_4, \cdots X_{n-2}) \cdots P(X_4 \cap \cdots \cap X_n | X_1, X_2, X_3) P(X_3 | X_1, X_2)P(X_2 | X_1) P(X_1) \\ &=& P(X_n) P(X_{n-1}) \cdots P(X_4) P(X_3 )P(X_2) P(X_1) \\ \end{eqnarray}

特に,ナイーブベイズもこの仮定を利用している.

統計的独立ならば相関係数=0(無相関)

統計的独立ならば相関係数=0が成り立つ. つまり相関がないことが言える.

共分散が0であることを示せばいい. 離散確率変数$X,Y$とおくと,

\begin{eqnarray} Co(X, Y) &=& E[(X - E[ X ])( Y - E[ Y ] )\\ &=& E[ XY - YE[ X ] - XE[ Y ] + E[ X ]E[ Y ] ] \\ &=& E[ XY ] - E[ Y ]E[ X ] - E[ X ]E[ Y ] + E[ X ]E[ Y ] ] \\ &=& E[ XY ] - E[ X ] E[ Y ] \\ \end{eqnarray}

独立の時の$E[XY]$を計算をする. 独立より$P(X \cap Y) = P(X)P(Y)$

\begin{eqnarray} E[X Y] &=& \sum_{x}{\sum_{y}{xy P(X=x, Y=y)}}\ &=& \sum_{x}{\sum_{y}{xy P(X=x)P(Y=y)}}\ &=& \sum_{x}{x P(X=x) \sum_{y}{y P(Y=y)}}\ &=& E[X]E[Y]\ \end{eqnarray}

よって,

\begin{eqnarray} Co(X, Y) &=& E[XY]-E[X]E[Y]\\ &=& E[X]E[Y]-E[X]E[Y]\\ &=& 0\\ \end{eqnarray}

$$ r_{xy} = \frac{Co(X, Y)}{\sqrt{V[X]}\sqrt{V[Y]}} = 0 $$

なお,この逆である「無相関ならば独立である」は成立しない.

$$ r_{xy} = 0 \not \Rightarrow \text{independent} $$

なので,無相関だとしても以下を満たす場合がある.

$$ P(X \cap Y) = P(Y|X)P(X) = P(X|Y)P(Y) \not = P(X)P(Y) $$

反例:

$(X,Y)=(1,0),(0,1),(−1,0),(0,−1)$ となる確率がそれぞれ$P(X \cap Y) = \frac{1}{4} $であるような場合:

\begin{eqnarray} P(X=-1) &=& \sum_{y} P(X=-1, Y) = 1/4, P(X=0) = \sum_{y} P(X=0, Y) = 1/4 +1/4 = 1/2, P(X = 1) = \sum_{y} P(X=1, Y) = 1/4 \\ P(Y=-1) &=& \sum_{x} P(X, Y=-1) = 1/4, P(Y=0) = \sum_{y} P(X, Y=0) = 1/4 +1/4 = 1/2, P(Y = 1) = \sum_{x} P(X, Y=1) = 1/4 \\ E[X] &=& 1/4 * (-1) + 1/2 * 0 + 1/4 * 1=0\\ E[Y] &=& 1/4 * (-1) + 1 + 0 -1)=0\\ E[XY] &=& 1/4 (0 + 0 + 0 + 0) = 0\\ Co(X, Y) &=& E[XY] - E[X]E[Y] = 0 \\ \end{eqnarray}

共分散は0,つまり相関係数は0.

$$ P(X=1, Y=0) = 1/4 \ P(X = 1) = 1/4 \ P(Y = 0) = 1/2 \ P(X=1)P(Y=0) = 1/4 * 1/2 = 1/8 \not = P(X=1, Y=0) $$

参考:https://mathtrain.jp/uncorrelated

無相関でそれらの確率変数が多次元正規分布に従うならば独立である

n次元で考えると

 (X_1, X_2, \cdots X_n ) \sim N(\vec{\mu}, \Sigma)

$$ (X_1, X_2, \cdots X_n ) \sim N(\vec{\mu}, \Sigma) $$

無相関より,共分散行列の対角成分以外が0になる.


\Sigma =
\begin{pmatrix}
\sigma_{1}^2  & 0 & \cdots & 0 \\\\
0  & \sigma_{2}^2 & \cdots & 0 \\\\
\vdots & \vdots & \ddots & \vdots \\\\
0 & 0 & \cdots &  \sigma_{n}^2 \\\\
\end{pmatrix}

$$ \Sigma = \begin{pmatrix} \sigma_{1}^2 & 0 & \cdots & 0 \\ 0 & \sigma_{2}^2 & \cdots & 0 \\ \vdots & \vdots & \ddots & \vdots \\ 0 & 0 & \cdots & \sigma_{n}^2 \\ \end{pmatrix} $$

n次元正規分布確率密度関数は,


f(x_1, x_2, \cdots , x_n ) = \frac{ 1 }{ ( \sqrt{ 2 \pi } )^{ n } \sqrt{ | \Sigma | } } \exp{ ( ( \vec{ x } - \vec{ \mu } )^{ T } \Sigma^{ -1 } ( \vec{ x } - \vec{ \mu } ) ) } \

$$ f(x_1, x_2, \cdots , x_n ) = \frac{ 1 }{ \( \sqrt{ 2 \pi } \)\^{ n } \sqrt{ \| \Sigma \| } } \exp{ \( \( \vec{ x } - \vec{ \mu } \)\^{ T } \Sigma\^{ -1 } \( \vec{ x } - \vec{ \mu } \) \) } \\ $$

共分散行列の行列式


| \Sigma |= \sigma_{1}^2 \sigma_{2}^2 \cdots \sigma_{ n }^2

$$ \| \Sigma \|= \sigma\_{1}\^2 \sigma\_{2}\^2 \cdots \sigma\_{ n }\^2 $$

共分散行列の逆行列は,


\Sigma^{ -1 } =
\begin{pmatrix}
\frac{ 1 }{ \sigma_{1}^2 }  & 0 & \cdots & 0 \\\\
0  & \frac{ 1 }{ \sigma_{ 2 }^2 } & \cdots & 0 \\\\
\vdots & \vdots & \ddots &  \vdots \\\\
0 & 0 & \cdots &  \frac{ 1 }{ \sigma_{ n }^2} \\\\
\end{pmatrix}

$$ \Sigma^{ -1 } = \begin{pmatrix} \frac{ 1 }{ \sigma_{1}^2 } & 0 & \cdots & 0 \\\\ 0 & \frac{ 1 }{ \sigma_{ 2 }^2 } & \cdots & 0 \\\\ \vdots & \vdots & \ddots & \vdots \\\\ 0 & 0 & \cdots & \frac{ 1 }{ \sigma_{ n }^2} \\\\ \end{pmatrix} $$

確率密度関数は,


\begin{eqnarray}
f(x_1, x_2, \cdots , x_n )
&=& \frac{ 1 }{ ( \sqrt{ 2 \pi } )^{ n } \sqrt{\| \Sigma \| } } \exp{ ( ( \vec{x} - \vec{\mu} )\^{ T } \Sigma^{-1} ( \vec{x} - \vec{ \mu} ) ) } \\\\
&=& \frac{1}{ ( \sqrt{ 2\pi } )^{n} \sqrt{ \sigma_{ 1 }^2 \sigma_{ 2 }^2 \cdots \sigma_{ n }^2 } } \exp{ \left\{ \frac{ ( x_1-\mu_1 )^2 }{ \sigma_1^2 } + \frac{ ( x_2 - \mu_2 )^2 }{ \sigma_2^2 } + \cdots + \frac{ (x_n - \mu_n )^2 }{ \sigma_n^2 } \right\} } \\\\
&=& \frac{1}{ \sqrt{ 2\pi \sigma_{1} } \sqrt{ 2 \pi \sigma_{2} }  \cdots \sqrt{ 2 \pi \sigma\_{n} } } \exp{ \left\{ \sum_{ i=1 }^n \frac{ (x_i - \mu_i )^2 }{ \sigma_i^2 } \right\}} \\\\
&=& \frac{ 1 }{ \sqrt{ 2\pi \sigma_{1} } } \exp{ \left\{  \frac{ ( x_1 - \mu_1 )^2}{ \sigma_1^2 } \right\} }
\frac{ 1 }{ \sqrt{ 2 \pi \sigma_{ x_2 } } }  \exp{ \left\{  \frac{ ( x_2 - \mu_2 )^2 }{ \sigma_2^2 } \right\} }
\cdots
 \frac{ 1 }{ \sqrt{ 2\pi \sigma_{ n } } } \exp{ \left\{  \frac{ ( x_n - \mu_n )^2 }{ \sigma_n^2 } \right\} } \\\\
&=& f( x_1; \mu_{1}, \sigma_{1}^2) \cdot f(x_2; \mu_{2}, \sigma_{2}^2)  \cdots f(x_n; \mu_{n}, \sigma_{n}^2 )
\end{eqnarray}

\begin{eqnarray} f(x_1, x_2, \cdots , x_n ) &=& \frac{ 1 }{ ( \sqrt{ 2 \pi } )^{ n } \sqrt{\| \Sigma \| } } \exp{ ( ( \vec{x} - \vec{\mu} )\^{ T } \Sigma^{-1} ( \vec{x} - \vec{ \mu} ) ) } \\\\ &=& \frac{1}{ ( \sqrt{ 2\pi } )^{n} \sqrt{ \sigma_{ 1 }^2 \sigma_{ 2 }^2 \cdots \sigma_{ n }^2 } } \exp{ \left\{ \frac{ ( x_1-\mu_1 )^2 }{ \sigma_1^2 } + \frac{ ( x_2 - \mu_2 )^2 }{ \sigma_2^2 } + \cdots + \frac{ (x_n - \mu_n )^2 }{ \sigma_n^2 } \right\} } \\\\ &=& \frac{1}{ \sqrt{ 2\pi \sigma_{1} } \sqrt{ 2 \pi \sigma_{2} } \cdots \sqrt{ 2 \pi \sigma\_{n} } } \exp{ \left\{ \sum_{ i=1 }^n \frac{ (x_i - \mu_i )^2 }{ \sigma_i^2 } \right\}} \\\\ &=& \frac{ 1 }{ \sqrt{ 2\pi \sigma_{1} } } \exp{ \left\{ \frac{ ( x_1 - \mu_1 )^2}{ \sigma_1^2 } \right\} } \frac{ 1 }{ \sqrt{ 2 \pi \sigma_{ x_2 } } } \exp{ \left\{ \frac{ ( x_2 - \mu_2 )^2 }{ \sigma_2^2 } \right\} } \cdots \frac{ 1 }{ \sqrt{ 2\pi \sigma_{ n } } } \exp{ \left\{ \frac{ ( x_n - \mu_n )^2 }{ \sigma_n^2 } \right\} } \\\\ &=& f( x_1; \mu_{1}, \sigma_{1}^2) \cdot f(x_2; \mu_{2}, \sigma_{2}^2) \cdots f(x_n; \mu_{n}, \sigma_{n}^2 ) \end{eqnarray}

よって,独立である.

参考: mathtrain.jp

独立性の検定の注意点

実データにおいて独立性があるかどうかを調べるには,よく独立性の検定を使う.よく使われる手法として,$ \chi^2 $ 分布による独立性の検定や Fisherの正確確率検定などが使われる.

ただ,これらの手法では, 「帰無仮説$H_0$:独立である」「対立仮説$H_1$:独立でない(関連がある)」を置く. このとき,有意差があり棄却できた場合は対立仮説を採択し独立でないことを示唆できる. ただ,帰無仮説を棄却できなかった場合,帰無仮説は採択できないので,独立であるかどうかは何も言えずわからないが正しい.