ํ๋ฅ ๋ณ์ X์ ๋ํด, X๊ฐ ๊ฐ์ง๋ ํ๋ฅ ๋ถํฌ๋ X์ ๋ํ ๋ชจ๋ ์ ๋ณด๋ฅผ ๊ฐ์ง๊ณ ์์ผ๋ฉฐ, ์ด๋ ์ฐ๋ฆฌ๊ฐ ์ดํดํ๋ฉฐ ์ฌ์ฉํ๊ธฐ์ ๋๋ฌด ๊ฑฐ๋ํ ์ ๋ณด์ ๋๋ค.
๋ฐ๋ผ์ ์ฐ๋ฆฌ๋ X์ ์ ๋ณด์ ๋ํ ์์ฝ์ด ํ์ํ๋ฉฐ, ์ด๊ฒ์ด ๋ฐ๋ก Expectation(mean ํน์ average), ์ฆ ๊ธฐ๋๊ฐ์ ๋๋ค.
๊ธฐ๋๊ฐ (expectation)
๋ฐ๋ณต์ ์ธ experiment์์, ์ป์ ์ ์๋ ๊ฐ์ ํ๊ท ์ผ๋ก์ ๊ธฐ๋ํ ์ ์๋ ๊ฐ์ ์๋ฏธํฉ๋๋ค.
Discrete ํ ๊ฒฝ์ฐ
X๊ฐ ์ด์ฐํ๋ฅ ๋ณ์์ด๋ฉฐ, X์ ๋ํ ์ ์์ญ์ด ์ค์ง ์ ํ(finite, bounded)ํ ๊ฐ์ ๊ฐ์ง ๋, (์๋ฅผ ๋ค์ด ์ฃผ์ฌ์๋ฅผ ๋์ง ๋ ๋์ฌ ์ ์๋ ๋์ ์)
f(x)๋ฅผ X์ ๋ํ p.m.f(ํ๋ฅ ์ง๋ํจ์)๋ผ๊ณ ํ๋ค๋ฉด X์ ๋ํ ๊ธฐ๋๊ฐ์ธ E(X)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$E(x) = \sum_{\forall x}^{}xf(x)$$
์๋ฅผ ๋ค์ด Bernoulli Distribution์ ๊ฐ์ง๋ r.v X์ ๋ํด, p.m.f๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$f(x) = \left\{\begin{matrix}
P \;\;\;\;\;\;\;\; x=1 \\ 1-P \;\; x=0
\end{matrix}\right.$$
์ด ๊ฒฝ์ฐ, X์ ๋ํ ๊ธฐ๋๊ฐ E(x)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$E(x) = \sum_{\forall x}^{}xf(x) = 0 * (1-P)\;\; + \;\;1 * P = P$$
X์ ๋ํ ์ ์์ญ์ด ์ ํํ์ง ์๊ณ ๋ฌดํ(infinite, unbounded)ํ ๋, X์ ๋ํ ๊ธฐ๋๊ฐ E(X)๋ ์ค์ง ๋ค์ ๊ฒฝ์ฐ์๋ง ์ ์๋ ์ ์์ต๋๋ค.
$$\sum_{x>0}^{}xf(x) \;\;\;\; or \;\;\;\; \sum_{x<0}^{}xf(x) \;\;\;\; is \;\; bounded$$
์์์ bounded์ ๋ป์ converge, ์ฆ ์๋ ดํ๋ ๊ฒฝ์ฐ๋ฅผ ์๋ฏธํฉ๋๋ค.
Continuous ํ ๊ฒฝ์ฐ
X๊ฐ ์ฐ์ํ๋ฅ ๋ณ์์ด๋ฉฐ, X์ ๋ํ ์ ์์ญ์ด ์ค์ง bounded(๋ฒ์(interval)๊ฐ ์ ํ)์ผ ๋
f(x)๋ฅผ X์ ๋ํ p.d.f(ํ๋ฅ ๋ฐ๋ํจ์)๋ผ๊ณ ํ๋ค๋ฉด X์ ๋ํ ๊ธฐ๋๊ฐ์ธ E(X)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$E(X) = \int_{-\infty}^{\infty}xf(x)dx$$
์๋ฅผ ๋ค์ด ํ๋ฅ ๋ณ์ X๊ฐ p.d.f์ธ f๋ฅผ ๊ฐ์ง ๋,
f๊ฐ ๋ค์์ฒ๋ผ ์ฃผ์ด์ก๋ค๊ณ ํ๋ฉด
$$f(x) = \left\{\begin{matrix}
2x & 0<x<1 \\
0 & otherwise \\
\end{matrix}\right.$$
X์ ๋ํ ๊ธฐ๋๊ฐ์ธ E(X)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$E(X) = \int_{-\infty}^{\infty}xf(x)dx = \int_{1}^{0}2x^{2}dx = [\frac{2}{3}x^{3}]^{1}_0 = \frac{2}{3}$$
X์ ๋ํ ์ ์์ญ์ด unbounded(๋ฒ์๊ฐ ๋ฌด์ ํ)์ผ ๋, X์ ๋ํ ๊ธฐ๋๊ฐ E(X)๋ ์ค์ง ๋ค์ ๊ฒฝ์ฐ์๋ง ์ ์๋ ์ ์์ต๋๋ค.
$$E(X) = \int_{0}^{\infty} xf(x)dx \;\;\;\;or\;\;\;\; \int_{-\infty}^{0} xf(x)dx \;\;\;\;is\;\;finite$$
LOTUS(Law of the unconscious statistician, ๋ฌด์์์ ์ธ ํต๊ณํ์์ ๋ฒ์น)
X๊ฐ ํ๋ฅ ๋ณ์์ด๊ณ , r์ real-value function(์ฆ ์ ์์ญ๊ณผ ๊ณต์ญ์ด ๋ชจ๋ ์ค์์ธ ํจ์)์ผ ๋, r(x)์ ๋ํ ๊ธฐ๋๊ฐ, E(r(X))๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
Discreteํ ๊ฒฝ์ฐ
$$E(r(X)) = \sum_{\forall x}^{}r(x)f(x)$$
(f(x)๋ X์ ๋ํ p.m.f ์ ๋๋ค)
Continuousํ ๊ฒฝ์ฐ
$$E(r(X)) = \int_{-\infty}^{\infty}r(x)f(x)dx$$
(f(x)๋ X์ ๋ํ p.d.f ์ ๋๋ค)
์ฆ๋ช ์ ์๋๋ฅผ ์ฐธ์กฐํด์ฃผ์ธ์
https://statproofbook.github.io/P/mean-lotus.html
๋กํฐ์ค์ ์ฌ์ฉ ์์๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$X \;:\;r.v \;\;\;\; with \;\; p.d.f \;\;\;f $$
$$f(x) = \left\{\begin{matrix}
3x^{2} & 0<x<1 \\
0& otherwise \\
\end{matrix}\right.$$
์ด๋ $$E(\frac{1}{X})=?$$
์ด์ ๋ํ ํ์ด๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$E(\frac{1}{X}) = \int_{-\infty}^{\infty}\frac{1}{x}f(x)dx = \int_{1}^{0}\frac{1}{x}3x^{2}dx = [\frac{3}{2}x^{2}]^{1}_0 = \frac{3}{2}$$
๊ธฐ๋๊ฐ์ ํน์ง(Property) - ์ ํ์ฑ(Linearity)
Linearity๋ ๋ค์ 2๊ฐ์ง ์กฐ๊ฑด์ ๋ง์กฑํด์ผ ํฉ๋๋ค.
1) homogeneity
$$f(ax) = af(x)$$
2) superposition
$$f(x_1 + x_2) = f(x_1) + f(x_2)$$
๊ธฐ๋๊ฐ(Expectation)์ ์ ํ์ฑ์ด๋ผ๋ ์ฑ์ง์ ๊ฐ์ง๋ฏ๋ก ์ ๋ ์ฑ์ง์ ๋ง์กฑํ๋ฉฐ, ๋ฐ๋ผ์ ์๋์ ๊ฐ์ ํน์ง์ ๊ฐ์ต๋๋ค.
1. ํ๋ฅ ๋ณ์ Y = aX + b (a, b ๋ ์์)์ ๋ํด, ๋ค์์ ๋ง์กฑํฉ๋๋ค.
$$E(Y) = aE(X)+b $$
์ด์ ๋ํ ์ฆ๋ช ์ ์๋์ ๊ฐ์ต๋๋ค.
$$E(Y) = E(aX + b) \overset{\underset{\mathrm{LOTUS}}{}}{=} \int_{-\infty}^{\infty}(ax + b)f(x)dx$$
$$= a\int_{-\infty}^{\infty}xf(x)dx + b\int_{-\infty}^{\infty}f(x)dx$$
$$aE(X) + b$$
๋ํ ์์ c์ ๋ํด ๋ค์์ด ํญ์ ์ฑ๋ฆฝํฉ๋๋ค
$$E(c) = c$$
2. ์ด๋ ํ ์์ a์ ๋ํด ๋ค์์ด ์ฑ๋ฆฝํฉ๋๋ค.
$$P(X\geq a) = 1 \to E(X) \geq a$$
$$P(X\leq a) = 1 \to E(X) \leq a$$
์ด์ ๋ํ ์ฆ๋ช ์ ์๋์ ๊ฐ์ต๋๋ค.
$$E(X) = \int_{-\infty}^{\infty}xf(x)dx = \int_{a}^{\infty}xf(x)dx \;\;\;\; because \;\; P(x\geq a) =1$$
$$\int_{a}^{\infty}xf(x)dx \geq \int_{a}^{\infty}af(x)dx$$
$$\int_{a}^{\infty}af(x)dx = a P(X\geq a) = a\;\;\;\; because \;\;\; P(X\geq a)=1$$
3. n๊ฐ์ ํ๋ฅ ๋ณ์ X1, X2, ... Xn์ ๋ํด E(X1), E(X2), ... E(Xn)์ด finite์ผ ๋ ๋ค์์ด ์ฑ๋ฆฝํฉ๋๋ค.
$$E(X_1 + X_2 + \cdots + X_n) = E(X_1) +E(X_2) +\cdots + E(X_n) $$
์ค์ํ ๊ฒ์ X1, X2, ... Xn๊ฐ independent์ด๋ ์๋๋ ์ฑ๋ฆฝํ๋ค๋ ๊ฒ์ ๋๋ค.
๋ฐ๋ผ์ ๋ค์๋ ์ฑ๋ฆฝํฉ๋๋ค.
$$E(a_1X_1 + a_2X_2 + \cdots + a_nX_n) = E(a_1X_1) +E(a_2X_2) +\cdots + E(a_nX_n) $$
4. ์์ผ์ ๋ถ๋ฑ์(Jensen's inequality)
๋ณผ๋ก(convex) ํจ์ g์ ์ ํํ ํ๊ท (mean)๊ฐ์ ๊ฐ๋ ํ๋ฅ ๋ณ์ X์ ๋ํ์ฌ ๋ค์์ด ์ฑ๋ฆฝํฉ๋๋ค.
$$E(g(x)) \geq g(E(x))$$
5. mutually independent์ธ n๊ฐ์ ํ๋ฅ ๋ณ์ X1, X2, ... Xn์ ๋ํด
๊ฐ๊ฐ์ ๊ธฐ๋๊ฐ์ด finite(์ ํ)์ธ ๊ฒฝ์ฐ, $$E(X_1), \cdots, E(X_n) $$
๋ค์์ด ์ฑ๋ฆฝํฉ๋๋ค.
$$E(\prod_{i=1}^{n}X_i)=\prod_{i=1}^{n}E(X_i)$$
Lemma(๋ณด์กฐ์ ๋ฆฌ)
$$1) \;\;\;P(X \geq a) =1 \;\; or\;\; P(X \leq a)=1 \;\;\;\;\;(a \;\;= \;\;constant) $$
$$2)\;\;\;E(X) = a$$
์ 1) ๊ณผ 2)๊ฐ ๋ชจ๋ ์ฑ๋ฆฝํ๋ค๋ฉด,
$$P(X = a) = 1$$
๋ถ์ฐ(Variance)
๋ถ์ฐ์ด๋ ํ๋ฅ ๋ณ์๊ฐ ๊ธฐ๋๊ฐ์ผ๋ก๋ถํฐ ์ผ๋ง๋ ๋จ์ด์ง ๊ณณ์ ๋ถํฌํ๋์ง๋ฅผ ๊ฐ๋ ํ๋ ์ซ์์ ๋๋ค.
ํ๋ฅ ๋ณ์ X์, ์ ํ(finite)ํ ํ๊ท (mean) E(X) = M ์ ๋ํ์ฌ, X์ ๋ํ ๋ถ์ฐ(variance) Var(X)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$Var(X) = E((X-M)^{2}) = \sigma^{2}$$
๋ํ X์ ๋ํ ํ์คํธ์ฐจ(standard derivation)๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$\sqrt{Var(X)}$$
๋ํ ๋ถ์ฐ Var(X)์ ๋ค์๊ณผ ๊ฐ์ด ๊ตฌํ ์ ์์ต๋๋ค.
$$Var(X) = E(X^{2}) - M^{2}$$
์ด์ ๋ํ ์ฆ๋ช ์ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
$$Var(X) = E[(X-M)^{2}] = \sum_{\forall x}^{}(x-M)^{2}f(x)$$
$$=\sum_{\forall x}^{}(x^{2}f(x) - 2Mxf(x) + M^{2}f(x))$$
$$=\sum_{\forall x}^{}x^{2}f(x) - 2M\sum_{\forall x}^{}xf(x) + M^{2}\sum_{\forall x}^{}f(x)$$
์ด๋
$$E(X^{2})=\sum_{\forall x}^{}x^{2}f(x)$$
$$M= \sum_{\forall x}^{}xf(x)$$
$$\sum_{\forall x}^{}f(x) = 1$$
$$\therefore \;\; \; Var(X) = E(X^{2}) - M^{2}$$
๋ถ์ฐ์ ์์ฑ
1. ๊ธฐ๋ณธ์ ์ผ๋ก ๋ชจ๋ X์ ๋ํด์, Var(X) ๋ 0 ์ด์์ด๋ฉฐ,
๋ง์ฝ X์ ๋ฒ์๊ฐ ํ์ ๋์๋ค๋ฉด, ํ๊ท (M)์ ์ ์๋๋ฉฐ(์ฆ finiteํ ๊ฐ์ ๊ฐ์ง) ๋ฐ๋ผ์ ๋ถ์ฐ Var(X)๋ ์ ์(์ฆ finiteํ ๊ฐ์ ๊ฐ์ง)๋ฉ๋๋ค.
(์ฆ ์ ๋ฆฌํ์๋ฉด, X์ ๋ฒ์๊ฐ ํ์ (bounded)๋๊ฑฐ๋, ํ๊ท ์ด ์ ์(finiteํ ๊ฐ์ ๊ฐ์ง๋)๋ ๊ฒฝ์ฐ, ๋ถ์ฐ์ ์ ์๋ฉ๋๋ค.)
์ฆ๋ช )
Var(X)๋ nonnegativeํ ํ๋ฅ ๋ณ์ (X - M)์ ์ ๊ณฑ์ ํ๊ท ์ ๋๋ค.
๋ํ X๊ฐ ๋ง์ฝ bounded๋ ํ๋ฅ ๋ณ์์ธ ๊ฒฝ์ฐ, ๊ทธ์ ๋ํ ํ๊ท ์ญ์ ์กด์ฌํ๋ฉฐ, ๋ฐ๋ผ์ ๋ถ์ฐ๋ ์กด์ฌํฉ๋๋ค.
2. X์ ๋ํ ๋ถ์ฐ์ด 0 ์ด๋ผ๋ ๊ฒ์ ๋ค์์ ๋ง์กฑ์ํค๋ ์์ c๊ฐ ์กด์ฌํจ์ ์๋ฏธํ๋ฉฐ, ๋ํ ์ญ๋ ์ฑ๋ฆฝํฉ๋๋ค.
$$P(X=c)=1$$
์ฆ๋ช )
P(X=c) = 1์ด๋ฏ๋ก,
$$E(X) = M = c$$
$$P((X-c)^{2}=0) = 1$$
$$\therefore \;\;\; Var(X) = E((X-M)^{2}) = 0$$
3. Y = aX + b ์ผ ๋, ๋ค์์ด ์ฑ๋ฆฝํฉ๋๋ค.
$$Var(Y) = a^{2}Var(X)$$
์ฆ๋ช )
$$Var(Y) = E((Y-M_Y)^{2}) = E(((aX+b) - E(aX+b))^{2})$$
์ด๋ $$E(aX+b) = a*E(X)+b$$
$$\therefore \;\;\; E(\;\;((aX+b) - (aM + b))^{2}\;\;) = E((a(X-M))^{2})$$
$$=E(a^{2}(X-M)^{2}) = a^{2}E((X-M)^{2})$$
$$= a^{2}Var(X)$$
๋ํ ์ด๋ฅผ ํตํด ๋ค์์ ์ป์ ์ ์์ต๋๋ค.
$$Var(-X) = (-1)^{2}Var(X)=Var(X)$$
4. X1, X2, ... ,Xn์ด Independent ์ธ ๊ฒฝ์ฐ
$$Var(X_1 + X_2 + \cdots + X_n) = Var(X_1) + Var(X_2) + \cdots + Var(X_n)$$
์ฆ๋ช )
n=2์ธ ๊ฒฝ์ฐ๋ง์ ๋ณด์ด๋๋ก ํ๊ฒ ์ต๋๋ค.
๋ ํ๋ฅ ๋ณ์์ ํ๊ท ์ด ๋ค์๊ณผ ๊ฐ์ด ์ฃผ์ด์ก์ ๋,
$$E(X_1) = M_1, \;\;\; E(X_2) = M_2$$
$$\therefore \;\;\; E(X_1 + X_2) = M_1 + M_2$$
$$Var(X_1 + X_2) = E( ( (X_1 + X_2) - (M_1 + M_2) )^{2} ) $$
$$= E( ( (X_1 - M_1) - (X_2 - M_2) )^{2} )$$
$$= E(\;(X_1 - M_1)^{2} \;+\; 2(X_1 - M_1)(X_2 - M_2) \;+ \;(X_2 - M_2)^{2}\;)$$
์ด๋ ๋ค์์ด ์ฑ๋ฆฝํ๋ค.
$$E((X_1-M_1)^{2}) = Var(X_1)$$
$$E((X_2-M_2)^{2}) = Var(X_2)$$
๋ํ X1๊ณผ X2๋ Independent๋ผ๋ ์กฐ๊ฑด์ด ์ฃผ์ด์ก์ผ๋ฏ๋ก ๋ค์์ด ์ฑ๋ฆฝํ๋ค.
$$E(2(X_1 - M_1)(X_2 - M_2)) = 2\cdot E((X_1 - M_1)) \cdot E((X_2 - M_2))$$
๋ํ ๋ค์๊ณผ ๊ฐ์ผ๋ฏ๋ก
$$E(X_1 - M_1) = E(X_1) - M_1 = M_1 - M_1 = 0$$
$$\therefore \;\; Var(X_1 + X_2) =Var(X_1) + Var(X_2)$$
์๋ฅผ ํตํด ๋ค์๋ ์ฑ๋ฆฝํจ์ ์ ์ ์์ต๋๋ค.
X1, X2, ... Xn์ด Independent์ธ ๊ฒฝ์ฐ
$$Var(a_1X_1 + a_2X_2 + \cdots + a_nX_n) = a_1^{2}Var(X_1) + a_2^{2}Var(X_2) + \cdots + a_n^{2}Var(X_n)$$