20190825

20190825

Approximation

各点収束

{fn}nNf(n)\{f_n\}_{n \in \mathbb{N}} \to f \quad (n \to \infty)
十分大きなnnで,ffnf \approx f_n

確率収束

PX({xXfn(x)f(x)>ϵ})0(n)P_X(\{x \in \mathcal{X} | |f_n(x) - f(x)| > \epsilon\}) \to 0 \quad (n \to \infty)
十分大きなnnffnf \approx f_n

sample approximation and empirical distribution

average:

fn(x1,,xn)=1ni=1nxi \begin{aligned} f_n(x_1, \ldots, x_n) = \frac{1}{n} \sum_{i=1}^n x_i \end{aligned}

empirical distribution

D(x1,,xn)()=1ni=1nδxi() \begin{aligned} D(x_1, \ldots, x_n)(\cdot)= \frac{1}{n} \sum_{i=1}^n \delta_{x_i}(\cdot) \end{aligned}

sample approximation

以下の正当性を確認する.

EPX[f]1ni=1nf(xi)=:fn(x1,,xn) \begin{aligned} \mathbb{E}_{P_X}[f] \approx \frac{1}{n} \sum_{i=1}^n f(x_i) =: f_n(x_1, \ldots, x_n) \end{aligned}

sample: S:ω(X1(ω),,Xn(ω))S: \omega \mapsto (X_1(\omega), \ldots, X_n(\omega))

fnf_nを確率変数化: fn(S)=fnSf_n(S) = f_n \circ S

PS({xXnfn(x1,,xn)EPX[f]>ϵ})0(n)P_{S} \left(\left\{x \in \mathcal{X}^n | |f_n(x_1, \ldots, x_n) - \mathbb{E}_{P_X}[f]| > \epsilon\right\}\right) \to 0 \quad (n \to \infty)を示す.

チェビシェフの不等式

PS({xXnfn(x1,,xn)EPS[fn]ϵ})VPS[fn]ϵ2 \begin{aligned} P_{S} \left(\left\{x \in \mathcal{X}^n | |f_n(x_1, \ldots, x_n) - \mathbb{E}_{P_S}[f_n] | \geq \epsilon\right\}\right) \leq \frac{\mathbb{V}_{P_S}[f_n]}{\epsilon^2} \end{aligned}

を使う.

EPS[fn]=EP[fn(S)]=EP[1ni=1nf(Xi)]=1ni=1nEP[f(Xi)]=1ni=1nEPXi[f]=EPX[f] \begin{aligned} \mathbb{E}_{P_S}[f_n] &= \mathbb{E}_{P} [f_n(S)] \\ &= \mathbb{E}_{P} \left[\frac{1}{n}\sum_{i=1}^n f(X_i)\right] \\ &= \frac{1}{n}\sum_{i=1}^n \mathbb{E}_{P} \left[f(X_i)\right] \\ &= \frac{1}{n}\sum_{i=1}^n \mathbb{E}_{P_{X_i}} \left[f\right] \\ &= \mathbb{E}_{P_{X}} \left[f\right] \end{aligned}

VPS[fn]=VP[fn(S)]=VP[1ni=1nf(Xi)]=1n2i=1nVP[f(Xi)]=1n2i=1nVPXi[f]=VPX[f]n \begin{aligned} \mathbb{V}_{P_S} \left[f_n\right] &= \mathbb{V}_{P} \left[f_n(S)\right] \\ &= \mathbb{V}_{P} \left[\frac{1}{n}\sum_{i=1}^n f(X_i)\right]\\ &= \frac{1}{n^2} \sum_{i=1}^n \mathbb{V}_{P} \left[f(X_i)\right] \\ &= \frac{1}{n^2} \sum_{i=1}^n \mathbb{V}_{P_{X_i}} \left[f\right] \\ &= \frac{\mathbb{V}_{P_{X}} \left[f\right]}{n} \end{aligned}

よって,チェビシェフの不等式より,

PS({xXnfn(x1,,xn)EPX[f]ϵ})VPX[f]nϵ2 \begin{aligned} P_{S} \left(\left\{x \in \mathcal{X}^n | f_n(x_1, \ldots, x_n) - \mathbb{E}_{P_{X}} \left[f\right] | \geq \epsilon\right\}\right) \leq \frac{\mathbb{V}_{P_{X}} \left[f\right]}{n\epsilon^2} \end{aligned}

よって,PS({xXnfn(x)EPX[f]ϵ})0(n)P_{S} \left(\left\{x \in \mathcal{X}^n | f_n(x) - \mathbb{E}_{P_{X}} \left[f\right] | \geq \epsilon\right\}\right) \to 0 \quad (n \to \infty).つまり,fnf_nEPX[f]\mathbb{E}_{P_X}[f]に確率収束する.

というわけで,十分大きなnnで,ffnf \approx f_n.ただし,{xi}i=1n\{x_i\}_{i=1}^nは,i.i.d. mannerでサンプリングする.

sampling

TODO: サンプリングって結構なぞなのでまた考える.

conditional probability and conditional expectation

この章はまだきちんと理解できてないので,後々解釈が変わると思う.

conditional probability (as a measure):

PYX(A)=PX,Y(A×)PX(A) \begin{aligned} P_{Y|X}(\cdot | A) = \frac{P_{X, Y}(A \times \cdot)}{P_X(A)} \end{aligned}

これは,測度.

conditional probability:

PYX(A)(ω)=AAPYX(A)1A(ω) \begin{aligned} P_{Y|X}(\cdot | \mathcal{A})(\omega) = \sum_{A \in \mathcal{A}} P_{Y|X}(\cdot | A) 1_{A} (\omega) \end{aligned}

これは,測度を値にもつ関数.確率変数と言ってもいいかは現時点では不明.

conditional expectation

E[YA](ω)=EPYX(A)(ω)[Y] \begin{aligned} E \left[Y | \mathcal{A}\right](\omega) = \mathbb{E}_{P_{Y|X}(\cdot | \mathcal{A})(\omega)} \left[Y\right] \end{aligned}

ちょっと離散型の場合だけ考えておく.YYを離散型確率変数として,以下のように定義する.

Y(ω)=j=1mbj1Bj(ω) \begin{aligned} Y(\omega) = \sum_{j=1}^m b_j 1_{B_j}(\omega) \end{aligned}

このとき,条件付き期待値は,

E[YA](ω)=j=1mbjPYX(BjA)(ω) \begin{aligned} E \left[Y | \mathcal{A}\right](\omega) = \sum_{j=1}^m b_j P_{Y|X}(B_j | \mathcal{A})(\omega) \end{aligned}

いい感じな気がする.この辺は難しいので具体的な例をあげて考えていきたい.次の日に持ち越し.

0 件のコメント:

コメントを投稿

機械学習の問題設定

機械学習の問題設定 機械学習の問題設定を見直したのでメモ. ( Ω , F , P ) (\Omega, \mathcal{F}, P) ( Ω , F , P ) : ベースとなる確率空間 ( X , F X ) (\mathcal...