PRML読書会 第二回まとめPart3
Chapter 2 :確率分布
Machine Learning
- unsdupervised
- density estimation
- perametric
- non-parametric
- density estimation
parametric(代表的なもの)
- binary dist
- normal dist
- 指数型分布族
non-parametric
- histgram
- kernel
- K-nearest neighber
特にGaussian distributionを見ていく。
- 基本的性質
- 条件付・周辺
- Bayes'
- 最尤
- Byesian
- 周期化・混合
無情報事前分布
Bernouli distribution : baised cointoss
- X〜Bernoulli (p)
- P(X=k | P ) =
- E[x] = p
- Var[x] = p(1-p)
- 〜Bernouli (p)
- X = とおけばX〜B(n,p)
Binary dist
- X〜B(n,p)
- P(X = k | n,p) =
- E[X] = np
- Var[X]=np(1-p)
given Data D={, ... , }
- 最尤
- もし
prior の選択 : conjugacy
- X = Beta(a,b)
- 分数の部分は正規化のため
- E[X] =
- Var[X] =
where...
どう改善さるか?
- x〜Berunoulli:(μ)
- μ〜Beta(a,b)
Freq :
Bayes:
- P(x = 1 | D)
逐次学習が出来る。
mとNのカウントを更新するだけ!
一般化
単に多次元になるだけで話しの流れは同じなのでとばす。
表現方法は異なるがk=2とすればさっきの例