Unit3 Methods for estimation
What you learned
Lec8: Distance measures between distributions
- Unit2までは、estimatorをsample aveとして直感的に決めてきた
- 今回は、最適なestimatorを決める手法を学ぶ
- 今までは、sample aveの期待値がLLNよりパラメーターに収束する場合だけしか、ほぼ扱ってこなかった。
- そのため、sample aveはestimatorとして活用できた。
- しかし、パラメーターの値に収束しない場合は、estimatorは何にすればよいだろうか?
- 大きく、次の3つの方法が考えられる。
- Maximum likelihood estimation(最尤法)
- Method of moments
- M-estimators
- Total variation distance(TV)
- これはいわゆる、距離
- Kullback-Leibler divergence(KL)
- 相対エントロピーとしても有名
- 確率測度間の距離を最小化問題は、KLを使って考える
- TVは距離であったが、KLは距離の定義を満たさないので距離ではない、divergenceと呼ばれる
- KLの最小 ⇔ likelihoodの最大値。This is the maximum likelihood principle
- Likelihood
- データとパラメーターを引数にとる関数
- 値は確率or確率密度と考えていい。joint pmf or joint pdf
Lec9: Introduction to Maximum Likelihood Estimation
以下の確率変数のlikelihoodを計算
- Bernoulli
- Poisson
- Gussian
- Exponenssial
- Uniform
Maximum likelihood estimator(MLE)
- log-likelihood estimatorは実際に計算するときに便利なのでよく使う
- 一般的な教科書はだいたいminimizingで書かれているが、この授業ではmaximizingで進める
- concave(上に凸)/convex(下に凸)の判定
- gradientの導入
- Hessian matrixの導入
- Hessian matrixからconcave/convexを判定
- 実際にMLEを計算
- Bernoulli
- Poisson
- Gaussian
What you noticed
- concave/convexの判定は、Hessian matrixから数値化、または固有値を求めて判断
- MLEを計算する際は、log-likelihoodを使うことが大半。便利だから。
- パラメーターが1つの場合は、高校数学と同じ。
その他
- ベクトル解析を少し復習が必要
- gradient(∇)
- ベクトル場、スカラー場
参考文献
- 作者: 東京大学教養学部統計学教室
- 出版社/メーカー: 東京大学出版会
- 発売日: 1992/08/01
- メディア: 単行本
- 購入: 26人 クリック: 308回
- この商品を含むブログ (22件) を見る
- 作者: 平岡和幸,堀玄
- 出版社/メーカー: オーム社
- 発売日: 2004/10/01
- メディア: 単行本
- 購入: 27人 クリック: 278回
- この商品を含むブログ (90件) を見る