第2課のまとめ

- 1変数の線形回帰 -
●1入力1出力のデータセット(住宅価格の例)に線形回帰を適用する。

machine learning - Stanford university

machine learning - Stanford university

●仮説の関数(Hypothesis Function)
hθ(x) = θ0 + θ1 * x
という形の直線をあてはめることを考える。
machine learning - Stanford university

machine learning - Stanford university

●目的関数(Cost Function)
hθ(x)が訓練データのyに近くなるように、どのようにパラメータθ0、θ1を決めるのか。
 J(θ0,θ1) = 1/2m ∑i=1:m (hθ(x(i))−y(i))2
2乗誤差関数が最小になるようにする。日本語の目的関数という言い方はちょっと微妙ですね。
machine learning - Stanford university

machine learning - Stanford university

●最急降下法(Gradient Descent)
Jの最小値を自動的に求める方法。任意のパラメータ値(θ0,θ1)から始めてJの微分値を参照しながらJが減少する方向にパラメータ値を少しずつ変えていく。図は1パラメータの場合で、(θ0,θ1)のように2つある場合は等高線のようになる。
machine learning - Stanford university

machine learning - Stanford university

●最急降下法を線形回帰に適用する
machine learning - Stanford university

machine learning - Stanford university

第3課は行列とベクトルの復習でした。