ニューラルネットワーク
- 基本の回帰モデルを表すと↑になる
これの層を増やしたり、間のユニットを増やすことで学習
各矢印が、重みwを持っている、全部違う値
- 学習によって調整される
リッジ回帰みたいに、正則化して重みを0に近づけることもできる
- デフォルトはほとんど正則化しない
最初は、乱数で重みを決める
学習した内容の解析が難しい、やる方法の一つは重みのヒートマップをみること
モデルが完成したら、実際に予測する時はこの計算をすればいいだけ、簡単
(xが入力、Wが各層の重み、yが出力、σがシグモイド関数)
- 一つの層のたくさんあるパーセプトロン
パーセプトロン
とかの元 一個だけのだと、表現力低いから使い物にならない じゃないといけない クラス分け問題 方法 重み[ベクトル]とxベクトルの内積の正負が、2つのベクトルが同じ側をむいているかどうかを表す 同じ側を向いていない=が負だったら、重みベクトルをxベクトル+重みベクトルに更新 これを全データーでやる #Pythonで始める機械学習 パーセプトロンの表し方は二種類ある ...
- それを避けるために、ランダムにdropoutする
- 過学習を避けるために
#Udacity_Intro_to_Deep_Learning_with_PyTorch #ディープラーニング