パーセプトロン
ニューラルネットワーク
基本の回帰モデルを表すと↑になる
これの層を増やしたり、間のユニットを増やすことで学習
各矢印が、重みwを持っている、全部違う値
学習によって調整される
それだけだとただの回帰と同じ、だから、やを使ってフィルターをかける
みたいに、して重みを0に近づけることもできる
デフォルトはほとんど正則化しない
最初は、乱数で重みを決める
学習した内容の解析が難しい、やる方法の一つは重みのヒートマップをみること
パラメーター学習のには、や等が初心者向けにある
#Pythonで始める機械学習
モデルが完成したら、実際にする時はこの計算をすればいいだけ、簡単
(xが入力、Wが各層の重み、yが出力、σが)
一つの層のたくさんあるのうち、一つがめっちゃ影響力強くなっちゃうことがある
それを避けるために、ランダムにdropoutする
...ニューラルネットワーク
# #Pythonで始める機械学習
パーセプトロンの表し方は二種類ある
- 一つは、上の画像みたいに、Biasをインプットの一つ(値は常に1)にして、その重みがbiasになるというもの
- もう一つは、バイアスをパーセプトロンの内部値として持つタイプ
- 前者の方が多く使われるらしい
AND operatorとかも、パーセプトロンで表現できる↓
↑のみたいなパーセプトロンを組み合わせるとXOR↓が作れる、シンプルなニューラルネットワーク?
#Udacity_Intro_to_Deep_Learning_with_PyTorch