Bluemo's Brain

Search

Search IconIcon to open search

ニューラルネットワーク

Last updated Unknown Edit Source

    image - 基本の回帰モデルを表すと↑になる

    • これの層を増やしたり、間のユニットを増やすことで学習 image

    • 各矢印が、重みwを持っている、全部違う値

      • 学習によって調整される
    • それだけだとただの回帰と同じ、だから、ReLUTanhを使ってフィルターをかける

    • リッジ回帰みたいに、正則化

      正則化

      で、回帰モデルの時にそれぞれの特徴量が与える影響を小さくすることで過学習を防ぐ は、調整が聞かない線形モデルに対して調整する、 Alpha値を操作する ...

      1/3/2023

      して重みを0に近づけることもできる

      • デフォルトはほとんど正則化しない
    • 最初は、乱数で重みを決める

    • 学習した内容の解析が難しい、やる方法の一つは重みのヒートマップをみること

    • パラメーター学習のアルゴリズムには、adamlbfgs等が初心者向けにある #Pythonで始める機械学習


    image モデルが完成したら、実際に予測

    予測

    通信において、光の速度を超えるには予測すれば良い 10msのラグがあっても、10ms先の予測ができればラグは存在しない? で、選手は玉が見えていると思ってるけど 実際はピッチャーの動きを見ている?...

    1/3/2023

    する時はこの計算をすればいいだけ、簡単 (xが入力、Wが各層の重み、yが出力、σがシグモイド関数

    • 一つの層のたくさんあるパーセプトロン

      パーセプトロン

      とかの元 一個だけのだと、表現力低いから使い物にならない じゃないといけない クラス分け問題 方法 重み[ベクトル]とxベクトルの内積の正負が、2つのベクトルが同じ側をむいているかどうかを表す 同じ側を向いていない=が負だったら、重みベクトルをxベクトル+重みベクトルに更新 これを全データーでやる #Pythonで始める機械学習 パーセプトロンの表し方は二種類ある ...

      1/3/2023

      のうち、一つがめっちゃ影響力強くなっちゃうことがある
      • それを避けるために、ランダムにdropoutする
      • 過学習

        過学習

        from 機械は、パラメータを訓練する時間を与えれば与えるほど複雑なモデルを考えようとする それをやめたい そういう意味では、結果に対してはと同じ話をしている 逆に、人間はそういうことはなさそう ことへのモチベを持っているからかな ...

        1/3/2023

        を避けるために

    #Udacity_Intro_to_Deep_Learning_with_PyTorch #ディープラーニング