Loss Function
aka x_損失関数
Search
aka x_損失関数
from [[$ ]] 正解ラベルのとして捉えられるらしい(?) としても捉えられるらしい(?) よくわからん、そのうち分かりそう の時の、になるやつ を確率にかけて、和を求める ln(a)+ln(b) = ln(a*b)を使う、logを使えば掛け算を避けられる (下のxの値、0~1)を全部かけた値が小さいほど、クロスエントロピーは大きくなる 確率が0に近い = 損失は多い 確率が1に近い = 損失は少い あと、微分するとなんか良い感じになるのも理由の一つ?(たぶん) では、nn.CrossEntropyLoss() これは、LogSoftMaxと、NLLLossを合わせたもの LogSoftmaxとNLLLossで同じ結果になる...
とかの元 一個だけのだと、表現力低いから使い物にならない じゃないといけない クラス分け問題 方法 重み[ベクトル]とxベクトルの内積の正負が、2つのベクトルが同じ側をむいているかどうかを表す 同じ側を向いていない=が負だったら、重みベクトルをxベクトル+重みベクトルに更新 これを全データーでやる #Pythonで始める機械学習 パーセプトロンの表し方は二種類ある 一つは、上の画像みたいに、Biasをインプットの一つ(値は常に1)にして、その重みがbiasになるというもの もう一つは、バイアスをパーセプトロンの内部値として持つタイプ 前者の方が多く使われるらしい AND operatorとかも、パーセプトロンで表現できる↓ ↑のみたいなパーセプトロンを組み合わせるとXOR↓が作れる、シンプルなニューラルネットワーク? #UdacityIntrotoDeepLearningwithPyTorch とかを使って、出力を値にしないといけない なぜなら、値だと少し動かした時に変化が起きないから と同じ シグモイド関数だと、xの値がある程度大きいとgradient(errorに使う値)がほとんど0になってしまう その対策として、とか、とかの他の関数を使うこともある ReLUは、正の値なら直値をそのまま返す、つまりgradientは1になる Tanhはもうちょい複雑、でもシグモイド関数より良い感じのgradientを返す #ディープラーニング...
、 目的を達成するための最善の手を見つける : 数学/統計/アルゴリズムで計画の効率的な手を決定する科学的手法 問題としてしてモデルを作って、 そのモデルベースで最適化して、 現実の意思決定に活用して確認 現実の問題をモデル化するのが難しい、キモ 問題の分類 は分かりやすいゴールがない問題? (定義なんだろう) 手法の研究 で解ける方法を探す 簡単なものは、高校数学でもやっている グラフの最大/最小値求める問題 グラフ書かずに解けるように、、 最短路問題: 経路を0/1の集合で表すから (not) ただ、条件を緩めることでにできる のとかもこれにあたる 微分して0はあくまでも正解の ただ現実的な解法としてはあり の最小化 最近のトレンド 機械学習が流行ってきたので、が再度盛り上がってる 一次最適化 = 一階微分 (一度だけ) #情報科学...
一回触ってみたい https://www.imagazine.co.jp/gan%EF%BC%9A敵対的生成ネットワークとは何か%E3%80%80%EF%BD%9E%E3%80%8C教師/ z(ノイズ)がみたいなもの シード値を動かすとだんだん画像が変わっていくのね よくGANで生成された画像で見るやつか 今さら聞けないGAN(1) 基本構造の理解 - Qiita 対象読者ど真ん中な感じ Discriminator まあこれは普通(?)の分類問題のって感じ Generator をする 逆CNNとかはせずに、シンプルに値をreshapeするのね 逆CNNをするのはとか呼ばれるらしい 学習 「真データを使って、Discriminatorのみを学習」 「Discriminatorを使って、Generatorを訓練」 の二つを交互?にやる感じかな の意味がわからないな Discriminatorの学習では、V(D, G)を最大化させたい を最大化したい = 真データ(x)の時に1を出力させたい を最大化したい = 偽データ(G(z))の時に==0==を出力させたい Generatorの学習の時は、V(D,G)を最小化させたい を最小化したい = 偽データ(G(z))の時に==1==を出力させたい つまり、Discriminatorと真逆の方向に学習...