クラス分類
#分類器 #クラス分類器
Search
#分類器 #クラス分類器
from [[$ ]] 正解ラベルのとして捉えられるらしい(?) としても捉えられるらしい(?) よくわからん、そのうち分かりそう の時の、になるやつ を確率にかけて、和を求める ln(a)+ln(b) = ln(a*b)を使う、logを使えば掛け算を避けられる (下のxの値、0~1)を全部かけた値が小さいほど、クロスエントロピーは大きくなる 確率が0に近い = 損失は多い 確率が1に近い = 損失は少い あと、微分するとなんか良い感じになるのも理由の一つ?(たぶん) では、nn.CrossEntropyLoss() これは、LogSoftMaxと、NLLLossを合わせたもの LogSoftmaxとNLLLossで同じ結果になる...