予測学習
講義
普通に考えると、感覚から動作へのマップを作ろうと思ってしまう
- 例: ものを掴むロボットの場合、視界の画像を与えられて、それにどういう運動をするのかという学習をしてしまいがち
しかし、動作したことによって自分自身の状態・感覚が変わってしまうことも多い(これが本質であることも)
どう学習するのか
- 環境全て(自分自身含む)のシーケンスデータを与える
- データは人間の操作とかで集める?
- そのシーケンスデータを学習し、ロボットが次の瞬間の環境を予測できるようにする
- 環境全て(自分自身含む)のシーケンスデータを与える
- 予測学習したロボットは、すごい自己の範囲が狭い物となる
- 自己は自分の「意思」(=予測データ)のみ、それ以外は全て非自己(環境)
予測学習は、普通の FNN">[ニューラルネットワーク]だときつい?
応用例