予測学習
講義
普通に考えると、感覚から動作へのマップを作ろうと思ってしまう
- 例: ものを掴むロボットの場合、視界の画像を与えられて、それにどういう運動をするのかという学習をしてしまいがち
しかし、動作したことによって自分自身の状態・感覚が変わってしまうことも多い(これが本質であることも)
どう学習するのか
- 環境全て(自分自身含む)のシーケンスデータを与える
- データは人間の操作とかで集める?
- そのシーケンスデータを学習し、ロボットが次の瞬間の環境を予測できるようにする
- 環境全て(自分自身含む)のシーケンスデータを与える
自己
自己
意識のコントロールの効く範囲を特別視する(自分ととらえる)と、「自分」の範囲がすごいfragileなものになるなーと 例えばマウスカーソルは自分のコントロール効くし、絶対に自分の命令に従う人もそうなる ...
- 予測学習したロボットは、すごい自己の範囲が狭い物となる
- 自己は自分の「意思」(=予測データ)のみ、それ以外は全て非自己(環境)
予測学習は、普通の FNN">[ニューラルネットワーク]だときつい?
応用例