AutoEncoderによる予測学習
認知ロボティクスの講義
- AutoEncoderによる予測学習
- 物掴むタスク
- ある瞬間の、①視界の画像、②音、③ロボットの関節角度のそれぞれを、AutoEncoderで低次元の特徴量に変換
- それぞれの特徴量をまとめて、予測学習のある瞬間の値として扱う
- そして予測学習にかけると、物掴むタスクができる
- Seq2Seqを使うと、
- 自然言語をエンコードして、予測学習的手法
Search
認知ロボティクスの講義
講義 普通に考えると、感覚から動作へのマップを作ろうと思ってしまう 例: ものを掴むの場合、視界の画像を与えられて、それにどういう運動をするのかという学習をしてしまいがち しかし、動作したことによって自分自身の状態・感覚が変わってしまうことも多い(これが本質であることも) 自分がしているもの全て(環境だけではなく、自分自身の感覚()含む)を全て予測していく、という考え方が有効 #身体知 どういう制御をするとどう動くのか、というのも予測の一部 どう動くとどう物体が反応するのか、というのも予測の一部 end-to-end、一気に全部やっちゃおう それらをそれぞれ頑張って理論ベースで計算するのも可能だけど、めっちゃ複雑・大変 どう学習するのか 環境全て(自分自身含む)のデータを与える データは人間の操作とかで集める? そのシーケンスデータを学習し、ロボットが次の瞬間の環境を予測できるようにする の範囲はどこまでか、という的議論とも繋がる 予測学習したロボットは、すごい自己の範囲が狭い物となる 自己は自分の「意思」(=予測データ)のみ、それ以外は全て非自己(環境) 予測学習は、普通の[ニューラルネットワーク]])だときつい? 一コマ前の状態だけから予測するのは大変 例えば往復運動している物体を予測する場合、 あるコマが往路なのか復路なのかは分からない なので、が良い(を持たせられるので) 応用例 ...