Bluemo's Brain

Search

Search IconIcon to open search

ロボットと人工知能

Last updated Unknown Edit Source

    情報科学の達人.icon講義

    • 人工知能

      人工知能

      非専門家にとってのいわゆる「AI」という概念は に書く 等の広義「人工知能」の分野マップ Source: http://kamishima.net/archive/MLDMAImap.pdf 強い名がそれぞれの分野について書かれてる #研究 から始まった も流れの一つ? ...

      1/3/2023

      : ディープラーニング

      ディープラーニング

      モデルのへの拡張 変換を何度も繰り返して、徐々に複雑な関数を表現していく = 深層学習を、の手段の一つとして捉える 以前学んだ時は、なんでこれであんな複雑なタスクが出来るんだろうと気味が悪かった ただ、で再学習したら、まあできるよなという気持ちになってきた 「モデルに沢山パラメータがあれば複雑なものが表現できる」という感覚がついたのが、自分の中での変化な気がする ...

      1/3/2023

      ,機械学習

      機械学習

      分類 あまり意識しないけど、機械学習等は基本的にを仮定している(連続空間) 距離を知りたかったらとか ...

      1/3/2023

      , etc
    • (伝統的)ロボットと(伝統的)人工知能
    • これが、だんだん融合してきている
    • 例: 深層学習(コンピュータービジョン

      コンピュータービジョン

      a.k.a. 講義 「」「」「」の定義について 「///」を、「画像/映像」から抽出することがCV CVの対義語: / 「映像/画像」を、「///」から作り出すのがCG ...

      1/3/2023

      )のロボットへの応用
      • 画像(RGB-D)とそのグリップ位置の対応のデータセットがある
        • RGB-Dは、rgbに加えてDepthもある画像
      • それを学習すれば、ロボットが見ているもののグリップ位置がわかる
      • (余談)実験: rgb-dのどの情報が重要?
        • rgbdのそれぞれの情報を抜いたら、rgbの方がdより重要だった(rgbを抜く=白黒にする)
      • ただ、そのデーターセットを使ってみても、実際のロボットで物体を掴むというのはできなかった(!)
      • ただの視界とターゲット位置だけではだめで、ロボットの身体知

        身体知

        の講義で、早稲田の先生が言ってた共通のテーマ 情報の世界だけで色々やる(例: 画像にラベルを貼る)なら、従来の手法で問題ない ただ、実際に現実の世界とinteractするならが重要となる 具体例はリンクされてるページに色々書いてあるはず ...

        1/3/2023

        が重要
        • 実際の身体

          身体

          ...

          1/3/2023

          が環境と関わり合うという部分を捉えなければ、物体を掴めるようにならない #ロボット