論文の概要: Seeing All the Angles: Learning Multiview Manipulation Policies for
Contact-Rich Tasks from Demonstrations
- arxiv url: http://arxiv.org/abs/2104.13907v1
- Date: Wed, 28 Apr 2021 17:43:29 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-29 12:39:21.067554
- Title: Seeing All the Angles: Learning Multiview Manipulation Policies for
Contact-Rich Tasks from Demonstrations
- Title(参考訳): すべての角度を見る:デモからコンタクトリッチタスクのためのマルチビュー操作ポリシーを学ぶ
- Authors: Trevor Ablett, Yifan Zhai, Jonathan Kelly
- Abstract要約: 成功したマルチビューポリシは,モバイル操作プラットフォームにデプロイすることが可能だ。
様々な視点からデータを収集することで、模倣学習によってマルチビューのポリシーを見いだせることを示す。
マルチビューデータからの学習は,同一量の固定ビューデータによる学習と比較して,固定ビュータスクのパフォーマンスに対するペナルティがほとんどないことを示した。
- 参考スコア(独自算出の注目度): 7.51557557629519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learned visuomotor policies have shown considerable success as an alternative
to traditional, hand-crafted frameworks for robotic manipulation tasks.
Surprisingly, the extension of these methods to the multiview domain is
relatively unexplored. A successful multiview policy could be deployed on a
mobile manipulation platform, allowing it to complete a task regardless of its
view of the scene. In this work, we demonstrate that a multiview policy can be
found through imitation learning by collecting data from a variety of
viewpoints. We illustrate the general applicability of the method by learning
to complete several challenging multi-stage and contact-rich tasks, from
numerous viewpoints, both in a simulated environment and on a real mobile
manipulation platform. Furthermore, we analyze our policies to determine the
benefits of learning from multiview data compared to learning with data from a
fixed perspective. We show that learning from multiview data has little, if
any, penalty to performance for a fixed-view task compared to learning with an
equivalent amount of fixed-view data. Finally, we examine the visual features
learned by the multiview and fixed-view policies. Our results indicate that
multiview policies implicitly learn to identify spatially correlated features
with a degree of view-invariance.
- Abstract(参考訳): visuomotorのポリシーは、ロボット操作タスクのための従来の手作りのフレームワークの代替としてかなりの成功を収めている。
驚くべきことに、マルチビュードメインへのこれらのメソッドの拡張は、比較的未検討である。
成功したマルチビューポリシーは、モバイル操作プラットフォームにデプロイされ、シーンのビューに関係なくタスクを完了させることができる。
本研究では,様々な視点からデータを収集することで,模倣学習を通じて多視点ポリシーを見いだせることを示す。
シミュレーション環境と実際のモバイル操作プラットフォームの両方において,複数の難解なマルチステージおよびコンタクトリッチなタスクを,多数の視点から完了させることで,この手法の一般的な適用性を示す。
さらに,マルチビューデータからの学習のメリットを,固定的な視点からのデータによる学習と比較するために,ポリシーを分析した。
マルチビューデータからの学習は,同一量の固定ビューデータを用いた学習と比較して,固定ビュータスクのパフォーマンスに対するペナルティが低かった。
最後に,マルチビューポリシと固定ビューポリシで学習したビジュアル機能について検討する。
以上の結果から,マルチビューポリシーは,空間的相関性のある特徴を視差の程度で認識することが暗黙的に学習されることが示唆された。
関連論文リスト
- Distribution Matching for Multi-Task Learning of Classification Tasks: a
Large-Scale Study on Faces & Beyond [62.406687088097605]
マルチタスク学習(MTL)は、複数の関連するタスクを共同で学習し、共有表現空間から恩恵を受けるフレームワークである。
MTLは、ほとんど重複しない、あるいは重複しないアノテーションで分類タスクで成功することを示す。
本稿では,分散マッチングによるタスク間の知識交換を可能にする新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-02T14:18:11Z) - Learning from Semantic Alignment between Unpaired Multiviews for
Egocentric Video Recognition [23.031934558964473]
本稿では,セマンティックスをベースとしたUnpaired Multiview Learning (SUM-L)を提案する。
主要なアイデアは、ビデオの意味情報を活用することで、クロスビューの擬似ペアを構築し、ビュー不変アライメントを行うことである。
また,本手法は,より難易度の高いシナリオ下で,既存のビューアライメント手法よりも優れている。
論文 参考訳(メタデータ) (2023-08-22T15:10:42Z) - Multi-View Class Incremental Learning [57.14644913531313]
マルチビュー学習(MVL)は、下流タスクのパフォーマンスを改善するためにデータセットの複数の視点から情報を統合することで大きな成功を収めている。
本稿では,複数視点クラスインクリメンタルラーニング(MVCIL)と呼ばれる新しいパラダイムについて考察する。
論文 参考訳(メタデータ) (2023-06-16T08:13:41Z) - Multi-View Masked World Models for Visual Robotic Manipulation [132.97980128530017]
ランダムにマスキングされた視点の画素を再構成するマルチビューマスキングオートエンコーダを訓練する。
提案手法の有効性を様々なシナリオで示す。
また、複数のランダム化視点で訓練された多視点マスク付きオートエンコーダは、強い視点ランダム化を持つポリシーを訓練することができることを示した。
論文 参考訳(メタデータ) (2023-02-05T15:37:02Z) - Cross-view Graph Contrastive Representation Learning on Partially
Aligned Multi-view Data [52.491074276133325]
マルチビュー表現学習は、過去数十年間で急速に発展し、多くの分野に応用されてきた。
本稿では,多視点情報を統合してデータアライメントを行い,潜在表現を学習する,新しいクロスビューグラフコントラスト学習フレームワークを提案する。
複数の実データを用いて実験を行い,クラスタリングおよび分類作業における提案手法の有効性を示した。
論文 参考訳(メタデータ) (2022-11-08T09:19:32Z) - Multi-View representation learning in Multi-Task Scene [4.509968166110557]
我々は,MTMVCSF(Common and Special Features)に基づくマルチタスク多視点学習(multi-Task Multi-View learning)と呼ばれる,新しい半教師付きアルゴリズムを提案する。
AN-MTMVCSFと呼ばれるマルチタスク・マルチタスク・マルチビュー・アルゴリズムが提案されている。
これらのアルゴリズムの有効性は、実世界と合成データの双方でよく設計された実験によって証明される。
論文 参考訳(メタデータ) (2022-01-15T11:26:28Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - ASM2TV: An Adaptive Semi-Supervised Multi-Task Multi-View Learning
Framework [7.64589466094347]
モノのインターネットにおけるヒューマンアクティビティ認識(HAR)はマルチタスクのマルチビュー学習問題として定式化することができる。
半教師付きマルチタスク多視点学習のための新しいフレームワーク ASM2TV を提案する。
論文 参考訳(メタデータ) (2021-05-18T16:15:32Z) - Generalized Multi-view Shared Subspace Learning using View Bootstrapping [43.027427742165095]
マルチビュー学習の主な目的は、下流学習タスクを改善するために、オブジェクト/イベントのクラスの複数の並列ビューに共通する情報をモデル化することである。
本稿では,多視点相関に基づくニューラルな手法を提案する。
音声認識、3次元オブジェクト分類、ポーズ不変顔認識の実験は、多数のビューをモデル化するためのビューブートストラップの堅牢性を示している。
論文 参考訳(メタデータ) (2020-05-12T20:35:14Z) - Exploit Clues from Views: Self-Supervised and Regularized Learning for
Multiview Object Recognition [66.87417785210772]
本研究では,マルチビュー自己教師型学習(MV-SSL)の問題点について検討する。
対象不変」表現を追求し,自己指導型学習のための新しい代理課題を提案する。
実験の結果,ビュー不変プロトタイプ埋め込み(VISPE)による認識と検索は,他の自己教師あり学習方法よりも優れていた。
論文 参考訳(メタデータ) (2020-03-28T07:06:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。