論文の概要: Compositional Servoing by Recombining Demonstrations
- arxiv url: http://arxiv.org/abs/2310.04271v1
- Date: Fri, 6 Oct 2023 14:16:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-09 16:09:35.681307
- Title: Compositional Servoing by Recombining Demonstrations
- Title(参考訳): リコンビネーションデモによる組成サーボ
- Authors: Max Argus, Abhijeet Nayak, Martin B\"uchner, Silvio Galesso, Abhinav
Valada, Thomas Brox
- Abstract要約: 本稿では,視覚サーボタスクをグラフトラバーサルとして定式化するフレームワークを提案する。
既存のデモを分割して再結合することで、デモグラフを構築します。
また, 実演の組換えにより, タスク・振り返りが向上することを示した。
- 参考スコア(独自算出の注目度): 32.23118166912325
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning-based manipulation policies from image inputs often show weak task
transfer capabilities. In contrast, visual servoing methods allow efficient
task transfer in high-precision scenarios while requiring only a few
demonstrations. In this work, we present a framework that formulates the visual
servoing task as graph traversal. Our method not only extends the robustness of
visual servoing, but also enables multitask capability based on a few
task-specific demonstrations. We construct demonstration graphs by splitting
existing demonstrations and recombining them. In order to traverse the
demonstration graph in the inference case, we utilize a similarity function
that helps select the best demonstration for a specific task. This enables us
to compute the shortest path through the graph. Ultimately, we show that
recombining demonstrations leads to higher task-respective success. We present
extensive simulation and real-world experimental results that demonstrate the
efficacy of our approach.
- Abstract(参考訳): 画像入力からの学習に基づく操作ポリシーは、しばしば弱いタスク転送能力を示す。
対照的に、ビジュアルサーボメソッドは、数回のデモンストレーションを必要としながら、高精度なシナリオで効率的なタスク転送を可能にする。
本稿では,視覚サーボタスクをグラフトラバーサルとして定式化するフレームワークを提案する。
本手法は,視覚サーボの堅牢性だけでなく,タスク固有のデモに基づいてマルチタスク機能を実現する。
既存のデモを分割して再結合することにより,デモグラフを構築する。
推論の場合、デモンストレーショングラフをトラバースするために、特定のタスクに対して最適なデモを選択するのに役立つ類似度関数を利用する。
これにより、グラフを通る最短経路を計算できます。
最終的に、再結合による実演がタスクレトロスペクティブの成功につながることを示す。
提案手法の有効性を示す大規模なシミュレーションと実世界の実験結果を示す。
関連論文リスト
- Instance-Aware Graph Prompt Learning [71.26108600288308]
本稿では,インスタンス対応グラフプロンプト学習(IA-GPL)について紹介する。
このプロセスでは、軽量アーキテクチャを使用して各インスタンスの中間プロンプトを生成する。
複数のデータセットと設定で実施された実験は、最先端のベースラインと比較して、IA-GPLの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-11-26T18:38:38Z) - Conditional Visual Servoing for Multi-Step Tasks [38.549573781429565]
複数の実演シーケンスを持つシナリオに視覚サーボを拡張するためのモジュラーアプローチを提案する。
我々はこの条件サーボを,ロボットの観察を前提とした次の実演を選択することによって,これを条件サーボと呼ぶ。
この方法は多段階問題に対処するための魅力的な戦略を示す。
論文 参考訳(メタデータ) (2022-05-17T15:34:54Z) - Playful Interactions for Representation Learning [82.59215739257104]
本稿では,下流タスクの視覚的表現を学習するために,遊び心のあるインタラクションを自己指導的に利用することを提案する。
19の多様な環境で2時間の遊び心のあるデータを収集し、自己予測学習を用いて視覚的表現を抽出する。
我々の表現は、標準的な行動クローニングよりも一般化され、必要なデモの半数しか必要とせず、同様の性能を達成できる。
論文 参考訳(メタデータ) (2021-07-19T17:54:48Z) - Visual Adversarial Imitation Learning using Variational Models [60.69745540036375]
逆関数仕様は、深い強化学習を通しての学習行動にとって大きな障害であり続けている。
望ましい行動の視覚的なデモンストレーションは、エージェントを教えるためのより簡単で自然な方法を示すことが多い。
変動モデルに基づく対向的模倣学習アルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-07-16T00:15:18Z) - How to Design Sample and Computationally Efficient VQA Models [53.65668097847456]
テキストを確率的プログラムとして表現し,イメージをオブジェクトレベルのシーングラフとして表現することが,これらのデシラタを最も満足していることが判明した。
既存のモデルを拡張して,これらのソフトプログラムとシーングラフを活用して,エンドツーエンドで質問応答ペアをトレーニングします。
論文 参考訳(メタデータ) (2021-03-22T01:48:16Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Reinforcement Learning with Supervision from Noisy Demonstrations [38.00968774243178]
本研究では,環境と協調して対話し,専門家による実演を生かして政策を適応的に学習する新しい枠組みを提案する。
複数の人気強化学習アルゴリズムを用いた各種環境における実験結果から,提案手法はノイズの多い実演で頑健に学習可能であることが示された。
論文 参考訳(メタデータ) (2020-06-14T06:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。