論文の概要: Conditional Visual Servoing for Multi-Step Tasks
- arxiv url: http://arxiv.org/abs/2205.08441v1
- Date: Tue, 17 May 2022 15:34:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-18 13:30:01.917101
- Title: Conditional Visual Servoing for Multi-Step Tasks
- Title(参考訳): マルチステップタスクのための条件付き視覚サーボ
- Authors: Sergio Izquierdo, Max Argus, Thomas Brox
- Abstract要約: 複数の実演シーケンスを持つシナリオに視覚サーボを拡張するためのモジュラーアプローチを提案する。
我々はこの条件サーボを,ロボットの観察を前提とした次の実演を選択することによって,これを条件サーボと呼ぶ。
この方法は多段階問題に対処するための魅力的な戦略を示す。
- 参考スコア(独自算出の注目度): 38.549573781429565
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Visual Servoing has been effectively used to move a robot into specific
target locations or to track a recorded demonstration. It does not require
manual programming, but it is typically limited to settings where one
demonstration maps to one environment state. We propose a modular approach to
extend visual servoing to scenarios with multiple demonstration sequences. We
call this conditional servoing, as we choose the next demonstration conditioned
on the observation of the robot. This method presents an appealing strategy to
tackle multi-step problems, as individual demonstrations can be combined
flexibly into a control policy. We propose different selection functions and
compare them on a shape-sorting task in simulation. With the reprojection error
yielding the best overall results, we implement this selection function on a
real robot and show the efficacy of the proposed conditional servoing. For
videos of our experiments, please check out our project page:
https://lmb.informatik.uni-freiburg.de/projects/conditional_servoing/
- Abstract(参考訳): Visual Servoingは、ロボットを特定のターゲット場所に移したり、記録されたデモを追跡するために効果的に使用されている。
手動プログラミングを必要としないが、通常は1つのデモがひとつの環境状態にマップされる設定に限られる。
複数の実演シーケンスを持つシナリオに視覚サーボを拡張するためのモジュラーアプローチを提案する。
この条件サーボは,ロボットの観察を前提とした次の実演を選択することで行う。
個別のデモンストレーションを柔軟に制御ポリシーに組み合わせることができるため、多段階問題に取り組むための魅力的な戦略を示す。
シミュレーションにおいて,異なる選択関数を提案し,形状ソートタスクで比較する。
この選択機能を実ロボットに実装し,提案する条件付きサーボの有効性を示す。
私たちの実験のビデオについては、プロジェクトのページを参照してください。
関連論文リスト
- Screw Geometry Meets Bandits: Incremental Acquisition of Demonstrations to Generate Manipulation Plans [9.600625243282618]
本研究では,1回に1回に1回,十分な審美的デモンストレーションの集合を得るという課題について検討する。
実験結果から操作計画を生成するために, (i) スクリュー幾何表現を用いて, これらのオープンな問題に対処する新しい手法を提案する。
本研究は,2つの実例操作課題,すなわち注水とスクーピングに関する実験結果である。
論文 参考訳(メタデータ) (2024-10-23T20:57:56Z) - PIVOT: Iterative Visual Prompting Elicits Actionable Knowledge for VLMs [140.14239499047977]
視覚言語モデル(VLM)は、論理的推論から視覚的理解に至るまで、様々なタスクにわたって印象的な能力を示している。
PIVOT(Prompting with Iterative Visual Optimization)と呼ばれる新しい視覚的プロンプト手法を提案する。
私たちのアプローチは、ロボットのトレーニングデータやさまざまな環境でのナビゲーション、その他の能力なしに、ロボットシステムのゼロショット制御を可能にします。
論文 参考訳(メタデータ) (2024-02-12T18:33:47Z) - Learning to Act from Actionless Videos through Dense Correspondences [87.1243107115642]
本稿では,様々なロボットや環境にまたがる多様なタスクを確実に実行可能なビデオベースのロボットポリシーを構築するためのアプローチを提案する。
本手法は,ロボットの目標を指定するための汎用表現として,状態情報と行動情報の両方を符号化するタスク非依存表現として画像を利用する。
テーブルトップ操作とナビゲーションタスクの学習方針における我々のアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2023-10-12T17:59:23Z) - Compositional Servoing by Recombining Demonstrations [32.23118166912325]
本稿では,視覚サーボタスクをグラフトラバーサルとして定式化するフレームワークを提案する。
既存のデモを分割して再結合することで、デモグラフを構築します。
また, 実演の組換えにより, タスク・振り返りが向上することを示した。
論文 参考訳(メタデータ) (2023-10-06T14:16:49Z) - RoboTAP: Tracking Arbitrary Points for Few-Shot Visual Imitation [36.43143326197769]
Track-Any-Point (TAP) モデルは、デモ中の関連する動きを分離し、低レベルのコントローラをパラメータ化して、シーン構成の変化をまたいでこの動きを再現する。
この結果は,形状整合,積み重ね,さらには接着や物体の付着といった完全な経路追従といった複雑な物体配置タスクを解くことのできるロバストなロボットポリシーで示される。
論文 参考訳(メタデータ) (2023-08-30T11:57:04Z) - Program Generation from Diverse Video Demonstrations [49.202289347899836]
複数の観察を総合することは、歴史的に機械が把握するのが困難であったタスクである。
本稿では,要約と翻訳を同時に行うことで,ビデオデモから一般的なルールを抽出できるモデルを提案する。
論文 参考訳(メタデータ) (2023-02-01T01:51:45Z) - VIMA: General Robot Manipulation with Multimodal Prompts [82.01214865117637]
ロボット操作タスクの幅広い範囲をマルチモーダルプロンプトで表現できることを示す。
我々は,数千の手続き的に生成されたテーブルトップタスクからなる新しいシミュレーションベンチマークを開発した。
我々は、これらのプロンプトを処理し、自動回帰的に運動動作を出力するトランスフォーマーベースのロボットエージェントVIMAを設計する。
論文 参考訳(メタデータ) (2022-10-06T17:50:11Z) - Learning to Shift Attention for Motion Generation [55.61994201686024]
ロボット学習を用いた動作生成の課題の1つは、人間のデモが1つのタスククエリに対して複数のモードを持つ分布に従うことである。
以前のアプローチでは、すべてのモードをキャプチャできなかったり、デモの平均モードを取得できないため、無効なトラジェクトリを生成する傾向があった。
この問題を克服する外挿能力を有するモーション生成モデルを提案する。
論文 参考訳(メタデータ) (2021-02-24T09:07:52Z) - Robust Maximum Entropy Behavior Cloning [15.713997170792842]
模倣学習(il)アルゴリズムは、特定のタスクを学ぶために専門家のデモンストレーションを使用する。
既存のアプローチのほとんどは、すべての専門家によるデモンストレーションは信頼性と信頼性を前提としていますが、もし与えられたデータセットに敵対的なデモが存在するとしたらどうでしょう?
敵対するデモを自律的に検出し、データセットから除外するデモからポリシーを直接生成する、新しい一般的なフレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-04T22:08:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。