論文の概要: Transporters with Visual Foresight for Solving Unseen Rearrangement
Tasks
- arxiv url: http://arxiv.org/abs/2202.10765v1
- Date: Tue, 22 Feb 2022 09:35:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-23 15:44:31.503677
- Title: Transporters with Visual Foresight for Solving Unseen Rearrangement
Tasks
- Title(参考訳): 視認性のある再配置課題の解決のためのトランスポーター
- Authors: Hongtao Wu, Jikai Ye, Xin Meng, Chris Paxton, Gregory Chirikjian
- Abstract要約: Visual Foresight (TVF) を使ったトランスポーターは、目に見えないタスクに対してマルチタスク学習とゼロショットの一般化を実現することができる。
TVFは、シミュレーションと実際のロボット実験において、トレーニングと見えないタスクの両方において、最先端の模倣学習手法の性能を向上させることができる。
- 参考スコア(独自算出の注目度): 12.604533231243543
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Rearrangement tasks have been identified as a crucial challenge for
intelligent robotic manipulation, but few methods allow for precise
construction of unseen structures. We propose a visual foresight model for
pick-and-place manipulation which is able to learn efficiently. In addition, we
develop a multi-modal action proposal module which builds on Goal-Conditioned
Transporter Networks, a state-of-the-art imitation learning method. Our method,
Transporters with Visual Foresight (TVF), enables task planning from image data
and is able to achieve multi-task learning and zero-shot generalization to
unseen tasks with only a handful of expert demonstrations. TVF is able to
improve the performance of a state-of-the-art imitation learning method on both
training and unseen tasks in simulation and real robot experiments. In
particular, the average success rate on unseen tasks improves from 55.0% to
77.9% in simulation experiments and from 30% to 63.3% in real robot experiments
when given only tens of expert demonstrations. More details can be found on our
project website: https://chirikjianlab.github.io/tvf/
- Abstract(参考訳): 再配置タスクは、インテリジェントなロボット操作にとって重要な課題として特定されているが、未知の構造を正確に構築できる手法はほとんどない。
本稿では,効率よく学習可能なピック・アンド・プレイス操作のための視覚的フォレストモデルを提案する。
さらに,最先端の模倣学習手法であるgoal-conditioned transporter networksを基盤としたマルチモーダルアクションプロポーザルモジュールを開発した。
提案手法であるTransporters with Visual Foresight (TVF) は,画像データからタスクプランニングが可能であり,少数の専門家によるデモンストレーションだけで,マルチタスク学習とゼロショット一般化を実現することができる。
tvfは、シミュレーションと実際のロボット実験の訓練と未発見のタスクの両方において、最先端の模倣学習手法の性能を向上させることができる。
特に、未確認タスクにおける平均成功率は、シミュレーション実験では55.0%から77.9%、実際のロボット実験では30%から63.3%に改善される。
詳細はプロジェクトのwebサイトにある。 https://chirikjianlab.github.io/tvf/
関連論文リスト
- VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Affordance-Guided Reinforcement Learning via Visual Prompting [51.361977466993345]
Keypoint-based Affordance Guidance for Improvements (KAGI) は、視覚言語モデル(VLM)によって形成される報酬を自律的なRLに活用する手法である。
自然言語記述によって指定された実世界の操作タスクにおいて、KAGIは自律的なRLのサンプル効率を改善し、20Kのオンライン微調整ステップでタスク完了を成功させる。
論文 参考訳(メタデータ) (2024-07-14T21:41:29Z) - Tactile Active Inference Reinforcement Learning for Efficient Robotic
Manipulation Skill Acquisition [10.072992621244042]
触覚能動推論強化学習(Tactile Active Inference Reinforcement Learning, Tactile-AIRL)と呼ばれるロボット操作におけるスキル学習手法を提案する。
強化学習(RL)の性能を高めるために,モデルに基づく手法と本質的な好奇心をRLプロセスに統合した能動推論を導入する。
本研究では,タスクをプッシュする非包括的オブジェクトにおいて,学習効率が著しく向上することが実証された。
論文 参考訳(メタデータ) (2023-11-19T10:19:22Z) - Mastering Robot Manipulation with Multimodal Prompts through Pretraining and Multi-task Fine-tuning [49.92517970237088]
我々はマルチモーダルなプロンプトを理解するためにロボットを訓練する問題に取り組む。
このようなタスクは、視覚と言語信号の相互接続と相補性を理解するロボットの能力にとって大きな課題となる。
マルチモーダルプロンプトを用いてロボット操作を行うためのポリシーを学習する効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-14T22:24:58Z) - Hindsight States: Blending Sim and Real Task Elements for Efficient
Reinforcement Learning [61.3506230781327]
ロボット工学では、第一原理から導かれた力学モデルに基づくシミュレーションに基づいて、トレーニングデータを生成する方法がある。
ここでは、力学の複雑さの不均衡を利用して、より標本効率のよい学習を行う。
提案手法をいくつかの課題に対して検証し,既存の近視アルゴリズムと組み合わせた場合の学習改善を実証する。
論文 参考訳(メタデータ) (2023-03-03T21:55:04Z) - Bottom-Up Skill Discovery from Unsegmented Demonstrations for
Long-Horizon Robot Manipulation [55.31301153979621]
我々は,実世界の長距離ロボット操作作業に,スキル発見による取り組みを行う。
未解決のデモンストレーションから再利用可能なスキルのライブラリを学ぶためのボトムアップアプローチを提案する。
提案手法は,多段階操作タスクにおける最先端の模倣学習手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2021-09-28T16:18:54Z) - Reactive Long Horizon Task Execution via Visual Skill and Precondition
Models [59.76233967614774]
シミュレーションで学習したモデルを用いて、単純なタスクプランナの構成要素をグラウンド化することで、見知らぬロボットタスクを達成できるシミュレート・トゥ・リアル・トレーニングのアプローチについて述べる。
シミュレーションでは91.6%から98%,実世界の成功率は10%から80%に増加した。
論文 参考訳(メタデータ) (2020-11-17T15:24:01Z) - Learning Object Manipulation Skills via Approximate State Estimation
from Real Videos [47.958512470724926]
人間は、いくつかの指導ビデオを見て、新しいタスクを学ぶことに精通しています。
一方、新しいアクションを学習するロボットは、試行錯誤によって多くの労力を必要とするか、あるいは入手が困難な専門家によるデモを使う必要がある。
本稿では,ビデオから直接オブジェクト操作スキルを学習する手法について検討する。
論文 参考訳(メタデータ) (2020-11-13T08:53:47Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。