論文の概要: Learning Generalizable Tool Use with Non-rigid Grasp-pose Registration
- arxiv url: http://arxiv.org/abs/2307.16499v2
- Date: Tue, 1 Aug 2023 16:54:23 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 11:25:46.687582
- Title: Learning Generalizable Tool Use with Non-rigid Grasp-pose Registration
- Title(参考訳): 非剛性グラフプレースレジストレーションを用いた汎用ツールの学習
- Authors: Malte Mosbach and Sven Behnke
- Abstract要約: 本稿では,ツール使用行動の強化学習を可能にする新しい手法を提案する。
私たちのアプローチは、ひとつのデモだけで新しいカテゴリのツールの操作を学ぶためのスケーラブルな方法を提供します。
学習したポリシーは複雑なツールの使用タスクを解決し、テスト時に見えないツールに一般化する。
- 参考スコア(独自算出の注目度): 29.998917158604694
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Tool use, a hallmark feature of human intelligence, remains a challenging
problem in robotics due the complex contacts and high-dimensional action space.
In this work, we present a novel method to enable reinforcement learning of
tool use behaviors. Our approach provides a scalable way to learn the operation
of tools in a new category using only a single demonstration. To this end, we
propose a new method for generalizing grasping configurations of multi-fingered
robotic hands to novel objects. This is used to guide the policy search via
favorable initializations and a shaped reward signal. The learned policies
solve complex tool use tasks and generalize to unseen tools at test time.
Visualizations and videos of the trained policies are available at
https://maltemosbach.github.io/generalizable_tool_use.
- Abstract(参考訳): ヒューマンインテリジェンスの目覚しい特徴であるツールの使用は、複雑な接触と高次元のアクション空間のため、ロボット工学において難しい問題である。
本研究では,ツール使用行動の強化学習を可能にする新しい手法を提案する。
我々のアプローチは、ひとつのデモンストレーションだけで新しいカテゴリのツールの操作を学ぶためのスケーラブルな方法を提供する。
そこで本研究では,多指ロボットハンドの把持構成を新しい物体に一般化する手法を提案する。
これは、適切な初期化と形をした報酬信号を通じてポリシー検索を導くために使用される。
学習したポリシーは複雑なツールの使用タスクを解決し、テスト時に見えないツールに一般化する。
トレーニングされたポリシーの可視化とビデオはhttps://maltemosbach.github.io/ generalizable_tool_useで公開されている。
関連論文リスト
- Dreamitate: Real-World Visuomotor Policy Learning via Video Generation [49.03287909942888]
本研究では,与えられたタスクの人間による実演の映像拡散モデルを微調整するビジュモータポリシー学習フレームワークを提案する。
我々は,新しいシーンの画像に条件付きタスクの実行例を生成し,この合成された実行を直接使用してロボットを制御する。
論文 参考訳(メタデータ) (2024-06-24T17:59:45Z) - Learning Reusable Manipulation Strategies [86.07442931141634]
人間は「トリック」を習得し、一般化する素晴らしい能力を実証する
本稿では,機械が1つの実演と自己演奏によってこのような操作スキルを習得することを可能にするフレームワークを提案する。
これらの学習メカニズムとサンプルは、標準的なタスクやモーションプランナにシームレスに統合できる。
論文 参考訳(メタデータ) (2023-11-06T17:35:42Z) - Learning to Design and Use Tools for Robotic Manipulation [21.18538869008642]
深層学習による形態と制御を共同最適化する最近の技術は, 移動エージェントの設計に有効である。
単一設計ではなく,設計方針の学習を提案する。
このフレームワークは,マルチゴール設定やマルチバリアント設定において,従来の手法よりもサンプリング効率が高いことを示す。
論文 参考訳(メタデータ) (2023-11-01T18:00:10Z) - Learning Generalizable Tool-use Skills through Trajectory Generation [13.879860388944214]
4つの異なる変形可能なオブジェクト操作タスクで1つのモデルをトレーニングします。
モデルは様々な新しいツールに一般化され、ベースラインを大幅に上回る。
トレーニングされたポリシーを、目に見えないツールを使って現実世界でテストし、人間に匹敵するパフォーマンスを実現します。
論文 参考訳(メタデータ) (2023-09-29T21:32:42Z) - Silver-Bullet-3D at ManiSkill 2021: Learning-from-Demonstrations and
Heuristic Rule-based Methods for Object Manipulation [118.27432851053335]
本稿では,SAPIEN ManiSkill Challenge 2021: No Interaction Trackにおいて,以下の2つのトラックを対象としたシステムの概要と比較分析を行った。
No Interactionは、事前に収集された実証軌道からの学習ポリシーのターゲットを追跡する。
このトラックでは,タスクを一連のサブタスクに分解することで,高品質なオブジェクト操作をトリガするHuristic Rule-based Method (HRM) を設計する。
各サブタスクに対して、ロボットアームに適用可能なアクションを予測するために、単純なルールベースの制御戦略が採用されている。
論文 参考訳(メタデータ) (2022-06-13T16:20:42Z) - Learning Generalizable Dexterous Manipulation from Human Grasp
Affordance [11.060931225148936]
マルチフィンガーハンドによる有害な操作は、ロボット工学における最も難しい問題の1つだ。
模倣学習の最近の進歩は、強化学習と比較してサンプル効率を大幅に改善した。
本稿では,様々な3Dオブジェクトをカテゴリ内に配置した大規模実演を用いて,デクスタラスな操作を学習することを提案する。
論文 参考訳(メタデータ) (2022-04-05T16:26:22Z) - Generalization in Dexterous Manipulation via Geometry-Aware Multi-Task
Learning [108.08083976908195]
既存の強化学習アルゴリズムで学習したポリシーは、実際は一般化可能であることを示す。
本稿では,100以上の幾何学的に異なる実世界のオブジェクトを,単一のジェネラリストポリシーで手動操作できることを示す。
興味深いことに、オブジェクトポイントクラウド表現によるマルチタスク学習は、より一般化するだけでなく、シングルオブジェクトのスペシャリストポリシーよりも優れています。
論文 参考訳(メタデータ) (2021-11-04T17:59:56Z) - TANGO: Commonsense Generalization in Predicting Tool Interactions for
Mobile Manipulators [15.61285199988595]
タスク固有のツール相互作用を予測するための新しいニューラルモデルであるTANGOを紹介します。
TANGOは、グラフニューラルネットワークを使用して、オブジェクトとそれらの間のシンボリックな関係からなる世界状態をエンコードする。
知識ベースから学習した組込みによる環境表現の強化により,新しい環境に効果的に一般化できることを示す。
論文 参考訳(メタデータ) (2021-05-05T18:11:57Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。