論文の概要: Information-driven Affordance Discovery for Efficient Robotic Manipulation
- arxiv url: http://arxiv.org/abs/2405.03865v1
- Date: Mon, 6 May 2024 21:25:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-08 16:07:44.134353
- Title: Information-driven Affordance Discovery for Efficient Robotic Manipulation
- Title(参考訳): 効率的なロボットマニピュレーションのための情報駆動型アクダクタンス発見
- Authors: Pietro Mazzaglia, Taco Cohen, Daniel Dijkman,
- Abstract要約: 環境との双方向な相互作用はこの問題を軽減することができると我々は主張する。
我々は,本手法の理論的正当性を提供し,シミュレーションと実世界の課題の両方において,そのアプローチを実証的に検証する。
IDAをダブした本手法は,複数のアクションプリミティブに対する視覚的アベイランスの効率的な発見を可能にする。
- 参考スコア(独自算出の注目度): 14.863105174430087
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Robotic affordances, providing information about what actions can be taken in a given situation, can aid robotic manipulation. However, learning about affordances requires expensive large annotated datasets of interactions or demonstrations. In this work, we argue that well-directed interactions with the environment can mitigate this problem and propose an information-based measure to augment the agent's objective and accelerate the affordance discovery process. We provide a theoretical justification of our approach and we empirically validate the approach both in simulation and real-world tasks. Our method, which we dub IDA, enables the efficient discovery of visual affordances for several action primitives, such as grasping, stacking objects, or opening drawers, strongly improving data efficiency in simulation, and it allows us to learn grasping affordances in a small number of interactions, on a real-world setup with a UFACTORY XArm 6 robot arm.
- Abstract(参考訳): ロボットが与えられた状況でどのような行動を取るかに関する情報を提供するロボットは、ロボット操作を支援することができる。
しかし、手頃な価格について学ぶには、対話やデモのための高価な大規模な注釈付きデータセットが必要である。
本研究では,環境との良好な対話がこの問題を緩和し,エージェントの目的を増強し,アベイランス発見プロセスを加速させる情報に基づく尺度を提案する。
我々は,本手法の理論的正当性を提供し,シミュレーションと実世界の課題の両方において,そのアプローチを実証的に検証する。
筆者らはIDAを用いて,物体の把握,積み重ね,引き出しの開放など,複数のアクションプリミティブの視覚的余裕を効果的に発見し,シミュレーションにおけるデータ効率を向上し,UFACTORY XArm 6ロボットアームを用いた実環境において,少数のインタラクションにおいて,視覚的余裕の把握を学べるようにした。
関連論文リスト
- RUMI: Rummaging Using Mutual Information [9.88370289799239]
Rummaging Using Mutual Information (RUMI) は、ロボットのアクションシーケンスをオンラインで生成する手法である。
我々は,ロボットの到達範囲内に物体を保持するために,情報ゲインコスト関数と到達可能性コスト関数を開発する。
RUMIは、ベースライン手法と比較してシミュレーションと実タスクの両方で優れた性能を示す。
論文 参考訳(メタデータ) (2024-08-19T23:16:18Z) - VITAL: Visual Teleoperation to Enhance Robot Learning through Human-in-the-Loop Corrections [10.49712834719005]
本稿では,VITAL と呼ばれる双方向操作作業のための低コストな視覚遠隔操作システムを提案する。
われわれのアプローチは、安価なハードウェアとビジュアル処理技術を利用してデモを収集する。
実環境と模擬環境の両方を活用することにより,学習方針の一般化性と堅牢性を高める。
論文 参考訳(メタデータ) (2024-07-30T23:29:47Z) - Human-Agent Joint Learning for Efficient Robot Manipulation Skill Acquisition [48.65867987106428]
本稿では,人間とロボットの協調学習システムについて紹介する。
これにより、ロボットエンドエフェクターの制御を学習支援エージェントと共有することができる。
これにより、ダウンストリームタスクにおいて、収集されたデータが十分な品質であることを保証しながら、人間の適応の必要性を減らすことができる。
論文 参考訳(メタデータ) (2024-06-29T03:37:29Z) - RPMArt: Towards Robust Perception and Manipulation for Articulated Objects [56.73978941406907]
本稿では,Articulated Objects (RPMArt) のロバスト知覚と操作のためのフレームワークを提案する。
RPMArtは、調音パラメータを推定し、雑音の多い点雲から調音部分を操作することを学習する。
我々は,シミュレート・トゥ・リアル・トランスファーの能力を高めるための調音認識型分類手法を提案する。
論文 参考訳(メタデータ) (2024-03-24T05:55:39Z) - Demonstration-Guided Reinforcement Learning with Efficient Exploration
for Task Automation of Surgical Robot [54.80144694888735]
効率的な強化学習アルゴリズムであるDEX(Demonstration-Guided Exploration)を導入する。
本手法は,生産的相互作用を促進するために,高い値で専門家のような行動を推定する。
総合的な手術シミュレーションプラットフォームであるSurRoLによる10ドルの手術操作に関する実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-02-20T05:38:54Z) - Active Exploration for Robotic Manipulation [40.39182660794481]
本稿では,スパース・リワード型ロボット操作作業における効率的な学習を可能にするモデルに基づく能動探索手法を提案する。
我々は,提案アルゴリズムをシミュレーションおよび実ロボットで評価し,スクラッチから本手法を訓練した。
論文 参考訳(メタデータ) (2022-10-23T18:07:51Z) - H-SAUR: Hypothesize, Simulate, Act, Update, and Repeat for Understanding
Object Articulations from Interactions [62.510951695174604]
The Hypothesize, Simulate, Act, Update, and Repeat (H-SAUR) is a probabilistic generative framework that generated hypotheses about objects articulate given input observed。
提案手法は,現在最先端のオブジェクト操作フレームワークよりも優れていることを示す。
我々は、学習に基づく視覚モデルから学習前の学習を統合することにより、H-SAURのテスト時間効率をさらに向上する。
論文 参考訳(メタデータ) (2022-10-22T18:39:33Z) - Bridging the Last Mile in Sim-to-Real Robot Perception via Bayesian
Active Learning [34.910660020436424]
本研究では,ベイジアン能動学習に基づくパイプラインを提案し,手動アノテーションの取り組みを最小化することを目的とする。
本研究では,2つのオブジェクト検出データ集合に対する実験により,同値ギャップを埋めるために必要なラベル付けの労力を小さめに抑えることができることを示した。
論文 参考訳(メタデータ) (2021-09-23T14:45:40Z) - Visual Imitation Made Easy [102.36509665008732]
本稿では,ロボットへのデータ転送を容易にしながら,データ収集プロセスを単純化する,模倣のための代替インターフェースを提案する。
我々は、データ収集装置やロボットのエンドエフェクターとして、市販のリーチ・グラブラー補助具を使用する。
我々は,非包括的プッシュと包括的積み重ねという2つの課題について実験的に評価した。
論文 参考訳(メタデータ) (2020-08-11T17:58:50Z) - Learning Predictive Models From Observation and Interaction [137.77887825854768]
世界との相互作用から予測モデルを学ぶことで、ロボットのようなエージェントが世界がどのように働くかを学ぶことができる。
しかし、複雑なスキルのダイナミクスを捉えるモデルを学ぶことは大きな課題である。
本研究では,人間などの他のエージェントの観察データを用いて,トレーニングセットを増強する手法を提案する。
論文 参考訳(メタデータ) (2019-12-30T01:10:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。