論文の概要: Where2Explore: Few-shot Affordance Learning for Unseen Novel Categories
of Articulated Objects
- arxiv url: http://arxiv.org/abs/2309.07473v1
- Date: Thu, 14 Sep 2023 07:11:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-15 16:00:42.729630
- Title: Where2Explore: Few-shot Affordance Learning for Unseen Novel Categories
of Articulated Objects
- Title(参考訳): where2Explore: アートオブジェクトの未知の新たなカテゴリのためのFew-shot Affordance Learning
- Authors: Chuanruo Ning, Ruihai Wu, Haoran Lu, Kaichun Mo, Hao Dong
- Abstract要約: Where2Explore"は、限られた数のインスタンスで最小限のインタラクションを持つ新しいカテゴリを効果的に探求するフレームワークである。
本フレームワークは, 異なるカテゴリ間の幾何学的類似性を明示的に推定し, 効率的な探索のための訓練カテゴリの形状と異なる局所領域を同定する。
- 参考スコア(独自算出の注目度): 15.989258402792755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Articulated object manipulation is a fundamental yet challenging task in
robotics. Due to significant geometric and semantic variations across object
categories, previous manipulation models struggle to generalize to novel
categories. Few-shot learning is a promising solution for alleviating this
issue by allowing robots to perform a few interactions with unseen objects.
However, extant approaches often necessitate costly and inefficient test-time
interactions with each unseen instance. Recognizing this limitation, we observe
that despite their distinct shapes, different categories often share similar
local geometries essential for manipulation, such as pullable handles and
graspable edges - a factor typically underutilized in previous few-shot
learning works. To harness this commonality, we introduce 'Where2Explore', an
affordance learning framework that effectively explores novel categories with
minimal interactions on a limited number of instances. Our framework explicitly
estimates the geometric similarity across different categories, identifying
local areas that differ from shapes in the training categories for efficient
exploration while concurrently transferring affordance knowledge to similar
parts of the objects. Extensive experiments in simulated and real-world
environments demonstrate our framework's capacity for efficient few-shot
exploration and generalization.
- Abstract(参考訳): 人工物体の操作はロボティクスの基本的な課題である。
対象カテゴリ間での幾何学的および意味的変異により、従来の操作モデルは新しいカテゴリへの一般化に苦慮している。
少ないショットの学習は、ロボットが見えないオブジェクトといくつかのインタラクションを実行できることによって、この問題を軽減するための有望なソリューションだ。
しかし、既存のアプローチでは、コストがかかり、非効率的なテストタイムインタラクションが必要となることが多い。
この制限を認識し、異なる形状にもかかわらず、異なるカテゴリは、プル可能なハンドルや把持可能なエッジなど、操作に不可欠な類似のローカルジオメトリを共有することが多いことを観察する。
このような共通性を利用するため,我々は,限られた数のインスタンス上で,最小限のインタラクションで,新しいカテゴリを効果的に探索するアプライアンス学習フレームワーク「where2explore」を紹介する。
提案手法は,異なるカテゴリ間の幾何学的類似性を明示的に推定し,学習カテゴリの形状と異なる局所領域を識別し,対象の類似部分に余裕知識を移し,効率的な探索を行う。
シミュレーション環境と実環境における広範囲な実験により,フレームワークの効率的な数発探索と一般化能力が証明された。
関連論文リスト
- Kinematic-aware Prompting for Generalizable Articulated Object
Manipulation with LLMs [53.66070434419739]
汎用的なオブジェクト操作は、ホームアシストロボットにとって不可欠である。
本稿では,物体のキネマティックな知識を持つ大規模言語モデルに対して,低レベル動作経路を生成するキネマティック・アウェア・プロンプト・フレームワークを提案する。
我々のフレームワークは8つのカテゴリで従来の手法よりも優れており、8つの未確認対象カテゴリに対して強力なゼロショット能力を示している。
論文 参考訳(メタデータ) (2023-11-06T03:26:41Z) - Endogenous Macrodynamics in Algorithmic Recourse [52.87956177581998]
対実説明(CE)とアルゴリズム・リコース(AR)に関する既存の研究は、静的環境における個人に主に焦点を当ててきた。
既存の方法論の多くは、一般化されたフレームワークによってまとめて記述できることを示す。
次に、既存のフレームワークは、グループレベルでの言論の内在的ダイナミクスを研究する際にのみ明らかとなるような、隠された対外的関係のコストを考慮に入れていないと論じる。
論文 参考訳(メタデータ) (2023-08-16T07:36:58Z) - Grasp Transfer based on Self-Aligning Implicit Representations of Local
Surfaces [10.602143478315861]
本研究は,ロボットがこれまで遭遇した物体と形状の類似性を共有する新しい物体に,把握経験や実演を移す問題に対処する。
我々は、オブジェクトメッシュの小さなデータセットから暗黙の局所的な表面表現モデルを学ぶために、単一の専門家のグリーグデモを使用します。
推測時において、このモデルは、専門家の把握が示される表面と最も幾何学的に類似した表面を識別することにより、新しい物体に把握を伝達するために使用される。
論文 参考訳(メタデータ) (2023-08-15T14:33:17Z) - PartManip: Learning Cross-Category Generalizable Part Manipulation
Policy from Point Cloud Observations [12.552149411655355]
私たちは、最初の大規模、パートベースのクロスカテゴリオブジェクト操作ベンチマーク、PartManipを構築しました。
我々は、提案したパートベース標準化とパートアウェア報酬で州ベースのエキスパートを訓練し、その知識をビジョンベースの学生に蒸留する。
クロスカテゴリの一般化のために,ドメイン不変特徴抽出のためのドメイン逆学習を導入する。
論文 参考訳(メタデータ) (2023-03-29T18:29:30Z) - Efficient Representations of Object Geometry for Reinforcement Learning
of Interactive Grasping Policies [29.998917158604694]
本稿では,様々な幾何学的に異なる実世界の物体の対話的把握を学習する強化学習フレームワークを提案する。
学習したインタラクティブなポリシーのビデオはhttps://maltemosbach.org/io/geometry_aware_grasping_policiesで公開されている。
論文 参考訳(メタデータ) (2022-11-20T11:47:33Z) - Inferring Versatile Behavior from Demonstrations by Matching Geometric
Descriptors [72.62423312645953]
人間は直感的にタスクを多目的に解決し、軌道に基づく計画や個々のステップの行動を変化させる。
現在のImitation Learningアルゴリズムは、通常、単調な専門家によるデモンストレーションのみを考慮し、状態アクションベースの設定で行動する。
代わりに、移動プリミティブの混合と分布マッチングの目的を組み合わせることで、専門家の行動と汎用性にマッチする多目的行動を学ぶ。
論文 参考訳(メタデータ) (2022-10-17T16:42:59Z) - Contrastive Object Detection Using Knowledge Graph Embeddings [72.17159795485915]
一つのホットアプローチで学習したクラス埋め込みの誤差統計と、自然言語処理や知識グラフから意味的に構造化された埋め込みを比較した。
本稿では,キーポイントベースおよびトランスフォーマーベースオブジェクト検出アーキテクチャの知識埋め込み設計を提案する。
論文 参考訳(メタデータ) (2021-12-21T17:10:21Z) - AdaAfford: Learning to Adapt Manipulation Affordance for 3D Articulated
Objects via Few-shot Interactions [13.802675708793014]
キャビネット、ドア、蛇口などの3D音声による物体の認識と相互作用は、将来のホームアシストロボットに特別な課題をもたらす。
我々はAdaAffordという名の新しいフレームワークを提案し、より正確なインスタンス固有の後付けに手軽さを迅速に適応するために、ごく少数のテスト時間インタラクションを実行することを学習する。
論文 参考訳(メタデータ) (2021-12-01T03:00:05Z) - Simultaneous Multi-View Object Recognition and Grasping in Open-Ended
Domains [0.0]
オープンなオブジェクト認識と把握を同時に行うために,メモリ容量を増強したディープラーニングアーキテクチャを提案する。
シミュレーションと実世界設定の両方において,本手法が未確認のオブジェクトを把握し,現場でのごくわずかな例を用いて,新たなオブジェクトカテゴリを迅速に学習できることを実証する。
論文 参考訳(メタデータ) (2021-06-03T14:12:11Z) - Closing the Generalization Gap in One-Shot Object Detection [92.82028853413516]
強力な数ショット検出モデルの鍵は、高度なメトリック学習アプローチではなく、カテゴリの数をスケールすることにある。
将来的なデータアノテーションの取り組みは、より広範なデータセットに集中し、より多くのカテゴリにアノテートする必要がある。
論文 参考訳(メタデータ) (2020-11-09T09:31:17Z) - Dynamic Semantic Matching and Aggregation Network for Few-shot Intent
Detection [69.2370349274216]
利用可能な注釈付き発話が不足しているため、インテント検出は困難である。
セマンティック成分はマルチヘッド自己認識によって発話から蒸留される。
本手法はラベル付きインスタンスとラベルなしインスタンスの両方の表現を強化するための総合的なマッチング手段を提供する。
論文 参考訳(メタデータ) (2020-10-06T05:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。