論文の概要: Grasp Transfer based on Self-Aligning Implicit Representations of Local
Surfaces
- arxiv url: http://arxiv.org/abs/2308.07807v1
- Date: Tue, 15 Aug 2023 14:33:17 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-16 12:20:09.826115
- Title: Grasp Transfer based on Self-Aligning Implicit Representations of Local
Surfaces
- Title(参考訳): 局所表面の自己調整的暗示表現に基づくグラフ転送
- Authors: Ahmet Tekden, Marc Peter Deisenroth, Yasemin Bekiroglu
- Abstract要約: 本研究は,ロボットがこれまで遭遇した物体と形状の類似性を共有する新しい物体に,把握経験や実演を移す問題に対処する。
我々は、オブジェクトメッシュの小さなデータセットから暗黙の局所的な表面表現モデルを学ぶために、単一の専門家のグリーグデモを使用します。
推測時において、このモデルは、専門家の把握が示される表面と最も幾何学的に類似した表面を識別することにより、新しい物体に把握を伝達するために使用される。
- 参考スコア(独自算出の注目度): 10.602143478315861
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objects we interact with and manipulate often share similar parts, such as
handles, that allow us to transfer our actions flexibly due to their shared
functionality. This work addresses the problem of transferring a grasp
experience or a demonstration to a novel object that shares shape similarities
with objects the robot has previously encountered. Existing approaches for
solving this problem are typically restricted to a specific object category or
a parametric shape. Our approach, however, can transfer grasps associated with
implicit models of local surfaces shared across object categories.
Specifically, we employ a single expert grasp demonstration to learn an
implicit local surface representation model from a small dataset of object
meshes. At inference time, this model is used to transfer grasps to novel
objects by identifying the most geometrically similar surfaces to the one on
which the expert grasp is demonstrated. Our model is trained entirely in
simulation and is evaluated on simulated and real-world objects that are not
seen during training. Evaluations indicate that grasp transfer to unseen object
categories using this approach can be successfully performed both in simulation
and real-world experiments. The simulation results also show that the proposed
approach leads to better spatial precision and grasp accuracy compared to a
baseline approach.
- Abstract(参考訳): 私たちが操作し操作するオブジェクトは、共有機能のために柔軟にアクションを転送できるハンドルのような類似の部品を共有します。
本研究は,ロボットがこれまで遭遇した物体と形状の類似性を共有する新しい物体に,把握経験や実演を移す問題に対処する。
この問題を解決する既存のアプローチは、通常、特定の対象のカテゴリまたはパラメトリックな形状に限定される。
しかし,我々のアプローチは,対象カテゴリ間で共有される局所曲面の暗黙的モデルに関連する把握を伝達することができる。
具体的には,オブジェクトメッシュの小さなデータセットから暗黙的な局所的表面表現モデルを学ぶために,単一の専門家による把握デモを用いる。
推論時に、このモデルは、専門家が把握した面と最も幾何学的に類似した面を識別することで、新しい物体に把持を移すために使用される。
モデルは完全にシミュレーションで訓練され、トレーニング中に見えないシミュレーションや実世界のオブジェクトで評価されます。
評価の結果, シミュレーション実験と実世界実験の両方において, この手法による対象カテゴリーの把握が有効であることが示された。
シミュレーションの結果,提案手法は,ベースライン手法と比較して空間精度と把握精度が向上することが示された。
関連論文リスト
- Generalizable Single-view Object Pose Estimation by Two-side Generating and Matching [19.730504197461144]
本稿では,RGB画像のみを用いてオブジェクトのポーズを決定するために,新しい一般化可能なオブジェクトポーズ推定手法を提案する。
本手法は,オブジェクトの参照画像1枚で操作し,3次元オブジェクトモデルやオブジェクトの複数ビューの必要性を解消する。
論文 参考訳(メタデータ) (2024-11-24T14:31:50Z) - Zero-Shot Object-Centric Representation Learning [72.43369950684057]
ゼロショット一般化のレンズによる現在の対象中心法について検討する。
8つの異なる合成および実世界のデータセットからなるベンチマークを導入する。
多様な実世界の画像のトレーニングにより、見えないシナリオへの転送性が向上することがわかった。
論文 参考訳(メタデータ) (2024-08-17T10:37:07Z) - Where2Explore: Few-shot Affordance Learning for Unseen Novel Categories
of Articulated Objects [15.989258402792755]
Where2Explore"は、限られた数のインスタンスで最小限のインタラクションを持つ新しいカテゴリを効果的に探求するフレームワークである。
本フレームワークは, 異なるカテゴリ間の幾何学的類似性を明示的に推定し, 効率的な探索のための訓練カテゴリの形状と異なる局所領域を同定する。
論文 参考訳(メタデータ) (2023-09-14T07:11:58Z) - Inverse Dynamics Pretraining Learns Good Representations for Multitask
Imitation [66.86987509942607]
このようなパラダイムを模倣学習でどのように行うべきかを評価する。
本稿では,事前学習コーパスがマルチタスクのデモンストレーションから成り立つ環境について考察する。
逆動力学モデリングはこの設定に適していると主張する。
論文 参考訳(メタデータ) (2023-05-26T14:40:46Z) - Local Neural Descriptor Fields: Locally Conditioned Object
Representations for Manipulation [10.684104348212742]
限られた数のデモンストレーションから得られたオブジェクト操作スキルを一般化する手法を提案する。
我々のアプローチであるLocal Neural Descriptor Fields (L-NDF) は、物体の局所幾何学に定義されたニューラル記述子を利用する。
シミュレーションと現実世界の両方において、新しいポーズで新しいオブジェクトを操作するためのアプローチの有効性について説明する。
論文 参考訳(メタデータ) (2023-02-07T16:37:19Z) - Detection and Physical Interaction with Deformable Linear Objects [10.707804359932604]
変形可能な線形オブジェクト(例えば、ケーブル、ロープ、スレッド)は、私たちの日常生活に一般的に現れます。
変形可能な線形オブジェクトをモデル化し追跡する手法はすでに成功している。
本研究では,地上および空中ロボットによるルーティングや操作などのタスクに本手法を用いることについて述べる。
論文 参考訳(メタデータ) (2022-05-17T01:17:21Z) - Discovering Objects that Can Move [55.743225595012966]
手動ラベルなしでオブジェクトを背景から分離する、オブジェクト発見の問題について検討する。
既存のアプローチでは、色、テクスチャ、位置などの外観の手がかりを使用して、ピクセルをオブジェクトのような領域に分類する。
私たちは、動的オブジェクト -- 世界で独立して動くエンティティ -- にフォーカスすることを選びます。
論文 参考訳(メタデータ) (2022-03-18T21:13:56Z) - Fusing Local Similarities for Retrieval-based 3D Orientation Estimation
of Unseen Objects [70.49392581592089]
我々は,モノクロ画像から未確認物体の3次元配向を推定する作業に取り組む。
我々は検索ベースの戦略に従い、ネットワークがオブジェクト固有の特徴を学習するのを防ぐ。
また,LineMOD,LineMOD-Occluded,T-LESSのデータセットを用いた実験により,本手法が従来の手法よりもはるかに優れた一般化をもたらすことが示された。
論文 参考訳(メタデータ) (2022-03-16T08:53:00Z) - Point Cloud Based Reinforcement Learning for Sim-to-Real and Partial
Observability in Visual Navigation [62.22058066456076]
強化学習(Reinforcement Learning, RL)は、複雑なロボットタスクを解決する強力なツールである。
RL は sim-to-real transfer problem として知られる現実世界では直接作用しない。
本稿では,点雲と環境ランダム化によって構築された観測空間を学習する手法を提案する。
論文 参考訳(メタデータ) (2020-07-27T17:46:59Z) - Learning Predictive Representations for Deformable Objects Using
Contrastive Estimation [83.16948429592621]
視覚表現モデルと動的モデルの両方を協調的に最適化する新しい学習フレームワークを提案する。
我々は,標準モデルに基づく学習手法をロープや布の操作スイートで大幅に改善した。
論文 参考訳(メタデータ) (2020-03-11T17:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。