論文の概要: Anthropomorphic Grasping with Neural Object Shape Completion
- arxiv url: http://arxiv.org/abs/2311.02510v1
- Date: Sat, 4 Nov 2023 21:05:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-07 17:18:12.851317
- Title: Anthropomorphic Grasping with Neural Object Shape Completion
- Title(参考訳): ニューラルオブジェクト形状コンプリートを用いた擬似グラスピング
- Authors: Diego Hidalgo-Carvajal, Hanzhi Chen, Gemma C. Bettelani, Jaesug Jung,
Melissa Zavaglia, Laura Busse, Abdeldjallil Naceri, Stefan Leutenegger, Sami
Haddadin
- Abstract要約: 人間は、オブジェクトを扱うときに異常な器用さを示します。
手の姿勢は、把握すべき対象に対する特定の領域の影響を一般的に示している。
本研究では、部分的な観察から全幾何学を再構築し、完成させることにより、人間のような物体の理解を活用する。
- 参考スコア(独自算出の注目度): 20.952799332420195
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The progressive prevalence of robots in human-suited environments has given
rise to a myriad of object manipulation techniques, in which dexterity plays a
paramount role. It is well-established that humans exhibit extraordinary
dexterity when handling objects. Such dexterity seems to derive from a robust
understanding of object properties (such as weight, size, and shape), as well
as a remarkable capacity to interact with them. Hand postures commonly
demonstrate the influence of specific regions on objects that need to be
grasped, especially when objects are partially visible. In this work, we
leverage human-like object understanding by reconstructing and completing their
full geometry from partial observations, and manipulating them using a 7-DoF
anthropomorphic robot hand. Our approach has significantly improved the
grasping success rates of baselines with only partial reconstruction by nearly
30% and achieved over 150 successful grasps with three different object
categories. This demonstrates our approach's consistent ability to predict and
execute grasping postures based on the completed object shapes from various
directions and positions in real-world scenarios. Our work opens up new
possibilities for enhancing robotic applications that require precise grasping
and manipulation skills of real-world reconstructed objects.
- Abstract(参考訳): 人間に合った環境におけるロボットの進歩的な普及は、デクスタリティが重要な役割を果たす無数のオブジェクト操作技術を生み出した。
人間は物体を扱う際、異常なデクスター性を示すことが確立されている。
このようなデキスタリティは、物体の性質(重量、大きさ、形状など)の堅牢な理解と、それらと相互作用する顕著な能力に由来すると考えられる。
手の姿勢は、通常、特定の領域が、特に部分的に見える場合は、把握する必要がある物体に与える影響を示す。
本研究では, 部分的観察から全形状を再構築し, 7自由度ロボットハンドで操作することで, 人間の物体理解を活用した。
提案手法は, 部分的再構成のみでベースラインの把持成功率を30%近く向上させ, 3つの異なる対象カテゴリで150以上の把持を達成した。
これは,現実のシナリオにおいて,様々な方向や位置から完成した物体形状に基づいて,把持姿勢を予測・実行するためのアプローチの一貫した能力を示す。
我々の研究は、現実世界の再構成された物体の正確な把握と操作のスキルを必要とするロボットアプリケーションを強化する新たな可能性を開く。
関連論文リスト
- PickScan: Object discovery and reconstruction from handheld interactions [99.99566882133179]
シーンの3次元表現を再構成する対話誘導型クラス依存型手法を開発した。
我々の主な貢献は、操作対象のインタラクションを検出し、操作対象のマスクを抽出する新しいアプローチである。
相互作用ベースとクラス非依存のベースラインであるCo-Fusionと比較すると、これはシャムファー距離の73%の減少に相当する。
論文 参考訳(メタデータ) (2024-11-17T23:09:08Z) - Stimulating Imagination: Towards General-purpose Object Rearrangement [2.0885207827639785]
汎用オブジェクト配置は、インテリジェントロボットの基本的な能力である。
我々はこの課題を達成するためにSPORTというフレームワークを提案する。
Sportは、物理的に現実的な結果を保証するために拡散に基づく3Dポーズ推定器を学習する。
シミュレーションと実世界の実験により、汎用オブジェクト再構成を実現するためのアプローチの可能性を示す。
論文 参考訳(メタデータ) (2024-08-03T03:53:05Z) - 3D Foundation Models Enable Simultaneous Geometry and Pose Estimation of Grasped Objects [13.58353565350936]
本研究では,ロボットが把握した物体の形状と姿勢を共同で推定する手法を提案する。
提案手法は,推定幾何をロボットの座標フレームに変換する。
我々は,実世界の多様な物体の集合を保持するロボットマニピュレータに対する我々のアプローチを実証的に評価した。
論文 参考訳(メタデータ) (2024-07-14T21:02:55Z) - GraspXL: Generating Grasping Motions for Diverse Objects at Scale [30.104108863264706]
政策学習フレームワークGraspXLにおいて,複数の動作目標に対して手物体の把握動作の発生を統一する。
58個のオブジェクトでトレーニングされたポリシーは、成功率82.2%の500万以上の未確認オブジェクトに対して、多様な把握動作を堅牢に合成することができる。
私たちのフレームワークは、さまざまな手元にデプロイでき、再構築または生成されたオブジェクトで作業できます。
論文 参考訳(メタデータ) (2024-03-28T17:57:27Z) - PhyGrasp: Generalizing Robotic Grasping with Physics-informed Large
Multimodal Models [58.33913881592706]
人間は、自分の直感的な物理学を巧みに把握し、これまで見たことのない物体であっても、効率的に把握を変更できる。
この研究は、そのような物理的常識的推論をロボット操作に注入することに注力している。
自然言語と3次元点雲の2つのモードからの入力を利用するマルチモーダル大モデルであるPhyGraspを紹介する。
論文 参考訳(メタデータ) (2024-02-26T18:57:52Z) - Full-Body Articulated Human-Object Interaction [61.01135739641217]
CHAIRSは16.2時間の多目的相互作用からなる大規模な動きキャプチャーされたf-AHOIデータセットである。
CHAIRSは、対話的なプロセス全体を通して、人間と明瞭なオブジェクトの両方の3Dメッシュを提供する。
HOIにおける幾何学的関係を学習することにより,人間のポーズ推定を利用した最初のモデルが考案された。
論文 参考訳(メタデータ) (2022-12-20T19:50:54Z) - Learn to Predict How Humans Manipulate Large-sized Objects from
Interactive Motions [82.90906153293585]
本稿では,動きデータと動的記述子を融合させるグラフニューラルネットワークHO-GCNを提案する。
動的記述子を消費するネットワークは、最先端の予測結果が得られ、未確認オブジェクトへのネットワークの一般化に役立つことを示す。
論文 参考訳(メタデータ) (2022-06-25T09:55:39Z) - Reactive Human-to-Robot Handovers of Arbitrary Objects [57.845894608577495]
本稿では、未知の物体の人間とロボットのハンドオーバを可能にするビジョンベースシステムを提案する。
提案手法は,クローズドループ運動計画とリアルタイムかつ時間的に一貫性のあるグリップ生成を組み合わせたものである。
提案手法の汎用性,ユーザビリティ,ロバスト性を,26種類の家庭用オブジェクトからなる新しいベンチマークで実証した。
論文 参考訳(メタデータ) (2020-11-17T21:52:22Z) - Learning Dexterous Grasping with Object-Centric Visual Affordances [86.49357517864937]
控えめなロボットハンドは、機敏さと人間のような形態をアピールしています。
本稿では,厳密な把握を学習するためのアプローチを提案する。
私たちのキーとなるアイデアは、オブジェクト中心の視覚的余裕モデルを深い強化学習ループに埋め込むことです。
論文 参考訳(メタデータ) (2020-09-03T04:00:40Z) - Grasping Field: Learning Implicit Representations for Human Grasps [16.841780141055505]
本稿では,深層ニューラルネットワークと統合し易い人間の把握モデリングのための表現表現を提案する。
この3Dから2DマッピングをGrasping Fieldと呼び、ディープニューラルネットワークでパラメータ化し、データから学習します。
我々の生成モデルは、3Dオブジェクトポイント・クラウドにのみ適用され、高品質な人間のグリップを合成することができる。
論文 参考訳(メタデータ) (2020-08-10T23:08:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。