論文の概要: Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction
- arxiv url: http://arxiv.org/abs/2204.13998v1
- Date: Sun, 3 Apr 2022 07:03:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-09 00:05:24.930042
- Title: Learning High-DOF Reaching-and-Grasping via Dynamic Representation of
Gripper-Object Interaction
- Title(参考訳): グリッパー・オブジェクト相互作用の動的表現によるハイ・DOFリーチング・アンド・グラスピングの学習
- Authors: Qijin She, Ruizhen Hu, Juzhan Xu, Min Liu, Kai Xu, and Hui Huang
- Abstract要約: 本稿では,グリップと対象物との空間的相互作用を特徴付ける把握状態の効果的な表現を提案する。
IBSは,対象物に対する空間的関係で各指のきめ細かい制御を十分に通知するので,状態表現として驚くほど効果的である。
実験により, 円滑な把持動作を有する複雑な形状に対して, 高品質なデキスタラスグリップを生成することが示された。
- 参考スコア(独自算出の注目度): 21.03434784990944
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We approach the problem of high-DOF reaching-and-grasping via learning joint
planning of grasp and motion with deep reinforcement learning. To resolve the
sample efficiency issue in learning the high-dimensional and complex control of
dexterous grasping, we propose an effective representation of grasping state
characterizing the spatial interaction between the gripper and the target
object. To represent gripper-object interaction, we adopt Interaction Bisector
Surface (IBS) which is the Voronoi diagram between two close by 3D geometric
objects and has been successfully applied in characterizing spatial relations
between 3D objects. We found that IBS is surprisingly effective as a state
representation since it well informs the fine-grained control of each finger
with spatial relation against the target object. This novel grasp
representation, together with several technical contributions including a fast
IBS approximation, a novel vector-based reward and an effective training
strategy, facilitate learning a strong control model of high-DOF grasping with
good sample efficiency, dynamic adaptability, and cross-category generality.
Experiments show that it generates high-quality dexterous grasp for complex
shapes with smooth grasping motions.
- Abstract(参考訳): 我々は, 深い強化学習を伴う握り動作の学習共同計画を通じて, 高DOFリーチ・グラスピングの課題にアプローチする。
そこで本研究では, 対象物体とグリップの空間的相互作用を特徴付ける把握状態の効果的な表現法を提案する。
グリップとオブジェクトの相互作用を表現するために,2つの近接した3次元幾何学オブジェクト間のボロノイ図であるInteraction Bisector Surface (IBS)を採用した。
IBSは, 対象物に対する空間的関係で各指のきめ細かい制御を適切に通知するため, 状態表現として驚くほど有効であることがわかった。
高速なIBS近似、ベクトルベース報酬、効果的なトレーニング戦略などの技術的貢献とともに、優れたサンプル効率、動的適応性、クロスカテゴリ一般性を備えた高DOFグルーピングの強力な制御モデル学習を容易にする。
実験により, 滑らかな把持動作を伴う複雑な形状に対して, 高品質でデクタラスな把持が得られた。
関連論文リスト
- Dynamic Reconstruction of Hand-Object Interaction with Distributed Force-aware Contact Representation [52.36691633451968]
ViTaM-Dは動的手動物体相互作用再構成のための視覚触覚フレームワークである。
DF-Fieldは分散力認識型接触表現モデルである。
剛性および変形性のある物体再構成におけるViTaM-Dの優れた性能について検討した。
論文 参考訳(メタデータ) (2024-11-14T16:29:45Z) - Visual-Geometric Collaborative Guidance for Affordance Learning [63.038406948791454]
本稿では,視覚的・幾何学的手がかりを取り入れた視覚・幾何学的協調学習ネットワークを提案する。
本手法は,客観的指標と視覚的品質の代表的なモデルより優れている。
論文 参考訳(メタデータ) (2024-10-15T07:35:51Z) - Enhancing Generalizability of Representation Learning for Data-Efficient 3D Scene Understanding [50.448520056844885]
本研究では,実世界のパターンを持つ多様な合成シーンを生成可能なベイズネットワークを提案する。
一連の実験は、既存の最先端の事前学習手法に比べて、我々の手法が一貫した優位性を示す。
論文 参考訳(メタデータ) (2024-06-17T07:43:53Z) - GEARS: Local Geometry-aware Hand-object Interaction Synthesis [38.75942505771009]
本研究では, 相互作用領域近傍の局所物体形状を推定するための, 結合中心型センサを提案する。
学習の複雑さを軽減するための重要なステップとして、グローバルフレームからテンプレートハンドフレームにポイントを変換し、共有モジュールを使用して各関節のセンサ特徴を処理する。
これに続いて、異なる次元の関節間の相関を捉えることを目的とした知覚時間変換ネットワークが提供される。
論文 参考訳(メタデータ) (2024-04-02T09:18:52Z) - Gaze-guided Hand-Object Interaction Synthesis: Dataset and Method [63.49140028965778]
本稿では,視線,手,物間相互作用の3次元モデリングを同時に行う最初のデータセットであるGazeHOIを紹介する。
これらの課題に対処するため,GHO-Diffusion という手動物体間相互作用拡散モデルを提案する。
また, GHO拡散のサンプリング段階におけるHOI-Manifold Guidanceを導入し, 生成した動きのきめ細かい制御を可能にする。
論文 参考訳(メタデータ) (2024-03-24T14:24:13Z) - InterDiff: Generating 3D Human-Object Interactions with Physics-Informed
Diffusion [29.25063155767897]
本稿では,3次元物体相互作用(HOI)の予測に向けた新しい課題について述べる。
我々のタスクは、様々な形状の動的物体をモデリングし、全身の動きを捉え、物理的に有効な相互作用を確実にする必要があるため、はるかに困難である。
複数の人-物間相互作用データセットを用いた実験は,本手法の有効性を実証し,現実的で,鮮明で,かつ,極めて長期にわたる3D HOI予測を生成できることを示した。
論文 参考訳(メタデータ) (2023-08-31T17:59:08Z) - Realistic Full-Body Tracking from Sparse Observations via Joint-Level
Modeling [13.284947022380404]
頭部と手の3つの追跡信号だけで、正確でスムーズな全身運動を得ることができる2段階のフレームワークを提案する。
本フレームワークは,第1段階の関節レベル特徴を明示的にモデル化し,第2段階の関節レベル相関を捉えるために,空間的および時間的トランスフォーマーブロックの交互化に時間的トークンとして利用する。
AMASSモーションデータセットと実捕集データに関する広範な実験により,提案手法は既存の手法と比較して,より正確で滑らかな動きを実現することができることを示す。
論文 参考訳(メタデータ) (2023-08-17T08:27:55Z) - Learning Scene Flow With Skeleton Guidance For 3D Action Recognition [1.5954459915735735]
本研究は3次元行動認識のための深部時間モデルによる3次元フローシーケンスの利用を実証する。
また、最も識別性の高い運動力学を学ぶために、拡張された深部骨格も導入されている。
高次クロスモーダル相関を学習する2つのモデルの間には,後期融合方式が採用されている。
論文 参考訳(メタデータ) (2023-06-23T04:14:25Z) - Ret3D: Rethinking Object Relations for Efficient 3D Object Detection in
Driving Scenes [82.4186966781934]
Ret3Dと呼ばれるシンプルで効率的で効果的な2段階検出器を導入する。
Ret3Dの中核は、新しいフレーム内およびフレーム間関係モジュールの利用である。
無視できる余分なオーバーヘッドにより、Ret3Dは最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2022-08-18T03:48:58Z) - Collaborative Learning for Hand and Object Reconstruction with
Attention-guided Graph Convolution [49.10497573378427]
インタラクション中の手や物体のポーズと形状を推定すると、拡張現実や仮想現実を含む多くの応用が見つかる。
我々のアルゴリズムはオブジェクトモデルへの最適化であり、手動オブジェクトの相互作用を管理する物理規則を学習する。
広範に使用されている4つのベンチマークを用いて実験したところ、我々のフレームワークは3次元ポーズ推定における最先端の精度を超えて達成でき、また、密集した3次元手や物体の形状を復元できることがわかった。
論文 参考訳(メタデータ) (2022-04-27T17:00:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。