論文の概要: CAMS: CAnonicalized Manipulation Spaces for Category-Level Functional
Hand-Object Manipulation Synthesis
- arxiv url: http://arxiv.org/abs/2303.15469v1
- Date: Sat, 25 Mar 2023 07:03:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-29 17:54:10.545301
- Title: CAMS: CAnonicalized Manipulation Spaces for Category-Level Functional
Hand-Object Manipulation Synthesis
- Title(参考訳): CAMS:カテゴリーレベル関数型ハンドオブジェクトマニピュレーション合成のためのカノニカル化操作空間
- Authors: Juntian Zheng, Qingyuan Zheng, Lixing Fang, Yun Liu, Li Yi
- Abstract要約: 本稿では,カテゴリレベルの機能的手オブジェクト操作合成の課題について述べる。
身体的に合理的な手オブジェクト操作シーケンスを生成し、人間のように動作します。
我々のフレームワークは、印象的な視覚効果を持つ厳密なカテゴリーと明瞭なカテゴリの両方に対して、最先端のパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 18.618218866876422
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this work, we focus on a novel task of category-level functional
hand-object manipulation synthesis covering both rigid and articulated object
categories. Given an object geometry, an initial human hand pose as well as a
sparse control sequence of object poses, our goal is to generate a physically
reasonable hand-object manipulation sequence that performs like human beings.
To address such a challenge, we first design CAnonicalized Manipulation Spaces
(CAMS), a two-level space hierarchy that canonicalizes the hand poses in an
object-centric and contact-centric view. Benefiting from the representation
capability of CAMS, we then present a two-stage framework for synthesizing
human-like manipulation animations. Our framework achieves state-of-the-art
performance for both rigid and articulated categories with impressive visual
effects. Codes and video results can be found at our project homepage:
https://cams-hoi.github.io/
- Abstract(参考訳): 本研究では,厳密な対象と明瞭な対象の両方をカバーするカテゴリーレベルの機能的手対象操作合成の課題に焦点を当てる。
オブジェクトの形状を考えると、初期の人間の手は、オブジェクトのスパースな制御シーケンスと同様に、人間のように振る舞う物理的に合理的なハンドオブジェクト操作シーケンスを生成することが目標です。
このような課題に対処するために,まず,物体中心かつ接触中心の視点で手の動きを正準化する2段階の空間階層である正準化操作空間 (cams) を設計した。
そこで我々は,CAMSの表現能力から,人間のような操作アニメーションを合成するための2段階のフレームワークを提案する。
本フレームワークは,視覚効果のある剛性カテゴリと調音カテゴリの両方において,最先端のパフォーマンスを実現する。
コードとビデオの結果はプロジェクトのホームページで確認できます。
関連論文リスト
- G-HOP: Generative Hand-Object Prior for Interaction Reconstruction and Grasp Synthesis [57.07638884476174]
G-HOPは手-対象相互作用の前駆体である。
人手は骨格距離場を介して表現し、物体の符号付き距離場と整合した表現を得る。
この手動物体は、対話クリップからの再構成や人間のつかみ合成など、他の作業を容易にするための汎用的なガイダンスとして機能することを示す。
論文 参考訳(メタデータ) (2024-04-18T17:59:28Z) - ManiPose: A Comprehensive Benchmark for Pose-aware Object Manipulation in Robotics [55.85916671269219]
本稿では,ポーズ変動操作タスクの研究を進めるための先駆的ベンチマークであるManiPoseを紹介する。
包括的データセットは、2936の現実世界のスキャンされた剛体オブジェクトと100の明瞭なオブジェクトに対して、幾何学的に一貫性があり、操作指向の6Dポーズラベルを備えている。
本ベンチマークは,ポーズ推定,ポーズ認識操作,実ロボットのスキル伝達における顕著な進歩を示す。
論文 参考訳(メタデータ) (2024-03-20T07:48:32Z) - ROAM: Robust and Object-Aware Motion Generation Using Neural Pose
Descriptors [73.26004792375556]
本稿では,3次元オブジェクト認識キャラクタ合成における新しいシーンオブジェクトへのロバストさと一般化が,参照オブジェクトを1つも持たないモーションモデルをトレーニングすることで実現可能であることを示す。
我々は、オブジェクト専用のデータセットに基づいて訓練された暗黙的な特徴表現を活用し、オブジェクトの周りのSE(3)-同変記述体フィールドをエンコードする。
本研究では,3次元仮想キャラクタの動作と相互作用の質,および未知のオブジェクトを持つシナリオに対するロバスト性を大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-24T17:59:51Z) - Object Discovery from Motion-Guided Tokens [50.988525184497334]
自動エンコーダ表現学習フレームワークを、モーションガイダンスと中間レベルの特徴トークン化により強化する。
我々のアプローチは、解釈可能なオブジェクト固有の中間レベルの特徴の出現を可能にする。
論文 参考訳(メタデータ) (2023-03-27T19:14:00Z) - Interacting Hand-Object Pose Estimation via Dense Mutual Attention [97.26400229871888]
3Dハンドオブジェクトのポーズ推定は多くのコンピュータビジョンアプリケーションの成功の鍵となる。
本研究では,手と物体間の微粒な依存関係をモデル化できる新しい相互注意機構を提案する。
提案手法は,高品質かつリアルタイムな推論速度で,物理的に妥当なポーズを生成できる。
論文 参考訳(メタデータ) (2022-11-16T10:01:33Z) - You Only Demonstrate Once: Category-Level Manipulation from Single
Visual Demonstration [9.245605426105922]
この研究は、新しいカテゴリーレベルの操作フレームワークを提案する。
オブジェクト中心のカテゴリーレベルの表現とモデルなしの6 DoFモーショントラッキングを使用する。
実験は、高精度な組み立てにおける様々な産業課題において、その効果を実証している。
論文 参考訳(メタデータ) (2022-01-30T03:59:14Z) - D-Grasp: Physically Plausible Dynamic Grasp Synthesis for Hand-Object
Interactions [47.55376158184854]
動的合成把握タスクを導入する。
既知の6Dポーズと把握基準を持つオブジェクトが与えられた場合、私たちのゴールはオブジェクトをターゲット6Dポーズに移動させる動作を生成することです。
階層的なアプローチは、タスクを低レベルの把握と高レベルのモーション合成に分解する。
論文 参考訳(メタデータ) (2021-12-01T17:04:39Z) - Generalization Through Hand-Eye Coordination: An Action Space for
Learning Spatially-Invariant Visuomotor Control [67.23580984118479]
模倣学習(il)は、オフラインデモデータから視覚能力を学ぶための効果的なフレームワークである。
手目行動ネットワーク(HAN)は、人間の遠隔操作による実証から学習することにより、人間の手目協調行動を推定することができる。
論文 参考訳(メタデータ) (2021-02-28T01:49:13Z) - A Deep Learning Approach to Object Affordance Segmentation [31.221897360610114]
我々は,ビデオと静的画像の両方において,画素単位の価格ラベルを推定するオートエンコーダを設計する。
本モデルは,ソフトアテンション機構を用いて,オブジェクトラベルやバウンディングボックスの必要性を克服する。
本モデルは,SOR3D-AFF上での強い教師付き手法と比較して,競争力のある結果が得られることを示す。
論文 参考訳(メタデータ) (2020-04-18T15:34:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。