論文の概要: Nonrigid Object Contact Estimation With Regional Unwrapping Transformer
- arxiv url: http://arxiv.org/abs/2308.14074v1
- Date: Sun, 27 Aug 2023 11:37:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-29 17:03:26.176509
- Title: Nonrigid Object Contact Estimation With Regional Unwrapping Transformer
- Title(参考訳): 局所アンラッピング変圧器を用いた非剛性物体接触推定
- Authors: Wei Xie, Zimeng Zhao, Shiying Li, Binghui Zuo, Yangang Wang
- Abstract要約: 手と非剛体物体の間の接触パターンの獲得は、ビジョンとロボティクスのコミュニティにおいて共通の関心事である。
既存の学習ベースの手法は、モノクル画像からの厳密なものとの接触をより重視する。
RUPと呼ばれる新しいハンドオブジェクト接触表現を提案する。これは、推定されたハンドオブジェクト表面を複数の高分解能な2次元領域プロファイルとして解放する。
- 参考スコア(独自算出の注目度): 16.988812837693203
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Acquiring contact patterns between hands and nonrigid objects is a common
concern in the vision and robotics community. However, existing learning-based
methods focus more on contact with rigid ones from monocular images. When
adopting them for nonrigid contact, a major problem is that the existing
contact representation is restricted by the geometry of the object.
Consequently, contact neighborhoods are stored in an unordered manner and
contact features are difficult to align with image cues. At the core of our
approach lies a novel hand-object contact representation called RUPs (Region
Unwrapping Profiles), which unwrap the roughly estimated hand-object surfaces
as multiple high-resolution 2D regional profiles. The region grouping strategy
is consistent with the hand kinematic bone division because they are the
primitive initiators for a composite contact pattern. Based on this
representation, our Regional Unwrapping Transformer (RUFormer) learns the
correlation priors across regions from monocular inputs and predicts
corresponding contact and deformed transformations. Our experiments demonstrate
that the proposed framework can robustly estimate the deformed degrees and
deformed transformations, which makes it suitable for both nonrigid and rigid
contact.
- Abstract(参考訳): 手と非剛性物体の接触パターンを取得することは、ビジョンとロボティクスのコミュニティで共通の関心事である。
しかし、既存の学習ベースの手法は、単眼画像からの剛体画像との接触をより重視している。
非厳密な接触に採用する場合、既存の接触表現が対象の幾何学によって制限されるのが大きな問題である。
これにより、接触近傍を無秩序に記憶し、接触特徴を画像手がかりと整合させるのが困難となる。
我々のアプローチの核心は、RUP(Region Unwrapping Profiles)と呼ばれる新しいハンドオブジェクト接触表現で、推定されたハンドオブジェクト表面を複数の高解像度の2D領域プロファイルとして開放する。
領域分類戦略は, 複合接触パターンの原始的開始因子であるため, 手の運動学的骨分割と一致している。
この表現に基づいて, 局所的アンラッピングトランスフォーマ(ruformer)は, 単眼入力から領域間の相関前処理を学習し, 対応する接触・変形変換を予測する。
本実験は, 変形度と変形度を頑健に推定できることを示し, 非剛性・剛性両面に適合することを示した。
関連論文リスト
- RegionGrasp: A Novel Task for Contact Region Controllable Hand Grasp Generation [35.11194409871017]
RegionGrasp-CVAEは3Dオブジェクトの可塑性ハンドグリップを生成するために提案されている。
コンディションエンコーダO-Encとプレトレーニング戦略O-Encを用いる。
Hoinetは手動オブジェクトのインタラクション機能をエンコードするために導入された。
論文 参考訳(メタデータ) (2024-10-10T14:52:30Z) - DICE: End-to-end Deformation Capture of Hand-Face Interactions from a Single Image [98.29284902879652]
DICEは1枚の画像から変形認識による手と顔のインタラクションを再現する最初のエンドツーエンド手法である。
ローカルな変形場とグローバルなメッシュ位置の回帰を2つのネットワークブランチに切り離すことが特徴である。
標準的なベンチマークと、精度と物理的妥当性の点から見れば、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-06-26T00:08:29Z) - Pose Priors from Language Models [74.61186408764559]
本稿では,正確な物理的接触制約を強制するゼロショットポーズ最適化法を提案する。
本手法は,近接した人物の驚くほど説得力のあるポーズを再現する。
従来の手法とは異なり,本手法は自己接触と対人接触を解消するための統一的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-05-06T17:59:36Z) - Decaf: Monocular Deformation Capture for Face and Hand Interactions [77.75726740605748]
本稿では,単眼のRGBビデオから人間の顔と対話する人間の手を3Dで追跡する手法を提案する。
動作中の非剛性面の変形を誘発する定形物体として手をモデル化する。
本手法は,マーカーレスマルチビューカメラシステムで取得した現実的な顔変形を伴う手動・インタラクションキャプチャーデータセットに頼っている。
論文 参考訳(メタデータ) (2023-09-28T17:59:51Z) - Learning Explicit Contact for Implicit Reconstruction of Hand-held
Objects from Monocular Images [59.49985837246644]
我々は,手持ちの物体を暗黙的に再構築する上で,明示的な方法で接触をモデル化する方法を示す。
まず,1つの画像から3次元手オブジェクトの接触を直接推定するサブタスクを提案する。
第2部では,ハンドメッシュ面から近傍の3次元空間へ推定された接触状態を拡散する新しい手法を提案する。
論文 参考訳(メタデータ) (2023-05-31T17:59:26Z) - Integrated Object Deformation and Contact Patch Estimation from
Visuo-Tactile Feedback [8.420670642409219]
本稿では,ビジュオ触覚フィードバックからオブジェクトの変形と接触パッチを共同でモデル化する表現を提案する。
我々は,NDCFを学習するためのニューラルネットワークアーキテクチャを提案し,シミュレーションデータを用いて学習する。
我々は,学習したNDCFが微調整を必要とせず,直接現実世界に転送されることを実証した。
論文 参考訳(メタデータ) (2023-05-23T18:53:24Z) - Neural Contact Fields: Tracking Extrinsic Contact with Tactile Sensing [36.609644278386135]
本稿では,物体と環境の間の外在的接触を追跡する問題に対処するため,ニューラルネットワークと触覚センサを組み合わせたニューラルコンタクトフィールドを提案する。
外部との接触がどこで起きているかを知ることは、下流操作作業を容易にするために、それをアクティブに制御できるメソッドへの第一歩である。
論文 参考訳(メタデータ) (2022-10-17T17:52:43Z) - Contact2Grasp: 3D Grasp Synthesis via Hand-Object Contact Constraint [18.201389966034263]
3Dグリップ合成は、入力対象が与えられたグリップポーズを生成する。
本研究では, 接触領域を把握するための中間変数を導入し, グリップ生成を制約する。
本手法は,各種メトリクスの把握に関する最先端手法よりも優れる。
論文 参考訳(メタデータ) (2022-10-17T16:39:25Z) - Stability-driven Contact Reconstruction From Monocular Color Images [7.427212296770506]
物理的接触は、手動状態の復元にさらなる制約を与える。
既存の手法では、接触ラベル付きデータセットから距離閾値または事前に駆動される手動接触を最適化する。
我々のキーとなる考え方は、単分子画像から直接接触パターンを再構築し、シミュレーションの物理的安定性基準を利用して最適化することである。
論文 参考訳(メタデータ) (2022-05-02T12:23:06Z) - Contact-Aware Retargeting of Skinned Motion [49.71236739408685]
本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
論文 参考訳(メタデータ) (2021-09-15T17:05:02Z) - 3D Shape Reconstruction from Vision and Touch [62.59044232597045]
3次元形状再構成では、視覚と触覚の相補的な融合はほとんど未解明のままである。
本稿では,ロボットハンドと多数の3Dオブジェクトの相互作用から,触覚と視覚信号のシミュレーションデータセットを提案する。
論文 参考訳(メタデータ) (2020-07-07T20:20:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。