論文の概要: Contact-Aware Retargeting of Skinned Motion
- arxiv url: http://arxiv.org/abs/2109.07431v1
- Date: Wed, 15 Sep 2021 17:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:51:54.901170
- Title: Contact-Aware Retargeting of Skinned Motion
- Title(参考訳): 皮膚運動の接触認識再ターゲティング
- Authors: Ruben Villegas, Duygu Ceylan, Aaron Hertzmann, Jimei Yang, Jun Saito
- Abstract要約: 本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
- 参考スコア(独自算出の注目度): 49.71236739408685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a motion retargeting method that preserves
self-contacts and prevents interpenetration. Self-contacts, such as when hands
touch each other or the torso or the head, are important attributes of human
body language and dynamics, yet existing methods do not model or preserve these
contacts. Likewise, interpenetration, such as a hand passing into the torso,
are a typical artifact of motion estimation methods. The input to our method is
a human motion sequence and a target skeleton and character geometry. The
method identifies self-contacts and ground contacts in the input motion, and
optimizes the motion to apply to the output skeleton, while preserving these
contacts and reducing interpenetration. We introduce a novel
geometry-conditioned recurrent network with an encoder-space optimization
strategy that achieves efficient retargeting while satisfying contact
constraints. In experiments, our results quantitatively outperform previous
methods and we conduct a user study where our retargeted motions are rated as
higher-quality than those produced by recent works. We also show our method
generalizes to motion estimated from human videos where we improve over
previous works that produce noticeable interpenetration.
- Abstract(参考訳): 本稿では,自己接触を保ち,相互接続を防止するモーションリターゲティング手法を提案する。
手を触れる時や胴体や頭部などの自己接触は人体言語や力学の重要な属性であるが、既存の方法はこれらの接触をモデル化したり保存したりしない。
同様に、胴体に手が通るなどの相互侵入は、運動推定法の典型的な人工物である。
本手法の入力は,人間の動作シーケンスとターゲット骨格とキャラクタ形状である。
この方法は、入力動作における自己接触と接点を識別し、これらの接点を保持しながら、出力骨格に適用する動きを最適化する。
本稿では,接触制約を満たしながら効率的な再ターゲティングを実現するエンコーダ空間最適化戦略を備えた,新たな幾何条件リカレントネットワークを提案する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
また,人間の映像から推定した動作を一般化し,先行作よりも改善し,目に見える相互侵入を生じさせる方法を示した。
関連論文リスト
- Skinned Motion Retargeting with Dense Geometric Interaction Perception [19.788066070569734]
既存のアプローチはしばしば骨格運動後の身体矯正段階を見落としている。
この結果、幾何学的相互作用と幾何補正の対立が生じ、ジッタリー運動が生じる。
動きの密接な相互作用を直接モデル化するMeshRetrationを導入する。
論文 参考訳(メタデータ) (2024-10-28T13:04:44Z) - Pose Priors from Language Models [74.61186408764559]
本稿では,正確な物理的接触制約を強制するゼロショットポーズ最適化法を提案する。
本手法は,近接した人物の驚くほど説得力のあるポーズを再現する。
従来の手法とは異なり,本手法は自己接触と対人接触を解消するための統一的な枠組みを提供する。
論文 参考訳(メタデータ) (2024-05-06T17:59:36Z) - Two-Person Interaction Augmentation with Skeleton Priors [16.65884142618145]
本稿では,2体インタラクション運動増強のための新しい深層学習法を提案する。
我々のシステムは比較的少量のデータから効果的に学習でき、骨格サイズが大幅に異なるように一般化できる。
論文 参考訳(メタデータ) (2024-04-08T13:11:57Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments [69.03289331433874]
PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
論文 参考訳(メタデータ) (2023-03-24T19:49:08Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - Pose And Joint-Aware Action Recognition [87.4780883700755]
本稿では,まず,共有動作エンコーダを用いて各関節の動作特徴を別々に抽出する,関節に基づく動作認識の新しいモデルを提案する。
私たちのジョイントセレクタモジュールは、そのタスクの最も識別性の高いジョイントを選択するために、ジョイント情報を再重み付けします。
JHMDB, HMDB, Charades, AVA アクション認識データセットにおける最先端のジョイントベースアプローチに対する大きな改善点を示す。
論文 参考訳(メタデータ) (2020-10-16T04:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。