論文の概要: Contact-Aware Retargeting of Skinned Motion
- arxiv url: http://arxiv.org/abs/2109.07431v1
- Date: Wed, 15 Sep 2021 17:05:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-09-16 14:51:54.901170
- Title: Contact-Aware Retargeting of Skinned Motion
- Title(参考訳): 皮膚運動の接触認識再ターゲティング
- Authors: Ruben Villegas, Duygu Ceylan, Aaron Hertzmann, Jimei Yang, Jun Saito
- Abstract要約: 本稿では,自己接触を保存し,相互接続を防止する動作推定手法を提案する。
入力運動における自己接触と接地を同定し、出力骨格に適用するための動作を最適化する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
- 参考スコア(独自算出の注目度): 49.71236739408685
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a motion retargeting method that preserves
self-contacts and prevents interpenetration. Self-contacts, such as when hands
touch each other or the torso or the head, are important attributes of human
body language and dynamics, yet existing methods do not model or preserve these
contacts. Likewise, interpenetration, such as a hand passing into the torso,
are a typical artifact of motion estimation methods. The input to our method is
a human motion sequence and a target skeleton and character geometry. The
method identifies self-contacts and ground contacts in the input motion, and
optimizes the motion to apply to the output skeleton, while preserving these
contacts and reducing interpenetration. We introduce a novel
geometry-conditioned recurrent network with an encoder-space optimization
strategy that achieves efficient retargeting while satisfying contact
constraints. In experiments, our results quantitatively outperform previous
methods and we conduct a user study where our retargeted motions are rated as
higher-quality than those produced by recent works. We also show our method
generalizes to motion estimated from human videos where we improve over
previous works that produce noticeable interpenetration.
- Abstract(参考訳): 本稿では,自己接触を保ち,相互接続を防止するモーションリターゲティング手法を提案する。
手を触れる時や胴体や頭部などの自己接触は人体言語や力学の重要な属性であるが、既存の方法はこれらの接触をモデル化したり保存したりしない。
同様に、胴体に手が通るなどの相互侵入は、運動推定法の典型的な人工物である。
本手法の入力は,人間の動作シーケンスとターゲット骨格とキャラクタ形状である。
この方法は、入力動作における自己接触と接点を識別し、これらの接点を保持しながら、出力骨格に適用する動きを最適化する。
本稿では,接触制約を満たしながら効率的な再ターゲティングを実現するエンコーダ空間最適化戦略を備えた,新たな幾何条件リカレントネットワークを提案する。
実験では,従来の手法を定量的に上回り,近年の成果よりも高い品質で再ターゲットされた動きを評価できるユーザスタディを実施している。
また,人間の映像から推定した動作を一般化し,先行作よりも改善し,目に見える相互侵入を生じさせる方法を示した。
関連論文リスト
- CG-HOI: Contact-Guided 3D Human-Object Interaction Generation [34.6807482408579]
テキストから動的3次元人-物体相互作用(HOI)を生成する最初の方法であるCG-HOIを提案する。
意味的に豊かな人間の動きは、しばしば孤立して起こるので、人間と物体の両方の動きを相互依存的にモデル化する。
我々は,接触に基づく人間と物体の相互作用が現実的かつ物理的に妥当なシーケンスを生成することを示す。
論文 参考訳(メタデータ) (2023-11-27T18:59:10Z) - Physically Plausible Full-Body Hand-Object Interaction Synthesis [32.83908152822006]
そこで本研究では,全体で手-物体間相互作用を合成するための物理に基づく手法を提案する。
既存のメソッドは、しばしば相互作用プロセスの分離されたセグメントにフォーカスし、成果物をもたらす可能性のあるデータ駆動技術に依存します。
論文 参考訳(メタデータ) (2023-09-14T17:55:18Z) - NIFTY: Neural Object Interaction Fields for Guided Human Motion
Synthesis [21.650091018774972]
我々は、特定の物体に付随する神経相互作用場を作成し、人間のポーズを入力として与えられた有効な相互作用多様体までの距離を出力する。
この相互作用場は、対象条件付きヒトの運動拡散モデルのサンプリングを導く。
いくつかの物体で座ったり持ち上げたりするための現実的な動きを合成し、動きの質や動作完了の成功の観点から、代替のアプローチよりも優れています。
論文 参考訳(メタデータ) (2023-07-14T17:59:38Z) - PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments [69.03289331433874]
PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
論文 参考訳(メタデータ) (2023-03-24T19:49:08Z) - Task-Oriented Human-Object Interactions Generation with Implicit Neural
Representations [61.659439423703155]
TOHO: 命令型ニューラル表現を用いたタスク指向型ヒューマンオブジェクトインタラクション生成
本手法は時間座標のみでパラメータ化される連続運動を生成する。
この研究は、一般的なヒューマン・シーンの相互作用シミュレーションに向けて一歩前進する。
論文 参考訳(メタデータ) (2023-03-23T09:31:56Z) - Correspondence-free online human motion retargeting [1.7008985510992145]
本研究では,対象対象と対象対象者の動作とを一致させる,教師なし動作のためのデータ駆動型フレームワークを提案する。
本手法は,震源形状と震源形状の対応を必要とせず,震源運動の異なるフレーム間の時間的対応も必要としない。
これにより、ターゲットの形状を動き中の人間の任意のシーケンスでアニメーションすることができる。
論文 参考訳(メタデータ) (2023-02-01T16:23:21Z) - Estimating 3D Motion and Forces of Human-Object Interactions from
Internet Videos [49.52070710518688]
一つのRGBビデオからオブジェクトと対話する人の3D動作を再構築する手法を提案する。
本手法では,被験者の3次元ポーズを物体のポーズ,接触位置,人体の接触力とともに推定する。
論文 参考訳(メタデータ) (2021-11-02T13:40:18Z) - Skeleton-Based Mutually Assisted Interacted Object Localization and
Human Action Recognition [111.87412719773889]
本研究では,骨格データに基づく「相互作用対象の局所化」と「人間の行動認識」のための共同学習フレームワークを提案する。
本手法は,人間の行動認識のための最先端の手法を用いて,最高の,あるいは競争的な性能を実現する。
論文 参考訳(メタデータ) (2021-10-28T10:09:34Z) - Pose And Joint-Aware Action Recognition [87.4780883700755]
本稿では,まず,共有動作エンコーダを用いて各関節の動作特徴を別々に抽出する,関節に基づく動作認識の新しいモデルを提案する。
私たちのジョイントセレクタモジュールは、そのタスクの最も識別性の高いジョイントを選択するために、ジョイント情報を再重み付けします。
JHMDB, HMDB, Charades, AVA アクション認識データセットにおける最先端のジョイントベースアプローチに対する大きな改善点を示す。
論文 参考訳(メタデータ) (2020-10-16T04:43:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。