論文の概要: Placing Human Animations into 3D Scenes by Learning Interaction- and
Geometry-Driven Keyframes
- arxiv url: http://arxiv.org/abs/2209.06314v1
- Date: Tue, 13 Sep 2022 21:46:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-15 13:26:52.789089
- Title: Placing Human Animations into 3D Scenes by Learning Interaction- and
Geometry-Driven Keyframes
- Title(参考訳): インタラクションと幾何学駆動の鍵フレームの学習による人間アニメーションの3次元シーンへの配置
- Authors: James F. Mullen Jr and Divya Kothandaraman and Aniket Bera and Dinesh
Manocha
- Abstract要約: アニメーション中の人間とシーンの相互作用を維持しつつ、3次元のアニメーションを3次元のシーンに配置する新しい手法を提案する。
私たちは、シーンとのインタラクションのためにアニメーションで最も重要なメッシュを計算するという概念を使用します。
我々はPAAKと呼ばれる手法と,POSA, PROX 基底真理, 合成運動法などの先行手法を比較した。
- 参考スコア(独自算出の注目度): 65.03870019446813
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel method for placing a 3D human animation into a 3D scene
while maintaining any human-scene interactions in the animation. We use the
notion of computing the most important meshes in the animation for the
interaction with the scene, which we call "keyframes." These keyframes allow us
to better optimize the placement of the animation into the scene such that
interactions in the animations (standing, laying, sitting, etc.) match the
affordances of the scene (e.g., standing on the floor or laying in a bed). We
compare our method, which we call PAAK, with prior approaches, including POSA,
PROX ground truth, and a motion synthesis method, and highlight the benefits of
our method with a perceptual study. Human raters preferred our PAAK method over
the PROX ground truth data 64.6\% of the time. Additionally, in direct
comparisons, the raters preferred PAAK over competing methods including 61.5\%
compared to POSA.
- Abstract(参考訳): アニメーション中の人間とシーンの相互作用を維持しつつ、3Dシーンに人間のアニメーションを配置する新しい手法を提案する。
私たちは「キーフレーム」と呼ばれるシーンとのインタラクションのためにアニメーションで最も重要なメッシュを計算するという概念を使う。
これらのキーフレームにより、アニメーション(立位、立位、座位など)における相互作用がシーンの余裕(例えば、床に立っている、ベッドに横たわるなど)に合致するように、シーンへのアニメーションの配置をより最適化することができます。
我々はPAAKと呼ぶ手法と,POSA, PROX 基底真理, 運動合成法などの先行手法を比較し, 知覚的研究により本手法の利点を強調した。
人間のラテンダーは、PROXの真理データ64.6%よりもPAAK法を好んだ。
さらに, 直接比較では, POSAに比べて61.5\%を含む競合法よりもPAAKが好まれていた。
関連論文リスト
- MotionDreamer: Exploring Semantic Video Diffusion features for Zero-Shot 3D Mesh Animation [10.263762787854862]
本稿では,ビデオ拡散モデルから抽出した動きに基づいて,様々な3次元形状の自動アニメーションを行う手法を提案する。
既存のコンピュータグラフィックスパイプラインと互換性のあるメッシュベースの明示的な表現を活用します。
我々の時間効率ゼロショット法は,多種多様な3次元形状を再アニメーションする優れた性能を実現する。
論文 参考訳(メタデータ) (2024-05-30T15:30:38Z) - Generating Continual Human Motion in Diverse 3D Scenes [56.70255926954609]
本研究では,3次元シーンにまたがる人間の動きを誘導するアニメーターを合成する手法を提案する。
本研究では,連続的な動作合成問題を経路に沿って歩行し,キーポイントが指定した動作の内外への遷移に分解する。
我々のモデルは、つかんだり、座ったり、傾いたりといった多様な行動の長いシーケンスを生成することができる。
論文 参考訳(メタデータ) (2023-04-04T18:24:22Z) - PACE: Data-Driven Virtual Agent Interaction in Dense and Cluttered
Environments [69.03289331433874]
PACEは,高密度で散らばった3Dシーン全体と対話し,移動するために,モーションキャプチャーされた仮想エージェントを改良する新しい手法である。
本手法では,環境中の障害物や物体に適応するために,仮想エージェントの動作シーケンスを必要に応じて変更する。
提案手法を先行動作生成技術と比較し,本手法の利点を知覚的研究と身体的妥当性の指標と比較した。
論文 参考訳(メタデータ) (2023-03-24T19:49:08Z) - 3D Cinemagraphy from a Single Image [73.09720823592092]
3Dシネマグラフィー(3D Cinemagraphy)は、3D画像と2Dアニメーションを融合させる新しい技術である。
静止画1枚を入力として、視覚コンテンツアニメーションとカメラモーションの両方を含むビデオを生成することを目標としています。
論文 参考訳(メタデータ) (2023-03-10T06:08:23Z) - Scene-Aware 3D Multi-Human Motion Capture from a Single Camera [83.06768487435818]
静止カメラで記録された1枚のRGBビデオから、シーン内の複数の人間の3次元位置を推定し、その身体形状と調音を推定する問題を考察する。
コンピュータビジョンの最近の進歩を,2次元の人体関節,関節角度,正規化不均等マップ,人間のセグメンテーションマスクなど,様々なモダリティのための大規模事前訓練モデルを用いて活用している。
特に,2次元の関節と関節角度を用いた正規化不均等予測から,シーン深度とユニークな人格尺度を推定する。
論文 参考訳(メタデータ) (2023-01-12T18:01:28Z) - Learning Object Manipulation Skills from Video via Approximate
Differentiable Physics [27.923004421974156]
我々はロボットに、単一のビデオデモを見て、シンプルなオブジェクト操作タスクを実行するように教える。
識別可能なシーンは、3Dシーンと2Dビデオの間の知覚的忠実性を保証する。
我々は,54のデモ映像からなる3次元再構成作業に対するアプローチを評価した。
論文 参考訳(メタデータ) (2022-08-03T10:21:47Z) - Human-Aware Object Placement for Visual Environment Reconstruction [63.14733166375534]
我々は,モノクラーRGBビデオからシーンの3次元再構成を改善するために,人間とシーンのインタラクションを活用することができることを示す。
私たちのキーとなるアイデアは、人がシーンを移動してそれと対話するにつれて、複数の入力イメージにまたがってHSIを蓄積する、ということです。
シーン再構成は,初期3次元の人物のポーズと形状推定の精度向上に有効であることを示す。
論文 参考訳(メタデータ) (2022-03-07T18:59:02Z) - Populating 3D Scenes by Learning Human-Scene Interaction [47.42049393299]
私たちは、人間がシーンと対話する方法を学び、これを活用して、仮想文字を同じことを可能にします。
相互作用の表現は体中心であり、新しいシーンに一般化することができる。
我々は,POSAが学習した身体とシーンの相互作用の表現が,単眼の人間のポーズ推定を支援することを示す。
論文 参考訳(メタデータ) (2020-12-21T18:57:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。