論文の概要: Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances
- arxiv url: http://arxiv.org/abs/2009.00922v1
- Date: Wed, 2 Sep 2020 09:46:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 19:20:03.256682
- Title: Going beyond Free Viewpoint: Creating Animatable Volumetric Video of
Human Performances
- Title(参考訳): 無料の視点を超えて:人間のパフォーマンスのアニメーションビデオを作る
- Authors: Anna Hilsmann, Philipp Fechteler, Wieland Morgenstern, Wolfgang Paier,
Ingo Feldmann, Oliver Schreer, Peter Eisert
- Abstract要約: 本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3Dデータに時間的一貫性を確立することによって達成される。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
- 参考スコア(独自算出の注目度): 7.7824496657259665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we present an end-to-end pipeline for the creation of
high-quality animatable volumetric video content of human performances. Going
beyond the application of free-viewpoint volumetric video, we allow
re-animation and alteration of an actor's performance through (i) the
enrichment of the captured data with semantics and animation properties and
(ii) applying hybrid geometry- and video-based animation methods that allow a
direct animation of the high-quality data itself instead of creating an
animatable model that resembles the captured data. Semantic enrichment and
geometric animation ability are achieved by establishing temporal consistency
in the 3D data, followed by an automatic rigging of each frame using a
parametric shape-adaptive full human body model. Our hybrid geometry- and
video-based animation approaches combine the flexibility of classical CG
animation with the realism of real captured data. For pose editing, we exploit
the captured data as much as possible and kinematically deform the captured
frames to fit a desired pose. Further, we treat the face differently from the
body in a hybrid geometry- and video-based animation approach where coarse
movements and poses are modeled in the geometry only, while very fine and
subtle details in the face, often lacking in purely geometric methods, are
captured in video-based textures. These are processed to be interactively
combined to form new facial expressions. On top of that, we learn the
appearance of regions that are challenging to synthesize, such as the teeth or
the eyes, and fill in missing regions realistically in an autoencoder-based
approach. This paper covers the full pipeline from capturing and producing
high-quality video content, over the enrichment with semantics and deformation
properties for re-animation and processing of the data for the final hybrid
animation.
- Abstract(参考訳): 本稿では,人間の演奏の高品質な映像コンテンツ作成のためのエンドツーエンドパイプラインを提案する。
自由視点ボリュームビデオの応用を超えて,俳優の演技のアニメーション化と変更を可能にする。
一 キャプチャーされたデータのセマンティクス及びアニメーション特性による豊か化
二 キャプチャーされたデータに類似したアニマタブルモデルを作成するのではなく、高品質なデータを直接アニメーションできるハイブリッド幾何およびビデオベースのアニメーション手法を適用する。
セマンティックエンリッチメントと幾何学的アニメーション能力は、3dデータに時間的一貫性を確立し、パラメトリック形状適応フル人体モデルを用いて各フレームを自動的に配置することで達成される。
我々のハイブリッド幾何とビデオに基づくアニメーションアプローチは、古典的なCGアニメーションの柔軟性と実際のキャプチャーデータのリアリズムを組み合わせたものである。
ポーズ編集では、キャプチャしたデータを可能な限り活用し、キャプチャしたフレームをキネマティックに変形して所望のポーズに適合させる。
さらに, 顔の粗い動きやポーズを図形のみにモデル化するハイブリッドな幾何学的・映像的アニメーション手法において, 顔と身体を異なる方法で扱う一方で, 純幾何学的手法に欠ける顔の細部や微妙な細部をビデオベーステクスチャで捉えた。
これらは対話的に組み合わされ、新しい表情を形成する。
その上で, 歯や目などの合成が困難な領域の出現を学習し, オートエンコーダをベースとしたアプローチで, 行方不明領域を現実的に埋める。
本稿では,ハイクオリティな映像コンテンツのキャプチャと生成,セマンティクスと変形特性によるエンリッチメント,最終ハイブリッドアニメーションのためのデータの再アニメーションと処理の全パイプラインについて述べる。
関連論文リスト
- Alignment is All You Need: A Training-free Augmentation Strategy for Pose-guided Video Generation [19.408715783816167]
生成された映像シーケンスが参照画像の微妙さを確実に保持する訓練不要のフレームワークを導入する。
我々は、骨格と動きの先行情報をポーズ情報から切り離し、アニメーション生成の正確な制御を可能にする。
提案手法は,大規模なデータセットや高価な計算資源を必要とせず,映像生成の質を大幅に向上させる。
論文 参考訳(メタデータ) (2024-08-29T13:08:12Z) - AniClipart: Clipart Animation with Text-to-Video Priors [28.76809141136148]
AniClipartは、静的な画像をテキストからビデオへの事前案内による高品質なモーションシーケンスに変換するシステムである。
実験結果から,提案したAniClipartは既存の画像・映像生成モデルより一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-18T17:24:28Z) - AnimateZoo: Zero-shot Video Generation of Cross-Species Animation via Subject Alignment [64.02822911038848]
動物アニメーションを作成するため, ゼロショット拡散に基づくビデオジェネレータAnimateZooを提案する。
AnimateZooで使われる主要なテクニックは、2つのステップを含む被写体アライメントです。
我々のモデルは、正確な動き、一貫した外観、高忠実度フレームを特徴とする映像を生成することができる。
論文 参考訳(メタデータ) (2024-04-07T12:57:41Z) - Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation [27.700371215886683]
拡散モデルは、その堅牢な生成能力のために、視覚世代研究の主流となっている。
本稿では,キャラクターアニメーションに適した新しいフレームワークを提案する。
トレーニングデータを拡張することにより、任意の文字をアニメーション化することが可能となり、他の画像とビデオの手法と比較して、文字アニメーションにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2023-11-28T12:27:15Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - TADA! Text to Animatable Digital Avatars [57.52707683788961]
TADAはテキスト記述を取り込み、高品質な幾何学とライフスタイルのテクスチャを備えた表現力のある3Dアバターを生産する。
我々は3次元変位とテクスチャマップを備えたSMPL-Xから最適化可能な高分解能ボディモデルを導出した。
我々は、生成した文字の正規表現とRGB画像をレンダリングし、SDSトレーニングプロセスにおけるそれらの潜伏埋め込みを利用する。
論文 参考訳(メタデータ) (2023-08-21T17:59:10Z) - Unsupervised Learning of Style-Aware Facial Animation from Real Acting
Performances [3.95944314850151]
本稿では, ブレンド形状, 動的テクスチャ, ニューラルレンダリングに基づく写真リアルな頭部モデルのテキスト/音声駆動アニメーションのための新しい手法を提案する。
本手法は,テキストや音声をアニメーションパラメータの列に変換する条件付きCNNに基づいている。
リアルなリアルタイムレンダリングのために、私たちは、改良された色と前景マットを演算することで、ピクセル化ベースのレンダリングを洗練するU-Netを訓練します。
論文 参考訳(メタデータ) (2023-06-16T17:58:04Z) - AnimeRun: 2D Animation Visual Correspondence from Open Source 3D Movies [98.65469430034246]
既存の2次元漫画のデータセットは、単純なフレーム構成と単調な動きに悩まされている。
我々は,オープンソースの3D映画を2Dスタイルのフルシーンに変換することによって,新しい2Dアニメーション視覚対応データセットAnimeRunを提案する。
分析の結果,提案したデータセットは画像合成において実際のアニメに似るだけでなく,既存のデータセットと比較してよりリッチで複雑な動きパターンを持つことがわかった。
論文 参考訳(メタデータ) (2022-11-10T17:26:21Z) - Render In-between: Motion Guided Video Synthesis for Action
Interpolation [53.43607872972194]
本研究では、リアルな人間の動きと外観を生成できる動き誘導型フレームアップサンプリングフレームワークを提案する。
大規模モーションキャプチャーデータセットを活用することにより、フレーム間の非線形骨格運動を推定するために、新しいモーションモデルが訓練される。
私たちのパイプラインでは、低フレームレートのビデオと不自由な人間のモーションデータしか必要としませんが、トレーニングには高フレームレートのビデオは必要ありません。
論文 参考訳(メタデータ) (2021-11-01T15:32:51Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z) - A Robust Interactive Facial Animation Editing System [0.0]
直感的な制御パラメータの集合から顔のアニメーションを簡単に編集するための学習に基づく新しいアプローチを提案する。
我々は、制御パラメータを結合係数列にマップする分解能保存完全畳み込みニューラルネットワークを使用している。
提案システムは頑丈で,非専門ユーザからの粗大で誇張された編集を処理できる。
論文 参考訳(メタデータ) (2020-07-18T08:31:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。