論文の概要: Layered Neural Rendering for Retiming People in Video
- arxiv url: http://arxiv.org/abs/2009.07833v2
- Date: Fri, 1 Oct 2021 01:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-18 00:48:03.647531
- Title: Layered Neural Rendering for Retiming People in Video
- Title(参考訳): 階層型ニューラルレンダリングによる動画の人物推定
- Authors: Erika Lu, Forrester Cole, Tali Dekel, Weidi Xie, Andrew Zisserman,
David Salesin, William T. Freeman, Michael Rubinstein
- Abstract要約: そこで本研究では,通常の自然ビデオで人々をリタイピングする手法を提案する。
異なる動きを時間的に調整したり、特定の動作の速度を変更したり、選択した人々をビデオから完全に「排除」したりできます。
このモデルの主な特徴は、入力ビデオ中の各人物の直接の動きを分離するだけでなく、各人物が生成するシーンの変化と自動的に関連付けることである。
- 参考スコア(独自算出の注目度): 108.85428504808318
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a method for retiming people in an ordinary, natural video --
manipulating and editing the time in which different motions of individuals in
the video occur. We can temporally align different motions, change the speed of
certain actions (speeding up/slowing down, or entirely "freezing" people), or
"erase" selected people from the video altogether. We achieve these effects
computationally via a dedicated learning-based layered video representation,
where each frame in the video is decomposed into separate RGBA layers,
representing the appearance of different people in the video. A key property of
our model is that it not only disentangles the direct motions of each person in
the input video, but also correlates each person automatically with the scene
changes they generate -- e.g., shadows, reflections, and motion of loose
clothing. The layers can be individually retimed and recombined into a new
video, allowing us to achieve realistic, high-quality renderings of retiming
effects for real-world videos depicting complex actions and involving multiple
individuals, including dancing, trampoline jumping, or group running.
- Abstract(参考訳): そこで本研究では,通常の自然映像において,映像中の個人の動きの異なる時刻を操作・編集する手法を提案する。
異なる動きを時間的に調整したり、特定のアクションの速度を変えたり(スピードを上げたり下げたり、完全に「凍らせたり」したり)、ビデオから選択した人々を"erase"にしたりできます。
ビデオ内の各フレームを別々のRGBA層に分解し、ビデオ内の異なる人物の外観を表現する。
私たちのモデルの重要な特性は、入力されたビデオ内の各人の直接動作を乱すだけでなく、それぞれの人物が生成するシーンの変化(影、反射、ゆるい衣服の動作など)と自動的に関連付けることです。
レイヤーを個別にリタイムし、新しいビデオに再結合することで、複雑なアクションを描写した実世界のビデオのリアルで高品質なリモーティング効果のレンダリングを実現し、ダンス、トランポリンジャンプ、グループランニングを含む複数の個人を巻き込むことができます。
関連論文リスト
- DeCo: Decoupled Human-Centered Diffusion Video Editing with Motion Consistency [66.49423641279374]
DeCoは、人間と背景を別々に編集可能なターゲットとして扱うように設計された、新しいビデオ編集フレームワークである。
そこで本研究では,人体を利用した非結合型動的人体表現法を提案する。
本研究は, 通常の空間と画像空間にスコア蒸留サンプリングの計算を拡張し, 最適化時の人間のテクスチャを向上する。
論文 参考訳(メタデータ) (2024-08-14T11:53:40Z) - MotionDirector: Motion Customization of Text-to-Video Diffusion Models [24.282240656366714]
Motion Customizationは、既存のテキストとビデオの拡散モデルを適用して、カスタマイズされたモーションでビデオを生成することを目的としている。
我々は、外見と動きの学習を分離するために、デュアルパスのLoRAsアーキテクチャを持つMotionDirectorを提案する。
また,異なる動画の外観と動きの混合や,カスタマイズされたモーションによる単一画像のアニメーションなど,さまざまなダウンストリームアプリケーションもサポートしている。
論文 参考訳(メタデータ) (2023-10-12T16:26:18Z) - Hashing Neural Video Decomposition with Multiplicative Residuals in
Space-Time [14.015909536844337]
本稿では,時間的に異なる照明効果を持つ映像の階層的編集を容易にする映像分解手法を提案する。
本手法は,座標ハッシュを用いて1フレームあたり25秒で1080pビデオの層ベースニューラル表現を効率よく学習する。
本稿では,映像編集の一貫性を客観的に評価するための評価指標を提案する。
論文 参考訳(メタデータ) (2023-09-25T10:36:14Z) - Copy Motion From One to Another: Fake Motion Video Generation [53.676020148034034]
人工知能の魅力的な応用は、任意の所望の動作を行う対象者のビデオを生成することである。
現在の手法では、通常、生成されたビデオの信頼性を評価するために、L2損失のGANを用いる。
本稿では,ポーズから前景画像へのマッピングの学習を容易にする理論的動機付け型Gromov-Wasserstein損失を提案する。
本手法は,人物の複雑な動きを忠実にコピーすることで,現実的な人物映像を生成できる。
論文 参考訳(メタデータ) (2022-05-03T08:45:22Z) - Unsupervised Video Interpolation by Learning Multilayered 2.5D Motion
Fields [75.81417944207806]
本稿では,ビデオフレーム学習において,単一のビデオのみを必要とする自己教師型アプローチを提案する。
時間変化運動場上に定義された通常の微分可能方程式(ODE)を解くことにより,映像の動きをパラメータ化する。
この暗黙的な神経表現は、ビデオを時空間連続体として学習し、任意の時間分解能でフレーム時間連続体を可能にする。
論文 参考訳(メタデータ) (2022-04-21T06:17:05Z) - Layered Neural Atlases for Consistent Video Editing [37.69447642502351]
本稿では,入力映像を層状2次元アトラスに分解する手法を提案する。
ビデオの各画素について,各アトラスの対応する2次元座標を推定する。
我々は、アトラスを解釈可能で意味論的に設計し、アトラス領域での簡単かつ直感的な編集を容易にする。
論文 参考訳(メタデータ) (2021-09-23T14:58:59Z) - Omnimatte: Associating Objects and Their Effects in Video [100.66205249649131]
映像内のオブジェクトに関連するシーン効果は通常、コンピュータビジョンによって見過ごされる。
本研究では,映像におけるオブジェクトとその効果を自動的に関連付ける,この新しい問題を解決するための一歩を踏み出す。
私達のモデルは手動ラベルなしで自己監督された方法で入力ビデオでだけ訓練され、ジェネリックです---任意目的およびいろいろな効果のためのオムニマトを自動的に作り出します。
論文 参考訳(メタデータ) (2021-05-14T17:57:08Z) - First Order Motion Model for Image Animation [90.712718329677]
画像アニメーションは、駆動ビデオの動きに応じて、ソース画像内のオブジェクトがアニメーションされるように、ビデオシーケンスを生成する。
我々のフレームワークは、アニメーションする特定のオブジェクトに関するアノテーションや事前情報を使わずに、この問題に対処します。
論文 参考訳(メタデータ) (2020-02-29T07:08:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。