論文の概要: Latent Neural Differential Equations for Video Generation
- arxiv url: http://arxiv.org/abs/2011.03864v3
- Date: Tue, 11 May 2021 05:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 22:42:54.853452
- Title: Latent Neural Differential Equations for Video Generation
- Title(参考訳): ビデオ生成のための潜在神経微分方程式
- Authors: Cade Gordon, Natalie Parde
- Abstract要約: 本稿では,映像生成の時間的ダイナミクスをモデル化するためのニューラル微分方程式の効果について検討する。
インセプションスコアは15.20で64$times$64の非条件ビデオ生成で新しい最先端モデルを生成する。
- 参考スコア(独自算出の注目度): 10.127456032874978
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generative Adversarial Networks have recently shown promise for video
generation, building off of the success of image generation while also
addressing a new challenge: time. Although time was analyzed in some early
work, the literature has not adequately grown with temporal modeling
developments. We study the effects of Neural Differential Equations to model
the temporal dynamics of video generation. The paradigm of Neural Differential
Equations presents many theoretical strengths including the first continuous
representation of time within video generation. In order to address the effects
of Neural Differential Equations, we investigate how changes in temporal models
affect generated video quality. Our results give support to the usage of Neural
Differential Equations as a simple replacement for older temporal generators.
While keeping run times similar and decreasing parameter count, we produce a
new state-of-the-art model in 64$\times$64 pixel unconditional video
generation, with an Inception Score of 15.20.
- Abstract(参考訳): generative adversarial networksは、最近ビデオ生成に期待を示しており、画像生成の成功と、新しい課題であるtimeにも対処している。
初期の作品では時間分析が行われたが、この文献は時間的モデリングの発展とともに十分に成長していない。
ビデオ生成の時間ダイナミクスをモデル化する神経微分方程式の効果について検討する。
ニューラル微分方程式のパラダイムは、ビデオ生成における時間の最初の連続表現を含む多くの理論的強みを示す。
ニューラル微分方程式の効果に対処するため,時間モデルの変化が生成ビデオの品質に与える影響について検討する。
本研究は, 古い時間生成器の代替として, 神経微分方程式を応用することを支持する。
実行時間を類似させ、パラメータ数を減少させながら、64$\times$64の無条件ビデオ生成で新しい最先端モデルを生成し、インセプションスコアは15.20である。
関連論文リスト
- Bidirectional Temporal Diffusion Model for Temporally Consistent Human Animation [5.78796187123888]
本研究では,1つの画像,ビデオ,ランダムノイズから時間的コヒーレントな人間のアニメーションを生成する手法を提案する。
両方向の時間的モデリングは、人間の外見の運動あいまいさを大幅に抑制することにより、生成ネットワーク上の時間的コヒーレンスを強制すると主張している。
論文 参考訳(メタデータ) (2023-07-02T13:57:45Z) - Generating Long Videos of Dynamic Scenes [66.56925105992472]
本稿では、物体の動きを再現する映像生成モデル、カメラ視点の変化、時間とともに現れる新しいコンテンツについて述べる。
よくある障害ケースは、コンテンツが時間的一貫性を提供する誘導バイアスに過度に依存するため、決して変化しないことです。
論文 参考訳(メタデータ) (2022-06-07T16:29:51Z) - Dynamic Dual-Output Diffusion Models [100.32273175423146]
反復分解に基づく生成は、他の生成モデルのクラスに匹敵する品質を示すことが示されている。
この方法の大きな欠点は、競合する結果を生み出すために数百のイテレーションが必要であることである。
近年の研究では、より少ないイテレーションでより高速に生成できるソリューションが提案されているが、画像の品質は徐々に低下している。
論文 参考訳(メタデータ) (2022-03-08T11:20:40Z) - Physics Informed RNN-DCT Networks for Time-Dependent Partial
Differential Equations [62.81701992551728]
時間依存偏微分方程式を解くための物理インフォームド・フレームワークを提案する。
我々のモデルは離散コサイン変換を用いて空間的および反復的なニューラルネットワークを符号化する。
ナヴィエ・ストークス方程式に対するテイラー・グリーン渦解の実験結果を示す。
論文 参考訳(メタデータ) (2022-02-24T20:46:52Z) - Generating Videos with Dynamics-aware Implicit Generative Adversarial
Networks [68.93429034530077]
ビデオ生成のための動的認識型暗黙的生成対向ネットワーク(DIGAN)を提案する。
従来の48フレームよりも80フレーム長の解像度128×128の128フレームビデオで,DIGANをトレーニングできることが示されている。
論文 参考訳(メタデータ) (2022-02-21T23:24:01Z) - Insights from Generative Modeling for Neural Video Compression [31.59496634465347]
本稿では,深部自己回帰・潜時可変モデリングのレンズを用いたニューラルビデオ符号化アルゴリズムを提案する。
本稿では,高解像度映像に対して最先端の映像圧縮性能を実現するアーキテクチャを提案する。
さらに、生成的モデリングの観点から、ニューラルビデオ符号化の分野を前進させることができることを示す。
論文 参考訳(メタデータ) (2021-07-28T02:19:39Z) - Time Dependence in Non-Autonomous Neural ODEs [74.78386661760662]
時変重みを持つニューラルODEの新しいファミリーを提案する。
我々は、速度と表現能力の両面で、従来のニューラルODEの変形よりも優れていた。
論文 参考訳(メタデータ) (2020-05-05T01:41:46Z) - Neural Human Video Rendering by Learning Dynamic Textures and
Rendering-to-Video Translation [99.64565200170897]
本研究では,2次元スクリーン空間に人体を埋め込むことで,時間的コヒーレントな微細な細部を学習することで,人間の映像合成手法を提案する。
我々は,人間の再現やモノクロ映像からの新たなビュー合成などのアプローチの適用例を示し,質的にも定量的にも,芸術の状態を著しく改善した。
論文 参考訳(メタデータ) (2020-01-14T18:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。