論文の概要: Regenerating Arbitrary Video Sequences with Distillation Path-Finding
- arxiv url: http://arxiv.org/abs/2311.07170v1
- Date: Mon, 13 Nov 2023 09:05:30 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-14 15:00:42.021799
- Title: Regenerating Arbitrary Video Sequences with Distillation Path-Finding
- Title(参考訳): 蒸留経路探究による任意映像の再生
- Authors: Thi-Ngoc-Hanh Le, Sheng-Yi Yao, Chun-Te Wu, and Tong-Yee Lee
- Abstract要約: 本稿では,開始フレーム上でユーザの好みに応じて新しいシーケンスを生成するインタラクティブなフレームワークを提案する。
これを効果的に実現するために、まず、提案ネットワークであるRCFNetを用いて、与えられたビデオのフレームセットの特徴相関を学習する。
そこで我々は,ソースビデオの動作方向の知識を定式化し,スムーズかつ妥当なシーケンスを推定する新しいパスフィニングアルゴリズム,SDPFを開発した。
- 参考スコア(独自算出の注目度): 6.687073794084539
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: If the video has long been mentioned as a widespread visualization form, the
animation sequence in the video is mentioned as storytelling for people.
Producing an animation requires intensive human labor from skilled professional
artists to obtain plausible animation in both content and motion direction,
incredibly for animations with complex content, multiple moving objects, and
dense movement. This paper presents an interactive framework to generate new
sequences according to the users' preference on the starting frame. The
critical contrast of our approach versus prior work and existing commercial
applications is that novel sequences with arbitrary starting frame are produced
by our system with a consistent degree in both content and motion direction. To
achieve this effectively, we first learn the feature correlation on the
frameset of the given video through a proposed network called RSFNet. Then, we
develop a novel path-finding algorithm, SDPF, which formulates the knowledge of
motion directions of the source video to estimate the smooth and plausible
sequences. The extensive experiments show that our framework can produce new
animations on the cartoon and natural scenes and advance prior works and
commercial applications to enable users to obtain more predictable results.
- Abstract(参考訳): 動画が広く可視化された形式として長く言及されてきた場合、動画内のアニメーションシーケンスは人々のストーリーテリングとして言及される。
アニメーションを作成するには、複雑なコンテンツ、複数の移動物体、そして密集した動きを持つアニメーションに対して、コンテンツと運動方向の両方でもっともらしいアニメーションを得るために、熟練したプロのアーティストからの集中的な人間労働が必要である。
本稿では,開始フレーム上でユーザの好みに応じて新しいシーケンスを生成するインタラクティブなフレームワークを提案する。
従来の作業と既存の商業的応用との違いは、任意の開始フレームを持つ新規なシーケンスが、コンテンツと動き方向の両方で一貫した程度に生成される点である。
これを効果的に実現するために,まず,提案するrsfnetを用いて,映像のフレームセット上の特徴相関を学習する。
そこで我々は,ソースビデオの動作方向の知識を定式化し,スムーズかつ妥当なシーケンスを推定する新しいパスフィニングアルゴリズム,SDPFを開発した。
大規模な実験により,本フレームワークは漫画や自然の場面に新たなアニメーションを作成でき,先行作品や商業的応用を推し進めることで,より予測可能な結果が得られることを示した。
関連論文リスト
- AniClipart: Clipart Animation with Text-to-Video Priors [28.76809141136148]
AniClipartは、静的な画像をテキストからビデオへの事前案内による高品質なモーションシーケンスに変換するシステムである。
実験結果から,提案したAniClipartは既存の画像・映像生成モデルより一貫して優れていることがわかった。
論文 参考訳(メタデータ) (2024-04-18T17:24:28Z) - AnimateZoo: Zero-shot Video Generation of Cross-Species Animation via Subject Alignment [64.02822911038848]
動物アニメーションを作成するため, ゼロショット拡散に基づくビデオジェネレータAnimateZooを提案する。
AnimateZooで使われる主要なテクニックは、2つのステップを含む被写体アライメントです。
我々のモデルは、正確な動き、一貫した外観、高忠実度フレームを特徴とする映像を生成することができる。
論文 参考訳(メタデータ) (2024-04-07T12:57:41Z) - Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation [27.700371215886683]
拡散モデルは、その堅牢な生成能力のために、視覚世代研究の主流となっている。
本稿では,キャラクターアニメーションに適した新しいフレームワークを提案する。
トレーニングデータを拡張することにより、任意の文字をアニメーション化することが可能となり、他の画像とビデオの手法と比較して、文字アニメーションにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2023-11-28T12:27:15Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - AnimateAnything: Fine-Grained Open Domain Image Animation with Motion
Guidance [13.416296247896042]
本稿では,映像拡散モデルに先立って動きを利用するオープンドメイン画像アニメーション手法を提案する。
本手法では,移動領域の正確な制御と移動速度を実現するため,目標となる運動領域の誘導と運動強度の誘導を導入する。
オープンドメインデータセットを用いた厳密な実験により,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-11-21T03:47:54Z) - DynamiCrafter: Animating Open-domain Images with Video Diffusion Priors [63.43133768897087]
オープンドメイン画像をアニメーションビデオに変換する手法を提案する。
鍵となるアイデアは、画像を生成プロセスに組み込むことで、テキストからビデオへの拡散モデルに先立っての動きを活用することである。
提案手法は視覚的に説得力があり、より論理的で自然な動きが得られ、入力画像への適合性が向上する。
論文 参考訳(メタデータ) (2023-10-18T14:42:16Z) - Animate-A-Story: Storytelling with Retrieval-Augmented Video Generation [69.20173154096]
本研究では,2つの機能モジュールからなるフレームワーク,Motion Structure RetrievalとStructure-Guided Text-to-Video Synthesisを開発した。
最初のモジュールでは、オフザシェルフビデオ検索システムを活用し、動画深度をモーション構造として抽出する。
第2のモジュールに対しては、構造と文字を柔軟に制御する制御可能なビデオ生成モデルを提案する。
論文 参考訳(メタデータ) (2023-07-13T17:57:13Z) - Image2Gif: Generating Continuous Realistic Animations with Warping NODEs [0.8218964199015377]
本稿では,スムーズなアニメーション(ビデオフレーム)を連続的に生成するための新しいフレームワークであるウォーピングニューラルODEを提案する。
これにより、フレーム間の無限に小さな時間ステップでアニメーションの滑らかさと現実性を達成することができる。
本稿では,GAN(Generative Adversarial Network)や損失$L$など,異なるトレーニング環境下で2フレームのアニメーションを生成する上で,我々の作業の適用例を示す。
論文 参考訳(メタデータ) (2022-05-09T18:39:47Z) - Render In-between: Motion Guided Video Synthesis for Action
Interpolation [53.43607872972194]
本研究では、リアルな人間の動きと外観を生成できる動き誘導型フレームアップサンプリングフレームワークを提案する。
大規模モーションキャプチャーデータセットを活用することにより、フレーム間の非線形骨格運動を推定するために、新しいモーションモデルが訓練される。
私たちのパイプラインでは、低フレームレートのビデオと不自由な人間のモーションデータしか必要としませんが、トレーニングには高フレームレートのビデオは必要ありません。
論文 参考訳(メタデータ) (2021-11-01T15:32:51Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。