論文の概要: LongAnimation: Long Animation Generation with Dynamic Global-Local Memory
- arxiv url: http://arxiv.org/abs/2507.01945v1
- Date: Wed, 02 Jul 2025 17:55:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.435901
- Title: LongAnimation: Long Animation Generation with Dynamic Global-Local Memory
- Title(参考訳): Long Animation: 動的グローバルローカルメモリによるロングアニメーション生成
- Authors: Nan Chen, Mengqi Huang, Yihao Meng, Zhendong Mao,
- Abstract要約: LongAnimationはビデオ生成モデルに基づくアニメーションのカラー化のための新しいフレームワークである。
短期(14フレーム)と長期(平均500フレーム)の両方の実験は,LongAnimationの有効性を示した。
- 参考スコア(独自算出の注目度): 23.978531674282188
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Animation colorization is a crucial part of real animation industry production. Long animation colorization has high labor costs. Therefore, automated long animation colorization based on the video generation model has significant research value. Existing studies are limited to short-term colorization. These studies adopt a local paradigm, fusing overlapping features to achieve smooth transitions between local segments. However, the local paradigm neglects global information, failing to maintain long-term color consistency. In this study, we argue that ideal long-term color consistency can be achieved through a dynamic global-local paradigm, i.e., dynamically extracting global color-consistent features relevant to the current generation. Specifically, we propose LongAnimation, a novel framework, which mainly includes a SketchDiT, a Dynamic Global-Local Memory (DGLM), and a Color Consistency Reward. The SketchDiT captures hybrid reference features to support the DGLM module. The DGLM module employs a long video understanding model to dynamically compress global historical features and adaptively fuse them with the current generation features. To refine the color consistency, we introduce a Color Consistency Reward. During inference, we propose a color consistency fusion to smooth the video segment transition. Extensive experiments on both short-term (14 frames) and long-term (average 500 frames) animations show the effectiveness of LongAnimation in maintaining short-term and long-term color consistency for open-domain animation colorization task. The code can be found at https://cn-makers.github.io/long_animation_web/.
- Abstract(参考訳): アニメーションのカラー化は、実際のアニメーション産業における重要な部分である。
長いアニメーションの着色は労働コストが高い。
したがって、ビデオ生成モデルに基づくアニメーションの自動色付けは、かなりの研究価値がある。
現存する研究は短期的な着色に限られている。
これらの研究は局所的パラダイムを採用し、局所的セグメント間のスムーズな遷移を達成するために重なり合う特徴を融合する。
しかし、局所的なパラダイムはグローバルな情報を無視し、長期的な色の一貫性を保たない。
本研究では,グローバルな局所的パラダイム,すなわちグローバルな色一貫性を動的に抽出することで,理想的な長期的色整合性を実現することができると論じる。
具体的には、SketchDiT、Dynamic Global-Local Memory (DGLM)、Color Consistency Rewardを含む新しいフレームワークであるLongAnimationを提案する。
SketchDiTはDGLMモジュールをサポートするためにハイブリッド参照機能をキャプチャする。
DGLMモジュールは、グローバルな歴史的特徴を動的に圧縮し、それらを現在の特徴と適応的に融合するために、長いビデオ理解モデルを使用する。
色整合性を改善するために,色整合性リワードを導入する。
推論中、ビデオセグメント遷移を円滑にするための色整合融合を提案する。
短期(14フレーム)と長期(平均500フレーム)のアニメーションの広範な実験は、オープンドメインアニメーションのカラー化タスクにおける短期的および長期的色の一貫性を維持する上でのLongAnimationの有効性を示している。
コードはhttps://cn-makers.github.io/long_animation_web/にある。
関連論文リスト
- SketchColour: Channel Concat Guided DiT-based Sketch-to-Colour Pipeline for 2D Animation [7.2542954248246305]
拡散トランスフォーマ(DiT)バックボーン上に構築された2次元アニメーションのための最初のスケッチ・ツー・カラーパイプラインであるSketchColourを紹介する。
従来のU-NetデノイザをDiTスタイルのアーキテクチャに置き換え、軽量チャネル接続アダプタを介してスケッチ情報を注入する。
本手法は,色の出血や物体の変形といった最小限の人工物を用いた時間的コヒーレントなアニメーションを生成する。
論文 参考訳(メタデータ) (2025-07-02T10:57:16Z) - VanGogh: A Unified Multimodal Diffusion-based Framework for Video Colorization [53.35016574938809]
ビデオのカラー化は、時間的一貫性と構造的整合性を維持しながら、グレースケールのビデオを鮮やかな色表現に変換することを目的としている。
既存のビデオカラー化法は、しばしば色出血に悩まされ、包括的な制御が欠如している。
我々はVanGoghを紹介した。VanGoghはビデオカラー化のためのマルチモーダル拡散に基づく統合フレームワークである。
論文 参考訳(メタデータ) (2025-01-16T12:20:40Z) - Puppet-Master: Scaling Interactive Video Generation as a Motion Prior for Part-Level Dynamics [67.97235923372035]
本稿では,対話型ビデオ生成モデルであるPuppet-Masterについて紹介する。
テスト時には、ひとつのイメージと粗い動き軌跡が与えられた場合、Puppet-Masterは、与えられたドラッグ操作に忠実な現実的な部分レベルの動きを描写したビデオを合成することができる。
論文 参考訳(メタデータ) (2024-08-08T17:59:38Z) - Animate Anyone: Consistent and Controllable Image-to-Video Synthesis for Character Animation [27.700371215886683]
拡散モデルは、その堅牢な生成能力のために、視覚世代研究の主流となっている。
本稿では,キャラクターアニメーションに適した新しいフレームワークを提案する。
トレーニングデータを拡張することにより、任意の文字をアニメーション化することが可能となり、他の画像とビデオの手法と比較して、文字アニメーションにおいて優れた結果が得られる。
論文 参考訳(メタデータ) (2023-11-28T12:27:15Z) - MagicAnimate: Temporally Consistent Human Image Animation using
Diffusion Model [74.84435399451573]
本稿では、特定の動きシーケンスに従って、特定の参照アイデンティティのビデオを生成することを目的とした、人間の画像アニメーションタスクについて検討する。
既存のアニメーションは、通常、フレームウォーピング技術を用いて参照画像を目標運動に向けてアニメーションする。
MagicAnimateは,時間的一貫性の向上,参照画像の忠実な保存,アニメーションの忠実性向上を目的とした,拡散に基づくフレームワークである。
論文 参考訳(メタデータ) (2023-11-27T18:32:31Z) - Exemplar-based Video Colorization with Long-term Spatiotemporal
Dependency [10.223719035434586]
外見に基づく映像のカラー化は、古い映画復元のような応用に欠かせない技術である。
本稿では,長期間の時間依存性を考慮したビデオカラー化フレームワークを提案する。
我々のモデルは、特に物体が大きく不規則に変化する場面において、よりカラフルでリアルで安定した結果を生み出すことができる。
論文 参考訳(メタデータ) (2023-03-27T10:45:00Z) - Generating Long Videos of Dynamic Scenes [66.56925105992472]
本稿では、物体の動きを再現する映像生成モデル、カメラ視点の変化、時間とともに現れる新しいコンテンツについて述べる。
よくある障害ケースは、コンテンツが時間的一貫性を提供する誘導バイアスに過度に依存するため、決して変化しないことです。
論文 参考訳(メタデータ) (2022-06-07T16:29:51Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。