論文の概要: ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing
- arxiv url: http://arxiv.org/abs/2508.10881v1
- Date: Thu, 14 Aug 2025 17:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.442401
- Title: ToonComposer: Streamlining Cartoon Production with Generative Post-Keyframing
- Title(参考訳): ToonComposer: 生成後キーフレーミングによるカートーン生産の合理化
- Authors: Lingen Li, Guangzhi Wang, Zhaoyang Zhang, Yaowei Li, Xiaoyu Li, Qi Dou, Jinwei Gu, Tianfan Xue, Ying Shan,
- Abstract要約: ToonComposerは、着色と着色を単一のキーフレーミング段階に統一する生成モデルである。
1つのスケッチと色の付いた参照フレームを必要とするToonComposerは、スパース入力で出力する。
評価の結果,ToonComposerは視覚的品質,動作の整合性,生産効率において,既存の手法よりも優れていた。
- 参考スコア(独自算出の注目度): 60.81602269917522
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Traditional cartoon and anime production involves keyframing, inbetweening, and colorization stages, which require intensive manual effort. Despite recent advances in AI, existing methods often handle these stages separately, leading to error accumulation and artifacts. For instance, inbetweening approaches struggle with large motions, while colorization methods require dense per-frame sketches. To address this, we introduce ToonComposer, a generative model that unifies inbetweening and colorization into a single post-keyframing stage. ToonComposer employs a sparse sketch injection mechanism to provide precise control using keyframe sketches. Additionally, it uses a cartoon adaptation method with the spatial low-rank adapter to tailor a modern video foundation model to the cartoon domain while keeping its temporal prior intact. Requiring as few as a single sketch and a colored reference frame, ToonComposer excels with sparse inputs, while also supporting multiple sketches at any temporal location for more precise motion control. This dual capability reduces manual workload and improves flexibility, empowering artists in real-world scenarios. To evaluate our model, we further created PKBench, a benchmark featuring human-drawn sketches that simulate real-world use cases. Our evaluation demonstrates that ToonComposer outperforms existing methods in visual quality, motion consistency, and production efficiency, offering a superior and more flexible solution for AI-assisted cartoon production.
- Abstract(参考訳): 伝統的な漫画やアニメの制作には、キーフレーミング、インベントワイニング、カラー化の段階があり、手作業の集中を要する。
AIの最近の進歩にもかかわらず、既存のメソッドはこれらのステージを別々に扱うことが多く、エラーの蓄積とアーティファクトにつながる。
例えば、インベントワイニングアプローチは大きな動きに苦しむ一方、カラー化手法ではフレームごとの濃密なスケッチが必要となる。
そこで本研究では,着色と着色を一体化した生成モデルToonComposerについて紹介する。
ToonComposerはスパーススケッチインジェクション機構を使用して、キーフレームスケッチを使用して正確なコントロールを提供する。
また、空間的低ランクアダプタを用いた漫画適応手法を用いて、時間的先行性を維持しつつ、現代的なビデオ基盤モデルを漫画領域に調整する。
単一のスケッチと色の付いた参照フレームを必要とするToonComposerは、スパース入力を出力すると同時に、より正確なモーションコントロールのために、任意の時間的位置で複数のスケッチをサポートする。
このデュアル機能は、手作業の負荷を低減し、柔軟性を改善し、現実のシナリオでアーティストに権限を与える。
提案モデルを評価するために,実世界のユースケースをシミュレートした人間図のスケッチを特徴とするベンチマークであるPKBenchを開発した。
評価の結果、ToonComposerは、視覚的品質、動きの一貫性、生産効率において既存の手法よりも優れており、AI支援漫画制作において優れた、より柔軟なソリューションを提供する。
関連論文リスト
- SwiftSketch: A Diffusion Model for Image-to-Vector Sketch Generation [57.47730473674261]
我々は,画像条件付きベクトルスケッチ生成モデルであるSwiftSketchを紹介した。
SwiftSketchは、ガウス分布からサンプリングされたストローク制御ポイントを段階的に復調することによって動作する。
ControlSketchは、深度認識制御ネットを通じて正確な空間制御を組み込むことで、SDSベースの技術を強化する方法である。
論文 参考訳(メタデータ) (2025-02-12T18:57:12Z) - AniDoc: Animation Creation Made Easier [54.97341104616779]
我々の研究は、ますます強力なAIの可能性を生かして、2Dアニメーションを制作する際のコスト削減に重点を置いている。
AniDocはビデオラインアートのカラー化ツールとして登場し、自動的にスケッチシーケンスをカラーアニメーションに変換する。
本モデルでは,一致マッチングを明示的なガイダンスとして活用し,基準文字と各ラインアートフレームの変動に強いロバスト性を与える。
論文 参考訳(メタデータ) (2024-12-18T18:59:59Z) - Enhancing Sketch Animation: Text-to-Video Diffusion Models with Temporal Consistency and Rigidity Constraints [1.1510009152620668]
本稿では,記述的テキストプロンプトに基づいて与えられた入力スケッチをアニメーションする手法を提案する。
スケッチのストロークの動きを誘導するために、SDS損失を伴う事前訓練されたテキスト・ビデオ拡散モデルを利用する。
本手法は, 定量評価と定性評価の両方において, 最先端性能を上回っている。
論文 参考訳(メタデータ) (2024-11-28T21:15:38Z) - ToonCrafter: Generative Cartoon Interpolation [63.52353451649143]
ToonCrafterは、従来の文通ベースの漫画映像を超越した新しいアプローチである。
ToonCrafterは、生成漫画にライブアクションビデオの動きを適用する際に直面する課題を効果的に解決する。
実験結果から,提案手法は視覚的に説得力があり,より自然に作用するだけでなく,非閉塞性も効果的に扱えることが示された。
論文 参考訳(メタデータ) (2024-05-28T07:58:33Z) - Bridging the Gap: Sketch-Aware Interpolation Network for High-Quality Animation Sketch Inbetweening [58.09847349781176]
我々は,新しい深層学習手法であるSketch-Aware Interpolation Network (SAIN)を提案する。
このアプローチには、領域レベルの対応、ストロークレベルの対応、ピクセルレベルのダイナミクスを定式化するマルチレベルガイダンスが組み込まれている。
マルチストリームのU-Transformerは、自己/クロスアテンション機構の統合により、これらのマルチレベルガイドを使用して、スケッチ間のインテンションパターンを特徴付けるように設計されている。
論文 参考訳(メタデータ) (2023-08-25T09:51:03Z) - Improving the Perceptual Quality of 2D Animation Interpolation [37.04208600867858]
伝統的な2Dアニメーションは労働集約的であり、しばしばアニメーターは1秒間に12枚のイラストを描く必要がある。
低いフレームレートは大きな変位と閉塞をもたらし、例えばラインやソリッドカラー領域のような個々の知覚要素は、テクスチャ指向の畳み込みネットワークに困難をもたらす。
以前の研究はこれらの問題に対処しようとしたが、計算不能なメソッドを使用し、ピクセル完全性能に重点を置いていた。
私たちは、この芸術領域の知覚的品質を重視した、より適切なスケーラブルなシステムを構築します。
論文 参考訳(メタデータ) (2021-11-24T20:51:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。