論文の概要: SketchColour: Channel Concat Guided DiT-based Sketch-to-Colour Pipeline for 2D Animation
- arxiv url: http://arxiv.org/abs/2507.01586v1
- Date: Wed, 02 Jul 2025 10:57:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.15672
- Title: SketchColour: Channel Concat Guided DiT-based Sketch-to-Colour Pipeline for 2D Animation
- Title(参考訳): SketchColour:2次元アニメーションのためのチャンネルConcatガイド付きDiTベースSketch-to-Colour Pipeline
- Authors: Bryan Constantine Sadihin, Michael Hua Wang, Shei Pern Chua, Hang Su,
- Abstract要約: 拡散トランスフォーマ(DiT)バックボーン上に構築された2次元アニメーションのための最初のスケッチ・ツー・カラーパイプラインであるSketchColourを紹介する。
従来のU-NetデノイザをDiTスタイルのアーキテクチャに置き換え、軽量チャネル接続アダプタを介してスケッチ情報を注入する。
本手法は,色の出血や物体の変形といった最小限の人工物を用いた時間的コヒーレントなアニメーションを生成する。
- 参考スコア(独自算出の注目度): 7.2542954248246305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The production of high-quality 2D animation is highly labor-intensive process, as animators are currently required to draw and color a large number of frames by hand. We present SketchColour, the first sketch-to-colour pipeline for 2D animation built on a diffusion transformer (DiT) backbone. By replacing the conventional U-Net denoiser with a DiT-style architecture and injecting sketch information via lightweight channel-concatenation adapters accompanied with LoRA finetuning, our method natively integrates conditioning without the parameter and memory bloat of a duplicated ControlNet, greatly reducing parameter count and GPU memory usage. Evaluated on the SAKUGA dataset, SketchColour outperforms previous state-of-the-art video colourization methods across all metrics, despite using only half the training data of competing models. Our approach produces temporally coherent animations with minimal artifacts such as colour bleeding or object deformation. Our code is available at: https://bconstantine.github.io/SketchColour .
- Abstract(参考訳): 高品質な2Dアニメーションの制作は労働集約的なプロセスであり、現在アニメーターは大量のフレームを手作業で描き色付けする必要がある。
拡散トランスフォーマ(DiT)バックボーン上に構築された2次元アニメーションのための最初のスケッチ・ツー・カラーパイプラインであるSketchColourを紹介する。
従来のU-Net denoiserをDiTスタイルのアーキテクチャに置き換え,LoRAファインタニングを伴う軽量チャネル結合アダプタを介してスケッチ情報を注入することにより,重複したコントロールネットのパラメータやメモリの肥大を伴わない条件付けをネイティブに統合し,パラメータ数やGPUメモリ使用量を大幅に削減する。
SAKUGAデータセットに基づいて評価されたSketchColourは、競合するモデルのトレーニングデータの半分しか使用していないにも関わらず、すべてのメトリクスにわたって、これまでの最先端のビデオカラー化方法よりも優れています。
本手法は,色の出血や物体の変形といった最小限の人工物を用いた時間的コヒーレントなアニメーションを生成する。
私たちのコードは以下の通りです。
関連論文リスト
- MagicColor: Multi-Instance Sketch Colorization [44.72374445094054]
MagicColorは、マルチインスタンススケッチのカラー化のための拡散ベースのフレームワークである。
本モデルでは,手作業による調整を一切行わず,カラー化プロセスの自動化を重要視する。
論文 参考訳(メタデータ) (2025-03-21T08:53:14Z) - AniDoc: Animation Creation Made Easier [54.97341104616779]
我々の研究は、ますます強力なAIの可能性を生かして、2Dアニメーションを制作する際のコスト削減に重点を置いている。
AniDocはビデオラインアートのカラー化ツールとして登場し、自動的にスケッチシーケンスをカラーアニメーションに変換する。
本モデルでは,一致マッチングを明示的なガイダンスとして活用し,基準文字と各ラインアートフレームの変動に強いロバスト性を与える。
論文 参考訳(メタデータ) (2024-12-18T18:59:59Z) - Learning Inclusion Matching for Animation Paint Bucket Colorization [76.4507878427755]
ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
論文 参考訳(メタデータ) (2024-03-27T08:32:48Z) - Bridging the Gap: Sketch-Aware Interpolation Network for High-Quality Animation Sketch Inbetweening [58.09847349781176]
我々は,新しい深層学習手法であるSketch-Aware Interpolation Network (SAIN)を提案する。
このアプローチには、領域レベルの対応、ストロークレベルの対応、ピクセルレベルのダイナミクスを定式化するマルチレベルガイダンスが組み込まれている。
マルチストリームのU-Transformerは、自己/クロスアテンション機構の統合により、これらのマルチレベルガイドを使用して、スケッチ間のインテンションパターンを特徴付けるように設計されている。
論文 参考訳(メタデータ) (2023-08-25T09:51:03Z) - Deep Animation Video Interpolation in the Wild [115.24454577119432]
本研究では,アニメーション・ビデオ・コードに関する問題を初めて形式的に定義・検討する。
効果的なフレームワークであるAnimeInterpを2つの専用モジュールで粗密に提案します。
特にAnimeInterpは、野生のアニメーションシナリオに良好な知覚品質と堅牢性を示します。
論文 参考訳(メタデータ) (2021-04-06T13:26:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。