論文の概要: Learning Inclusion Matching for Animation Paint Bucket Colorization
- arxiv url: http://arxiv.org/abs/2403.18342v1
- Date: Wed, 27 Mar 2024 08:32:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-28 17:47:17.030797
- Title: Learning Inclusion Matching for Animation Paint Bucket Colorization
- Title(参考訳): アニメーションペイントベケットカラー化のための学習介在物マッチング
- Authors: Yuekun Dai, Shangchen Zhou, Qinyue Li, Chongyi Li, Chen Change Loy,
- Abstract要約: ネットワークにセグメント間の包摂関係を理解するための,学習に基づく新たな包摂的マッチングパイプラインを導入する。
提案手法では,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とする。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
- 参考スコア(独自算出の注目度): 76.4507878427755
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Colorizing line art is a pivotal task in the production of hand-drawn cel animation. This typically involves digital painters using a paint bucket tool to manually color each segment enclosed by lines, based on RGB values predetermined by a color designer. This frame-by-frame process is both arduous and time-intensive. Current automated methods mainly focus on segment matching. This technique migrates colors from a reference to the target frame by aligning features within line-enclosed segments across frames. However, issues like occlusion and wrinkles in animations often disrupt these direct correspondences, leading to mismatches. In this work, we introduce a new learning-based inclusion matching pipeline, which directs the network to comprehend the inclusion relationships between segments rather than relying solely on direct visual correspondences. Our method features a two-stage pipeline that integrates a coarse color warping module with an inclusion matching module, enabling more nuanced and accurate colorization. To facilitate the training of our network, we also develope a unique dataset, referred to as PaintBucket-Character. This dataset includes rendered line arts alongside their colorized counterparts, featuring various 3D characters. Extensive experiments demonstrate the effectiveness and superiority of our method over existing techniques.
- Abstract(参考訳): ラインアートのカラー化は手描きセルアニメーションの制作において重要な課題である。
これは通常、カラーデザイナが決めるRGB値に基づいて、ペイントバケツツールを使用して、線で囲まれた各セグメントを手動で色付けするデジタル画家が関与する。
このフレーム・バイ・フレームのプロセスは困難かつ時間集約的です。
現在の自動手法は主にセグメントマッチングに焦点を当てている。
この手法は, フレーム間の線包セグメント内の特徴を整列させることにより, 対象フレームへの参照から色を移動させる。
しかし、アニメーションにおける隠蔽やしわのような問題は、しばしばこれらの直接の通信を妨害し、ミスマッチを引き起こす。
本研究では,直接的な視覚的対応にのみ依存するのではなく,セグメント間の包摂関係をネットワークに理解させる,学習ベースの包摂的マッチングパイプラインを提案する。
提案手法は,粗いカラーワープモジュールと包括的マッチングモジュールを統合した2段階のパイプラインを特徴とし,より微妙で正確なカラー化を実現する。
ネットワークのトレーニングを容易にするため,PaintBucket-Characterと呼ばれるユニークなデータセットも開発した。
このデータセットには、レンダリングされたラインアートと、さまざまな3Dキャラクタを特徴とする色付けされたアーティファクトが含まれている。
本手法の有効性と優位性を実証する実験を行った。
関連論文リスト
- Paint Bucket Colorization Using Anime Character Color Design Sheets [72.66788521378864]
ネットワークがセグメント間の関係を理解することができる包摂的マッチングを導入する。
ネットワークのトレーニングパイプラインは、カラー化と連続フレームカラー化の両方のパフォーマンスを著しく向上させる。
ネットワークのトレーニングをサポートするために、PaintBucket-Characterというユニークなデータセットを開発しました。
論文 参考訳(メタデータ) (2024-10-25T09:33:27Z) - Deep Geometrized Cartoon Line Inbetweening [98.35956631655357]
インベントワイニングは、2つの白黒線図の間の中間フレームを生成する。
画像全体のマッチングとワープに依存する既存のフレームメソッドは、ラインインテワイニングには適していない。
本稿では,AnimeInbetを提案する。これは幾何学的な線描画をエンドポイントにジオメトリし,グラフ融合問題としてインベントワイニングタスクを再構成する。
本手法は,線画の細部と細部を包含しながら,線画の細部と特異な構造を効果的に捉えることができる。
論文 参考訳(メタデータ) (2023-09-28T17:50:05Z) - Bridging the Gap: Sketch-Aware Interpolation Network for High-Quality Animation Sketch Inbetweening [58.09847349781176]
我々は,新しい深層学習手法であるSketch-Aware Interpolation Network (SAIN)を提案する。
このアプローチには、領域レベルの対応、ストロークレベルの対応、ピクセルレベルのダイナミクスを定式化するマルチレベルガイダンスが組み込まれている。
マルチストリームのU-Transformerは、自己/クロスアテンション機構の統合により、これらのマルチレベルガイドを使用して、スケッチ間のインテンションパターンを特徴付けるように設計されている。
論文 参考訳(メタデータ) (2023-08-25T09:51:03Z) - Attention-Aware Anime Line Drawing Colorization [10.924683447616273]
本稿では,チャンネルワイド・空間ワイド・コンボリューショナル・アテンション・モジュールを用いたアニメラインドローイングカラー化のための注目モデルを提案する。
提案手法は,より正確な線構造と意味的色情報を用いて,他のSOTA法よりも優れている。
論文 参考訳(メタデータ) (2022-12-21T12:50:31Z) - BiSTNet: Semantic Image Prior Guided Bidirectional Temporal Feature
Fusion for Deep Exemplar-based Video Colorization [70.14893481468525]
本稿では,参照例の色を探索し,映像のカラー化を支援するために有効なBiSTNetを提案する。
まず、各フレームと参照例間の深い特徴空間における意味的対応を確立し、参照例からの色情報を探究する。
我々は,フレームのオブジェクト境界をモデル化するための意味情報を抽出する混合専門家ブロックを開発した。
論文 参考訳(メタデータ) (2022-12-05T13:47:15Z) - Line Art Correlation Matching Feature Transfer Network for Automatic
Animation Colorization [0.0]
色付き参照特徴を学習可能な方法で整列させるための相関マッチング特徴伝達モデル(CMFT)を提案する。
これにより、ジェネレータはディープセマンティックコードから徐々にコンテンツにレイヤーワイドの同期機能を転送できる。
論文 参考訳(メタデータ) (2020-04-14T06:50:08Z) - Deep Line Art Video Colorization with a Few References [49.7139016311314]
そこで本稿では,対象の参照画像と同一のカラースタイルでラインアートビデオを自動的に色付けする深層アーキテクチャを提案する。
本フレームワークはカラートランスフォーメーションネットワークと時間制約ネットワークから構成される。
本モデルでは,少量のサンプルでパラメータを微調整することで,より優れたカラー化を実現することができる。
論文 参考訳(メタデータ) (2020-03-24T06:57:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。