論文の概要: Workflow-Aware Structured Layer Decomposition for Illustration Production
- arxiv url: http://arxiv.org/abs/2603.14925v1
- Date: Mon, 16 Mar 2026 07:28:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.133634
- Title: Workflow-Aware Structured Layer Decomposition for Illustration Production
- Title(参考訳): 図面生成のためのワークフロー対応構造層分解
- Authors: Tianyu Zhang, Dongchi Li, Keiichi Sawada, Haoran Xie,
- Abstract要約: 本稿では,アニメ作品のイラスト制作に適したワークフロー対応構造化層分解フレームワークを提案する。
アニメ制作のパイプラインにインスパイアされた本手法は,イラストを意味的に意味のある生産層に分解する。
実験により, 精度, 視覚的コヒーレントな層分解が得られた。
- 参考スコア(独自算出の注目度): 9.48320994682878
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent generative image editing methods adopt layered representations to mitigate the entangled nature of raster images and improve controllability, typically relying on object-based segmentation. However, such strategies may fail to capture the structural and stylized properties of human-created images, such as anime illustrations. To solve this issue, we propose a workflow-aware structured layer decomposition framework tailored to the illustration production of anime artwork. Inspired by the creation pipeline of anime production, our method decomposes the illustration into semantically meaningful production layers, including line art, flat color, shadow, and highlight. To decouple all these layers, we introduce lightweight layer semantic embeddings to provide specific task guidance for each layer. Furthermore, a set of layer-wise losses is incorporated to supervise the training process of individual layers. To overcome the lack of ground-truth layered data, we construct a high-quality illustration dataset that simulated the standard anime production workflow. Experiments demonstrate that the accurate and visually coherent layer decompositions were achieved by using our method. We believe that the resulting layered representation further enables downstream tasks such as recoloring and embedding texture, supporting content creation, and illustration editing. Code is available at: https://github.com/zty0304/Anime-layer-decomposition
- Abstract(参考訳): 近年の生成画像編集法では,ラスタ画像の絡み合った性質を緩和し,オブジェクトベースセグメンテーションに依存する制御性を向上させるために,階層表現を採用している。
しかし、このような戦略は、アニメのイラストのような、人間が作った画像の構造的および様式化された特性を捉えることに失敗する可能性がある。
そこで本研究では,アニメ作品のイラスト制作に適したワークフロー対応構造化層分解フレームワークを提案する。
アニメ制作のパイプラインから着想を得た本手法では,線画,平らな色,影,ハイライトなどの意味的に意味のある生産層にイラストを分解する。
これらすべてのレイヤを分離するために、各レイヤに対して特定のタスクガイダンスを提供するために、軽量なレイヤセマンティック埋め込みを導入します。
さらに、個々のレイヤのトレーニングプロセスを監督するために、レイヤ単位の損失のセットが組み込まれている。
地上構造層データの欠如を克服するため,標準的なアニメ制作ワークフローをシミュレートした高品質なイラストレーションデータセットを構築した。
実験により, 精度, 視覚的コヒーレントな層分解が得られた。
得られた階層化表現は、さらに、リカラー化や埋め込みテクスチャ、コンテンツ作成のサポート、イラストレーション編集といった下流タスクを可能にしていると信じている。
https://github.com/zty0304/Anime-layer-decomposition
関連論文リスト
- See-through: Single-image Layer Decomposition for Anime Characters [11.629918493740263]
本稿では,静的アニメイラストをマニピュラブル2.5Dモデルに変換するフレームワークを提案する。
当社のアプローチでは、ひとつの画像を完全に塗装されたセマンティックな異なる層に分解することで、これを克服しています。
提案手法により,プロのリアルタイムアニメーションアプリケーションに適した高忠実でマニピュラブルなモデルが得られることを示す。
論文 参考訳(メタデータ) (2026-02-03T17:12:36Z) - Qwen-Image-Layered: Towards Inherent Editability via Layer Decomposition [73.43121650616804]
単一のRGB画像を複数の意味的不整合RGBA層に分解するエンドツーエンド拡散モデルである textbfQwen-Image-Layered を提案する。
本手法は,分解品質の既存手法を大幅に上回り,一貫した画像編集のための新しいパラダイムを確立する。
論文 参考訳(メタデータ) (2025-12-17T17:12:42Z) - MagicQuillV2: Precise and Interactive Image Editing with Layered Visual Cues [106.02577891104079]
本稿では,生成画像編集のための合成パラダイムであるMagicQuill V2を提案する。
本手法は,創造性を制御可能な視覚的手がかりのスタックに分解する。
論文 参考訳(メタデータ) (2025-12-02T18:59:58Z) - Illustrator's Depth: Monocular Layer Index Prediction for Image Decomposition [55.8308608221966]
私たちはIllustratorのDepthを紹介します。これはデジタルコンテンツ作成における重要な課題に対処する、新しい深さの定義です。
アーティストの合成プロセスにインスパイアされたイラストレーターの深さは、各ピクセルに層インデックスを推論し、解釈可能な画像分解を形成する。
論文 参考訳(メタデータ) (2025-11-21T17:56:43Z) - LayerD: Decomposing Raster Graphic Designs into Layers [15.294433619347082]
LayerDは、グラフィックデザインをレイヤに分解して、再編集可能なクリエイティブワークフローを作成する方法である。
層が一様に見えるという仮定を生かした,単純かつ効果的な改質手法を提案する。
実験では、LayerDは高品質な分解を実現し、ベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-29T17:50:12Z) - Rethinking Layered Graphic Design Generation with a Top-Down Approach [76.33538798060326]
図形デザインは、アイデアやメッセージを伝えるのに不可欠である。デザイナーは通常、編集を簡単にするために、オブジェクト、背景、ベクトル化されたテキスト層に作業を整理する。
GenAI方式の登場により、ピクセルフォーマットにおける高品質なグラフィックデザインの無限の供給がよりアクセスしやすくなってきた。
これにもかかわらず、非層型設計は人間の設計を刺激し、レイアウトやテキストスタイルの選択に影響を与え、最終的に層型設計を導いた。
本稿では,AI生成したデザインを編集可能な階層化設計に変換する最初の試みとして,グラフィックデザイン生成フレームワークであるAccordionを提案する。
論文 参考訳(メタデータ) (2025-07-08T02:26:08Z) - LayeringDiff: Layered Image Synthesis via Generation, then Disassembly with Generative Knowledge [14.481577976493236]
LayeringDiffは、階層化されたイメージを合成するための新しいパイプラインである。
合成イメージからレイヤを抽出することで、スクラッチから生成するのではなく、大規模なトレーニングの必要性を回避できる。
実効的な層分解のために,前景層と背景層を推定する前に,大規模事前学習型生成法を適用する。
論文 参考訳(メタデータ) (2025-01-02T11:18:25Z) - Generative Image Layer Decomposition with Visual Effects [49.75021036203426]
LayerDecompは、イメージ層分解のための生成フレームワークである。
清潔な背景と、忠実に保存された視覚効果を持つ高品質な透明な前景を作り出す。
本手法は,オブジェクト除去や空間編集作業において,既存の手法よりも優れた分解特性を実現する。
論文 参考訳(メタデータ) (2024-11-26T20:26:49Z) - LayerDiff: Exploring Text-guided Multi-layered Composable Image Synthesis via Layer-Collaborative Diffusion Model [70.14953942532621]
層共同拡散モデルであるLayerDiffは、テキスト誘導、多層化、構成可能な画像合成のために設計されている。
本モデルでは,従来の全画像生成手法に匹敵する性能で,高品質な多層画像を生成することができる。
LayerDiffは、レイヤ固有の画像編集やスタイル転送など、幅広いコントロール可能な生成アプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-03-18T16:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。