論文の概要: From Inpainting to Layer Decomposition: Repurposing Generative Inpainting Models for Image Layer Decomposition
- arxiv url: http://arxiv.org/abs/2511.20996v1
- Date: Wed, 26 Nov 2025 02:50:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:58.93378
- Title: From Inpainting to Layer Decomposition: Repurposing Generative Inpainting Models for Image Layer Decomposition
- Title(参考訳): 着色から層分解へ:画像層分解のための生成着色モデルの再検討
- Authors: Jingxi Chen, Yixiao Zhang, Xiaoye Qian, Zongxia Li, Cornelia Fermuller, Caren Chen, Yiannis Aloimonos,
- Abstract要約: レイヤ化された表現により、要素の独立した編集が可能になり、コンテンツ作成の柔軟性が向上する。
我々は, 層分解と in/outpainting タスクの強い関係を観察し, 軽量微細化による層分解に対する拡散型インペインティングモデルの適用を提案する。
潜伏空間の細部をより詳細に保存するために,線形注意複雑性を持つ新しいマルチモーダルコンテキスト融合モジュールを導入する。
- 参考スコア(独自算出の注目度): 16.7393689710179
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Images can be viewed as layered compositions, foreground objects over background, with potential occlusions. This layered representation enables independent editing of elements, offering greater flexibility for content creation. Despite the progress in large generative models, decomposing a single image into layers remains challenging due to limited methods and data. We observe a strong connection between layer decomposition and in/outpainting tasks, and propose adapting a diffusion-based inpainting model for layer decomposition using lightweight finetuning. To further preserve detail in the latent space, we introduce a novel multi-modal context fusion module with linear attention complexity. Our model is trained purely on a synthetic dataset constructed from open-source assets and achieves superior performance in object removal and occlusion recovery, unlocking new possibilities in downstream editing and creative applications.
- Abstract(参考訳): 画像は階層化された合成、背景上の前景のオブジェクト、潜在的な閉塞として見ることができます。
この階層化表現は、要素の独立した編集を可能にし、コンテンツ作成の柔軟性を高める。
大規模な生成モデルの進歩にもかかわらず、単一の画像をレイヤに分解することは、限られた方法やデータのために難しいままである。
我々は, 層分解と in/outpainting タスクの強い関係を観察し, 軽量微細化による層分解に対する拡散型インペインティングモデルの適用を提案する。
潜伏空間の細部をより詳細に保存するために,線形注意複雑性を持つ新しいマルチモーダルコンテキスト融合モジュールを導入する。
我々のモデルは、オープンソース資産から構築された合成データセットに基づいて純粋に訓練され、オブジェクト除去と閉塞回復において優れた性能を達成し、下流編集およびクリエイティブアプリケーションにおける新たな可能性の解放を実現している。
関連論文リスト
- LayerComposer: Interactive Personalized T2I via Spatially-Aware Layered Canvas [47.5187068545227]
我々は、パーソナライズされたマルチオブジェクトのテキスト・ツー・イメージ生成のためのインタラクティブなフレームワークであるLayerComposerを紹介する。
提案された層状キャンバスは、直感的な層操作によって入力対象の配置、サイズ変更、ロックを可能にする。
ロック機構はアーキテクチャ上の変更を必要とせず、代わりに、新しい補完的なデータサンプリング戦略と組み合わせて、固有の位置埋め込みに依存します。
論文 参考訳(メタデータ) (2025-10-23T17:59:55Z) - LayerD: Decomposing Raster Graphic Designs into Layers [15.294433619347082]
LayerDは、グラフィックデザインをレイヤに分解して、再編集可能なクリエイティブワークフローを作成する方法である。
層が一様に見えるという仮定を生かした,単純かつ効果的な改質手法を提案する。
実験では、LayerDは高品質な分解を実現し、ベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-29T17:50:12Z) - DiffDecompose: Layer-Wise Decomposition of Alpha-Composited Images via Diffusion Transformers [85.1185656296496]
本稿では,DiffDecomposeについて述べる。DiffDecomposeは拡散トランスフォーマーをベースとしたフレームワークで,入力画像に条件付き可能な層分解を後部から学習する。
コードとデータセットは、論文の受理時に提供される。
論文 参考訳(メタデータ) (2025-05-24T16:08:04Z) - DreamLayer: Simultaneous Multi-Layer Generation via Diffusion Mode [47.32061459437175]
複数の画像層をコヒーレントなテキスト駆動で生成できるフレームワークであるDreamLayerを紹介する。
透過的なフォアグラウンド層とバックグラウンド層の関係を明示的にモデル化することで、DreamLayerは層間接続を構築する。
実験とユーザスタディにより、DreamLayerはよりコヒーレントで整合したレイヤを生成することが示された。
論文 参考訳(メタデータ) (2025-03-17T05:34:11Z) - LayeringDiff: Layered Image Synthesis via Generation, then Disassembly with Generative Knowledge [14.481577976493236]
LayeringDiffは、階層化されたイメージを合成するための新しいパイプラインである。
合成イメージからレイヤを抽出することで、スクラッチから生成するのではなく、大規模なトレーニングの必要性を回避できる。
実効的な層分解のために,前景層と背景層を推定する前に,大規模事前学習型生成法を適用する。
論文 参考訳(メタデータ) (2025-01-02T11:18:25Z) - Generative Image Layer Decomposition with Visual Effects [49.75021036203426]
LayerDecompは、イメージ層分解のための生成フレームワークである。
清潔な背景と、忠実に保存された視覚効果を持つ高品質な透明な前景を作り出す。
本手法は,オブジェクト除去や空間編集作業において,既存の手法よりも優れた分解特性を実現する。
論文 参考訳(メタデータ) (2024-11-26T20:26:49Z) - LayerDiff: Exploring Text-guided Multi-layered Composable Image Synthesis via Layer-Collaborative Diffusion Model [70.14953942532621]
層共同拡散モデルであるLayerDiffは、テキスト誘導、多層化、構成可能な画像合成のために設計されている。
本モデルでは,従来の全画像生成手法に匹敵する性能で,高品質な多層画像を生成することができる。
LayerDiffは、レイヤ固有の画像編集やスタイル転送など、幅広いコントロール可能な生成アプリケーションを可能にする。
論文 参考訳(メタデータ) (2024-03-18T16:28:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。