論文の概要: Illustrator's Depth: Monocular Layer Index Prediction for Image Decomposition
- arxiv url: http://arxiv.org/abs/2511.17454v1
- Date: Fri, 21 Nov 2025 17:56:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-24 18:08:19.154681
- Title: Illustrator's Depth: Monocular Layer Index Prediction for Image Decomposition
- Title(参考訳): イラストレータの深さ:画像分解のための単分子層インデックス予測
- Authors: Nissim Maruani, Peiying Zhang, Siddhartha Chaudhuri, Matthew Fisher, Nanxuan Zhao, Vladimir G. Kim, Pierre Alliez, Mathieu Desbrun, Wang Yifan,
- Abstract要約: 私たちはIllustratorのDepthを紹介します。これはデジタルコンテンツ作成における重要な課題に対処する、新しい深さの定義です。
アーティストの合成プロセスにインスパイアされたイラストレーターの深さは、各ピクセルに層インデックスを推論し、解釈可能な画像分解を形成する。
- 参考スコア(独自算出の注目度): 55.8308608221966
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We introduce Illustrator's Depth, a novel definition of depth that addresses a key challenge in digital content creation: decomposing flat images into editable, ordered layers. Inspired by an artist's compositional process, illustrator's depth infers a layer index to each pixel, forming an interpretable image decomposition through a discrete, globally consistent ordering of elements optimized for editability. We also propose and train a neural network using a curated dataset of layered vector graphics to predict layering directly from raster inputs. Our layer index inference unlocks a range of powerful downstream applications. In particular, it significantly outperforms state-of-the-art baselines for image vectorization while also enabling high-fidelity text-to-vector-graphics generation, automatic 3D relief generation from 2D images, and intuitive depth-aware editing. By reframing depth from a physical quantity to a creative abstraction, illustrator's depth prediction offers a new foundation for editable image decomposition.
- Abstract(参考訳): 私たちはIllustratorのDepthを紹介します。これはデジタルコンテンツ作成における重要な課題に対処する、新しい深さの定義です。
アーティストの作曲プロセスにインスパイアされたイラストレーターの深さは、各ピクセルにレイヤーインデックスを推論し、編集性に最適化された要素の離散的一貫した順序で解釈可能な画像分解を形成する。
また,ラスタ入力から直接階層化を予測するために,階層化ベクターグラフィックスの計算データセットを用いてニューラルネットワークを提案し,訓練する。
私たちの層インデックス推論は、さまざまな強力なダウンストリームアプリケーションをアンロックします。
特に、2D画像からの3Dレリーフ自動生成、直感的な深度認識編集を可能とし、画像ベクトル化の最先端ベースラインを著しく上回る。
物理量から創造的な抽象化への深度推定により、イラストレーターの深度予測は編集可能な画像分解のための新しい基盤を提供する。
関連論文リスト
- LayerD: Decomposing Raster Graphic Designs into Layers [15.294433619347082]
LayerDは、グラフィックデザインをレイヤに分解して、再編集可能なクリエイティブワークフローを作成する方法である。
層が一様に見えるという仮定を生かした,単純かつ効果的な改質手法を提案する。
実験では、LayerDは高品質な分解を実現し、ベースラインを上回ります。
論文 参考訳(メタデータ) (2025-09-29T17:50:12Z) - LayerPeeler: Autoregressive Peeling for Layer-wise Image Vectorization [14.917583676464266]
本稿では,新しいレイヤワイド画像ベクトル化手法であるLayerPeelerを紹介する。
最上位の非閉塞層を識別・除去することにより、完全な経路とコヒーレントな層構造を持つベクトルグラフを生成する。
本手法は視覚言語モデルを利用して,要素間の関係をキャプチャする層グラフを構築する。
論文 参考訳(メタデータ) (2025-05-29T17:58:03Z) - Generative Image Layer Decomposition with Visual Effects [49.75021036203426]
LayerDecompは、イメージ層分解のための生成フレームワークである。
清潔な背景と、忠実に保存された視覚効果を持つ高品質な透明な前景を作り出す。
本手法は,オブジェクト除去や空間編集作業において,既存の手法よりも優れた分解特性を実現する。
論文 参考訳(メタデータ) (2024-11-26T20:26:49Z) - DeepIcon: A Hierarchical Network for Layer-wise Icon Vectorization [12.82009632507056]
近年,イメージをベクトル形式に変換する学習ベース手法では,不完全形状,冗長な経路予測,オリジナルコンテンツのセマンティクスの保存における精度の欠如が頻発している。
本稿では,画像入力に基づいて可変長アイコングラフを生成する階層型画像ベクトル化ネットワークDeepIconを提案する。
論文 参考訳(メタデータ) (2024-10-21T08:20:19Z) - SKED: Sketch-guided Text-based 3D Editing [49.019881133348775]
我々は,NeRFで表される3次元形状を編集する技術であるSKEDを提案する。
我々の手法は、異なる視点からの2つのガイドスケッチを使用して、既存のニューラルネットワークを変化させる。
本稿では,ベースインスタンスの密度と放射率を保ちつつ,所望の編集を生成する新しい損失関数を提案する。
論文 参考訳(メタデータ) (2023-03-19T18:40:44Z) - Towards Layer-wise Image Vectorization [57.26058135389497]
画像をSVGに変換し,画像トポロジを同時に維持するためのレイヤワイズ画像ベクトル化(LIVE)を提案する。
Liveは、人間の視点にセマンティックに整合した階層構造を持つコンパクトなフォームを生成する。
Liveは、デザイナの両方のために編集可能なSVGを起動し、他のアプリケーションで使用することができる。
論文 参考訳(メタデータ) (2022-06-09T17:55:02Z) - SLIDE: Single Image 3D Photography with Soft Layering and Depth-aware
Inpainting [54.419266357283966]
シングルイメージの3D写真は、視聴者が新しい視点から静止画を見ることを可能にする。
最近のアプローチでは、単分子深度ネットワークと塗装ネットワークを組み合わせることで、説得力のある結果が得られる。
単一画像3D撮影のためのモジュール・統一システムであるSLIDEについて述べる。
論文 参考訳(メタデータ) (2021-09-02T16:37:20Z) - 3D Photography using Context-aware Layered Depth Inpainting [50.66235795163143]
本稿では、1枚のRGB-D入力画像を3D写真に変換する方法を提案する。
学習に基づく着色モデルでは,新しい局所的な色と深度を隠蔽領域に合成する。
結果の3D写真は、モーションパララックスで効率よくレンダリングできる。
論文 参考訳(メタデータ) (2020-04-09T17:59:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。