論文の概要: Hierarchical Vectorization for Portrait Images
- arxiv url: http://arxiv.org/abs/2205.11880v1
- Date: Tue, 24 May 2022 07:58:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-25 15:06:42.723554
- Title: Hierarchical Vectorization for Portrait Images
- Title(参考訳): 画像の階層的ベクトル化
- Authors: Qian Fu, Linlin Liu, Fei Hou, Ying He
- Abstract要約: 本稿では,画像を自動的に3階層の階層表現に変換するベクトル化手法を提案する。
基層は、鮮やかな幾何学的特徴と低周波色を特徴付けるスパース拡散曲線からなる。
中層は、仕様のハイライトと影を大きく編集可能なポアソン領域(PR)にエンコードし、ユーザーは直接照明を調整できる。
トップレベルには、高周波残基のための2種類のピクセルサイズのPRと、ピンプや色素化などの細部が含まれている。
- 参考スコア(独自算出の注目度): 12.32304366243904
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Aiming at developing intuitive and easy-to-use portrait editing tools, we
propose a novel vectorization method that can automatically convert raster
images into a 3-tier hierarchical representation. The base layer consists of a
set of sparse diffusion curves (DC) which characterize salient geometric
features and low-frequency colors and provide means for semantic color transfer
and facial expression editing. The middle level encodes specular highlights and
shadows to large and editable Poisson regions (PR) and allows the user to
directly adjust illumination via tuning the strength and/or changing shape of
PR. The top level contains two types of pixel-sized PRs for high-frequency
residuals and fine details such as pimples and pigmentation. We also train a
deep generative model that can produce high-frequency residuals automatically.
Thanks to the meaningful organization of vector primitives, editing portraits
becomes easy and intuitive. In particular, our method supports color transfer,
facial expression editing, highlight and shadow editing and automatic
retouching. Thanks to the linearity of the Laplace operator, we introduce alpha
blending, linear dodge and linear burn to vector editing and show that they are
effective in editing highlights and shadows. To quantitatively evaluate the
results, we extend the commonly used FLIP metric (which measures differences
between two images) by considering illumination. The new metric, called
illumination-sensitive FLIP or IS-FLIP, can effectively capture the salient
changes in color transfer results, and is more consistent with human perception
than FLIP and other quality measures on portrait images. We evaluate our method
on the FFHQR dataset and show that our method is effective for common portrait
editing tasks, such as retouching, light editing, color transfer and expression
editing. We will make the code and trained models publicly available.
- Abstract(参考訳): 直感的かつ使いやすいポートレート編集ツールの開発を目指して,ラスター画像を3層階層表現に自動変換する新たなベクトル化手法を提案する。
ベース層は、鮮やかな幾何学的特徴と低周波な色を特徴付けるスパース拡散曲線(DC)の集合と、セマンティックカラー転送および表情編集のための手段からなる。
中層は、大きく編集可能なポアソン領域(PR)に仕様ハイライトと影を符号化し、ユーザーはPRの強度や形状を調整して照明を直接調整することができる。
トップレベルは、高周波残差のための2種類のピクセルサイズのprと、穴あけや色素沈着などの細部を含む。
また,高頻度残差を自動的に生成できる深部生成モデルも訓練した。
ベクトルプリミティブの有意義な構成のおかげで、ポートレートの編集は簡単で直感的になる。
特に,色の移動,表情の編集,ハイライトと影の編集,自動修正をサポートする。
ラプラス演算子の線形性のおかげで、ベクタ編集にアルファブレンディング、線形ドッジ、線形バーンを導入し、ハイライトやシャドーの編集に有効であることを示す。
その結果を定量的に評価するために,照明を考慮し,よく用いられるフリップメトリック(画像間の差を測定する)を拡張する。
照明感度FLIP(英語版)またはIS-FLIP(英語版)と呼ばれる新しい測定基準は、色移動結果の顕著な変化を効果的に捉え、FLIPや他の肖像画の画質測定値よりも人間の知覚と一致している。
本手法はFFHQRデータセット上で評価し,リタッチ,光編集,色移動,表現編集などの一般的な画像編集作業に有効であることを示す。
コードとトレーニングされたモデルを公開します。
関連論文リスト
- COMPOSE: Comprehensive Portrait Shadow Editing [25.727386174616868]
COMPOSEは人間の肖像画のための新しい影編集パイプラインである。
形状、強度、位置などの影の属性を正確に制御する。
我々は,(1)この光源表現を画像から予測し,(2)この表現を用いて現実的な影を生成するモデルを訓練した。
論文 参考訳(メタデータ) (2024-08-25T19:18:18Z) - LightningDrag: Lightning Fast and Accurate Drag-based Image Editing Emerging from Videos [101.59710862476041]
1秒で高速なドラッグベースの画像編集を可能にするLightningDragを提案する。
従来の方法とは異なり、条件生成タスクとしてドラッグベースの編集を再定義する。
提案手法は, 精度と整合性の観点から, 従来手法よりも大幅に優れる。
論文 参考訳(メタデータ) (2024-05-22T15:14:00Z) - DeferredGS: Decoupled and Editable Gaussian Splatting with Deferred Shading [50.331929164207324]
我々は,遅延シェーディングを用いたガウススプレイティング表現のデカップリングと編集を行うDedeerredGSを紹介する。
定性的かつ定量的な実験は、新しいビューおよび編集タスクにおけるDederredGSの優れた性能を示す。
論文 参考訳(メタデータ) (2024-04-15T01:58:54Z) - DiffEditor: Boosting Accuracy and Flexibility on Diffusion-based Image
Editing [66.43179841884098]
大規模テキスト・ツー・イメージ(T2I)拡散モデルは、ここ数年で画像生成に革命をもたらした。
既存の拡散型画像編集における2つの弱点を正すためにDiffEditorを提案する。
本手法は,様々な精細な画像編集タスクにおいて,最先端の性能を効率的に達成することができる。
論文 参考訳(メタデータ) (2024-02-04T18:50:29Z) - LightPainter: Interactive Portrait Relighting with Freehand Scribble [79.95574780974103]
我々は、スクリブルベースのライティングシステムであるLightPainterを導入し、ユーザーが簡単にポートレート照明効果を操作できるようにする。
リライトモジュールをトレーニングするために,実際のユーザスクリブルを模倣する新しいスクリブルシミュレーション手法を提案する。
定量的および定性的な実験により,高品質でフレキシブルなポートレート照明編集機能を示す。
論文 参考訳(メタデータ) (2023-03-22T23:17:11Z) - RecolorNeRF: Layer Decomposed Radiance Fields for Efficient Color
Editing of 3D Scenes [21.284044381058575]
本稿では,ニューラルラジアンスフィールドのための新しいユーザフレンドリーなカラー編集手法であるRecolorNeRFを提案する。
私たちのキーとなるアイデアは、シーンを純粋な色の層に分解し、パレットを形成することです。
効率的なパレットベースの編集をサポートするには、各レイヤの色を可能な限り表現する必要がある。
論文 参考訳(メタデータ) (2023-01-19T09:18:06Z) - PaletteNeRF: Palette-based Appearance Editing of Neural Radiance Fields [60.66412075837952]
本稿では,3次元色分解に基づくニューラルラジアンスフィールド(NeRF)の出現編集手法であるPaletteNeRFを提案する。
提案手法は,各3次元点の出現を,パレットベースによる線形結合に分解する。
我々は、セマンティック・アウェアな外観編集のためのセマンティック機能を圧縮したフレームワークを拡張した。
論文 参考訳(メタデータ) (2022-12-21T00:20:01Z) - Physically-Based Editing of Indoor Scene Lighting from a Single Image [106.60252793395104]
本研究では,1つの画像から複雑な室内照明を推定深度と光源セグメンテーションマスクで編集する手法を提案する。
1)シーン反射率とパラメトリックな3D照明を推定する全体的シーン再構成法,2)予測からシーンを再レンダリングするニューラルレンダリングフレームワーク,である。
論文 参考訳(メタデータ) (2022-05-19T06:44:37Z) - Flexible Portrait Image Editing with Fine-Grained Control [12.32304366243904]
我々は,1つのニューラルネットワークモデルを用いて,ジオメトリ,色,光,影のきめ細かい編集を支援する肖像画編集法を開発した。
生成者は、エッジマップ、カラーパレット、スライダー、マスクなどの変換された条件入力をユーザが直接編集できる。
本手法の有効性をCelebAMask-HQデータセット上で評価し,色/色/影/光の編集,手描きのスケッチから画像への変換,色変換など,幅広いタスクで検証した。
論文 参考訳(メタデータ) (2022-04-04T08:39:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。