論文の概要: Progressive Painterly Image Harmonization from Low-level Styles to
High-level Styles
- arxiv url: http://arxiv.org/abs/2312.10264v1
- Date: Fri, 15 Dec 2023 23:46:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 17:36:31.408416
- Title: Progressive Painterly Image Harmonization from Low-level Styles to
High-level Styles
- Title(参考訳): 低レベルスタイルから高レベルスタイルへのプログレッシブ絵画の高調波化
- Authors: Li Niu, Yan Hong, Junyan Cao, Liqing Zhang
- Abstract要約: 絵画的画像調和は、絵の背景にある写真的前景の物体を調和させることを目的としている。
我々は、低レベルなスタイルから高レベルなスタイルに合成前景を調和させるプログレッシブ・マルチステージ調和ネットワークを開発した。
我々のネットワークは、より優れた解釈可能性と調和性能を持っている。
- 参考スコア(独自算出の注目度): 35.23590833646526
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Painterly image harmonization aims to harmonize a photographic foreground
object on the painterly background. Different from previous auto-encoder based
harmonization networks, we develop a progressive multi-stage harmonization
network, which harmonizes the composite foreground from low-level styles (e.g.,
color, simple texture) to high-level styles (e.g., complex texture). Our
network has better interpretability and harmonization performance. Moreover, we
design an early-exit strategy to automatically decide the proper stage to exit,
which can skip the unnecessary and even harmful late stages. Extensive
experiments on the benchmark dataset demonstrate the effectiveness of our
progressive harmonization network.
- Abstract(参考訳): 画家的イメージ調和は、画家的背景にある写真前景オブジェクトを調和させることを目的としている。
従来の自動エンコーダベースの調和ネットワークとは違って,低レベルのスタイル(色,単純なテクスチャなど)から高レベルのスタイル(複雑なテクスチャなど)へ合成前景を調和させるプログレッシブ多段調和ネットワークを開発した。
ネットワークの解釈性と調和性が向上した。
さらに,出口の適切な段階を自動的に決定し,不必要で有害な最終段階をスキップするアーリーエクイット戦略を考案する。
ベンチマークデータセットに関する広範な実験は、当社のプログレッシブ・ハーモニゼーション・ネットワークの有効性を示しています。
関連論文リスト
- ZePo: Zero-Shot Portrait Stylization with Faster Sampling [61.14140480095604]
本稿では,4つのサンプリングステップでコンテンツとスタイルの融合を実現する拡散モデルに基づく,インバージョンフリーなポートレートスタイリングフレームワークを提案する。
本稿では,一貫性機能における冗長な特徴をマージする機能統合戦略を提案し,注意制御の計算負荷を低減させる。
論文 参考訳(メタデータ) (2024-08-10T08:53:41Z) - Intrinsic Harmonization for Illumination-Aware Compositing [0.7366405857677227]
固有画像領域で定式化された自己教師付き照明調和方式を提案する。
まず、中間レベルの視覚表現から簡単な大域照明モデルを推定し、前景領域の粗いシェーディングを生成する。
ネットワークはこの推論シェーディングを洗練し、背景のシーンと整合する再シェーディングを生成する。
論文 参考訳(メタデータ) (2023-12-06T18:59:03Z) - FreePIH: Training-Free Painterly Image Harmonization with Diffusion
Model [19.170302996189335]
我々のFreePIH法は,フォアグラウンド画像スタイル転送のためのプラグインモジュールとしてデノナイズプロセスを利用する。
我々は,潜伏空間における前景オブジェクトの内容と安定性の整合性を強制するために,マルチスケール機能を活用している。
我々の手法は、代表的基準を大きなマージンで超えることができる。
論文 参考訳(メタデータ) (2023-11-25T04:23:49Z) - Deep Image Harmonization with Learnable Augmentation [17.690945824240348]
小型データセットの照明多様性を向上し、調和性能を向上させるため、学習可能な拡張法を提案する。
SycoNetは、フォアグラウンドマスクとランダムベクトルで実画像を取り込んで、適切な色変換を学習し、この実画像のフォアグラウンドに適用して合成合成合成画像を生成する。
論文 参考訳(メタデータ) (2023-08-01T08:40:23Z) - Image Harmonization with Region-wise Contrastive Learning [51.309905690367835]
本稿では,外部スタイルの融合と領域単位のコントラスト学習方式を備えた新しい画像調和フレームワークを提案する。
提案手法は, 前景と背景の相互情報を最大化することにより, 対応する正と負のサンプルをまとめることを試みる。
論文 参考訳(メタデータ) (2022-05-27T15:46:55Z) - FRIH: Fine-grained Region-aware Image Harmonization [49.420765789360836]
我々は,FRIH(Fentral-Aware Image Harmonization)のための新しいグローバルな2段階フレームワークを提案する。
提案アルゴリズムは,軽量モデルを用いて,iHarmony4データセット(PSNRは38.19dB)上で最高の性能を実現する。
論文 参考訳(メタデータ) (2022-05-13T04:50:26Z) - Interactive Portrait Harmonization [99.15331091722231]
現在の画像調和法は、背景全体を調和のためのガイダンスと見なしている。
背景画像の特定の領域を選択して、調和を導くための新しいフレキシブルなフレームワークが提案されている。
プロのポートレートハーモニゼーション利用者に触発されて、合成フォアグラウンドと選択基準領域の間の色/輝度条件を最適に整合させる新しい輝度マッチング損失も導入する。
論文 参考訳(メタデータ) (2022-03-15T19:30:34Z) - SSH: A Self-Supervised Framework for Image Harmonization [97.16345684998788]
我々は、編集せずに「自由」な自然画像だけで訓練できる新しい自己改善調和フレームワーク(SSH)を提案する。
提案したSSHは,基準指標,視覚的品質,主観的ユーザスタディにおいて,従来の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2021-08-15T19:51:33Z) - Foreground-aware Semantic Representations for Image Harmonization [5.156484100374058]
本稿では,事前学習型分類ネットワークによって学習された高レベルの特徴空間を利用する新しいアーキテクチャを提案する。
既存の画像調和ベンチマークにおいて提案手法を広範に評価し,MSEとPSNRの指標から新たな最先端の手法を構築した。
論文 参考訳(メタデータ) (2020-06-01T09:27:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。