論文の概要: DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis
- arxiv url: http://arxiv.org/abs/2109.14525v4
- Date: Mon, 26 Jun 2023 11:16:21 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-28 01:46:20.547267
- Title: DRAN: Detailed Region-Adaptive Normalization for Conditional Image
Synthesis
- Title(参考訳): DRAN: 条件付き画像合成のための領域適応正規化
- Authors: Yueming Lyu, Peibin Chen, Jingna Sun, Bo Peng, Xu Wang, Jing Dong
- Abstract要約: DRAN(Detailed Region-Adaptive Normalization)と呼ばれる新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
我々は、幅広い複雑なメイクスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
- 参考スコア(独自算出の注目度): 25.936764522125703
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, conditional image synthesis has attracted growing attention
due to its controllability in the image generation process. Although recent
works have achieved realistic results, most of them have difficulty handling
fine-grained styles with subtle details. To address this problem, a novel
normalization module, named Detailed Region-Adaptive Normalization~(DRAN), is
proposed. It adaptively learns both fine-grained and coarse-grained style
representations. Specifically, we first introduce a multi-level structure,
Spatiality-aware Pyramid Pooling, to guide the model to learn coarse-to-fine
features. Then, to adaptively fuse different levels of styles, we propose
Dynamic Gating, making it possible to adaptively fuse different levels of
styles according to different spatial regions. Finally, we collect a new makeup
dataset (Makeup-Complex dataset) that contains a wide range of complex makeup
styles with diverse poses and expressions. To evaluate the effectiveness and
show the general use of our method, we conduct a set of experiments on makeup
transfer and semantic image synthesis. Quantitative and qualitative experiments
show that equipped with DRAN, simple baseline models are able to achieve
promising improvements in complex style transfer and detailed texture
synthesis. Both the code and the proposed dataset will be available at
https://github.com/Yueming6568/DRAN-makeup.git.
- Abstract(参考訳): 近年,画像生成過程における制御性から,条件付き画像合成が注目されている。
近年の作品は現実的な成果を上げているが、そのほとんどが微妙な詳細で細かなスタイルを扱うのが困難である。
この問題に対処するために、Detailed Region-Adaptive Normalization~(DRAN)と名付けられた新しい正規化モジュールを提案する。
きめ細かい表現と粗い表現の両方を適応的に学習する。
具体的には,まず,マルチレベル構造である空間性対応ピラミッドプーリングを導入し,粗面から細かな特徴を学習するモデルを導出する。
次に,異なるスタイルレベルを適応的に融合させるために,異なる空間領域に応じて異なるスタイルレベルを適応的に融合させる動的ゲーティングを提案する。
最後に、さまざまなポーズと表現を備えた多様な複雑なメイクアップスタイルを含む新しいメイクアップデータセット(Makeup-Complexデータセット)を収集する。
本手法の有効性を評価し, 汎用性を示すため, 化粧品の転写と意味画像合成に関する一連の実験を行った。
量的、質的実験により、単純なベースラインモデルが複雑なスタイル転送と詳細なテクスチャ合成において有望な改善を達成できることが示されている。
コードと提案されたデータセットは、https://github.com/Yueming6568/DRAN-makeup.gitで入手できる。
関連論文リスト
- Style-Extracting Diffusion Models for Semi-Supervised Histopathology Segmentation [6.479933058008389]
スタイル抽出拡散モデルでは、下流タスクに有用な特徴のない画像を生成する。
本研究では,概念実証として自然画像データセット上での手法の有効性を示す。
患者間でのセグメンテーション結果の改善と性能変動の低減を図り, 得られた画像の付加価値を検証する。
論文 参考訳(メタデータ) (2024-03-21T14:36:59Z) - SAMPLING: Scene-adaptive Hierarchical Multiplane Images Representation
for Novel View Synthesis from a Single Image [60.52991173059486]
単一画像からの新規ビュー合成のためのシーン適応型階層型多面体画像表現であるSAMPlingを紹介する。
提案手法は,KITTIデータセット上の単一画像を用いて,大規模非有界屋外シーンにおいてかなりの性能向上を示す。
論文 参考訳(メタデータ) (2023-09-12T15:33:09Z) - Style Generation: Image Synthesis based on Coarsely Matched Texts [10.939482612568433]
テキストベースのスタイル生成と呼ばれる新しいタスクを導入し、2段階の生成対角ネットワークを提案する。
第1ステージは、文特徴付き全体画像スタイルを生成し、第2ステージは、合成特徴付きで生成されたスタイルを洗練する。
本研究は,テキスト・イメージアライメントやストーリー・ビジュアライゼーションといった様々な応用によって実証された。
論文 参考訳(メタデータ) (2023-09-08T21:51:11Z) - Intra- & Extra-Source Exemplar-Based Style Synthesis for Improved Domain
Generalization [21.591831983223997]
セマンティックセグメンテーションにおけるドメインの一般化を改善するために,先進的なスタイル合成パイプラインを提案する。
提案手法は,StyleGAN2インバージョンのためのマスク付きノイズエンコーダに基づく。
データシフトの種類によって、ドライブシーンセマンティックセマンティックセグメンテーションの最大12.4%のmIoU改善を実現しています。
論文 参考訳(メタデータ) (2023-07-02T19:56:43Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - SceneComposer: Any-Level Semantic Image Synthesis [80.55876413285587]
任意の精度のセマンティックレイアウトから条件付き画像合成のための新しいフレームワークを提案する。
このフレームワークは、形状情報のない最低レベルのテキスト・トゥ・イメージ(T2I)に自然に還元され、最高レベルのセグメンテーション・トゥ・イメージ(S2I)となる。
本稿では,この新たなセットアップの課題に対処する,新しいテクニックをいくつか紹介する。
論文 参考訳(メタデータ) (2022-11-21T18:59:05Z) - Retrieval-based Spatially Adaptive Normalization for Semantic Image
Synthesis [68.1281982092765]
本稿では,Retrieval-based spatially AdaptIve normalization (RESAIL) と呼ばれる新しい正規化モジュールを提案する。
RESAILは、正規化アーキテクチャに対するピクセルレベルのきめ細かいガイダンスを提供する。
いくつかの挑戦的なデータセットの実験により、RESAILは定量的メトリクス、視覚的品質、主観的評価の観点から、最先端技術に対して好意的に機能することが示された。
論文 参考訳(メタデータ) (2022-04-06T14:21:39Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - TediGAN: Text-Guided Diverse Face Image Generation and Manipulation [52.83401421019309]
TediGANはマルチモーダル画像生成とテキスト記述による操作のためのフレームワークである。
StyleGANインバージョンモジュールは、よく訓練されたStyleGANの潜在空間に実際の画像をマッピングする。
視覚言語的類似性は、画像とテキストを共通の埋め込み空間にマッピングすることで、テキスト画像マッチングを学ぶ。
インスタンスレベルの最適化は、操作におけるID保存のためのものだ。
論文 参考訳(メタデータ) (2020-12-06T16:20:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。