論文の概要: Domain Generalizable Portrait Style Transfer
- arxiv url: http://arxiv.org/abs/2507.04243v1
- Date: Sun, 06 Jul 2025 04:56:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:35.082582
- Title: Domain Generalizable Portrait Style Transfer
- Title(参考訳): Domain Generalizable Portrait Style Transfer
- Authors: Xinbo Wang, Wenju Xu, Qing Zhang, Wei-Shi Zheng,
- Abstract要約: 本稿では,入力画像と参照画像との密接なセマンティックな対応性を確立することを提案する。
入力にセマンティックに整合したワープ参照を得る。
スタイルアダプタは、歪んだ参照からスタイルガイダンスを提供するように設計されている。
- 参考スコア(独自算出の注目度): 37.85739992959271
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper presents a portrait style transfer method that generalizes well to various different domains while enabling high-quality semantic-aligned stylization on regions including hair, eyes, eyelashes, skins, lips, and background. To this end, we propose to establish dense semantic correspondence between the given input and reference portraits based on a pre-trained model and a semantic adapter, with which we obtain a warped reference semantically aligned with the input. To ensure effective yet controllable style transfer, we devise an AdaIN-Wavelet transform to balance content preservation and stylization by blending low-frequency information of the warped reference with high-frequency information of the input in the latent space. A style adapter is also designed to provide style guidance from the warped reference. With the stylized latent from AdaIN-Wavelet transform, we employ a dual-conditional diffusion model that integrates a ControlNet recording high-frequency information and the style guidance to generate the final result. Extensive experiments demonstrate the superiority of our method. Our code and trained model are available at https://github.com/wangxb29/DGPST.
- Abstract(参考訳): 本稿では,髪,目,まつげ,皮膚,唇,背景などの領域で高品質なセマンティック・アライメント・スタイル化を実現しつつ,様々な領域に適応するポートレートスタイルのトランスファー手法を提案する。
そこで本研究では,事前学習されたモデルとセマンティックアダプタに基づいて,与えられた入力と参照ポートレートの密接なセマンティック対応を確立することを提案する。
そこで我々は,AdaIN-Wavelet変換を用いて,ワープされた参照の低周波情報と潜時空間の入力の高周波情報とをブレンドすることにより,コンテンツ保存とスタイリングのバランスをとる。
スタイルアダプタは、歪んだ参照からスタイルガイダンスを提供するように設計されている。
AdaIN-Wavelet変換のスタイリングされた潜水器を用いて,高周波数情報とスタイルガイダンスを統合した2条件拡散モデルを用いて最終結果を生成する。
大規模な実験により,本手法の優位性を実証した。
私たちのコードとトレーニングされたモデルは、https://github.com/wangxb29/DGPST.comで公開されています。
関連論文リスト
- Z-STAR+: A Zero-shot Style Transfer Method via Adjusting Style Distribution [24.88532732093652]
スタイル転送は重要な課題であり、主に適切なスタイル表現を特定することに焦点を当てている。
既存の手法とは対照的に,バニラ拡散モデルにおける潜在的特徴が自然的スタイルや内容分布を本質的に含んでいることが判明した。
提案手法では,コンテンツ参照とスタイル参照を遅延空間で表現するために,デュアル・デノナイズ・パスを採用し,その後,スタイル遅延符号を用いたコンテントイメージ・デノナイズ・プロセスの導出を行う。
論文 参考訳(メタデータ) (2024-11-28T15:56:17Z) - ArtWeaver: Advanced Dynamic Style Integration via Diffusion Model [73.95608242322949]
Stylized Text-to-Image Generation (STIG)は、テキストプロンプトとスタイル参照画像から画像を生成することを目的としている。
我々は、事前訓練された安定拡散を利用して、誤解釈スタイルや一貫性のない意味論といった課題に対処する新しいフレームワーク、ArtWeaverを提案する。
論文 参考訳(メタデータ) (2024-05-24T07:19:40Z) - ParaGuide: Guided Diffusion Paraphrasers for Plug-and-Play Textual Style
Transfer [57.6482608202409]
テキストスタイル転送は、意味を保ちながらテキストのスタイル特性を変換するタスクである。
任意のスタイルに柔軟に適応できる汎用型転送のための新しい拡散型フレームワークを提案する。
本研究では,人的評価と自動評価の両面から,Enron Email Corpusの手法を検証するとともに,形式性,感情,さらにはオーサシップスタイルの伝達にも優れることを示す。
論文 参考訳(メタデータ) (2023-08-29T17:36:02Z) - Learning Graph Neural Networks for Image Style Transfer [131.73237185888215]
最先端のパラメトリックおよび非パラメトリックなスタイル転送アプローチは、グローバルな統計アライメントによる局所的なスタイルパターンの歪んだり、パッチミスマッチによるアーティファクトを減らしたりする傾向にある。
本稿では,パラメトリック型と非パラメトリック型の両方のスタイライゼーションの欠如を緩和する,新しい半パラメトリック型ニューラルスタイルトランスファーフレームワークについて検討する。
論文 参考訳(メタデータ) (2022-07-24T07:41:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。