論文の概要: DCT-Net: Domain-Calibrated Translation for Portrait Stylization
- arxiv url: http://arxiv.org/abs/2207.02426v1
- Date: Wed, 6 Jul 2022 04:14:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-07 13:57:59.237567
- Title: DCT-Net: Domain-Calibrated Translation for Portrait Stylization
- Title(参考訳): DCT-Net: ポートレートスティリゼーションのためのドメインキャリブレーション
- Authors: Yifang Men, Yuan Yao, Miaomiao Cui, Zhouhui Lian, Xuansong Xie
- Abstract要約: 本稿では,DCT-Netについて紹介する。
高忠実度コンテンツを合成する高度な能力を備えた高品質なスタイルの転送結果を生成する。
部分的な観察によって訓練された1つのエレガントな評価ネットワークを介して、フルボディ画像の変換を可能にする。
- 参考スコア(独自算出の注目度): 28.744990918510204
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces DCT-Net, a novel image translation architecture for
few-shot portrait stylization. Given limited style exemplars ($\sim$100), the
new architecture can produce high-quality style transfer results with advanced
ability to synthesize high-fidelity contents and strong generality to handle
complicated scenes (e.g., occlusions and accessories). Moreover, it enables
full-body image translation via one elegant evaluation network trained by
partial observations (i.e., stylized heads). Few-shot learning based style
transfer is challenging since the learned model can easily become overfitted in
the target domain, due to the biased distribution formed by only a few training
examples. This paper aims to handle the challenge by adopting the key idea of
"calibration first, translation later" and exploring the augmented global
structure with locally-focused translation. Specifically, the proposed DCT-Net
consists of three modules: a content adapter borrowing the powerful prior from
source photos to calibrate the content distribution of target samples; a
geometry expansion module using affine transformations to release spatially
semantic constraints; and a texture translation module leveraging samples
produced by the calibrated distribution to learn a fine-grained conversion.
Experimental results demonstrate the proposed method's superiority over the
state of the art in head stylization and its effectiveness on full image
translation with adaptive deformations.
- Abstract(参考訳): そこで,本稿では,ポートレートスタイライゼーションのための新しい画像翻訳アーキテクチャであるdct-netを紹介する。
限定的なスタイルの例($100)を与えられた新しいアーキテクチャは、高品質なスタイルの転送結果を生成でき、高忠実なコンテンツを合成し、複雑なシーン(オクルージョンやアクセサリーなど)を扱うための強力な汎用性を持つ。
さらに、部分的な観察(例えば、スタイリッシュヘッド)によって訓練された1つのエレガントな評価ネットワークを介して、全身画像の翻訳を可能にする。
少数のトレーニング例で形成される偏りのある分布のため、学習モデルがターゲット領域に過度に適合しやすくなるため、少ないショット学習ベースのスタイル転送は困難である。
本稿は,「キャリブレーションファースト, 翻訳後」というキーとなる概念を採用し, 地域中心の翻訳によるグローバル構造の拡張を探求することによって, 課題に対処することを目的とする。
提案するDCT-Netは、3つのモジュールから構成される: ソース写真から強力な事前情報を借用して対象サンプルのコンテンツ分布を校正するコンテンツアダプタ、空間的意味的制約を解放するアフィン変換を用いた幾何学拡張モジュール、キャリブレーションされた分布によって生成されたサンプルを利用して微細な変換を学習するテクスチャ変換モジュール。
実験により,頭部スタイリゼーションにおける技術よりも提案手法が優れていること,および適応変形を伴うフルイメージ変換における有効性を示した。
関連論文リスト
- EBDM: Exemplar-guided Image Translation with Brownian-bridge Diffusion Models [42.55874233756394]
我々は,B Brownian-Bridge Diffusion Models (EBDM) を用いたExemplar-Guided Image Translation という新しい手法を提案する。
提案手法は, 所定の初期点を有する拡散過程を構造制御としてブラウンブリッジプロセスとして定式化し, 与えられた模範画像のみに条件付けしながら, 対応するフォトリアリスティック画像に変換する。
論文 参考訳(メタデータ) (2024-10-13T11:10:34Z) - Variational Bayesian Framework for Advanced Image Generation with
Domain-Related Variables [29.827191184889898]
先進条件生成問題に対する統一ベイズ的枠組みを提案する。
本稿では,複数の画像翻訳および編集作業が可能な変分ベイズ画像翻訳ネットワーク(VBITN)を提案する。
論文 参考訳(メタデータ) (2023-05-23T09:47:23Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Pretraining is All You Need for Image-to-Image Translation [59.43151345732397]
画像から画像への一般的な翻訳を促進するために,事前学習を使うことを提案する。
提案した事前学習型画像画像変換(PITI)は,前例のないリアリズムと忠実さのイメージを合成できることを示す。
論文 参考訳(メタデータ) (2022-05-25T17:58:26Z) - Unsupervised Image-to-Image Translation with Generative Prior [103.54337984566877]
教師なし画像画像変換は、ペアデータなしで2つの視覚領域間の翻訳を学習することを目的としている。
本稿では,GP-UNIT(Generative Prior-guided UN Image-to-image Translation)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-04-07T17:59:23Z) - Marginal Contrastive Correspondence for Guided Image Generation [58.0605433671196]
例題に基づく画像翻訳は、条件入力と2つの異なる領域からの例題間の密接な対応を確立する。
既存の作業は、2つのドメインにまたがる機能的距離を最小化することで、ドメイン間の通信を暗黙的に構築する。
本稿では,MCL-Net(Marginal Contrastive Learning Network)の設計を行った。
論文 参考訳(メタデータ) (2022-04-01T13:55:44Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - StEP: Style-based Encoder Pre-training for Multi-modal Image Synthesis [68.3787368024951]
マルチモーダルイメージ・ツー・イメージ(I2I)翻訳のための新しいアプローチを提案する。
我々は、出力領域の可変性をモデル化する潜伏埋め込みをジェネレータと共同で学習する。
具体的には、新しいプロキシタスクを用いて汎用的なスタイルエンコーダを事前訓練し、任意のドメインから低次元のスタイル潜在空間への画像の埋め込みを学習する。
論文 参考訳(メタデータ) (2021-04-14T19:58:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。