論文の概要: DSI2I: Dense Style for Unpaired Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2212.13253v1
- Date: Mon, 26 Dec 2022 18:45:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 14:51:36.666883
- Title: DSI2I: Dense Style for Unpaired Image-to-Image Translation
- Title(参考訳): dsi2i: 画像対画像変換のための密集したスタイル
- Authors: Baran Ozaydin, Tong Zhang, Sabine Susstrunk, Mathieu Salzmann
- Abstract要約: Inpaired exemplar-based image-to-image (UEI2I) は、ソースイメージをターゲット画像領域に変換することを目的としている。
対照的に、我々はスタイルを高密度な特徴写像として表現し、外部のセマンティック情報を必要とせずに、よりきめ細かいソース画像への転送を可能にすることを提案する。
次に、知覚的・敵対的な損失に頼って、密集したスタイルとコンテンツ表現を混乱させ、教師なしのドメイン間セマンティック対応を利用して、模範的なスタイルをソースコンテンツにワープする。
- 参考スコア(独自算出の注目度): 61.42001469770537
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Unpaired exemplar-based image-to-image (UEI2I) translation aims to translate
a source image to a target image domain with the style of a target image
exemplar, without ground-truth input-translation pairs. Existing UEI2I methods
represent style using either a global, image-level feature vector, or one
vector per object instance/class but requiring knowledge of the scene
semantics. Here, by contrast, we propose to represent style as a dense feature
map, allowing for a finer-grained transfer to the source image without
requiring any external semantic information. We then rely on perceptual and
adversarial losses to disentangle our dense style and content representations,
and exploit unsupervised cross-domain semantic correspondences to warp the
exemplar style to the source content. We demonstrate the effectiveness of our
method on two datasets using standard metrics together with a new localized
style metric measuring style similarity in a class-wise manner. Our results
evidence that the translations produced by our approach are more diverse and
closer to the exemplars than those of the state-of-the-art methods while
nonetheless preserving the source content.
- Abstract(参考訳): unpaired exemplar-based image-to-image (uei2i)翻訳は、対象画像exemplarのスタイルでソース画像を対象画像ドメインに翻訳することを目的としている。
既存のUEI2Iメソッドは、グローバル、イメージレベルの特徴ベクトルまたはオブジェクトインスタンス/クラス毎に1つのベクトルを使用してスタイルを表現するが、シーンセマンティクスの知識を必要とする。
そこで,本稿では,スタイルを高密度特徴マップとして表現し,外部の意味情報を必要とせず,より詳細なソース画像への転送を可能にすることを提案する。
次に、私たちは知覚的および敵対的損失に依存して、密集したスタイルとコンテンツ表現を区別し、教師なしのクロスドメイン意味対応を利用して、exemplarスタイルをソースコンテンツに警告します。
標準メトリクスを用いた2つのデータセットにおける本手法の有効性を,類型的手法による新しい局所的距離計測スタイル類似性とともに実証する。
以上の結果から,本手法が生成する翻訳文は,原文内容を維持しつつ,最先端手法よりも多種多様であり,模範に近いことが判明した。
関連論文リスト
- DEADiff: An Efficient Stylization Diffusion Model with Disentangled
Representations [64.43387739794531]
現在のエンコーダベースのアプローチは、スタイルの転送中にテキスト・ツー・イメージモデルのテキスト制御性を著しく損なう。
この問題に対処するために、以下の2つの戦略を用いてDEADiffを紹介します。
DeAiffは、テキスト・ツー・イメージモデルに固有のテキスト制御性と、参照画像とスタイルの類似性との間の最適な視覚的スタイリング結果と最適なバランスを得る。
論文 参考訳(メタデータ) (2024-03-11T17:35:23Z) - Diffusion-based Image Translation using Disentangled Style and Content
Representation [51.188396199083336]
セマンティックテキストや単一のターゲット画像でガイドされた拡散ベースの画像変換により、柔軟なスタイル変換が可能になった。
逆拡散中、画像の原内容を維持することはしばしば困難である。
本稿では,不整合スタイルとコンテンツ表現を用いた新しい拡散に基づく教師なし画像翻訳手法を提案する。
提案手法は,テキスト誘導と画像誘導の両方の翻訳作業において,最先端のベースラインモデルよりも優れていることを示す。
論文 参考訳(メタデータ) (2022-09-30T06:44:37Z) - Domain Enhanced Arbitrary Image Style Transfer via Contrastive Learning [84.8813842101747]
Contrastive Arbitrary Style Transfer (CAST) は、新しいスタイル表現学習法である。
本フレームワークは,スタイルコード符号化のための多層スタイルプロジェクタ,スタイル分布を効果的に学習するためのドメイン拡張モジュール,画像スタイル転送のための生成ネットワークという,3つのキーコンポーネントから構成される。
論文 参考訳(メタデータ) (2022-05-19T13:11:24Z) - STALP: Style Transfer with Auxiliary Limited Pairing [36.23393954839379]
本稿では,1対のソース画像と,そのスタイリング画像を用いた画像の例ベーススタイリング手法を提案する。
本研究では,対象画像に対するリアルタイムな意味論的スタイル転送が可能な画像翻訳ネットワークの訓練方法を示す。
論文 参考訳(メタデータ) (2021-10-20T11:38:41Z) - Image-to-Image Translation with Low Resolution Conditioning [0.28675177318965034]
本研究の目的は、高解像度(HR)画像から細部を転写して、ターゲットの粗い低解像度(LR)画像表現に適合させることである。
これは、あるイメージスタイルをターゲットコンテンツに変換することに集中する以前の方法とは異なる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
論文 参考訳(メタデータ) (2021-07-23T14:22:12Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。