論文の概要: Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning
- arxiv url: http://arxiv.org/abs/2305.05023v2
- Date: Thu, 11 May 2023 03:15:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-12 11:24:38.752180
- Title: Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning
- Title(参考訳): 低分解能条件を用いた領域非依存画像から画像への変換
- Authors: Mohamed Abid, Arman Afrasiyabi, Ihsen Hedhli, Jean-Fran\c{c}ois
Lalonde and Christian Gagn\'e
- Abstract要約: ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
- 参考スコア(独自算出の注目度): 6.470760375991825
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Generally, image-to-image translation (i2i) methods aim at learning mappings
across domains with the assumption that the images used for translation share
content (e.g., pose) but have their own domain-specific information (a.k.a.
style). Conditioned on a target image, such methods extract the target style
and combine it with the source image content, keeping coherence between the
domains. In our proposal, we depart from this traditional view and instead
consider the scenario where the target domain is represented by a very
low-resolution (LR) image, proposing a domain-agnostic i2i method for
fine-grained problems, where the domains are related. More specifically, our
domain-agnostic approach aims at generating an image that combines visual
features from the source image with low-frequency information (e.g. pose,
color) of the LR target image. To do so, we present a novel approach that
relies on training the generative model to produce images that both share
distinctive information of the associated source image and correctly match the
LR target image when downscaled. We validate our method on the CelebA-HQ and
AFHQ datasets by demonstrating improvements in terms of visual quality.
Qualitative and quantitative results show that when dealing with intra-domain
image translation, our method generates realistic samples compared to
state-of-the-art methods such as StarGAN v2. Ablation studies also reveal that
our method is robust to changes in color, it can be applied to
out-of-distribution images, and it allows for manual control over the final
results.
- Abstract(参考訳): 一般的には、画像から画像への変換(i2i)は、翻訳に使われる画像がコンテンツ(例えばポーズ)を共有するが、独自のドメイン固有の情報(例えばスタイル)を持つと仮定して、ドメイン間のマッピングを学習することを目的としている。
ターゲット画像に条件付きで、そのような手法は対象のスタイルを抽出し、ソース画像の内容と組み合わせ、ドメイン間の一貫性を維持する。
提案では,従来の考え方から離れて,対象領域が極めて低解像度 (lr) なイメージで表現されるシナリオを検討し,ドメインが関連づけられたきめ細かな問題に対して,ドメインに依存しない i2i メソッドを提案する。
より具体的には、我々のドメインに依存しないアプローチは、ソース画像からの視覚特徴とLRターゲット画像の低周波情報(例えば、ポーズ、色)を組み合わせた画像を生成することを目的としている。
そこで本研究では,生成モデルのトレーニングに頼って,関連するソース画像の固有情報を共有し,ダウンスケール時のLRターゲット画像と正しく一致した画像を生成する手法を提案する。
本手法をceleba-hqおよびafhqデータセット上で検証し,視覚品質の改善を示す。
定性的,定量的な結果から,ドメイン内画像翻訳を扱う場合,StarGAN v2のような最先端の手法と比較して,現実的なサンプルを生成することがわかった。
アブレーション研究では,色の変化に対して頑健であり,分布外画像にも適用可能であること,最終結果に対する手動制御が可能であることも明らかにした。
関連論文リスト
- SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Multi-cropping Contrastive Learning and Domain Consistency for
Unsupervised Image-to-Image Translation [5.562419999563734]
マルチクロップ型コントラスト学習とドメイン整合性に基づく新しい教師なし画像から画像への翻訳フレームワーク MCDUT を提案する。
多くの画像と画像の翻訳タスクにおいて,本手法は最先端の結果を達成し,その利点は比較実験とアブレーション研究によって証明されている。
論文 参考訳(メタデータ) (2023-04-24T16:20:28Z) - I2F: A Unified Image-to-Feature Approach for Domain Adaptive Semantic
Segmentation [55.633859439375044]
意味的セグメンテーションのための教師なしドメイン適応(UDA)は、重いアノテーション作業から人々を解放する有望なタスクである。
この問題に対処する主要なアイデアは、画像レベルと特徴レベルの両方を共同で実行することである。
本稿では,画像レベルと特徴レベルを統一したセマンティックセグメンテーションのための新しいUDAパイプラインを提案する。
論文 参考訳(メタデータ) (2023-01-03T15:19:48Z) - Global and Local Alignment Networks for Unpaired Image-to-Image
Translation [170.08142745705575]
未ペア画像から画像への変換の目的は、対象領域のスタイルを反映した出力画像を作成することである。
既存の手法では内容変化に注意が払われていないため、ソース画像からの意味情報は翻訳中の劣化に悩まされる。
我々はGLA-Net(Global and Local Alignment Networks)という新しいアプローチを導入する。
本手法は既存の手法よりもシャープでリアルな画像を効果的に生成する。
論文 参考訳(メタデータ) (2021-11-19T18:01:54Z) - Image-to-Image Translation with Low Resolution Conditioning [0.28675177318965034]
本研究の目的は、高解像度(HR)画像から細部を転写して、ターゲットの粗い低解像度(LR)画像表現に適合させることである。
これは、あるイメージスタイルをターゲットコンテンツに変換することに集中する以前の方法とは異なる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
論文 参考訳(メタデータ) (2021-07-23T14:22:12Z) - Evaluation of Correctness in Unsupervised Many-to-Many Image Translation [61.44666983942965]
Unsupervised many-to-many image-to-image (UMMI2I) 翻訳メソッドは、ターゲットドメインから実行可能な例を生成します。
UMMI2I法の意味的正しさを評価するための一連のベンチマークとメトリクスを提案する。
論文 参考訳(メタデータ) (2021-03-29T16:13:03Z) - Learning Unsupervised Cross-domain Image-to-Image Translation Using a
Shared Discriminator [2.1377923666134118]
教師なし画像画像変換は、ソースドメインから画像を変換して、ソースターゲット画像ペアを使用することなく、ターゲットドメインで画像を生成するために使用される。
本稿では,2つのGAN間の1つの共有判別器を用いた新しい手法を提案する。
提案手法は,注意機構を付加せずにも,注意に基づく手法と同等に動作し,同等の画質の画像を生成できることが示唆された。
論文 参考訳(メタデータ) (2021-02-09T08:26:23Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation [82.52514546441247]
本稿では,ジェネレーティブ・アドバイサル・ネットワークに基づくマルチソース・ドメイン適応(MSDA)の最初のアプローチを提案する。
本手法は,画像の出現がドメイン,スタイル,内容の3つの要因に依存するという観察に着想を得たものである。
提案手法はMSDAベンチマークを用いて試行し,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:07:22Z) - Cross-domain Correspondence Learning for Exemplar-based Image
Translation [59.35767271091425]
本稿では,異なる領域の入力からフォトリアリスティックな画像を合成する,例題に基づく画像翻訳のためのフレームワークを提案する。
出力は、例において意味的に対応するオブジェクトと整合したスタイル(例えば、色、テクスチャ)を持つ。
本手法は画像品質の面で最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-04-12T09:10:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。