論文の概要: Image-to-Image Translation with Low Resolution Conditioning
- arxiv url: http://arxiv.org/abs/2107.11262v1
- Date: Fri, 23 Jul 2021 14:22:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-26 16:21:19.119244
- Title: Image-to-Image Translation with Low Resolution Conditioning
- Title(参考訳): 低分解能コンディショニングによる画像間変換
- Authors: Mohamed Abderrahmen Abid, Ihsen Hedhli, Jean-Fran\c{c}ois Lalonde,
Christian Gagne
- Abstract要約: 本研究の目的は、高解像度(HR)画像から細部を転写して、ターゲットの粗い低解像度(LR)画像表現に適合させることである。
これは、あるイメージスタイルをターゲットコンテンツに変換することに集中する以前の方法とは異なる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
- 参考スコア(独自算出の注目度): 0.28675177318965034
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Most image-to-image translation methods focus on learning mappings across
domains with the assumption that images share content (e.g., pose) but have
their own domain-specific information known as style. When conditioned on a
target image, such methods aim to extract the style of the target and combine
it with the content of the source image. In this work, we consider the scenario
where the target image has a very low resolution. More specifically, our
approach aims at transferring fine details from a high resolution (HR) source
image to fit a coarse, low resolution (LR) image representation of the target.
We therefore generate HR images that share features from both HR and LR inputs.
This differs from previous methods that focus on translating a given image
style into a target content, our translation approach being able to
simultaneously imitate the style and merge the structural information of the LR
target. Our approach relies on training the generative model to produce HR
target images that both 1) share distinctive information of the associated
source image; 2) correctly match the LR target image when downscaled. We
validate our method on the CelebA-HQ and AFHQ datasets by demonstrating
improvements in terms of visual quality, diversity and coverage. Qualitative
and quantitative results show that when dealing with intra-domain image
translation, our method generates more realistic samples compared to
state-of-the-art methods such as Stargan-v2
- Abstract(参考訳): ほとんどの画像から画像への翻訳手法は、画像がコンテンツ(例えばポーズ)を共有することを前提として、ドメイン間のマッピングの学習に焦点を当てているが、スタイルとして知られる独自のドメイン固有の情報を持っている。
対象画像に条件付けされた場合、そのような手法はターゲットのスタイルを抽出し、ソース画像の内容と組み合わせることを目的としている。
本研究では,対象画像の解像度が極めて低いシナリオについて考察する。
より具体的には、ターゲットの粗い低解像度(LR)画像表現に適合させるために、高解像度(HR)画像から細部を転送することを目的としている。
したがって、HRとLRの両方の入力から特徴を共有するHR画像を生成する。
これは、ある画像スタイルを対象コンテンツに変換することに焦点を当てた従来の方法とは異なり、我々の翻訳アプローチは、そのスタイルを同時に模倣し、LRターゲットの構造情報をマージすることができる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
我々は,CelebA-HQとAFHQのデータセットを用いて,視覚的品質,多様性,カバレッジの面での改善を示す。
質的・定量的な結果から,stargan-v2 のような最先端の手法と比較して,ドメイン内画像翻訳を扱う場合,より現実的なサンプルを生成することが判明した。
関連論文リスト
- SCONE-GAN: Semantic Contrastive learning-based Generative Adversarial
Network for an end-to-end image translation [18.93434486338439]
SCONE-GANはリアルで多様な風景画像を生成する学習に有効であることが示されている。
より現実的で多様な画像生成のために、スタイル参照画像を導入します。
画像から画像への変換と屋外画像のスタイリングのための提案アルゴリズムを検証した。
論文 参考訳(メタデータ) (2023-11-07T10:29:16Z) - Domain Agnostic Image-to-image Translation using Low-Resolution
Conditioning [6.470760375991825]
ドメインが関係するきめ細かい問題に対して,ドメインに依存しないi2i法を提案する。
本稿では、生成モデルを訓練し、関連するソース画像の固有情報を共有する画像を生成する新しいアプローチを提案する。
CelebA-HQ と AFHQ のデータセット上で,視覚的品質の向上を実証し,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-05-08T19:58:49Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Global and Local Alignment Networks for Unpaired Image-to-Image
Translation [170.08142745705575]
未ペア画像から画像への変換の目的は、対象領域のスタイルを反映した出力画像を作成することである。
既存の手法では内容変化に注意が払われていないため、ソース画像からの意味情報は翻訳中の劣化に悩まされる。
我々はGLA-Net(Global and Local Alignment Networks)という新しいアプローチを導入する。
本手法は既存の手法よりもシャープでリアルな画像を効果的に生成する。
論文 参考訳(メタデータ) (2021-11-19T18:01:54Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - TriGAN: Image-to-Image Translation for Multi-Source Domain Adaptation [82.52514546441247]
本稿では,ジェネレーティブ・アドバイサル・ネットワークに基づくマルチソース・ドメイン適応(MSDA)の最初のアプローチを提案する。
本手法は,画像の出現がドメイン,スタイル,内容の3つの要因に依存するという観察に着想を得たものである。
提案手法はMSDAベンチマークを用いて試行し,最先端の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-04-19T05:07:22Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。