論文の概要: GANHopper: Multi-Hop GAN for Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2002.10102v5
- Date: Wed, 29 Jul 2020 02:28:42 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-29 04:06:52.002127
- Title: GANHopper: Multi-Hop GAN for Unsupervised Image-to-Image Translation
- Title(参考訳): GANHopper: 教師なし画像変換のためのマルチホップGAN
- Authors: Wallace Lira, Johannes Merz, Daniel Ritchie, Daniel Cohen-Or, Hao
Zhang
- Abstract要約: 本稿では、教師なし画像間翻訳ネットワークであるGANHopperを紹介する。
翻訳を直接実行する代わりに、ネットワーク間で画像を生成する必要がある。
我々のネットワークは、2つのドメインの未ペア画像のみをトレーニングしています。
- 参考スコア(独自算出の注目度): 47.67111981985117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce GANHopper, an unsupervised image-to-image translation network
that transforms images gradually between two domains, through multiple hops.
Instead of executing translation directly, we steer the translation by
requiring the network to produce in-between images that resemble weighted
hybrids between images from the input domains. Our network is trained on
unpaired images from the two domains only, without any in-between images. All
hops are produced using a single generator along each direction. In addition to
the standard cycle-consistency and adversarial losses, we introduce a new
hybrid discriminator, which is trained to classify the intermediate images
produced by the generator as weighted hybrids, with weights based on a
predetermined hop count. We also add a smoothness term to constrain the
magnitude of each hop, further regularizing the translation. Compared to
previous methods, GANHopper excels at image translations involving
domain-specific image features and geometric variations while also preserving
non-domain-specific features such as general color schemes.
- Abstract(参考訳): GANHopperは、複数のホップを通して2つの領域間で画像を徐々に変換する教師なしのイメージ・ツー・イメージ翻訳ネットワークである。
翻訳を直接実行する代わりに、入力ドメインからの画像間の重み付けされたハイブリッドに類似した、ネットワーク間の画像を生成する必要がある。
我々のネットワークは、2つのドメインの未ペア画像のみをトレーニングしています。
全てのホップは、各方向に沿って1つの発電機を使用して製造される。
標準サイクル整合性および対向損失に加えて, 発電機が生成する中間画像を, 所定のホップ数に基づいて重み付けした重み付きハイブリッドとして分類する, 新しいハイブリッド判別器を導入する。
また、各ホップの大きさを制約するために滑らかな項を追加し、さらに翻訳を規則化する。
以前の方法と比較してganhopperは、ドメイン固有の画像特徴と幾何学的バリエーションを含む画像翻訳に優れ、一般的なカラースキームのようなドメイン固有の特徴も保持している。
関連論文リスト
- I2I-Galip: Unsupervised Medical Image Translation Using Generative Adversarial CLIP [30.506544165999564]
ペアの例が存在しないため、画像から画像への翻訳は難しい作業である。
我々はイメージ・ツー・イメージ・ジェネレーティブ・アドバイザリアル・CLIP (I2I-Galip) という新しい画像・画像変換フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T01:44:50Z) - Progressive Energy-Based Cooperative Learning for Multi-Domain
Image-to-Image Translation [53.682651509759744]
マルチドメイン画像・画像翻訳のための新しいエネルギーベース協調学習フレームワークについて検討する。
フレームワークは、ディスクリプタ、トランスレータ、スタイルエンコーダ、スタイルジェネレータの4つのコンポーネントで構成されている。
論文 参考訳(メタデータ) (2023-06-26T06:34:53Z) - Towards Diverse and Faithful One-shot Adaption of Generative Adversarial
Networks [54.80435295622583]
ワンショット生成ドメイン適応は、訓練済みのジェネレータを1つの参照画像のみを使用して、新しいドメインに転送することを目的としている。
本稿では、多種多様な世代と忠実な適応のための新しい一発生成ドメイン適応法、すなわち、DiFaを提案する。
論文 参考訳(メタデータ) (2022-07-18T16:29:41Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - ISF-GAN: An Implicit Style Function for High-Resolution Image-to-Image
Translation [55.47515538020578]
本研究は,マルチモーダル画像とマルチドメイン画像の直接変換を実現する暗黙的スタイル関数 (ISF) を提案する。
ヒトの顔と動物に対する手術の結果は,ベースラインよりも有意に改善した。
我々のモデルは、事前訓練された無条件GANを用いて、高解像度で費用対効果の高いマルチモーダル・アントラクショナル・イメージ・ツー・イメージ翻訳を可能にする。
論文 参考訳(メタデータ) (2021-09-26T04:51:39Z) - BalaGAN: Image Translation Between Imbalanced Domains via Cross-Modal
Transfer [53.79505340315916]
ドメイン不均衡問題に対処するために特別に設計されたBalaGANを紹介する。
我々は、画像から画像への変換問題を、バランスよく、複数クラス、条件付き翻訳問題に変換するために、よりリッチなドメインの潜在モダリティを利用する。
本研究では,BalaGANが,無条件およびスタイル変換に基づく画像から画像への変換方式の強いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-05T14:16:41Z) - SoloGAN: Multi-domain Multimodal Unpaired Image-to-Image Translation via
a Single Generative Adversarial Network [4.7344504314446345]
本稿では、複数のドメイン間の効率的なマルチモーダルI2I翻訳のためのフレキシブルで汎用的なSoloGANモデルを提案する。
既存の手法とは対照的に、SoloGANアルゴリズムは追加の補助分類器を備えた単一の射影判別器を使用し、すべてのドメインに対してエンコーダとジェネレータを共有する。
論文 参考訳(メタデータ) (2020-08-04T16:31:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。