論文の概要: Continuous and Diverse Image-to-Image Translation via Signed Attribute
Vectors
- arxiv url: http://arxiv.org/abs/2011.01215v4
- Date: Sun, 18 Apr 2021 05:48:17 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-30 12:22:51.071286
- Title: Continuous and Diverse Image-to-Image Translation via Signed Attribute
Vectors
- Title(参考訳): 符号付属性ベクトルによる連続・横画像変換
- Authors: Qi Mao, Hung-Yu Tseng, Hsin-Ying Lee, Jia-Bin Huang, Siwei Ma,
Ming-Hsuan Yang
- Abstract要約: 本稿では,様々な領域にまたがる多様な写像経路の連続的な変換を可能にする,効果的に署名された属性ベクトルを提案する。
連続翻訳結果の視覚的品質を高めるため、2つの符号対称属性ベクトル間の軌跡を生成する。
- 参考スコア(独自算出の注目度): 120.13149176992896
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Recent image-to-image (I2I) translation algorithms focus on learning the
mapping from a source to a target domain. However, the continuous translation
problem that synthesizes intermediate results between two domains has not been
well-studied in the literature. Generating a smooth sequence of intermediate
results bridges the gap of two different domains, facilitating the morphing
effect across domains. Existing I2I approaches are limited to either
intra-domain or deterministic inter-domain continuous translation. In this
work, we present an effectively signed attribute vector, which enables
continuous translation on diverse mapping paths across various domains. In
particular, we introduce a unified attribute space shared by all domains that
utilize the sign operation to encode the domain information, thereby allowing
the interpolation on attribute vectors of different domains. To enhance the
visual quality of continuous translation results, we generate a trajectory
between two sign-symmetrical attribute vectors and leverage the domain
information of the interpolated results along the trajectory for adversarial
training. We evaluate the proposed method on a wide range of I2I translation
tasks. Both qualitative and quantitative results demonstrate that the proposed
framework generates more high-quality continuous translation results against
the state-of-the-art methods.
- Abstract(参考訳): 最近の画像から画像への変換アルゴリズムは、ソースから対象領域へのマッピングの学習に焦点を当てている。
しかし、2つの領域間の中間結果を合成する連続翻訳問題は、文献ではよく研究されていない。
中間結果の滑らかな配列の生成は、2つの異なる領域のギャップを橋渡しし、ドメイン間のモーフィング効果を促進する。
既存のI2Iアプローチはドメイン内またはドメイン間連続翻訳に限られる。
本稿では,様々な領域にまたがる多様なマッピングパスに対して,連続的な翻訳を可能にする効果的な属性ベクトルを提案する。
特に,各ドメインが共有する統一属性空間を導入し,各ドメインの属性ベクトルに対する補間を可能にする。
連続翻訳結果の視覚的品質を高めるために,2つの符号対称属性ベクトル間の軌跡を生成し,その経路に沿った補間結果のドメイン情報を活用する。
提案手法を広範囲のI2I翻訳タスクで評価する。
定性的かつ定量的な結果は、提案手法が最先端の手法に対してより高品質な連続翻訳結果を生成することを示す。
関連論文リスト
- Smooth image-to-image translations with latent space interpolations [64.8170758294427]
マルチドメインイメージ・トゥ・イメージ(I2I)変換は、ターゲットドメインのスタイルに応じてソースイメージを変換することができる。
我々の正規化技術は、最先端のI2I翻訳を大きなマージンで改善できることを示す。
論文 参考訳(メタデータ) (2022-10-03T11:57:30Z) - Joint Attention-Driven Domain Fusion and Noise-Tolerant Learning for
Multi-Source Domain Adaptation [2.734665397040629]
マルチソースUnsupervised Domain Adaptationはラベル付きデータを持つ複数のソースドメインからラベル付きターゲットドメインに知識を転送する。
異なるドメインとターゲットドメイン内のノイズの多い擬似ラベル間の分散の相違は、どちらもパフォーマンスのボトルネックにつながる。
本稿では,意識駆動型ドメイン融合(ADNT)と雑音耐性学習(ADNT)を統合し,上記の2つの問題に対処するアプローチを提案する。
論文 参考訳(メタデータ) (2022-08-05T01:08:41Z) - Multi-domain Unsupervised Image-to-Image Translation with Appearance
Adaptive Convolution [62.4972011636884]
本稿では,MDUIT(Multi-domain unsupervised image-to-image translation)フレームワークを提案する。
我々は、分解されたコンテンツ特徴と外観適応的畳み込みを利用して、画像をターゲットの外観に変換する。
提案手法は,最先端の手法と比較して,複数の領域で視覚的に多様かつ妥当な結果が得られることを示す。
論文 参考訳(メタデータ) (2022-02-06T14:12:34Z) - Disentangled Unsupervised Image Translation via Restricted Information
Flow [61.44666983942965]
多くの最先端のメソッドは、所望の共有vs固有の分割をアーキテクチャにハードコードする。
帰納的アーキテクチャバイアスに依存しない新しい手法を提案する。
提案手法は,2つの合成データセットと1つの自然なデータセットに対して一貫した高い操作精度を実現する。
論文 参考訳(メタデータ) (2021-11-26T00:27:54Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Learning Unsupervised Cross-domain Image-to-Image Translation Using a
Shared Discriminator [2.1377923666134118]
教師なし画像画像変換は、ソースドメインから画像を変換して、ソースターゲット画像ペアを使用することなく、ターゲットドメインで画像を生成するために使用される。
本稿では,2つのGAN間の1つの共有判別器を用いた新しい手法を提案する。
提案手法は,注意機構を付加せずにも,注意に基づく手法と同等に動作し,同等の画質の画像を生成できることが示唆された。
論文 参考訳(メタデータ) (2021-02-09T08:26:23Z) - CrDoCo: Pixel-level Domain Transfer with Cross-Domain Consistency [119.45667331836583]
教師なしのドメイン適応アルゴリズムは、あるドメインから学んだ知識を別のドメインに転送することを目的としている。
本稿では,新しい画素単位の対向領域適応アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-01-09T19:00:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。