論文の概要: Generative Transition Mechanism to Image-to-Image Translation via
Encoded Transformation
- arxiv url: http://arxiv.org/abs/2103.05193v1
- Date: Tue, 9 Mar 2021 02:56:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2021-03-11 02:59:33.355884
- Title: Generative Transition Mechanism to Image-to-Image Translation via
Encoded Transformation
- Title(参考訳): 符号化変換による画像間変換への生成的遷移機構
- Authors: Yaxin Shi, Xiaowei Zhou, Ping Liu, Ivor Tsang
- Abstract要約: I2I(Image-to-Image)翻訳問題をトランジション整合性で再検討する。
既存のI2I翻訳モデルは、主に結果の一貫性の維持に焦点を当てています。
i2i翻訳では結果整合性とトランジッション一貫性を両立させる。
- 参考スコア(独自算出の注目度): 40.11493448767101
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we revisit the Image-to-Image (I2I) translation problem with
transition consistency, namely the consistency defined on the conditional data
mapping between each data pairs. Explicitly parameterizing each data mappings
with a transition variable $t$, i.e., $x \overset{t(x,y)}{\mapsto}y$, we
discover that existing I2I translation models mainly focus on maintaining
consistency on results, e.g., image reconstruction or attribute prediction,
named result consistency in our paper. This restricts their generalization
ability to generate satisfactory results with unseen transitions in the test
phase. Consequently, we propose to enforce both result consistency and
transition consistency for I2I translation, to benefit the problem with a
closer consistency between the input and output. To benefit the generalization
ability of the translation model, we propose transition encoding to facilitate
explicit regularization of these two {kinds} of consistencies on unseen
transitions. We further generalize such explicitly regularized consistencies to
distribution-level, thus facilitating a generalized overall consistency for I2I
translation problems. With the above design, our proposed model, named
Transition Encoding GAN (TEGAN), can poss superb generalization ability to
generate realistic and semantically consistent translation results with unseen
transitions in the test phase. It also provides a unified understanding of the
existing GAN-based I2I transition models with our explicitly modeling of the
data mapping, i.e., transition. Experiments on four different I2I translation
tasks demonstrate the efficacy and generality of TEGAN.
- Abstract(参考訳): 本稿では,画像対画像(i2i)変換問題に遷移一貫性,すなわち各データペア間の条件付きデータマッピングで定義される一貫性について再検討する。
トランジッション変数 $t$,すなわち $x \overset{t(x,y)}{\mapsto}y$ で各データマッピングを明示的にパラメータ化することで、既存のi2i翻訳モデルは、画像再構成や属性予測といった結果整合性の維持に重点を置いていることが分かりました。
これにより、テストフェーズで見当たらない遷移を伴う満足のいく結果を生成するための一般化能力が制限される。
そこで本研究では,i2i翻訳における結果整合性とトランジッション一貫性を両立させ,入力と出力の一貫性の密接な向上を図る。
翻訳モデルの一般化能力を活かすため,この2つの<kinds>を非可視遷移上で明示的に正規化するためのトランジションエンコーディングを提案する。
さらに、これらの明示的な正規化成分を分布レベルに一般化し、I2I翻訳問題に対する全体的な一貫性を一般化する。
上述の設計により,提案モデルであるTransition Encoding GAN (TEGAN) は,テストフェーズにおける見知らぬ遷移を伴う現実的で意味的に一貫した翻訳結果を生成するために,スーパーバンの一般化能力を実現することができる。
また、既存のGANベースのI2Iトランジションモデルの統一的な理解と、データマッピング、すなわちトランジションの明示的なモデリングも提供します。
4つの異なるI2I翻訳タスクの実験は、TEGANの有効性と一般性を示しています。
関連論文リスト
- Hierarchy Flow For High-Fidelity Image-to-Image Translation [38.87847690777645]
本稿では,翻訳中のコンテンツ保存性を向上する新しいフローベースモデルを提案する。
提案手法は,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精細度,高精
論文 参考訳(メタデータ) (2023-08-14T03:11:17Z) - UTSGAN: Unseen Transition Suss GAN for Transition-Aware Image-to-image
Translation [57.99923293611923]
我々はI2Iトランスフォーメーションに対してトランジッションアウェアアプローチを導入し、データトランスフォーメーションマッピングをトランジッション変数で明示的にパラメータ化する。
本稿では、遷移変数に定義された遷移整合性を利用することにより、観測されていない翻訳における整合性の正規化を可能にする。
これらの知見に基づき、遷移エンコーダを用いた遷移のための多様体を構成する生成フレームワークである Unseen transition Suss GAN (UTSGAN) を提案する。
論文 参考訳(メタデータ) (2023-04-24T09:47:34Z) - Guided Image-to-Image Translation by Discriminator-Generator
Communication [71.86347329356244]
Image-to-image (I2I) 翻訳の目標は、ソースドメインからターゲットドメインに画像を転送することである。
本研究の主な分野は,GAN(Generative Adversarial Network)に基づくI2I翻訳の定式化である。
論文 参考訳(メタデータ) (2023-03-07T02:29:36Z) - ParGAN: Learning Real Parametrizable Transformations [50.51405390150066]
本稿では、画像変換学習のためのサイクル一貫性GANフレームワークの一般化であるParGANを提案する。
提案したジェネレータは、画像と変換のパラメトリゼーションの両方を入力とする。
注釈付きパラメトリゼーションを伴わない不整合画像領域では、このフレームワークはスムーズな生成が可能であり、同時に複数の変換を学習できることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:16:06Z) - Beyond Deterministic Translation for Unsupervised Domain Adaptation [19.358300726820943]
本研究では、教師なしドメイン適応(UDA)におけるソースとターゲットドメイン間の1対1マッピング('翻訳')の共通アプローチに挑戦する。
代わりに、ソースとターゲットドメイン間の固有の曖昧さをキャプチャするために、翻訳に依存しています。
近年の強いベースラインに対する改善を報告し、2つの挑戦的なセマンティックセグメンテーションベンチマークで最先端のUDA結果を得た。
論文 参考訳(メタデータ) (2022-02-15T23:03:33Z) - Unbalanced Feature Transport for Exemplar-based Image Translation [51.54421432912801]
本稿では,画像翻訳における条件入力とスタイルの類似点間の特徴的アライメントに最適なトランスポートを組み込んだ一般画像翻訳フレームワークを提案する。
本手法は,最先端技術と比較して質的,定量的に優れた画像翻訳を実現する。
論文 参考訳(メタデータ) (2021-06-19T12:07:48Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Augmented Cyclic Consistency Regularization for Unpaired Image-to-Image
Translation [22.51574923085135]
CCR(Augmented Cyclic Consistency Regularization)は、未ペアI2I翻訳の新しい正規化手法である。
本手法は実世界の翻訳における整合性正規化GAN(CR-GAN)よりも優れる。
論文 参考訳(メタデータ) (2020-02-29T06:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。