論文の概要: UTSGAN: Unseen Transition Suss GAN for Transition-Aware Image-to-image
Translation
- arxiv url: http://arxiv.org/abs/2304.11955v1
- Date: Mon, 24 Apr 2023 09:47:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-25 15:31:54.429258
- Title: UTSGAN: Unseen Transition Suss GAN for Transition-Aware Image-to-image
Translation
- Title(参考訳): UTSGAN: トランジッションを意識した画像から画像への変換のためのGAN
- Authors: Yaxin Shi, Xiaowei Zhou, Ping Liu, Ivor W. Tsang
- Abstract要約: 我々はI2Iトランスフォーメーションに対してトランジッションアウェアアプローチを導入し、データトランスフォーメーションマッピングをトランジッション変数で明示的にパラメータ化する。
本稿では、遷移変数に定義された遷移整合性を利用することにより、観測されていない翻訳における整合性の正規化を可能にする。
これらの知見に基づき、遷移エンコーダを用いた遷移のための多様体を構成する生成フレームワークである Unseen transition Suss GAN (UTSGAN) を提案する。
- 参考スコア(独自算出の注目度): 57.99923293611923
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In the field of Image-to-Image (I2I) translation, ensuring consistency
between input images and their translated results is a key requirement for
producing high-quality and desirable outputs. Previous I2I methods have relied
on result consistency, which enforces consistency between the translated
results and the ground truth output, to achieve this goal. However, result
consistency is limited in its ability to handle complex and unseen attribute
changes in translation tasks. To address this issue, we introduce a
transition-aware approach to I2I translation, where the data translation
mapping is explicitly parameterized with a transition variable, allowing for
the modelling of unobserved translations triggered by unseen transitions.
Furthermore, we propose the use of transition consistency, defined on the
transition variable, to enable regularization of consistency on unobserved
translations, which is omitted in previous works. Based on these insights, we
present Unseen Transition Suss GAN (UTSGAN), a generative framework that
constructs a manifold for the transition with a stochastic transition encoder
and coherently regularizes and generalizes result consistency and transition
consistency on both training and unobserved translations with tailor-designed
constraints. Extensive experiments on four different I2I tasks performed on
five different datasets demonstrate the efficacy of our proposed UTSGAN in
performing consistent translations.
- Abstract(参考訳): 画像から画像への変換(i2i)の分野では、入力画像と翻訳結果の一貫性を確保することが、高品質で望ましい出力を生成する上で重要な要件である。
従来のI2I手法は、この目標を達成するために、翻訳結果と基底真理出力の一貫性を強制する結果整合性に依存していた。
しかし、結果整合性は翻訳タスクの複雑な属性変更や見当たらない属性変更を扱う能力に制限がある。
この問題に対処するため、I2I翻訳において、データ変換マッピングをトランジション変数で明示的にパラメータ化し、未知のトランジションによって引き起こされる未観測翻訳のモデリングを可能にする。
さらに, 遷移変数に定義された遷移整合性を用いて, 従来は省略されていた未観測翻訳における整合性の正規化を実現する。
これらの知見に基づき、確率的遷移エンコーダを用いて遷移のための多様体を構築するための生成フレームワークである Unseen Transition Suss GAN (UTSGAN) を提示する。
4つの異なるi2iタスクを5つの異なるデータセットで広範囲に実験した結果,提案するutsganの有効性が示された。
関連論文リスト
- ParGAN: Learning Real Parametrizable Transformations [50.51405390150066]
本稿では、画像変換学習のためのサイクル一貫性GANフレームワークの一般化であるParGANを提案する。
提案したジェネレータは、画像と変換のパラメトリゼーションの両方を入力とする。
注釈付きパラメトリゼーションを伴わない不整合画像領域では、このフレームワークはスムーズな生成が可能であり、同時に複数の変換を学習できることを示す。
論文 参考訳(メタデータ) (2022-11-09T16:16:06Z) - Beyond Deterministic Translation for Unsupervised Domain Adaptation [19.358300726820943]
本研究では、教師なしドメイン適応(UDA)におけるソースとターゲットドメイン間の1対1マッピング('翻訳')の共通アプローチに挑戦する。
代わりに、ソースとターゲットドメイン間の固有の曖昧さをキャプチャするために、翻訳に依存しています。
近年の強いベースラインに対する改善を報告し、2つの挑戦的なセマンティックセグメンテーションベンチマークで最先端のUDA結果を得た。
論文 参考訳(メタデータ) (2022-02-15T23:03:33Z) - Unbalanced Feature Transport for Exemplar-based Image Translation [51.54421432912801]
本稿では,画像翻訳における条件入力とスタイルの類似点間の特徴的アライメントに最適なトランスポートを組み込んだ一般画像翻訳フレームワークを提案する。
本手法は,最先端技術と比較して質的,定量的に優れた画像翻訳を実現する。
論文 参考訳(メタデータ) (2021-06-19T12:07:48Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Generative Transition Mechanism to Image-to-Image Translation via
Encoded Transformation [40.11493448767101]
I2I(Image-to-Image)翻訳問題をトランジション整合性で再検討する。
既存のI2I翻訳モデルは、主に結果の一貫性の維持に焦点を当てています。
i2i翻訳では結果整合性とトランジッション一貫性を両立させる。
論文 参考訳(メタデータ) (2021-03-09T02:56:03Z) - Sign Language Transformers: Joint End-to-end Sign Language Recognition
and Translation [59.38247587308604]
本稿では,連続手話認識と翻訳を共同で学習するトランスフォーマーアーキテクチャを提案する。
RWTH-PHOENIX-Weather-2014Tデータセットの認識と翻訳性能の評価を行った。
我々の翻訳ネットワークは、動画を音声言語に、光沢を音声言語翻訳モデルに、どちらよりも優れています。
論文 参考訳(メタデータ) (2020-03-30T21:35:09Z) - Augmented Cyclic Consistency Regularization for Unpaired Image-to-Image
Translation [22.51574923085135]
CCR(Augmented Cyclic Consistency Regularization)は、未ペアI2I翻訳の新しい正規化手法である。
本手法は実世界の翻訳における整合性正規化GAN(CR-GAN)よりも優れる。
論文 参考訳(メタデータ) (2020-02-29T06:20:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。