論文の概要: A Style-aware Discriminator for Controllable Image Translation
- arxiv url: http://arxiv.org/abs/2203.15375v1
- Date: Tue, 29 Mar 2022 09:13:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 15:06:00.769999
- Title: A Style-aware Discriminator for Controllable Image Translation
- Title(参考訳): 制御可能な画像翻訳のためのスタイル認識判別器
- Authors: Kunhee Kim, Sanghun Park, Eunyeong Jeon, Taehun Kim, Daijin Kim
- Abstract要約: 現在の画像から画像への変換は、トレーニング中に使用されるクラス以外の出力領域を制御しない。
本稿では,批判的かつ条件を提供するスタイルとして機能するスタイル認識型識別器を提案する。
複数のデータセットの実験では、提案モデルが現在の最先端画像から画像への変換方法より優れていることが確認されている。
- 参考スコア(独自算出の注目度): 10.338078700632423
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Current image-to-image translations do not control the output domain beyond
the classes used during training, nor do they interpolate between different
domains well, leading to implausible results. This limitation largely arises
because labels do not consider the semantic distance. To mitigate such
problems, we propose a style-aware discriminator that acts as a critic as well
as a style encoder to provide conditions. The style-aware discriminator learns
a controllable style space using prototype-based self-supervised learning and
simultaneously guides the generator. Experiments on multiple datasets verify
that the proposed model outperforms current state-of-the-art image-to-image
translation methods. In contrast with current methods, the proposed approach
supports various applications, including style interpolation, content
transplantation, and local image translation.
- Abstract(参考訳): 現在の画像から画像への変換は、トレーニングで使用されるクラスを超えて出力ドメインを制御したり、異なるドメイン間をうまく補間したりしません。
この制限は、ラベルが意味的距離を考慮しないため、主に発生する。
このような問題を緩和するために,批判者や条件を提供するスタイルエンコーダとして機能するスタイル認識識別器を提案する。
プロトタイプベースの自己教師型学習を用いて制御可能なスタイル空間を学習し、同時にジェネレータを誘導する。
複数のデータセットの実験では、提案モデルが現在の最先端画像から画像への変換方法より優れていることが確認されている。
現在の手法とは対照的に,提案手法はスタイル補間,コンテンツ移植,局所画像翻訳など,様々な応用をサポートしている。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - DSI2I: Dense Style for Unpaired Image-to-Image Translation [70.93865212275412]
Inpaired exemplar-based image-to-image (UEI2I) 翻訳は、ソース画像をターゲット画像領域に変換する。
我々は,スタイルを高密度な特徴写像として表現し,外部意味情報を必要とせず,よりきめ細かなソース画像の転送を可能にすることを提案する。
以上の結果から,本手法による翻訳は,より多様であり,資料内容の保存性が向上し,最先端の手法と比較すると,先例に近づいたことが示唆された。
論文 参考訳(メタデータ) (2022-12-26T18:45:25Z) - Separating Content and Style for Unsupervised Image-to-Image Translation [20.44733685446886]
教師なしのイメージ・ツー・イメージ翻訳は、2つの視覚領域間のマッピングを未ペアのサンプルで学習することを目的としている。
統合されたフレームワークでコンテンツコードとスタイルコードを同時に分離することを提案する。
潜在機能と高レベルのドメイン不変タスクの相関から,提案手法は優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-27T12:56:50Z) - LSC-GAN: Latent Style Code Modeling for Continuous Image-to-image
Translation [9.692858539011446]
本稿では,連続的なドメイン間のI2I翻訳モデルを構築する。
連続的な翻訳に対処するため、我々は2方向に沿って潜在スタイルのコードを変更する編集モジュールを設計する。
年齢・視角変換実験により,提案手法が高品質な結果が得られることが示された。
論文 参考訳(メタデータ) (2021-10-11T07:46:43Z) - ISF-GAN: An Implicit Style Function for High-Resolution Image-to-Image
Translation [55.47515538020578]
本研究は,マルチモーダル画像とマルチドメイン画像の直接変換を実現する暗黙的スタイル関数 (ISF) を提案する。
ヒトの顔と動物に対する手術の結果は,ベースラインよりも有意に改善した。
我々のモデルは、事前訓練された無条件GANを用いて、高解像度で費用対効果の高いマルチモーダル・アントラクショナル・イメージ・ツー・イメージ翻訳を可能にする。
論文 参考訳(メタデータ) (2021-09-26T04:51:39Z) - Smoothing the Disentangled Latent Style Space for Unsupervised
Image-to-Image Translation [56.55178339375146]
イメージ・ツー・イメージ(I2I)マルチドメイン翻訳モデルは通常、セマンティックな結果の品質を用いて評価される。
本稿では,翻訳ネットワークがスムーズでゆがみのあるラテントスタイル空間を学習するのに役立つ,3つの特定の損失に基づく新たなトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-16T17:58:21Z) - Contrastive Learning for Unsupervised Image-to-Image Translation [10.091669091440396]
コントラスト学習に基づく教師なし画像から画像への翻訳手法を提案する。
一対の画像をランダムにサンプリングし、ジェネレータに元の構造を維持しながら、その外観を別の方向に変更するように訓練する。
実験結果から,本手法は視覚的品質と翻訳精度において,教師なしベースラインよりも優れていた。
論文 参考訳(メタデータ) (2021-05-07T08:43:38Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Toward Zero-Shot Unsupervised Image-to-Image Translation [34.51633300727676]
ゼロショットで教師なしのイメージ・ツー・イメージ翻訳フレームワークを提案する。
セマンティック属性によって区切られた空間を利用するための2つの戦略を導入する。
我々のフレームワークは、ゼロショット分類やファッションデザインなど、多くのタスクに適用できる。
論文 参考訳(メタデータ) (2020-07-28T08:13:18Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。