論文の概要: TRIP: Refining Image-to-Image Translation via Rival Preferences
- arxiv url: http://arxiv.org/abs/2111.13411v1
- Date: Fri, 26 Nov 2021 10:30:55 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-29 17:17:33.620614
- Title: TRIP: Refining Image-to-Image Translation via Rival Preferences
- Title(参考訳): TRIP: 画像から画像への変換をRival Preferencesで改善
- Authors: Yinghua Yao, Yuangang Pan, Ivor W. Tsang, Xin Yao
- Abstract要約: 相対属性(RA)は、そのリッチなセマンティック情報により、きめ細かい画像から画像への変換を可能にする。
本稿では,細粒度翻訳と高品質生成の目標を調整するための新しいモデルTRIPを提案する。
2つの顔画像データセットと1つの靴画像データセットの実験は、私たちのTRIPが最先端の結果を達成することを示す。
- 参考スコア(独自算出の注目度): 46.938056382255304
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Relative attribute (RA), referring to the preference over two images on the
strength of a specific attribute, can enable fine-grained image-to-image
translation due to its rich semantic information. Existing work based on RAs
however failed to reconcile the goal for fine-grained translation and the goal
for high-quality generation. We propose a new model TRIP to coordinate these
two goals for high-quality fine-grained translation. In particular, we
simultaneously train two modules: a generator that translates an input image to
the desired image with smooth subtle changes with respect to the interested
attributes; and a ranker that ranks rival preferences consisting of the input
image and the desired image. Rival preferences refer to the adversarial ranking
process: (1) the ranker thinks no difference between the desired image and the
input image in terms of the desired attributes; (2) the generator fools the
ranker to believe that the desired image changes the attributes over the input
image as desired. RAs over pairs of real images are introduced to guide the
ranker to rank image pairs regarding the interested attributes only. With an
effective ranker, the generator would "win" the adversarial game by producing
high-quality images that present desired changes over the attributes compared
to the input image. The experiments on two face image datasets and one shoe
image dataset demonstrate that our TRIP achieves state-of-art results in
generating high-fidelity images which exhibit smooth changes over the
interested attributes.
- Abstract(参考訳): 相対属性(RA)は、特定の属性の強さに関する2つの画像に対する好みを参照し、そのリッチな意味情報により微細な画像から画像への変換を可能にする。
しかし、RAをベースとした既存の作業は、微細な翻訳の目標と高品質な生成の目標の調整に失敗した。
高品質な細粒度翻訳のための2つの目標をコーディネートする新しいモデル TRIP を提案する。
特に,入力画像から所望の画像への変換を行うジェネレータと,入力画像と所望の画像からなる競合選好をランク付けするランク付け器の2つのモジュールを同時に訓練する。
ライバルの選好は、敵のランク付けの過程を参照する: (1) ランク付け者は、所望の属性の観点で所望の画像と入力画像との差を考慮せず、(2) 生成者は、所望の画像が所望の入力画像上の属性を所望の通り変更すると考えるように、ランク付け者を騙す。
実画像の対上のRAを導入し、興味のある属性のみに関する画像対をランク付けする。
有効ランク付けにより、ジェネレータは、入力画像と比較して属性に対して望ましい変化を示す高品質な画像を生成することにより、敵ゲームに「勝つ」。
2つの顔画像データセットと1つの靴画像データセットに関する実験は、我々の旅行が最先端の成果を達成し、興味のある属性に対してスムーズな変化を示す高忠実な画像を生成することを示しています。
関連論文リスト
- Wavelet-based Unsupervised Label-to-Image Translation [9.339522647331334]
本稿では、自己教師付きセグメンテーション損失と全画像ウェーブレットに基づく識別を併用した、SIS(USIS)のための新しいアン教師付きパラダイムを提案する。
3つの挑戦的なデータセットで方法論を検証し、ペアモデルとアンペアモデルのパフォーマンスギャップを橋渡しする能力を実証する。
論文 参考訳(メタデータ) (2023-05-16T17:48:44Z) - Masked and Adaptive Transformer for Exemplar Based Image Translation [16.93344592811513]
ドメイン間のセマンティックマッチングは難しい。
正確なクロスドメイン対応を学習するためのマスク付き適応変換器(MAT)を提案する。
品質識別型スタイル表現を得るための新しいコントラスト型スタイル学習法を考案する。
論文 参考訳(メタデータ) (2023-03-30T03:21:14Z) - IR-GAN: Image Manipulation with Linguistic Instruction by Increment
Reasoning [110.7118381246156]
Incrment Reasoning Generative Adversarial Network (IR-GAN)は、画像における視覚的インクリメントと命令における意味的インクリメントとの整合性を推論することを目的としている。
まず,単語レベルと命令レベルの命令エンコーダを導入し,履歴関連命令からユーザの意図を意味的インクリメントとして学習する。
第2に、対象画像を生成するために、意味的インクリメントの表現をソースイメージに組み込んで、ソースイメージが補助的参照の役割を担っている。
論文 参考訳(メタデータ) (2022-04-02T07:48:39Z) - Image-to-Image Translation with Low Resolution Conditioning [0.28675177318965034]
本研究の目的は、高解像度(HR)画像から細部を転写して、ターゲットの粗い低解像度(LR)画像表現に適合させることである。
これは、あるイメージスタイルをターゲットコンテンツに変換することに集中する以前の方法とは異なる。
提案手法は, HRターゲット画像を生成するための生成モデルをトレーニングすることに依存し, 1) 対応するソース画像の固有情報を共有すること, 2) ダウンスケール時のLRターゲット画像と正しく一致させることである。
論文 参考訳(メタデータ) (2021-07-23T14:22:12Z) - Towards Unsupervised Deep Image Enhancement with Generative Adversarial
Network [92.01145655155374]
監視されていない画像強調生成ネットワーク(UEGAN)を提案する。
教師なしの方法で所望の特性を持つ画像の集合から、対応する画像と画像のマッピングを学習する。
その結果,提案モデルは画像の美的品質を効果的に向上することがわかった。
論文 参考訳(メタデータ) (2020-12-30T03:22:46Z) - Unpaired Image-to-Image Translation via Latent Energy Transport [61.62293304236371]
画像から画像への変換は、2つの視覚領域間の識別的ターゲットスタイルに変換しながら、ソースの内容を保存することを目的としている。
本稿では,この課題に対して,事前訓練されたオートエンコーダの潜在空間にエネルギーベースモデル(EBM)を配置することを提案する。
我々のモデルは1024$times$1024- resolution unpaired image translationに適用できる最初のモデルである。
論文 参考訳(メタデータ) (2020-12-01T17:18:58Z) - Unsupervised Image-to-Image Translation via Pre-trained StyleGAN2
Network [73.5062435623908]
本稿では,一連のモデル変換によって対象領域に新たなモデルを生成する新しいI2I翻訳手法を提案する。
潜在ベクトルを生成されたモデルに入力することで、ソースドメインとターゲットドメインの間でI2I翻訳を行うことができる。
論文 参考訳(メタデータ) (2020-10-12T13:51:40Z) - Describe What to Change: A Text-guided Unsupervised Image-to-Image
Translation Approach [84.22327278486846]
本稿では,画像から画像への変換に基づく新しい教師なしの手法を提案する。
本モデルは視覚的属性から画像内容を切り離し,テキスト記述を用いて後者を変更することを学習する。
実験により,提案モデルが2つの大規模公開データセットに対して有望な性能を達成することを示す。
論文 参考訳(メタデータ) (2020-08-10T15:40:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。