論文の概要: Unpaired Image-to-Image Translation using Adversarial Consistency Loss
- arxiv url: http://arxiv.org/abs/2003.04858v7
- Date: Mon, 18 Jan 2021 12:13:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 21:20:05.200473
- Title: Unpaired Image-to-Image Translation using Adversarial Consistency Loss
- Title(参考訳): 逆整合損失を用いた不対向画像変換
- Authors: Yihao Zhao, Ruihai Wu, Hao Dong
- Abstract要約: 本稿では,画像から画像への変換における新たな対角距離損失を提案する。
本手法は, 眼鏡の除去, 男性から女性への翻訳, 自撮りからアニメへの翻訳の3つの課題に対して, 最先端の成果を得る。
- 参考スコア(独自算出の注目度): 6.900819011690599
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Unpaired image-to-image translation is a class of vision problems whose goal
is to find the mapping between different image domains using unpaired training
data. Cycle-consistency loss is a widely used constraint for such problems.
However, due to the strict pixel-level constraint, it cannot perform geometric
changes, remove large objects, or ignore irrelevant texture. In this paper, we
propose a novel adversarial-consistency loss for image-to-image translation.
This loss does not require the translated image to be translated back to be a
specific source image but can encourage the translated images to retain
important features of the source images and overcome the drawbacks of
cycle-consistency loss noted above. Our method achieves state-of-the-art
results on three challenging tasks: glasses removal, male-to-female
translation, and selfie-to-anime translation.
- Abstract(参考訳): unpaired image-to-image translationは、unpaired trainingデータを使用して異なる画像ドメイン間のマッピングを見つけることを目的としたビジョン問題のクラスである。
サイクル一貫性損失はそのような問題に対して広く用いられる制約である。
しかし、厳密なピクセルレベルの制約のため、幾何学的な変化や大きな物体の除去、無関係なテクスチャの無視はできない。
本稿では,画像から画像への変換における新たな逆抵抗損失を提案する。
この損失は、翻訳された画像が特定のソースイメージに変換される必要はなく、翻訳された画像がソースイメージの重要な特徴を保持し、上記のサイクルコンシスタンスロスの欠点を克服するよう促すことができる。
本手法は, 眼鏡の除去, 男性から女性への翻訳, 自撮りからアニメへの翻訳の3つの課題に対して, 最先端の成果を得る。
関連論文リスト
- High-Resolution Image Translation Model Based on Grayscale Redefinition [3.6996084306161277]
本稿では,異なる領域間の画像翻訳のための革新的な手法を提案する。
高解像度画像翻訳タスクでは、グレースケール調整法を用いてピクセルレベルの変換を行う。
他のタスクでは、Pix2PixHDモデルを使い、粗大な生成装置、マルチスケールの判別器、画像翻訳性能を向上させるために損失の改善を行う。
論文 参考訳(メタデータ) (2024-03-26T12:21:47Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Semi-Supervised Image-to-Image Translation using Latent Space Mapping [37.232496213047845]
半教師付き画像翻訳のための一般的なフレームワークを提案する。
私たちの一番の考え方は、画像空間ではなく、潜在機能空間の翻訳を学ぶことです。
低次元の特徴空間のおかげで、所望の写像関数を見つけるのが容易である。
論文 参考訳(メタデータ) (2022-03-29T05:14:26Z) - Contrastive Unpaired Translation using Focal Loss for Patch
Classification [0.0]
コントラストアンペア翻訳は画像から画像への翻訳の新しい手法である。
本研究では,PatchNCE損失におけるクロスエントロピー損失の代わりに焦点損失を用いることで,モデルの性能が向上することを示す。
論文 参考訳(メタデータ) (2021-09-25T20:22:33Z) - Unaligned Image-to-Image Translation by Learning to Reweight [40.93678165567824]
教師なし画像から画像への変換は、トレーニングにペア画像を用いることなく、ソースからターゲットドメインへのマッピングを学習することを目的としている。
教師なしのイメージ翻訳に不可欠な仮定は、2つの領域が整列しているということである。
重要度再重み付けに基づく画像の選択を提案し,重み付けを学習し,同時に自動翻訳を行う手法を開発した。
論文 参考訳(メタデータ) (2021-09-24T04:08:22Z) - The Spatially-Correlative Loss for Various Image Translation Tasks [69.62228639870114]
シーン構造の一貫性を保つために、シンプルで効率的かつ効果的な新しい空間相関損失を提案します。
以前の方法は、ピクセルレベルのサイクル一貫性または特徴レベルのマッチング損失を使用してこれを試みます。
I2I翻訳の3つのモードすべてにおいて,ベースラインモデルに対して,単一モーダル,マルチモーダル,さらには単一イメージ翻訳において,明確な改善が見られた。
論文 参考訳(メタデータ) (2021-04-02T02:13:30Z) - BalaGAN: Image Translation Between Imbalanced Domains via Cross-Modal
Transfer [53.79505340315916]
ドメイン不均衡問題に対処するために特別に設計されたBalaGANを紹介する。
我々は、画像から画像への変換問題を、バランスよく、複数クラス、条件付き翻訳問題に変換するために、よりリッチなドメインの潜在モダリティを利用する。
本研究では,BalaGANが,無条件およびスタイル変換に基づく画像から画像への変換方式の強いベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2020-10-05T14:16:41Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - COCO-FUNIT: Few-Shot Unsupervised Image Translation with a Content
Conditioned Style Encoder [70.23358875904891]
教師なし画像画像変換は、与えられた領域内の画像と異なる領域内の類似画像とのマッピングを学習することを目的としている。
入力画像に条件付けされたサンプル画像のスタイル埋め込みを計算し、新しい数ショット画像変換モデルCOCO-FUNITを提案する。
本モデルは,コンテンツ損失問題に対処する上での有効性を示す。
論文 参考訳(メタデータ) (2020-07-15T02:01:14Z) - Semi-supervised Learning for Few-shot Image-to-Image Translation [89.48165936436183]
本稿では,SEMITと呼ばれる画像翻訳のための半教師付き手法を提案する。
提案手法は,ソースラベルの10%以下を用いて,4つの異なるデータセットに対して優れた結果を得る。
論文 参考訳(メタデータ) (2020-03-30T22:46:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。