論文の概要: Contrastive Learning for Unsupervised Image-to-Image Translation
- arxiv url: http://arxiv.org/abs/2105.03117v1
- Date: Fri, 7 May 2021 08:43:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:17:52.819586
- Title: Contrastive Learning for Unsupervised Image-to-Image Translation
- Title(参考訳): 教師なし画像間翻訳におけるコントラスト学習
- Authors: Hanbit Lee, Jinseok Seol, Sang-goo Lee
- Abstract要約: コントラスト学習に基づく教師なし画像から画像への翻訳手法を提案する。
一対の画像をランダムにサンプリングし、ジェネレータに元の構造を維持しながら、その外観を別の方向に変更するように訓練する。
実験結果から,本手法は視覚的品質と翻訳精度において,教師なしベースラインよりも優れていた。
- 参考スコア(独自算出の注目度): 10.091669091440396
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-to-image translation aims to learn a mapping between different groups
of visually distinguishable images. While recent methods have shown impressive
ability to change even intricate appearance of images, they still rely on
domain labels in training a model to distinguish between distinct visual
features. Such dependency on labels often significantly limits the scope of
applications since consistent and high-quality labels are expensive. Instead,
we wish to capture visual features from images themselves and apply them to
enable realistic translation without human-generated labels. To this end, we
propose an unsupervised image-to-image translation method based on contrastive
learning. The key idea is to learn a discriminator that differentiates between
distinctive styles and let the discriminator supervise a generator to transfer
those styles across images. During training, we randomly sample a pair of
images and train the generator to change the appearance of one towards another
while keeping the original structure. Experimental results show that our method
outperforms the leading unsupervised baselines in terms of visual quality and
translation accuracy.
- Abstract(参考訳): 画像から画像への翻訳は、視覚的に識別可能な画像の異なるグループ間のマッピングを学ぶことを目的としている。
最近の手法では、画像の複雑な外観をさらに変えることができるが、異なる視覚特徴を区別するためにモデルを訓練する際にも、ドメインラベルに依存している。
このようなラベルへの依存は、一貫性と高品質のラベルが高価であるため、アプリケーションのスコープを大幅に制限することが多い。
代わりに、画像自体の視覚的特徴をキャプチャして、人間生成ラベルなしで現実的な翻訳を可能にしたいと考えています。
そこで本研究では,コントラスト学習に基づく教師なし画像から画像への翻訳手法を提案する。
キーとなるアイデアは、識別器を学習し、識別器がジェネレータを監督してそれらのスタイルを画像間で転送することだ。
トレーニング中、一対の画像をランダムにサンプリングし、ジェネレータに元の構造を維持しながら、その外観を別の方向に変更するように訓練する。
実験結果から,本手法は視覚的品質と翻訳精度において,教師なしベースラインよりも優れていた。
関連論文リスト
- Distractors-Immune Representation Learning with Cross-modal Contrastive Regularization for Change Captioning [71.14084801851381]
変更キャプションは、類似した画像間のセマンティックな変化を簡潔に記述することを目的としている。
既存のほとんどの手法は、それらの違いを直接キャプチャし、エラーを起こしやすい特徴を得るリスクを負う。
本稿では,2つの画像表現の対応するチャネルを関連づけるイントラクタ免疫表現学習ネットワークを提案する。
論文 参考訳(メタデータ) (2024-07-16T13:00:33Z) - A Style-aware Discriminator for Controllable Image Translation [10.338078700632423]
現在の画像から画像への変換は、トレーニング中に使用されるクラス以外の出力領域を制御しない。
本稿では,批判的かつ条件を提供するスタイルとして機能するスタイル認識型識別器を提案する。
複数のデータセットの実験では、提案モデルが現在の最先端画像から画像への変換方法より優れていることが確認されている。
論文 参考訳(メタデータ) (2022-03-29T09:13:33Z) - Spatially Multi-conditional Image Generation [80.04130168156792]
本稿では,マルチ条件画像生成の問題に対処する新しいニューラルアーキテクチャを提案する。
提案手法は, 利用可能なラベルを入力トークンとして受信する, 画素単位のトランスフォーマー型アーキテクチャを用いる。
3つのベンチマークデータセットに対する実験により,提案手法の最先端および比較ベースラインに対する明らかな優位性を示した。
論文 参考訳(メタデータ) (2022-03-25T17:57:13Z) - Separating Content and Style for Unsupervised Image-to-Image Translation [20.44733685446886]
教師なしのイメージ・ツー・イメージ翻訳は、2つの視覚領域間のマッピングを未ペアのサンプルで学習することを目的としている。
統合されたフレームワークでコンテンツコードとスタイルコードを同時に分離することを提案する。
潜在機能と高レベルのドメイン不変タスクの相関から,提案手法は優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-27T12:56:50Z) - Multi-Label Image Classification with Contrastive Learning [57.47567461616912]
コントラスト学習の直接適用は,複数ラベルの場合においてほとんど改善できないことを示す。
完全教師付き環境下でのコントラスト学習を用いたマルチラベル分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2021-07-24T15:00:47Z) - Mixed Supervision Learning for Whole Slide Image Classification [88.31842052998319]
超高解像度画像のための混合監視学習フレームワークを提案する。
パッチトレーニングの段階では、このフレームワークは、粗いイメージレベルのラベルを使用して、自己教師付き学習を洗練することができる。
画素レベルの偽陽性と偽陰性を抑制するための包括的な戦略が提案されている。
論文 参考訳(メタデータ) (2021-07-02T09:46:06Z) - Semantic Diversity Learning for Zero-Shot Multi-label Classification [14.480713752871523]
本研究では,マルチラベルゼロショット学習のためのエンドツーエンドモデルトレーニングを提案する。
本研究では,主埋め込みベクトルを持つ埋め込み行列を用いて,調整された損失関数を用いて訓練する。
さらに, 学習中, 組込み行列の多様性を促進するために, 高い意味的多様性を示す損失関数画像サンプルの重み付けを提案する。
論文 参考訳(メタデータ) (2021-05-12T19:39:07Z) - Unsupervised Deep Metric Learning with Transformed Attention Consistency
and Contrastive Clustering Loss [28.17607283348278]
教師なしのメートル法学習のための既存のアプローチは、入力画像自体の自己超越情報を探索することに焦点を当てている。
我々は、画像を分析する際、人間の目は個々の画像を調べるのではなく、互いに画像を比較することが多いことを観察した。
本研究では,画像間の自己超越情報に基づいてネットワークを学習する,教師なし深度学習のための新しいアプローチを開発する。
論文 参考訳(メタデータ) (2020-08-10T19:33:47Z) - Contrastive Learning for Unpaired Image-to-Image Translation [64.47477071705866]
画像から画像への変換では、出力の各パッチは、入力中の対応するパッチの内容を、ドメインに依存しない形で反映すべきである。
本研究では,両者の相互情報を最大化するために,コントラスト学習に基づく枠組みを提案する。
筆者らのフレームワークは、画質の向上とトレーニング時間の短縮を図りながら、画像から画像への翻訳設定の一方的な翻訳を可能にすることを実証している。
論文 参考訳(メタデータ) (2020-07-30T17:59:58Z) - Distilling Localization for Self-Supervised Representation Learning [82.79808902674282]
コントラスト学習は教師なし表現学習に革命をもたらした。
現在のコントラストモデルでは、前景オブジェクトのローカライズには効果がない。
本稿では,背景変化を学習するためのデータ駆動型手法を提案する。
論文 参考訳(メタデータ) (2020-04-14T16:29:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。