論文の概要: ContraGAN: Contrastive Learning for Conditional Image Generation
- arxiv url: http://arxiv.org/abs/2006.12681v3
- Date: Wed, 3 Feb 2021 05:34:11 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:26:50.584232
- Title: ContraGAN: Contrastive Learning for Conditional Image Generation
- Title(参考訳): ContraGAN:条件付き画像生成のためのコントラスト学習
- Authors: Minguk Kang and Jaesik Park
- Abstract要約: コンディショナル・ジェネレーティブ・アドバイサル・ネットワーク(GAN)は,クラスラベル情報を用いて多様な画像を生成する。
本稿では,複数の画像埋め込み(データ間関係)とデータ間関係(データ間関係)の関係を条件付きコントラッシブロスを用いて検討するContraGANを提案する。
実験の結果、ContraGANは、Tiny ImageNetとImageNetデータセットでそれぞれ7.3%と7.7%の最先端モデルを上回っている。
- 参考スコア(独自算出の注目度): 14.077997868828177
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Conditional image generation is the task of generating diverse images using
class label information. Although many conditional Generative Adversarial
Networks (GAN) have shown realistic results, such methods consider pairwise
relations between the embedding of an image and the embedding of the
corresponding label (data-to-class relations) as the conditioning losses. In
this paper, we propose ContraGAN that considers relations between multiple
image embeddings in the same batch (data-to-data relations) as well as the
data-to-class relations by using a conditional contrastive loss. The
discriminator of ContraGAN discriminates the authenticity of given samples and
minimizes a contrastive objective to learn the relations between training
images. Simultaneously, the generator tries to generate realistic images that
deceive the authenticity and have a low contrastive loss. The experimental
results show that ContraGAN outperforms state-of-the-art-models by 7.3% and
7.7% on Tiny ImageNet and ImageNet datasets, respectively. Besides, we
experimentally demonstrate that contrastive learning helps to relieve the
overfitting of the discriminator. For a fair comparison, we re-implement twelve
state-of-the-art GANs using the PyTorch library. The software package is
available at https://github.com/POSTECH-CVLab/PyTorch-StudioGAN.
- Abstract(参考訳): 条件付き画像生成はクラスラベル情報を用いて多様な画像を生成するタスクである。
多くの条件付き生成共役ネットワーク(GAN)は現実的な結果を示しているが、そのような手法は画像の埋め込みと対応するラベル(データ-クラス関係)の埋め込みを条件付き損失としてペアワイズに関連付けている。
本稿では,複数の画像埋め込み(データ間関係)とデータ間関係(データ間関係)の関係を条件付きコントラスト損失を用いて検討するContraGANを提案する。
ContraGANの判別器は、与えられたサンプルの真正性を識別し、訓練画像間の関係を学習するための対照的な目的を最小化する。
同時に、生成器は、真偽を欺き、コントラスト損失の少ない現実的な画像を生成する。
実験の結果、ContraGANは、Tiny ImageNetとImageNetデータセットでそれぞれ7.3%と7.7%の最先端モデルを上回っている。
さらに, コントラスト学習は, 判別器の過剰フィットを和らげる効果があることを示す。
公平な比較のために、PyTorchライブラリを使用して12の最先端GANを再実装する。
ソフトウェアパッケージはhttps://github.com/POSTECH-CVLab/PyTorch-StudioGANで入手できる。
関連論文リスト
- Fine-grained Image-to-LiDAR Contrastive Distillation with Visual Foundation Models [55.99654128127689]
Visual Foundation Models (VFM) は、3D表現学習を強化するために使用される。
VFMは、弱制御された画素間コントラスト蒸留のためのセマンティックラベルを生成する。
我々は,空間分布とカテゴリー周波数の不均衡に対応するために,点のサンプリング確率を適応させる。
論文 参考訳(メタデータ) (2024-05-23T07:48:19Z) - Image Similarity using An Ensemble of Context-Sensitive Models [2.9490616593440317]
ラベル付きデータに基づく画像類似性モデルの構築と比較に,より直感的なアプローチを提案する。
画像空間(R,A,B)におけるスパースサンプリングの課題と,文脈に基づくデータを用いたモデルにおけるバイアスに対処する。
実験の結果,構築したアンサンブルモデルは,最高の文脈依存モデルよりも5%高い性能を示した。
論文 参考訳(メタデータ) (2024-01-15T20:23:05Z) - Similarity Contrastive Estimation for Image and Video Soft Contrastive
Self-Supervised Learning [0.22940141855172028]
本稿では,インスタンス間の意味的類似性を用いたコントラスト学習の新たな定式化を提案する。
私たちのトレーニングの目標はソフトコントラストで、ポジティブに近づき、ネガティブなインスタンスを押したり引っ張ったりするための継続的分布を見積もります。
我々は,SCEが映像表現を事前学習するための最先端の結果に到達し,学習された表現が映像下流タスクに一般化可能であることを示す。
論文 参考訳(メタデータ) (2022-12-21T16:56:55Z) - What can we learn about a generated image corrupting its latent
representation? [57.1841740328509]
GANのボトルネックにおける潜在表現に基づいて画像品質を予測できるという仮説を考察する。
遅延表現を雑音で破壊し、複数の出力を生成することでこれを実現できる。
論文 参考訳(メタデータ) (2022-10-12T14:40:32Z) - Exploring Negatives in Contrastive Learning for Unpaired Image-to-Image
Translation [12.754320302262533]
我々は、パッチをスペーシングし、ランキング付けすることで、アンペア画像から画像への変換(PUT)のための新しい負のプルーニング技術を導入する。
提案アルゴリズムは効率的で柔軟で,対応するパッチ間で本質的な情報を安定的に学習することができる。
論文 参考訳(メタデータ) (2022-04-23T08:31:18Z) - Modulated Contrast for Versatile Image Synthesis [60.304183493234376]
MoNCEは画像のコントラストを導入し、多面的画像間距離の知覚のための校正基準を学習する。
複数の対照的な目的に対して協調的に負のサンプルのプッシュ力を変調するために,MoNCEの最適輸送を導入する。
論文 参考訳(メタデータ) (2022-03-17T14:03:46Z) - Robust Contrastive Learning against Noisy Views [79.71880076439297]
ノイズの多い視点に対して頑健な新しいコントラスト損失関数を提案する。
提案手法は,最新の画像,ビデオ,グラフのコントラスト学習ベンチマークに対して一貫した改善を提供する。
論文 参考訳(メタデータ) (2022-01-12T05:24:29Z) - DivCo: Diverse Conditional Image Synthesis via Contrastive Generative
Adversarial Network [70.12848483302915]
cgans (conditional generative adversarial networks) は、入力条件と潜在コードに基づいて様々な画像をターゲットにしている。
最近のMSGANは、生成した画像の多様性を奨励しようとしたが、画像ペア間の"負の関係"しか考慮しなかった。
潜在空間で指定された生成画像間の「正」と「負」の関係を適切に拘束する新しいDivCoフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-14T11:11:15Z) - Delving into Inter-Image Invariance for Unsupervised Visual
Representations [108.33534231219464]
画像間不変学習の役割をよりよく理解するための研究を提案する。
オンラインラベルはオフラインラベルよりも早く収束する。
半硬な負のサンプルは、硬い負のサンプルよりも信頼性が高く、偏りがない。
論文 参考訳(メタデータ) (2020-08-26T17:44:23Z) - A Self-supervised GAN for Unsupervised Few-shot Object Recognition [39.79912546252623]
本稿では、教師なし数発の物体認識について述べる。
すべてのトレーニングイメージはラベル付けされておらず、テストイメージはクエリと、対象のクラス毎にラベル付きサポートイメージに分割されている。
我々は,バニラGANを2つの損失関数で拡張し,それぞれが自己教師型学習を目的とした。
論文 参考訳(メタデータ) (2020-08-16T19:47:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。