論文の概要: Contrastive Disentanglement in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2103.03636v1
- Date: Fri, 5 Mar 2021 12:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:06:40.853172
- Title: Contrastive Disentanglement in Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおけるコントラスト・ディスタングル
- Authors: Lili Pan, Peijun Tang, Zhiyong Chen, Zenglin Xu
- Abstract要約: 本稿では,cd-gan(con contrastive disentanglement ingenerative adversarial networks)を提案する。
画像特徴とは対照的な視覚データスルーのクラス間変動の要因を解消することを目的としている。
限られた量のスーパービジョンを利用して、クラス間の非絡み合い性能を促進します。
- 参考スコア(独自算出の注目度): 24.691648995507105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentanglement is defined as the problem of learninga representation that
can separate the distinct, informativefactors of variations of data. Learning
such a representa-tion may be critical for developing explainable and
human-controllable Deep Generative Models (DGMs) in artificialintelligence.
However, disentanglement in GANs is not a triv-ial task, as the absence of
sample likelihood and posteriorinference for latent variables seems to prohibit
the forwardstep. Inspired by contrastive learning (CL), this paper, froma new
perspective, proposes contrastive disentanglement ingenerative adversarial
networks (CD-GAN). It aims at dis-entangling the factors of inter-class
variation of visual datathrough contrasting image features, since the same
factorvalues produce images in the same class. More importantly,we probe a
novel way to make use of limited amount ofsupervision to the largest extent, to
promote inter-class dis-entanglement performance. Extensive experimental
resultson many well-known datasets demonstrate the efficacy ofCD-GAN for
disentangling inter-class variation.
- Abstract(参考訳): ディスタングルメントは、データのバリエーションの区別された情報的要素を分離できる、表現の学習の問題として定義される。
このような表現論を学ぶことは、人工知性において説明可能で人間制御可能なDeep Generative Model(DGM)を開発するために重要である。
しかし, 潜伏変数の標本可能性や後方推論が欠如しているため, GANの絡み合いは三次的課題ではない。
コントラスト学習 (CL) に触発された本論文は, 新たな視点から, コントラスト的非絡み合い(CD-GAN) を提案する。
同じ係数が同じクラスで画像を生成するため、画像特徴と対照的な視覚データスルーのクラス間変動の要因を解消することを目的としている。
より重要なことは,クラス間の非絡合性能を高めるために,限られたスーパービジョンを最大限に活用するための新しい手法を探索することである。
広範な実験結果多くのよく知られたデータセットは、クラス間の変動を解くためのCD-GANの有効性を示す。
関連論文リスト
- Bridging Generative and Discriminative Models for Unified Visual
Perception with Diffusion Priors [56.82596340418697]
本稿では,豊富な生成前駆体を含む事前学習型安定拡散(SD)モデルと,階層的表現を統合可能な統一型ヘッド(Uヘッド)と,識別前駆体を提供する適応型専門家からなる,シンプルで効果的なフレームワークを提案する。
包括的調査では、異なる時間ステップで潜伏変数に隠された知覚の粒度や様々なU-netステージなど、バーマスの潜在的な特性が明らかになった。
有望な結果は,有望な学習者としての拡散モデルの可能性を示し,情報的かつ堅牢な視覚表現の確立にその意義を定めている。
論文 参考訳(メタデータ) (2024-01-29T10:36:57Z) - DiffAugment: Diffusion based Long-Tailed Visual Relationship Recognition [43.01467525231004]
DiffAugment は WordNet を利用して言語空間のテールクラスを拡張する手法である。
本研究は, テールクラスに対する視覚的埋め込み生成における硬度認識拡散の有効性を実証する。
また,生成した視覚的埋め込みの識別能力を向上する,拡散サンプリングのための新しい主題とオブジェクトベースのシード戦略を提案する。
論文 参考訳(メタデータ) (2024-01-01T21:20:43Z) - Deep Intrinsic Decomposition with Adversarial Learning for Hyperspectral
Image Classification [9.051982753583232]
本研究は,超スペクトル画像分類のための逆学習,すなわちAdverDecomを用いた新しい内在的分解法を開発した。
異なる環境カテゴリーを識別するために識別ネットワークを構築する。
実験は3つの一般的な実世界のデータセット上で行われる。
論文 参考訳(メタデータ) (2023-10-28T00:41:25Z) - Detail Reinforcement Diffusion Model: Augmentation Fine-Grained Visual
Categorization in Few-Shot Conditions [11.931820047796332]
拡散モデルは、データ生成において顕著な多様性のため、データ拡張において広く採用されている。
詳細強化拡散モデル(DRDM)と呼ばれる新しい手法を提案する。
大規模モデルの豊富な知識を微粒化に活用し、識別的意味的組換え(DSR)と空間的知識参照(SKR)の2つの重要な構成要素を含む。
論文 参考訳(メタデータ) (2023-09-15T01:28:59Z) - Leveraging Relational Information for Learning Weakly Disentangled
Representations [11.460692362624533]
絡み合いは神経表現を強制するのは難しい性質である。
我々は、(弱々しい)非絡み合い表現の学習に関する別の見解を示す。
論文 参考訳(メタデータ) (2022-05-20T09:58:51Z) - What Should Not Be Contrastive in Contrastive Learning [110.14159883496859]
本稿では,タスク依存不変性に関する事前知識を必要としない,対照的な学習フレームワークを提案する。
我々のモデルは、異なる埋め込み空間を構築することで、視覚表現の様々な要因や不変要素を捉えることを学習する。
我々は、共有バックボーンを持つマルチヘッドネットワークを使用し、各オーグメンテーションにまたがる情報をキャプチャし、ダウンストリームタスクにおけるすべてのベースラインより優れている。
論文 参考訳(メタデータ) (2020-08-13T03:02:32Z) - Learning Disentangled Representations with Latent Variation
Predictability [102.4163768995288]
本稿では,潜在不整合表現の変動予測可能性について述べる。
逆生成プロセス内では、潜時変動と対応する画像対の相互情報を最大化することにより、変動予測可能性を高める。
本研究では,潜在表現の絡み合いを測るために,基礎的構造的生成因子に依存しない評価指標を開発する。
論文 参考訳(メタデータ) (2020-07-25T08:54:26Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Learning What Makes a Difference from Counterfactual Examples and
Gradient Supervision [57.14468881854616]
ニューラルネットワークの一般化能力を改善するための補助的学習目標を提案する。
我々は、異なるラベルを持つ最小差の例のペア、すなわち反ファクトまたはコントラストの例を使用し、タスクの根底にある因果構造を示す信号を与える。
このテクニックで訓練されたモデルは、配布外テストセットのパフォーマンスを向上させる。
論文 参考訳(メタデータ) (2020-04-20T02:47:49Z) - When Relation Networks meet GANs: Relation GANs with Triplet Loss [110.7572918636599]
GAN(Generative Adversarial Network)の学習安定性はいまだに悩みの種である
本稿では,判別器のための関係ネットワークアーキテクチャについて検討し,より優れた一般化と安定性を実現する三重項損失を設計する。
ベンチマークデータセットの実験により、提案された関係判別器と新たな損失は、可変視覚タスクに大幅な改善をもたらすことが示された。
論文 参考訳(メタデータ) (2020-02-24T11:35:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。