論文の概要: Contrastive Disentanglement in Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2103.03636v1
- Date: Fri, 5 Mar 2021 12:44:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-08 15:06:40.853172
- Title: Contrastive Disentanglement in Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkにおけるコントラスト・ディスタングル
- Authors: Lili Pan, Peijun Tang, Zhiyong Chen, Zenglin Xu
- Abstract要約: 本稿では,cd-gan(con contrastive disentanglement ingenerative adversarial networks)を提案する。
画像特徴とは対照的な視覚データスルーのクラス間変動の要因を解消することを目的としている。
限られた量のスーパービジョンを利用して、クラス間の非絡み合い性能を促進します。
- 参考スコア(独自算出の注目度): 24.691648995507105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Disentanglement is defined as the problem of learninga representation that
can separate the distinct, informativefactors of variations of data. Learning
such a representa-tion may be critical for developing explainable and
human-controllable Deep Generative Models (DGMs) in artificialintelligence.
However, disentanglement in GANs is not a triv-ial task, as the absence of
sample likelihood and posteriorinference for latent variables seems to prohibit
the forwardstep. Inspired by contrastive learning (CL), this paper, froma new
perspective, proposes contrastive disentanglement ingenerative adversarial
networks (CD-GAN). It aims at dis-entangling the factors of inter-class
variation of visual datathrough contrasting image features, since the same
factorvalues produce images in the same class. More importantly,we probe a
novel way to make use of limited amount ofsupervision to the largest extent, to
promote inter-class dis-entanglement performance. Extensive experimental
resultson many well-known datasets demonstrate the efficacy ofCD-GAN for
disentangling inter-class variation.
- Abstract(参考訳): ディスタングルメントは、データのバリエーションの区別された情報的要素を分離できる、表現の学習の問題として定義される。
このような表現論を学ぶことは、人工知性において説明可能で人間制御可能なDeep Generative Model(DGM)を開発するために重要である。
しかし, 潜伏変数の標本可能性や後方推論が欠如しているため, GANの絡み合いは三次的課題ではない。
コントラスト学習 (CL) に触発された本論文は, 新たな視点から, コントラスト的非絡み合い(CD-GAN) を提案する。
同じ係数が同じクラスで画像を生成するため、画像特徴と対照的な視覚データスルーのクラス間変動の要因を解消することを目的としている。
より重要なことは,クラス間の非絡合性能を高めるために,限られたスーパービジョンを最大限に活用するための新しい手法を探索することである。
広範な実験結果多くのよく知られたデータセットは、クラス間の変動を解くためのCD-GANの有効性を示す。
関連論文リスト
- Parallelly Tempered Generative Adversarial Networks [7.94957965474334]
生成的敵対ネットワーク(GAN)は、生成的人工知能(AI)における代表的バックボーンモデルである。
本研究は,モード崩壊の存在下でのトレーニングの不安定性と非効率性を,対象分布におけるマルチモーダルにリンクすることで解析する。
新たに開発したGAN目標関数により, 生成元は同時に全ての誘電分布を学習することができる。
論文 参考訳(メタデータ) (2024-11-18T18:01:13Z) - U-KAN Makes Strong Backbone for Medical Image Segmentation and Generation [48.40120035775506]
Kolmogorov-Arnold Networks (KAN)は、非線形学習可能なアクティベーション関数のスタックを通じてニューラルネットワーク学習を再構築する。
トークン化中間表現であるU-KAN上に専用kan層を統合することにより,確立したU-Netパイプラインを検証,修正,再設計する。
さらに、拡散モデルにおける代替U-Netノイズ予測器としてのU-KANの可能性を探り、タスク指向モデルアーキテクチャの生成にその適用性を実証した。
論文 参考訳(メタデータ) (2024-06-05T04:13:03Z) - GIFD: A Generative Gradient Inversion Method with Feature Domain
Optimization [52.55628139825667]
Federated Learning(FL)は、クライアントのプライバシを保護するための有望な分散機械学習フレームワークとして登場した。
近年の研究では、事前学習された生成逆ネットワーク(GAN)を事前知識として活用することにより、攻撃者が共有勾配を逆転し、FLシステムに対する機密データを回復できることが示されている。
textbfGradient textbfInversion over textbfFeature textbfDomains (GIFD)を提案する。
論文 参考訳(メタデータ) (2023-08-09T04:34:21Z) - Traditional Classification Neural Networks are Good Generators: They are
Competitive with DDPMs and GANs [104.72108627191041]
従来のニューラルネットワーク分類器は、最先端の生成モデルに匹敵する高品質な画像を生成することができることを示す。
マスクをベースとした再構成モジュールを提案し, 意味的勾配を意識し, 可視画像の合成を行う。
また,本手法は,画像テキスト基盤モデルに関して,テキスト・画像生成にも適用可能であることを示す。
論文 参考訳(メタデータ) (2022-11-27T11:25:35Z) - Unsupervised Image Generation with Infinite Generative Adversarial
Networks [24.41144953504398]
無限条件GANまたはMIC-GANを混合した非教師なし非パラメトリック手法を提案する。
MIC-GANは潜伏空間の構造化やモード崩壊の回避に有効であることを示す。
論文 参考訳(メタデータ) (2021-08-18T05:03:19Z) - Contextual Fusion For Adversarial Robustness [0.0]
ディープニューラルネットワークは、通常、1つの特定の情報ストリームを処理し、様々な種類の敵の摂動に影響を受けやすいように設計されている。
そこで我々はPlaces-CNNとImagenet-CNNから並列に抽出した背景特徴と前景特徴を組み合わせた融合モデルを開発した。
グラデーションをベースとした攻撃では,フュージョンは乱れのないデータの性能を低下させることなく,分類の大幅な改善を可能にする。
論文 参考訳(メタデータ) (2020-11-18T20:13:23Z) - Unsupervised Controllable Generation with Self-Training [90.04287577605723]
GANによる制御可能な世代は依然として困難な研究課題である。
本稿では,自己学習を通じてジェネレータを制御する潜伏符号の分布を学習するための教師なしフレームワークを提案する。
我々のフレームワークは、変分オートエンコーダのような他の変種と比較して、より良い絡み合いを示す。
論文 参考訳(メタデータ) (2020-07-17T21:50:35Z) - Self-supervised Equivariant Attention Mechanism for Weakly Supervised
Semantic Segmentation [93.83369981759996]
本稿では,自己監督同変注意機構(SEAM)を提案する。
本手法は,完全教師付きセマンティックセグメンテーションにおいて,同値が暗黙の制約であることを示す。
本稿では,ネットワーク学習のための自己スーパービジョンを提供するために,様々な変換画像から予測されたCAMの整合性正則化を提案する。
論文 参考訳(メタデータ) (2020-04-09T14:57:57Z) - Image Fine-grained Inpainting [89.17316318927621]
拡張畳み込みの密結合を利用してより大きく効果的な受容場を得る一段階モデルを提案する。
この効率的なジェネレータをよく訓練するために、頻繁に使用されるVGG特徴整合損失を除いて、新しい自己誘導回帰損失を設計する。
また、局所的・グローバルな分枝を持つ識別器を用いて、局所的・グローバルな内容の整合性を確保する。
論文 参考訳(メタデータ) (2020-02-07T03:45:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。