論文の概要: Latent Space Conditioning on Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2012.08803v1
- Date: Wed, 16 Dec 2020 08:58:10 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-06 09:11:54.948648
- Title: Latent Space Conditioning on Generative Adversarial Networks
- Title(参考訳): 生成逆ネットワーク上の潜在空間条件付け
- Authors: Ricard Durall, Kalun Ho, Franz-Josef Pfreundt and Janis Keuper
- Abstract要約: 敵対的トレーニングと表現学習という2つの一般的な学習テクニックの恩恵を受ける新しいフレームワークを紹介します。
特に,提案手法は潜在空間の構造(表現学習によって学習される)を利用して生成モデルを条件付けする。
- 参考スコア(独自算出の注目度): 3.823356975862006
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Generative adversarial networks are the state of the art approach towards
learned synthetic image generation. Although early successes were mostly
unsupervised, bit by bit, this trend has been superseded by approaches based on
labelled data. These supervised methods allow a much finer-grained control of
the output image, offering more flexibility and stability. Nevertheless, the
main drawback of such models is the necessity of annotated data. In this work,
we introduce an novel framework that benefits from two popular learning
techniques, adversarial training and representation learning, and takes a step
towards unsupervised conditional GANs. In particular, our approach exploits the
structure of a latent space (learned by the representation learning) and
employs it to condition the generative model. In this way, we break the
traditional dependency between condition and label, substituting the latter by
unsupervised features coming from the latent space. Finally, we show that this
new technique is able to produce samples on demand keeping the quality of its
supervised counterpart.
- Abstract(参考訳): 生成的逆ネットワークは、学習された合成画像生成に対する芸術的アプローチの現状である。
初期の成功は、ほとんど教師なしのものだったが、ラベル付きデータに基づくアプローチに取って代わられた。
これらの教師付き手法により、出力画像のよりきめ細かい制御が可能となり、柔軟性と安定性が向上する。
それでも、そのようなモデルの主な欠点は、注釈付きデータが必要であることである。
本研究では,敵対的学習と表現学習という2つの一般的な学習手法の恩恵を受ける新しい枠組みを導入し,教師なし条件付きGANへの一歩を踏み出した。
特に,提案手法は潜在空間の構造(表現学習によって学習される)を利用して生成モデルを条件付けする。
このようにして、条件とラベルの間の従来の依存関係を分解し、後者を潜在空間から来る教師なしの特徴に置き換える。
最後に,この新しい手法は,監視対象の品質を維持しながら,オンデマンドでサンプルを生成できることを実証する。
関連論文リスト
- Efficient Visualization of Neural Networks with Generative Models and Adversarial Perturbations [0.0]
本稿では,既存の手法を改良した生成ネットワークによるディープビジュアライゼーション手法を提案する。
我々のモデルは、使用するネットワーク数を減らし、ジェネレータと識別器のみを必要とすることにより、アーキテクチャを単純化する。
我々のモデルは、事前の訓練知識を少なくし、差別者がガイドとして機能する非敵的訓練プロセスを使用する。
論文 参考訳(メタデータ) (2024-09-20T14:59:25Z) - ACTRESS: Active Retraining for Semi-supervised Visual Grounding [52.08834188447851]
前回の研究であるRefTeacherは、疑似自信と注意に基づく監督を提供するために教師学生の枠組みを採用することで、この課題に取り組むための最初の試みである。
このアプローチは、Transformerベースのパイプラインに従う現在の最先端のビジュアルグラウンドモデルと互換性がない。
本稿では, ACTRESS を略したセミスーパービジョン視覚グラウンドのためのアクティブ・リトレーニング手法を提案する。
論文 参考訳(メタデータ) (2024-07-03T16:33:31Z) - Enforcing Conditional Independence for Fair Representation Learning and Causal Image Generation [13.841888171417017]
条件付き独立性(CI)制約は、機械学習における公平性の定義と評価に不可欠である。
エンコーダアーキテクチャに適用可能な,新たなトレーニングパラダイムを導入する。
論文 参考訳(メタデータ) (2024-04-21T23:34:45Z) - Segue: Side-information Guided Generative Unlearnable Examples for
Facial Privacy Protection in Real World [64.4289385463226]
生成不可能な例としては、Segue: Side-information guided Generative unlearnable Exampleを提案する。
転送性を向上させるために,真のラベルや擬似ラベルなどの側面情報を導入する。
JPEG圧縮、敵対的トレーニング、およびいくつかの標準的なデータ拡張に抵抗することができる。
論文 参考訳(メタデータ) (2023-10-24T06:22:37Z) - Exploring Compositional Visual Generation with Latent Classifier
Guidance [19.48538300223431]
我々は、潜在表現生成の非線形ナビゲーションを容易にするために、潜時拡散モデルと補助潜時分類器を訓練する。
潜在分類器ガイダンスにより達成された条件付き生成は、トレーニング中の条件付きログ確率の低い境界を確実に最大化することを示す。
遅延分類器誘導に基づくこのパラダイムは、事前学習された生成モデルに非依存であり、実画像と合成画像の逐次的操作と画像生成の両面での競合結果を示す。
論文 参考訳(メタデータ) (2023-04-25T03:02:58Z) - Toward Certified Robustness Against Real-World Distribution Shifts [65.66374339500025]
我々は、データから摂動を学ぶために生成モデルを訓練し、学習したモデルの出力に関して仕様を定義する。
この設定から生じるユニークな挑戦は、既存の検証者がシグモイドの活性化を厳密に近似できないことである。
本稿では,古典的な反例誘導的抽象的洗練の概念を活用するシグモイドアクティベーションを扱うための一般的なメタアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-06-08T04:09:13Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Generative Modeling Helps Weak Supervision (and Vice Versa) [87.62271390571837]
本稿では,弱い監督と生成的敵ネットワークを融合したモデルを提案する。
弱い監督によるラベル推定と並行して、データの離散変数をキャプチャする。
これは、弱い教師付き合成画像と擬似ラベルによるデータ拡張を可能にする最初のアプローチである。
論文 参考訳(メタデータ) (2022-03-22T20:24:21Z) - CoDeGAN: Contrastive Disentanglement for Generative Adversarial Network [0.5437298646956507]
解釈可能な機械学習において重要な関心事であるディスタングルメントもまた、コンピュータビジョンコミュニティから大きな注目を集めている。
我々はtextttCoDeGAN を提案し、画像領域から特徴領域への切り離しに関する類似性制約を緩和する。
我々はCoDeGANに自己教師付き事前学習を統合して意味表現を学習し、教師なしの絡み合いを著しく促進する。
論文 参考訳(メタデータ) (2021-03-05T12:44:22Z) - Adversarially-Trained Deep Nets Transfer Better: Illustration on Image
Classification [53.735029033681435]
トランスファーラーニングは、訓練済みのディープニューラルネットワークを画像認識タスクに新しいドメインに適用するための強力な方法論である。
本研究では,非逆学習モデルよりも逆学習モデルの方が優れていることを示す。
論文 参考訳(メタデータ) (2020-07-11T22:48:42Z) - Zero-shot Neural Passage Retrieval via Domain-targeted Synthetic
Question Generation [10.324402925019946]
ニューラルネットワークモデルの普及に対する大きな障害は、従来の用語ベースのテクニックを超えるために、大規模な教師付きトレーニングセットが必要であることである。
本稿では,このギャップを埋めるために合成質問生成を用いる経路探索のためのゼロショット学習手法を提案する。
論文 参考訳(メタデータ) (2020-04-29T22:21:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。