論文の概要: A Non-Adversarial Approach to Idempotent Generative Modelling
- arxiv url: http://arxiv.org/abs/2511.02614v1
- Date: Tue, 04 Nov 2025 14:37:23 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-05 18:47:06.076927
- Title: A Non-Adversarial Approach to Idempotent Generative Modelling
- Title(参考訳): Idempotent Generative Modelingへの非対角的アプローチ
- Authors: Mohammed Al-Jaff, Giovanni Luca Marchetti, Michael C Welle, Jens Lundell, Mats G. Gustafsson, Gustav Eje Henter, Hossein Azizpour, Danica Kragic,
- Abstract要約: Idempotent Generative Networks (IGN) は、局所データ多様体プロジェクタとしても機能する深層生成モデルである。
IGNは、モード崩壊、モード降下、目標によるトレーニング不安定に悩まされる。
これらの問題に対処するために、非逆等等化生成ネットワーク(NAIGN)を導入する。
- 参考スコア(独自算出の注目度): 25.110827996245565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Idempotent Generative Networks (IGNs) are deep generative models that also function as local data manifold projectors, mapping arbitrary inputs back onto the manifold. They are trained to act as identity operators on the data and as idempotent operators off the data manifold. However, IGNs suffer from mode collapse, mode dropping, and training instability due to their objectives, which contain adversarial components and can cause the model to cover the data manifold only partially -- an issue shared with generative adversarial networks. We introduce Non-Adversarial Idempotent Generative Networks (NAIGNs) to address these issues. Our loss function combines reconstruction with the non-adversarial generative objective of Implicit Maximum Likelihood Estimation (IMLE). This improves on IGN's ability to restore corrupted data and generate new samples that closely match the data distribution. We moreover demonstrate that NAIGNs implicitly learn the distance field to the data manifold, as well as an energy-based model.
- Abstract(参考訳): Idempotent Generative Networks (IGN) は、局所データ多様体プロジェクタとしても機能し、任意の入力を多様体にマッピングする深層生成モデルである。
データ上の等式演算子やデータ多様体から等等式演算子として振る舞うように訓練されている。
しかし、IGNは、その目的のためにモード崩壊、モード降下、トレーニングの不安定性に悩まされており、それは、敵対的コンポーネントを含み、モデルが部分的にデータ多様体をカバーしているだけである -- 生成的敵ネットワークと共有している問題である。
これらの問題に対処するために、非逆等等化生成ネットワーク(NAIGN)を導入する。
我々の損失関数は、Implicit Maximum Likelihood Estimation (IMLE) の非敵対的生成目標と再構成を組み合わせたものである。
これにより、IGNが破損したデータを復元し、データ分布と密接に一致する新しいサンプルを生成する能力が改善される。
さらに、NAIGNは、エネルギーベースモデルと同様に、データ多様体への距離場を暗黙的に学習することを示した。
関連論文リスト
- Forewarned is Forearmed: Leveraging LLMs for Data Synthesis through Failure-Inducing Exploration [90.41908331897639]
大規模言語モデル(LLM)は、多種多様な高品質なタスク特化データのトレーニングの恩恵を受けている。
本稿では,効果的なトレーニングサンプルを自動生成する新しい手法であるReverseGenを提案する。
論文 参考訳(メタデータ) (2024-10-22T06:43:28Z) - Adaptive Learning of the Latent Space of Wasserstein Generative Adversarial Networks [7.958528596692594]
我々は、潜伏ワッサーシュタインガン(LWGAN)と呼ばれる新しい枠組みを提案する。
ワッサーシュタイン自己エンコーダとワッサーシュタイン GANを融合させ、データ多様体の内在次元を適応的に学習できるようにする。
我々は,LWGANが複数のシナリオにおいて,正しい固有次元を識別可能であることを示す。
論文 参考訳(メタデータ) (2024-09-27T01:25:22Z) - Sub-graph Based Diffusion Model for Link Prediction [43.15741675617231]
拡散確率モデル(Denoising Diffusion Probabilistic Models, DDPM)は、例外的な品質を持つ同時代の生成モデルである。
本研究では,ベイズ式による確率推定過程を分解するために,専用設計を用いたリンク予測のための新しい生成モデルを構築した。
提案手法は,(1)再トレーニングを伴わないデータセット間の転送可能性,(2)限られたトレーニングデータに対する有望な一般化,(3)グラフ敵攻撃に対する堅牢性など,多くの利点を示す。
論文 参考訳(メタデータ) (2024-09-13T02:23:55Z) - SMaRt: Improving GANs with Score Matching Regularity [114.43433222721025]
生成的敵ネットワーク(GAN)は通常、基礎となる多様体が複雑である非常に多様なデータから学ぶのに苦労する。
スコアマッチングは、生成したデータポイントを実データ多様体へ持続的にプッシュする能力のおかげで、この問題に対する有望な解決策であることがわかった。
提案手法は, 実世界のデータセットにおいて, 近似スコア関数として機能する事前学習拡散モデルを用いて, 最先端のGANの性能を継続的に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-11-30T03:05:14Z) - RAEDiff: Denoising Diffusion Probabilistic Models Based Reversible
Adversarial Examples Self-Generation and Self-Recovery [1.9806850896246193]
Reversible Adversarial Exsamples (RAE)は、データセットのIP保護の問題を解決するのに役立つ。
DDPM(Denoising Diffusion Probabilistic Models)に基づくRAE生成のためのRAEDiffの導入
論文 参考訳(メタデータ) (2023-10-25T01:49:29Z) - ProtoVAE: Prototypical Networks for Unsupervised Disentanglement [1.6114012813668934]
本稿では,自己スーパービジョンを用いて学習した深層学習型プロトタイプネットワークを活用する,新しい深部生成型VAEモデルProtoVAEを提案する。
我々のモデルは、完全に教師なしであり、要素数を含むデータセットの事前知識を必要としない。
提案手法をベンチマークdSprites, 3DShapes, MPI3Dディジアングルメントデータセット上で評価した。
論文 参考訳(メタデータ) (2023-05-16T01:29:26Z) - Exploring the Connection between Robust and Generative Models [7.670469205851674]
入力空間の逆点は、識別型分類器内に隠された生成モデルの下で非常に高い確率で現れることを示す。
標的外攻撃は、自然データよりもさらに可能性が高く、攻撃強度が増加するにつれてその可能性が高くなる。
これにより、それらを簡単に検出し、分類器を騙してデータセットに類似したエネルギーを持つ、High-Energy PGDと呼ばれる新しい攻撃を作れます。
論文 参考訳(メタデータ) (2023-04-08T15:04:26Z) - Enhancing Multiple Reliability Measures via Nuisance-extended
Information Bottleneck [77.37409441129995]
トレーニングデータに制限がある現実的なシナリオでは、データ内の多くの予測信号は、データ取得のバイアスからより多く得る。
我々は,相互情報制約の下で,より広い範囲の摂動をカバーできる敵の脅威モデルを考える。
そこで本研究では,その目的を実現するためのオートエンコーダベーストレーニングと,提案したハイブリッド識別世代学習を促進するための実用的なエンコーダ設計を提案する。
論文 参考訳(メタデータ) (2023-03-24T16:03:21Z) - Self-Conditioned Generative Adversarial Networks for Image Editing [61.50205580051405]
Generative Adversarial Networks (GAN) はバイアスの影響を受けやすい。
我々は、このバイアスが公平性だけでなく、分布のコアから逸脱する際の潜在トラバース編集手法の崩壊に重要な役割を果たしていると論じる。
論文 参考訳(メタデータ) (2022-02-08T18:08:24Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。