論文の概要: Adversarial Training Improves Joint Energy-Based Generative Modelling
- arxiv url: http://arxiv.org/abs/2207.08950v1
- Date: Mon, 18 Jul 2022 21:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-20 14:14:14.443125
- Title: Adversarial Training Improves Joint Energy-Based Generative Modelling
- Title(参考訳): 協調エネルギーに基づく生成モデルの改善
- Authors: Rostislav Korst, Arip Asadulaev
- Abstract要約: 本稿では,ハイブリッドエネルギーモデルを用いた生成モデリングのための新しいフレームワークを提案する。
本手法では,ロバストな分類器の解釈可能な入力勾配と,サンプリングのためのランゲヴィンダイナミクスを組み合わせる。
- 参考スコア(独自算出の注目度): 1.0878040851638
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose the novel framework for generative modelling using hybrid
energy-based models. In our method we combine the interpretable input gradients
of the robust classifier and Langevin Dynamics for sampling. Using the
adversarial training we improve not only the training stability, but robustness
and generative modelling of the joint energy-based models.
- Abstract(参考訳): ハイブリッドエネルギーモデルを用いた生成モデリングのための新しいフレームワークを提案する。
本手法では,ロバスト分類器の解釈可能な入力勾配と,サンプリングのためのランゲヴィンダイナミクスを組み合わせる。
逆訓練を用いることで, 学習安定性だけでなく, 協調エネルギーモデルにおけるロバスト性, 生成的モデリングも向上する。
関連論文リスト
- Energy-Based Diffusion Language Models for Text Generation [126.23425882687195]
エネルギーベース拡散言語モデル(Energy-based Diffusion Language Model, EDLM)は、拡散ステップごとに全シーケンスレベルで動作するエネルギーベースモデルである。
我々のフレームワークは、既存の拡散モデルよりも1.3$times$のサンプリングスピードアップを提供する。
論文 参考訳(メタデータ) (2024-10-28T17:25:56Z) - MGE: A Training-Free and Efficient Model Generation and Enhancement
Scheme [10.48591131837771]
本稿では,MGE(Merning-free and Efficient Model Generation and Enhancement Scheme)を提案する。
モデル生成プロセスにおいて、モデルパラメータの分布とモデルパフォーマンスの2つの側面を考慮する。
実験の結果、生成したモデルは通常の訓練によって得られたモデルに匹敵し、場合によっては優れていることが示された。
論文 参考訳(メタデータ) (2024-02-27T13:12:00Z) - Your Autoregressive Generative Model Can be Better If You Treat It as an
Energy-Based One [83.5162421521224]
本稿では,自己回帰生成モデルの学習のための独自のE-ARM法を提案する。
E-ARMは、よく設計されたエネルギーベースの学習目標を活用する。
我々は、E-ARMを効率的に訓練でき、露光バイアス問題を緩和できることを示した。
論文 参考訳(メタデータ) (2022-06-26T10:58:41Z) - Latent Diffusion Energy-Based Model for Interpretable Text Modeling [104.85356157724372]
本稿では,拡散モデルと潜時空間ESMの共生を変動学習フレームワークで導入する。
我々は,学習した潜在空間の品質を向上させるために,情報ボトルネックと合わせて幾何学的クラスタリングに基づく正規化を開発する。
論文 参考訳(メタデータ) (2022-06-13T03:41:31Z) - A Unified Contrastive Energy-based Model for Understanding the
Generative Ability of Adversarial Training [64.71254710803368]
Adversarial Training (AT) は、ディープニューラルネットワークの堅牢性を高める効果的なアプローチである。
我々は、Contrastive Energy-based Models(CEM)と呼ばれる統合確率的枠組みを開発することにより、この現象をデミステレーションする。
本稿では,逆学習法とサンプリング法を開発するための原則的手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T05:33:34Z) - Integrating Physics-Based Modeling with Machine Learning for Lithium-Ion Batteries [4.946066838162504]
本稿では,LiBの高精度モデリングを実現するために,物理モデルと機械学習を統合する2つの新しいフレームワークを提案する。
これらのフレームワークは、物理モデルの状態情報の機械学習モデルに通知することで特徴付けられる。
この研究はさらに、老化を意識したハイブリッドモデリングの実施へと拡張され、予測を行うために健康状態に意識したハイブリッドモデルの設計につながった。
論文 参考訳(メタデータ) (2021-12-24T07:39:02Z) - Hybrid modeling of the human cardiovascular system using NeuralFMUs [0.0]
ハイブリッドなモデリングプロセスは、より快適で、システム知識を必要とせず、第一原理に基づくモデリングに比べてエラーの少ないことが示される。
結果として得られたハイブリッドモデルは、純粋な第一原理のホワイトボックスモデルに比べて計算性能が向上した。
考慮されたユースケースは、医療領域内外における他のモデリングおよびシミュレーションアプリケーションの例として機能する。
論文 参考訳(メタデータ) (2021-09-10T13:48:43Z) - No MCMC for me: Amortized sampling for fast and stable training of
energy-based models [62.1234885852552]
エネルギーベースモデル(EBM)は、不確実性を表す柔軟で魅力的な方法である。
本稿では,エントロピー規則化ジェネレータを用いてEMMを大規模に訓練し,MCMCサンプリングを記憶する簡単な方法を提案する。
次に、最近提案されたジョイント・エナジー・モデル(JEM)に推定器を適用し、元の性能と高速で安定したトレーニングとを一致させる。
論文 参考訳(メタデータ) (2020-10-08T19:17:20Z) - Exponential Tilting of Generative Models: Improving Sample Quality by
Training and Sampling from Latent Energy [6.767885381740952]
本手法は,事前学習した生成モデルにより生成した標本上でエネルギー関数を生成する潜在変数空間上のエネルギー関数を構築する。
提案手法を用いることで,一般的な確率に基づく生成モデルのサンプル品質を大幅に向上できることを示す。
論文 参考訳(メタデータ) (2020-06-15T02:58:43Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。