論文の概要: DCTRGAN: Improving the Precision of Generative Models with Reweighting
- arxiv url: http://arxiv.org/abs/2009.03796v1
- Date: Thu, 3 Sep 2020 18:00:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-22 08:12:24.313437
- Title: DCTRGAN: Improving the Precision of Generative Models with Reweighting
- Title(参考訳): DCTRGAN:再重み付けによる生成モデルの精度向上
- Authors: Sascha Diefenbacher, Engin Eren, Gregor Kasieczka, Anatolii Korol,
Benjamin Nachman, and David Shih
- Abstract要約: 深部生成モデルにポストホック補正を導入し,その忠実度をさらに向上する。
この補正は、生成された例に適用できる再重み付け関数の形を取る。
重み付き GAN の例は, 統計的パワーに大きな損失を伴わずに, 生成したサンプルの精度を著しく向上することを示した。
- 参考スコア(独自算出の注目度): 1.2622634782102324
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Significant advances in deep learning have led to more widely used and
precise neural network-based generative models such as Generative Adversarial
Networks (GANs). We introduce a post-hoc correction to deep generative models
to further improve their fidelity, based on the Deep neural networks using the
Classification for Tuning and Reweighting (DCTR) protocol. The correction takes
the form of a reweighting function that can be applied to generated examples
when making predictions from the simulation. We illustrate this approach using
GANs trained on standard multimodal probability densities as well as
calorimeter simulations from high energy physics. We show that the weighted GAN
examples significantly improve the accuracy of the generated samples without a
large loss in statistical power. This approach could be applied to any
generative model and is a promising refinement method for high energy physics
applications and beyond.
- Abstract(参考訳): ディープラーニングの大きな進歩は、ジェネレーティブ・アドバーサリアン・ネットワーク(gans)のようなニューラルネットワークベースの生成モデルがより広く使われ、正確になった。
本稿では,重み付けと重み付けの分類(classification for tuning and reweighting, dctr)を用いて,深層ニューラルネットワークを基盤とした,深層生成モデルに対するポストホック補正を提案する。
この補正は、シミュレーションから予測を行う際に生成された例に適用できる再重み付け関数の形式を取る。
本稿では, 標準マルチモーダル確率密度をトレーニングしたGANと, 高エネルギー物理からのカロリーメータシミュレーションを用いて, この手法について述べる。
重み付き GAN の例は, 統計的パワーに大きな損失を伴わずに, 生成したサンプルの精度を著しく向上することを示した。
このアプローチはどんな生成モデルにも適用でき、高エネルギー物理学の応用などには有望な改良法である。
関連論文リスト
- Diffusion Models as Network Optimizers: Explorations and Analysis [71.69869025878856]
生成拡散モデル(GDM)は,ネットワーク最適化の新しいアプローチとして期待されている。
本研究ではまず,生成モデルの本質的な特徴について考察する。
本稿では,識別的ネットワーク最適化よりも生成モデルの利点を簡潔かつ直感的に示す。
論文 参考訳(メタデータ) (2024-11-01T09:05:47Z) - Efficient Frequency Selective Surface Analysis via End-to-End Model-Based Learning [2.66269503676104]
本稿では、高次元周波数選択面(FSS)の効率的な電磁解析のための革新的なエンドツーエンドモデルに基づくディープラーニング手法を提案する。
大規模なデータセットを必要とする従来のデータ駆動手法とは異なり、このアプローチは等価回路モデルからの物理的な洞察とディープラーニング技術を組み合わせて、モデルの複雑さを著しく低減し、予測精度を高める。
論文 参考訳(メタデータ) (2024-10-22T07:27:20Z) - Neural Residual Diffusion Models for Deep Scalable Vision Generation [17.931568104324985]
我々は,統一的かつ大規模に拡張可能なニューラルネットワーク残差拡散モデルフレームワーク(Neural-RDM)を提案する。
提案したニューラル残差モデルは、画像およびビデオ生成ベンチマークの最先端スコアを取得する。
論文 参考訳(メタデータ) (2024-06-19T04:57:18Z) - Scaling and renormalization in high-dimensional regression [72.59731158970894]
本稿では,様々な高次元リッジ回帰モデルの訓練および一般化性能の簡潔な導出について述べる。
本稿では,物理と深層学習の背景を持つ読者を対象に,これらのトピックに関する最近の研究成果の紹介とレビューを行う。
論文 参考訳(メタデータ) (2024-05-01T15:59:00Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Differential Evolution Algorithm based Hyper-Parameters Selection of
Transformer Neural Network Model for Load Forecasting [0.0]
トランスフォーマーモデルは、そのアテンションメカニズムから派生した長距離依存を学習できるため、ロード予測を改善する可能性がある。
我々の研究は,平均二乗誤差 (MSE) や平均絶対パーセンテージ誤差 (MAPE) といった数値に基づく負荷予測において,異なるメタヒューリスティックアルゴリズムと統合されたトランスフォーマーベースニューラルネットワークモデルを比較した。
論文 参考訳(メタデータ) (2023-07-28T04:29:53Z) - Accurate generation of stochastic dynamics based on multi-model
Generative Adversarial Networks [0.0]
GAN(Generative Adversarial Networks)は、テキストや画像生成などの分野において大きな可能性を秘めている。
ここでは、格子上の原型過程に適用することにより、このアプローチを定量的に検証する。
重要なことに、ノイズにもかかわらずモデルの離散性は維持される。
論文 参考訳(メタデータ) (2023-05-25T10:41:02Z) - Effective Dynamics of Generative Adversarial Networks [16.51305515824504]
GAN(Generative Adversarial Network)は、新しいサンプルを生成するために対人訓練を使用する機械学習モデルのクラスである。
モード崩壊と呼ばれるトレーニング失敗の1つの主要な形態は、ジェネレータがターゲット確率分布におけるモードの完全な多様性を再現できないことである。
本稿では,ジェネレータニューラルネットワークを出力空間内の粒子の集合に置き換えることで,学習ダイナミクスを捕捉するGANトレーニングの効果的なモデルを提案する。
論文 参考訳(メタデータ) (2022-12-08T22:04:01Z) - An Energy-Based Prior for Generative Saliency [62.79775297611203]
本稿では,情報的エネルギーベースモデルを事前分布として採用する,新たな生成正当性予測フレームワークを提案する。
生成サリエンシモデルを用いて,画像から画素単位の不確実性マップを得ることができ,サリエンシ予測におけるモデル信頼度を示す。
実験結果から, エネルギーベース先行モデルを用いた生成塩分率モデルでは, 精度の高い塩分率予測だけでなく, 人間の知覚と整合した信頼性の高い不確実性マップを実現できることが示された。
論文 参考訳(メタデータ) (2022-04-19T10:51:00Z) - Goal-directed Generation of Discrete Structures with Conditional
Generative Models [85.51463588099556]
本稿では,強化学習目標を直接最適化し,期待される報酬を最大化するための新しいアプローチを提案する。
提案手法は、ユーザ定義プロパティを持つ分子の生成と、所定の目標値を評価する短いピソン表現の同定という2つのタスクで検証する。
論文 参考訳(メタデータ) (2020-10-05T20:03:13Z) - Neural networks with late-phase weights [66.72777753269658]
学習後期に重みのサブセットを組み込むことで,SGDの解をさらに改善できることを示す。
学習の終わりに、重み空間における空間平均を取ることにより、1つのモデルを取得する。
論文 参考訳(メタデータ) (2020-07-25T13:23:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。