論文の概要: Correcting Model Misspecification via Generative Adversarial Networks
- arxiv url: http://arxiv.org/abs/2304.03805v1
- Date: Fri, 7 Apr 2023 18:20:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-11 19:28:42.206122
- Title: Correcting Model Misspecification via Generative Adversarial Networks
- Title(参考訳): 生成型adversarial networkによるモデル誤特定の修正
- Authors: Pronoma Banerjee, Manasi V Gude, Rajvi J Sampat, Sharvari M Hedaoo,
Soma Dhavala, Snehanshu Saha
- Abstract要約: ABC-GANは、GAN(Generative Adversarial Networks)とABC(Adroximate Bayesian Computation)を組み合わせた新しい生成モデリングパラダイムである。
ABC-GANモデルでは,前者の誤特定を補正するだけでなく,騒音条件下での先行モデルと同等以上の性能を示した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning models are often misspecified in the likelihood, which leads
to a lack of robustness in the predictions. In this paper, we introduce a
framework for correcting likelihood misspecifications in several paradigm
agnostic noisy prior models and test the model's ability to remove the
misspecification. The "ABC-GAN" framework introduced is a novel generative
modeling paradigm, which combines Generative Adversarial Networks (GANs) and
Approximate Bayesian Computation (ABC). This new paradigm assists the existing
GANs by incorporating any subjective knowledge available about the modeling
process via ABC, as a regularizer, resulting in a partially interpretable model
that operates well under low data regimes. At the same time, unlike any
Bayesian analysis, the explicit knowledge need not be perfect, since the
generator in the GAN can be made arbitrarily complex. ABC-GAN eliminates the
need for summary statistics and distance metrics as the discriminator
implicitly learns them and enables simultaneous specification of multiple
generative models. The model misspecification is simulated in our experiments
by introducing noise of various biases and variances. The correction term is
learnt via the ABC-GAN, with skip connections, referred to as skipGAN. The
strength of the skip connection indicates the amount of correction needed or
how misspecified the prior model is. Based on a simple experimental setup, we
show that the ABC-GAN models not only correct the misspecification of the
prior, but also perform as well as or better than the respective priors under
noisier conditions. In this proposal, we show that ABC-GANs get the best of
both worlds.
- Abstract(参考訳): 機械学習モデルは、しばしば確率的に不特定化されるため、予測の堅牢性が欠如する。
本稿では,複数のパラダイム非依存な先行モデルにおける確率的誤特定を補正し,その誤特定を解消するモデルの能力をテストするためのフレームワークを提案する。
ABC-GANフレームワークは、GAN(Generative Adversarial Networks)とABC(Adroximate Bayesian Computation)を組み合わせた新しい生成モデリングパラダイムである。
この新たなパラダイムは、ABCによるモデリングプロセスに関する主観的な知識をレギュレータとして組み込むことによって、既存のGANを支援する。
同時に、他のベイズ解析とは異なり、GANの生成元を任意に複雑にすることができるので、明示的な知識は完璧である必要はない。
ABC-GANは、識別器が暗黙的にそれらを学び、複数の生成モデルの同時仕様を可能にするため、要約統計と距離メトリクスの必要性を排除している。
モデルの誤特定は,様々なバイアスやばらつきのノイズを導入することでシミュレーションされる。
修正項はABC-GANを介して学習され、スキップ接続はスキップGANと呼ばれる。
スキップ接続の強度は、必要な補正の量や、事前のモデルがどの程度誤っているかを示す。
簡単な実験により,ABC-GAN モデルでは,前者の誤特定を補正するだけでなく,騒音条件下での先行モデルと同等以上の性能を示した。
本提案では,ABC-GANが両世界のベストを得られることを示す。
関連論文リスト
- Choosing DAG Models Using Markov and Minimal Edge Count in the Absence of Ground Truth [5.284425534494987]
マルコフ条件の新しい非パラメトリック点整合統計テスト(マルコフチェッカー)を与える。
また,マルコフチェッカーテストに合格しないか,エッジ最小限でないDAGモデルに対して,Cross-Algorithm Frugality Search (CAFS)を導入する。
論文 参考訳(メタデータ) (2024-09-30T11:03:44Z) - Genos: General In-Network Unsupervised Intrusion Detection by Rule Extraction [39.8155146431056]
異常に基づくネットワーク侵入検知システム(A-NIDS)は、教師なしモデルを用いて予期せぬ攻撃を検出する。
既存のA-NIDSソリューションは、スループットの低下、解釈可能性の欠如、メンテナンスコストの高騰に悩まされている。
我々はルール抽出による教師なしA-NIDSのための一般的なネットワーク内フレームワークGenosを提案する。
論文 参考訳(メタデータ) (2024-03-28T09:08:45Z) - Source-Free Unsupervised Domain Adaptation with Hypothesis Consolidation
of Prediction Rationale [53.152460508207184]
Source-Free Unsupervised Domain Adaptation (SFUDA)は、モデルがターゲットのドメインラベルやソースドメインデータにアクセスせずに新しいドメインに適応する必要がある、という課題である。
本稿では,各サンプルについて複数の予測仮説を考察し,各仮説の背景にある理論的根拠について考察する。
最適性能を達成するために,モデル事前適応,仮説統合,半教師付き学習という3段階の適応プロセスを提案する。
論文 参考訳(メタデータ) (2024-02-02T05:53:22Z) - Precision-Recall Divergence Optimization for Generative Modeling with
GANs and Normalizing Flows [54.050498411883495]
本研究では,ジェネレーティブ・アドバイサル・ネットワークや正規化フローなどの生成モデルのための新しいトレーニング手法を開発した。
指定された精度-リコールトレードオフを達成することは、textitPR-divergencesと呼ぶ家族からのユニークな$f$-divergenceを最小化することを意味する。
当社のアプローチは,ImageNetなどのデータセットでテストした場合の精度とリコールの両面で,BigGANのような既存の最先端モデルの性能を向上させる。
論文 参考訳(メタデータ) (2023-05-30T10:07:17Z) - Instability and Local Minima in GAN Training with Kernel Discriminators [20.362912591032636]
GAN(Generative Adversarial Networks)は、複雑なデータの生成モデリングに広く使われているツールである。
実験的な成功にもかかわらず、ジェネレータと判別器のmin-max最適化のため、GANの訓練は十分には理解されていない。
本稿では、真のサンプルと生成されたサンプルが離散有限集合であり、判別器がカーネルベースである場合に、これらの関節力学を解析する。
論文 参考訳(メタデータ) (2022-08-21T18:03:06Z) - Predicting Unreliable Predictions by Shattering a Neural Network [145.3823991041987]
線形ニューラルネットワークは、サブファンクションに分割することができる。
サブファンクションは、独自のアクティベーションパターン、ドメイン、経験的エラーを持っている。
完全なネットワークに対する経験的エラーは、サブファンクションに対する期待として記述できる。
論文 参考訳(メタデータ) (2021-06-15T18:34:41Z) - VAE Approximation Error: ELBO and Conditional Independence [78.72292013299868]
本稿では,ELBO目標とエンコーダ確率系列の選択の組み合わせによるVAE近似誤差を解析する。
より深いエンコーダネットワークを考慮すれば,ELBOサブセットを拡大することができず,各エラーを低減できないことを示す。
論文 参考訳(メタデータ) (2021-02-18T12:54:42Z) - Federated Multi-Armed Bandits [18.95281057580889]
FMAB(Federated Multi-armed Bandits)は、教師付き学習において、FL(Federated Learning)フレームワークを並列化する新しいバンドイットパラダイムである。
本稿では,FMABの一般的な枠組みを提案し,その上で2つの特定の帯域幅モデルについて検討する。
やや意外なことに、順序-最適の後悔は、更新周期を慎重に選択したクライアントの数から独立して達成できることが示されています。
論文 参考訳(メタデータ) (2021-01-28T18:59:19Z) - Understanding Classifier Mistakes with Generative Models [88.20470690631372]
ディープニューラルネットワークは教師付き学習タスクに有効であるが、脆弱であることが示されている。
本稿では、生成モデルを利用して、分類器が一般化に失敗するインスタンスを特定し、特徴付ける。
我々のアプローチは、トレーニングセットのクラスラベルに依存しないため、半教師付きでトレーニングされたモデルに適用できる。
論文 参考訳(メタデータ) (2020-10-05T22:13:21Z) - GANs with Conditional Independence Graphs: On Subadditivity of
Probability Divergences [70.30467057209405]
GAN(Generative Adversarial Networks)は、データセットの基盤となる分布を学習するための現代的な手法である。
GANは、基礎となるディストリビューションに関する追加情報がないモデルフリーで設計されている。
本稿では,ベイズネット/MRFの近傍に単純な識別器群を用いたモデルベースGANの設計を提案する。
論文 参考訳(メタデータ) (2020-03-02T04:31:22Z) - Learning Interpretable Models Using Uncertainty Oracles [12.879371384378164]
解釈可能なモデルの望ましい性質は、人間によって容易に理解できるように、小さなサイズである。
a) 小さいサイズが正確さを暗示し、(b) サイズを制限するモデルファミリが提供するビースルークレバーは、望ましいサイズ精度のトレードオフに達するには不十分である。
論文 参考訳(メタデータ) (2019-06-17T05:53:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。