論文の概要: Correcting Model Bias with Sparse Implicit Processes
- arxiv url: http://arxiv.org/abs/2207.10673v1
- Date: Thu, 21 Jul 2022 18:00:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-25 12:52:33.295634
- Title: Correcting Model Bias with Sparse Implicit Processes
- Title(参考訳): スパースインシシデントプロセスによるモデルバイアスの補正
- Authors: Sim\'on Rodr\'iguez Santana, Luis A. Ortega Andr\'es, Daniel
Hern\'andez-Lobato, Bryan Zald\'ivar
- Abstract要約: SIP(Sparse Implicit Processes)は,データ生成機構がモデルによって入力されるものと強く異なる場合,モデルバイアスを補正できることを示す。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
- 参考スコア(独自算出の注目度): 0.9187159782788579
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Model selection in machine learning (ML) is a crucial part of the Bayesian
learning procedure. Model choice may impose strong biases on the resulting
predictions, which can hinder the performance of methods such as Bayesian
neural networks and neural samplers. On the other hand, newly proposed
approaches for Bayesian ML exploit features of approximate inference in
function space with implicit stochastic processes (a generalization of Gaussian
processes). The approach of Sparse Implicit Processes (SIP) is particularly
successful in this regard, since it is fully trainable and achieves flexible
predictions. Here, we expand on the original experiments to show that SIP is
capable of correcting model bias when the data generating mechanism differs
strongly from the one implied by the model. We use synthetic datasets to show
that SIP is capable of providing predictive distributions that reflect the data
better than the exact predictions of the initial, but wrongly assumed model.
- Abstract(参考訳): 機械学習(ML)におけるモデル選択はベイズ学習の重要な部分である。
モデル選択は結果の予測に強いバイアスを課し、ベイズニューラルネットワークやニューラルサンプリングのような手法のパフォーマンスを阻害する可能性がある。
一方、新たに提案されたベイズMLのアプローチは、暗黙の確率過程(ガウス過程の一般化)を持つ函数空間における近似推論の特徴を利用する。
SIP(Sparse Implicit Processes)のアプローチはこの点において特に成功している。
本稿では,データ生成機構がモデルに含意するものと強く異なる場合,sipがモデルのバイアスを補正できることを示すために,元の実験を拡張した。
合成データセットを用いて、SIPは、初期推定モデルの正確な予測よりもデータをよりよく反映する予測分布を提供することができることを示す。
関連論文リスト
- Influence Functions for Scalable Data Attribution in Diffusion Models [52.92223039302037]
拡散モデルは、生成的モデリングに大きな進歩をもたらした。
しかし、彼らの普及はデータ属性と解釈可能性に関する課題を引き起こす。
本稿では,テキスト・インフルエンス・ファンクション・フレームワークを開発することにより,このような課題に対処することを目的とする。
論文 参考訳(メタデータ) (2024-10-17T17:59:02Z) - A variational neural Bayes framework for inference on intractable posterior distributions [1.0801976288811024]
トレーニングされたニューラルネットワークに観測データを供給することにより、モデルパラメータの後方分布を効率的に取得する。
理論的には、我々の後部はKulback-Leiblerの発散において真の後部に収束することを示す。
論文 参考訳(メタデータ) (2024-04-16T20:40:15Z) - Fusion of Gaussian Processes Predictions with Monte Carlo Sampling [61.31380086717422]
科学と工学において、私たちはしばしば興味のある変数の正確な予測のために設計されたモデルで作業します。
これらのモデルが現実の近似であることを認識し、複数のモデルを同じデータに適用し、結果を統合することが望ましい。
論文 参考訳(メタデータ) (2024-03-03T04:21:21Z) - Diffusion models for probabilistic programming [56.47577824219207]
拡散モデル変分推論(DMVI)は確率型プログラミング言語(PPL)における自動近似推論手法である
DMVIは実装が容易で、例えば正規化フローを用いた変分推論の欠点を伴わずに、PPLでヘイズルフリー推論が可能であり、基礎となるニューラルネットワークモデルに制約を課さない。
論文 参考訳(メタデータ) (2023-11-01T12:17:05Z) - Self-Supervised Dataset Distillation for Transfer Learning [77.4714995131992]
ラベルなしデータセットを、効率的な自己教師付き学習(SSL)のための小さな合成サンプル群に蒸留する新しい問題を提案する。
両レベル最適化におけるSSL目標に対する合成サンプルの勾配は、データ拡張やマスキングから生じるランダム性から、テキストバイアスを受けていることを最初に証明する。
転送学習を含む様々な応用における本手法の有効性を実証的に検証する。
論文 参考訳(メタデータ) (2023-10-10T10:48:52Z) - Imputation-Free Learning from Incomplete Observations [73.15386629370111]
本稿では,不備な値を含む入力からの推論をインプットなしでトレーニングするIGSGD法の重要性について紹介する。
バックプロパゲーションによるモデルのトレーニングに使用する勾配の調整には強化学習(RL)を用いる。
我々の計算自由予測は、最先端の計算手法を用いて従来の2段階の計算自由予測よりも優れている。
論文 参考訳(メタデータ) (2021-07-05T12:44:39Z) - Latent Gaussian Model Boosting [0.0]
ツリーブースティングは多くのデータセットに対して優れた予測精度を示す。
シミュレーションおよび実世界のデータ実験において,既存の手法と比較して予測精度が向上した。
論文 参考訳(メタデータ) (2021-05-19T07:36:30Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Gaussian Process Regression with Local Explanation [28.90948136731314]
本稿では,各サンプルの予測に寄与する特徴を明らかにするため,局所的な説明を伴うGPRを提案する。
提案モデルでは,各サンプルの予測と説明を,容易に解釈可能な局所線形モデルを用いて行う。
新しい試験サンプルでは, 対象変数と重みベクトルの値と不確かさを予測できる。
論文 参考訳(メタデータ) (2020-07-03T13:22:24Z) - Gaussian Process Boosting [13.162429430481982]
ガウス過程と混合効果モデルを組み合わせた新しい手法を提案する。
シミュレーションおよび実世界のデータセットに対する既存手法と比較して予測精度が向上する。
論文 参考訳(メタデータ) (2020-04-06T13:19:54Z) - A comprehensive study on the prediction reliability of graph neural
networks for virtual screening [0.0]
本稿では,モデルアーキテクチャ,正規化手法,損失関数が分類結果の予測性能および信頼性に与える影響について検討する。
その結果,高い成功率を達成するためには,正則化と推論手法の正しい選択が重要であることが明らかとなった。
論文 参考訳(メタデータ) (2020-03-17T10:13:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。