論文の概要: Loss-calibrated expectation propagation for approximate Bayesian
decision-making
- arxiv url: http://arxiv.org/abs/2201.03128v1
- Date: Mon, 10 Jan 2022 01:42:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-11 23:05:40.829132
- Title: Loss-calibrated expectation propagation for approximate Bayesian
decision-making
- Title(参考訳): ベイズ近似決定のための損失校正予測伝播
- Authors: Michael J. Morais, Jonathan W. Pillow
- Abstract要約: 損失校正予測伝搬(Loss-EP)は,損失校正予測伝搬の変種である。
我々は、この非対称性が、近似で取得する「有用な」情報に劇的な結果をもたらすことを示す。
- 参考スコア(独自算出の注目度): 24.975981795360845
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Approximate Bayesian inference methods provide a powerful suite of tools for
finding approximations to intractable posterior distributions. However, machine
learning applications typically involve selecting actions, which -- in a
Bayesian setting -- depend on the posterior distribution only via its
contribution to expected utility. A growing body of work on loss-calibrated
approximate inference methods has therefore sought to develop posterior
approximations sensitive to the influence of the utility function. Here we
introduce loss-calibrated expectation propagation (Loss-EP), a loss-calibrated
variant of expectation propagation. This method resembles standard EP with an
additional factor that "tilts" the posterior towards higher-utility decisions.
We show applications to Gaussian process classification under binary utility
functions with asymmetric penalties on False Negative and False Positive
errors, and show how this asymmetry can have dramatic consequences on what
information is "useful" to capture in an approximation.
- Abstract(参考訳): 近似ベイズ推定法は、難解な後方分布に対する近似を見つけるための強力なツール群を提供する。
しかし、機械学習のアプリケーションは通常、選択アクション(ベイズの設定では、期待されるユーティリティへの貢献を通してのみ後部分布に依存する)を伴います。
そこで, 損失校正近似推定法の開発は, 実用関数の影響に敏感な後部近似の開発を試みている。
本稿では,損失補償型期待伝播 (loss-ep) について述べる。
この方法は標準epに似ており、後方を高い有効性決定へと「傾ける」追加の要素がある。
非対称な負と偽の正の誤差に対するペナルティを持つ二元多目的関数の下でのガウス過程の分類への応用を示し、この非対称性が、近似でキャプチャする「有用」な情報に対して、どのように劇的な結果をもたらすかを示す。
関連論文リスト
- Rejection via Learning Density Ratios [50.91522897152437]
拒絶による分類は、モデルを予測しないことを許容する学習パラダイムとして現れます。
そこで我々は,事前学習したモデルの性能を最大化する理想的なデータ分布を求める。
私たちのフレームワークは、クリーンでノイズの多いデータセットで実証的にテストされます。
論文 参考訳(メタデータ) (2024-05-29T01:32:17Z) - Doubly Robust Inference in Causal Latent Factor Models [12.116813197164047]
本稿では、多数の単位と結果を含む現代データ豊富な環境において、観測不能なコンファウンディングの下での平均処理効果を推定する新しい手法を提案する。
有限サンプル重み付けと保証を導出し、新しい推定器の誤差がパラメトリック速度で平均ゼロガウス分布に収束することを示す。
論文 参考訳(メタデータ) (2024-02-18T17:13:46Z) - Uncertainty Quantification via Stable Distribution Propagation [60.065272548502]
本稿では,ニューラルネットワークによる安定確率分布の伝播手法を提案する。
提案手法は局所線形化に基づいており,ReLU非線型性に対する全変動距離の近似値として最適であることを示す。
論文 参考訳(メタデータ) (2024-02-13T09:40:19Z) - Variational Prediction [95.00085314353436]
本稿では,変動境界を用いた後部予測分布に対する変動近似の学習手法を提案する。
このアプローチは、テスト時間の限界化コストを伴わずに、優れた予測分布を提供することができる。
論文 参考訳(メタデータ) (2023-07-14T18:19:31Z) - Robust Gaussian Process Regression with Huber Likelihood [2.7184224088243365]
本稿では,ハマー確率分布として表される観測データの可能性を考慮した,ガウス過程フレームワークにおけるロバストなプロセスモデルを提案する。
提案モデルでは、予測統計に基づく重みを用いて、残差を拡大し、潜伏関数推定における垂直外れ値と悪レバレッジ点の影響を限定する。
論文 参考訳(メタデータ) (2023-01-19T02:59:33Z) - Variational Refinement for Importance Sampling Using the Forward
Kullback-Leibler Divergence [77.06203118175335]
変分推論(VI)はベイズ推論における正確なサンプリングの代替として人気がある。
重要度サンプリング(IS)は、ベイズ近似推論手順の推定を微調整し、偏りを逸脱するためにしばしば用いられる。
近似ベイズ推論のための最適化手法とサンプリング手法の新たな組み合わせを提案する。
論文 参考訳(メタデータ) (2021-06-30T11:00:24Z) - Adaptive Sampling for Estimating Distributions: A Bayesian Upper
Confidence Bound Approach [30.76846526324949]
既存の高信頼境界(UCB)ベースのアプローチのベイズ多様体が提案される。
ロサンゼルス郡のセロプレバレンス調査から得られたデータを用いて,この戦略の有効性を考察した。
論文 参考訳(メタデータ) (2020-12-08T00:53:34Z) - Understanding Variational Inference in Function-Space [20.940162027560408]
この設定で、Kullback-Leiblerの発散を利用する際の利点と制限を強調します。
近似品質を直接測定する関数空間推論手法のベンチマークとしてベイズ線形回帰法を提案する。
論文 参考訳(メタデータ) (2020-11-18T17:42:01Z) - Empirical Strategy for Stretching Probability Distribution in
Neural-network-based Regression [5.35308390309106]
ニューラルネットワーク下での回帰解析では、予測性能は層間の適切な重み決定に依存する。
両分布の重み付け面積を増大させる新しい損失関数として重み付き経験的ストレッチ(WES)を提案する。
極端な領域に対するRMSEの改良結果は、非線形複雑系における異常事象の予測に利用されることが期待されている。
論文 参考訳(メタデータ) (2020-09-08T06:08:14Z) - A maximum-entropy approach to off-policy evaluation in average-reward
MDPs [54.967872716145656]
この研究は、無限水平非カウントマルコフ決定過程(MDPs)における関数近似を伴うオフ・ポリティ・アセスメント(OPE)に焦点を当てる。
提案手法は,第1の有限サンプル OPE 誤差境界であり,既存の結果がエピソードおよびディスカウントケースを超えて拡張される。
この結果から,教師あり学習における最大エントロピー的アプローチを並列化して,十分な統計値を持つ指数関数型家族分布が得られた。
論文 参考訳(メタデータ) (2020-06-17T18:13:37Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。