論文の概要: Bayesian Neural Networks with Soft Evidence
- arxiv url: http://arxiv.org/abs/2010.09570v2
- Date: Thu, 29 Apr 2021 04:31:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-05 20:54:15.830479
- Title: Bayesian Neural Networks with Soft Evidence
- Title(参考訳): ソフトエビデンスを持つベイズニューラルネットワーク
- Authors: Edward Yu
- Abstract要約: ジェフリーの条件付けの規則は、ソフトエビデンスの場合の信念を更新する方法を提供する。
ジェフリーに基づく手法は精度の点で競争力があるか良いが、いくつかのケースでは校正基準が20%以上改善されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Bayes's rule deals with hard evidence, that is, we can calculate the
probability of event $A$ occuring given that event $B$ has occurred. Soft
evidence, on the other hand, involves a degree of uncertainty about whether
event $B$ has actually occurred or not. Jeffrey's rule of conditioning provides
a way to update beliefs in the case of soft evidence. We provide a framework to
learn a probability distribution on the weights of a neural network trained
using soft evidence by way of two simple algorithms for approximating Jeffrey
conditionalization. We propose an experimental protocol for benchmarking these
algorithms on empirical datasets and find that Jeffrey based methods are
competitive or better in terms of accuracy yet show improvements in calibration
metrics upwards of 20% in some cases, even when the data contains mislabeled
points.
- Abstract(参考訳): ベイズの法則はハードな証拠を扱う、すなわち、イベント$b$が発生すると、イベント$a$が発生する確率を計算できる。
一方、軟弱な証拠には、イベント$b$が実際に発生したかどうかに関する不確実性がある。
ジェフリーの条件づけ規則は、軟弱な証拠の場合には信念を更新する手段を提供する。
我々は,ジェフリー条件付けを近似する2つの簡単なアルゴリズムを用いて,ソフトエビデンスを用いてトレーニングしたニューラルネットワークの重みに関する確率分布を学習するフレームワークを提供する。
我々は,これらのアルゴリズムを経験的データセット上でベンチマークするための実験的プロトコルを提案し,ジェフリーに基づく手法は精度の点で競争力があるが,データにラベルが付っていない場合でも,校正基準が20%以上改善されていることを示す。
関連論文リスト
- Mind the Gap: A Causal Perspective on Bias Amplification in Prediction & Decision-Making [58.06306331390586]
本稿では,閾値演算による予測値がS$変化の程度を測るマージン補数の概念を導入する。
適切な因果仮定の下では、予測スコア$S$に対する$X$の影響は、真の結果$Y$に対する$X$の影響に等しいことを示す。
論文 参考訳(メタデータ) (2024-05-24T11:22:19Z) - Binary Classification with Confidence Difference [100.08818204756093]
本稿では,信頼性差分法 (ConfDiff) という,弱教師付き二項分類問題について考察する。
本稿では,この問題に対処するためのリスク一貫性のあるアプローチを提案し,推定誤差が最適収束率と一致することを示す。
また,整合性や収束率も証明されたオーバーフィッティング問題を緩和するためのリスク補正手法も導入する。
論文 参考訳(メタデータ) (2023-10-09T11:44:50Z) - Non-Exchangeable Conformal Risk Control [12.381447108228635]
分割共形予測は、公式に保証された不確実性セットや間隔を提供する能力によって、最近大きな関心を集めている。
本研究では,データ交換不能時のモノトーン損失関数の期待値を制御できる非交換型共形リスク制御を提案する。
私たちのフレームワークはフレキシブルで、仮定はごくわずかで、所定のテスト例に対する関連性に基づいてデータを重み付けできます。
論文 参考訳(メタデータ) (2023-10-02T15:00:19Z) - On the Vulnerability of Fairness Constrained Learning to Malicious Noise [28.176039923404883]
トレーニングデータにおいて、公平性に制約された学習の脆弱性を少数の悪意のある雑音に対して考慮する。
例えば、Demographic Parityでは、$Theta(alpha)$の精度損失しか発生せず、$alpha$は悪意のあるノイズレートであることを示す。
Equal Opportunity に対して、$O(sqrtalpha)$損失を発生させ、一致する$Omega(sqrtalpha)$ lower bound を与える。
論文 参考訳(メタデータ) (2023-07-21T20:26:54Z) - Fast, Distribution-free Predictive Inference for Neural Networks with
Coverage Guarantees [25.798057062452443]
本稿では,予測推論(PI)のための新しい計算効率アルゴリズムを提案する。
データに対する分布的な仮定は不要で、ニューラルネットワークの既存のブートストラップ方式よりも高速に計算できる。
論文 参考訳(メタデータ) (2023-06-11T04:03:58Z) - Risk-limiting Financial Audits via Weighted Sampling without Replacement [47.189919138260066]
$N$の取引が与えられた場合、目標は、不正な通貨の合計分を所定の精度で見積もることである。
重み付き平均値が未知の値に対して新しい信頼シーケンスを構築することでこれを行う。
側情報が十分に予測可能な場合には,直接サンプリングを行うことができることを示す。
論文 参考訳(メタデータ) (2023-05-08T17:34:06Z) - Labeling-Free Comparison Testing of Deep Learning Models [28.47632100019289]
本研究では,ラベリング作業の限界を克服し,ランダム性をサンプリングするためのラベリングフリー比較試験手法を提案する。
提案手法は,データセットや分布シフトに関わらず,Spearmanの相関値とKendallの$tau$に対して,最大0.74および0.53のベースライン手法より優れている。
論文 参考訳(メタデータ) (2022-04-08T10:55:45Z) - Transformers Can Do Bayesian Inference [56.99390658880008]
我々はPFN(Presideed Data Fitted Networks)を提案する。
PFNは、大規模機械学習技術におけるインコンテキスト学習を活用して、大規模な後部集合を近似する。
我々は、PFNがガウス過程をほぼ完璧に模倣し、難解問題に対する効率的なベイズ推定を可能にすることを示した。
論文 参考訳(メタデータ) (2021-12-20T13:07:39Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Bayesian Inference Forgetting [82.6681466124663]
忘れられる権利は多くの国で合法化されているが、機械学習の施行は耐え難いコストを引き起こすだろう。
本稿では,ベイズ推論において忘れられる権利を実現するための it bayesian inference forgetting (bif) フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-16T09:52:51Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。