論文の概要: When Is Generalized Bayes Bayesian? A Decision-Theoretic Characterization of Loss-Based Updating
- arxiv url: http://arxiv.org/abs/2602.01573v1
- Date: Mon, 02 Feb 2026 03:10:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:33.861545
- Title: When Is Generalized Bayes Bayesian? A Decision-Theoretic Characterization of Loss-Based Updating
- Title(参考訳): ベイズベイジアンはいつ一般化されるか : 損失に基づく更新の決定論的評価
- Authors: Kenichiro McAlinn, Kōsaku Takanashi,
- Abstract要約: 一般ベイズ、ギブズ、準後部などの損失ベースの更新は、確率をユーザ・チョーゼンの損失に置き換え、指数的傾きによって後部のような分布を生成する。
損失ベース後部が通常のベイズと一致することは、損失がスケールし、データのみの用語である負のログライクな状態である場合に限る。
- 参考スコア(独自算出の注目度): 1.0885910878567457
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Loss-based updating, including generalized Bayes, Gibbs, and quasi-posteriors, replaces likelihoods by a user-chosen loss and produces a posterior-like distribution via exponential tilt. We give a decision-theoretic characterization that separates \emph{belief posteriors} -- conditional beliefs justified by the foundations of Savage and Anscombe-Aumann under a joint probability mode l-- from \emph{decision posteriors} -- randomized decision rules justified by preferences over decision rules. We make explicit that a loss-based posterior coincides with ordinary Bayes if and only if the loss is, up to scale and a data-only term, negative log-likelihood. We then show that generalized marginal likelihood is not evidence for decision posteriors, and Bayes factors are not well-defined without additional structure. In the decision posterior regime, non-degenerate posteriors require nonlinear preferences over decision rules. Under sequential coherence and separability, these lead to an entropy-penalized variational representation yielding generalized Bayes as the optimal rule.
- Abstract(参考訳): 一般ベイズ、ギブズ、準後部などの損失ベースの更新は、確率をユーザ・チョーゼンの損失に置き換え、指数的傾きによって後部のような分布を生成する。
サベージとアンスコム=アウマンの基礎によって正当化された条件的信念を「emph{belief rears」から「emph{decision rears」から「l--」に分離する決定論的特徴を与える。
損失に基づく後続が通常のベイズと一致することは、損失がスケールし、データのみの項である負のログ類似度である場合に限る。
次に、一般化された限界確率は決定後続の証拠ではなく、ベイズ因子は追加構造なしでは十分に定義されていないことを示す。
決定後処理では、非退化後処理は決定規則よりも非線形に優先する必要がある。
シーケンシャルコヒーレンスと分離性の下で、これらはエントロピー-ペナル化された変分表現をもたらし、一般化ベイズを最適規則とする。
関連論文リスト
- Nearly Optimal Bayesian Inference for Structural Missingness [23.988531482641307]
ベイズ的な見方では、後続の予測分布による予測は、完全なモデル後続の不確実性の上に統合される。
このフレームワークは、(II)ラベル予測からモデル内の欠損値後部を学習し、予測後部分布を最適化する。
43の分類と15の計算ベンチマークでSOTAを達成し、ベイズ最適性保証の近くに有限サンプルを持つ。
論文 参考訳(メタデータ) (2026-01-26T14:03:11Z) - Decision from Suboptimal Classifiers: Excess Risk Pre- and Post-Calibration [52.70324949884702]
バッチ二分決定における近似的後続確率を用いた余剰リスクの定量化を行う。
我々は、再校正のみが後悔のほとんどに対処する体制と、後悔が集団的損失に支配される体制を識別する。
NLP実験では、これらの量によって、より高度なポストトレーニングの期待値が運用コストに値するかどうかが分かる。
論文 参考訳(メタデータ) (2025-03-23T10:52:36Z) - Refined Risk Bounds for Unbounded Losses via Transductive Priors [67.12679195076387]
線形回帰の逐次変分を2乗損失、ヒンジ損失の分類問題、ロジスティック回帰で再検討する。
我々の鍵となるツールは、慎重に選択された導出先を持つ指数重み付けアルゴリズムに基づいている。
論文 参考訳(メタデータ) (2024-10-29T00:01:04Z) - Reproducible Parameter Inference Using Bagged Posteriors [9.975422461924705]
モデル的不特定性の下では、ベイジアン後部は真あるいは偽真パラメータの不確かさを適切に定量化しないことが多いことが知られている。
独立データセットから構築された2つの信頼集合が空でない重複を持つ確率を考察する。
標準後部からの信頼できる集合は、特に高次元の設定において、この境界に強く違反する可能性があることを示す。
論文 参考訳(メタデータ) (2023-11-03T16:28:16Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Robust Generalised Bayesian Inference for Intractable Likelihoods [9.77823546576708]
スタインの不一致を損失関数として一般化ベイズ推論を考える。
これは、確率が難解な正規化定数を含む応用によって動機づけられる。
後肢の整合性, 正規性, 偏在性を示し, これらの特性がスタインの相違の選択によってどのように影響するかを明らかにする。
論文 参考訳(メタデータ) (2021-04-15T10:31:22Z) - Implicit Regularization in ReLU Networks with the Square Loss [56.70360094597169]
モデルパラメータの明示的な関数によって、平方損失による暗黙の正規化を特徴付けることは不可能であることを示す。
非線形予測器の暗黙的正規化を理解するためには,より一般的な枠組みが必要であることが示唆された。
論文 参考訳(メタデータ) (2020-12-09T16:48:03Z) - An Equivalence between Bayesian Priors and Penalties in Variational
Inference [8.45602005745865]
機械学習では、パラメータのいくつかの値をペナライズするアドホック正規化項によって変調される確率モデルのパラメータを最適化することが一般的である。
我々は、この手順に従って発生する正則化器を完全に特徴付け、与えられたペナルティに対応する事前を計算する体系的な方法を提供する。
論文 参考訳(メタデータ) (2020-02-01T09:48:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。