論文の概要: Toward Ethical AI Through Bayesian Uncertainty in Neural Question Answering
- arxiv url: http://arxiv.org/abs/2512.17677v1
- Date: Fri, 19 Dec 2025 15:17:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-22 19:25:54.457473
- Title: Toward Ethical AI Through Bayesian Uncertainty in Neural Question Answering
- Title(参考訳): ベイジアン不確かさを通した倫理的AIに向けて : ニューラル質問回答
- Authors: Riccardo Di Sipio,
- Abstract要約: 後部推論が予測の信頼をいかに伝達するかを示す。
次にこれを言語モデルに拡張し、まずベイズ推定を凍結ヘッドに適用し、最後にLoRA適応変換器に適用する。
私は、解釈可能性を改善するだけでなく、ベイズ的手法が神経質問応答システムのより責任と倫理的な展開にどのように貢献できるかも示しています。
- 参考スコア(独自算出の注目度): 0.4873362301533824
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We explore Bayesian reasoning as a means to quantify uncertainty in neural networks for question answering. Starting with a multilayer perceptron on the Iris dataset, we show how posterior inference conveys confidence in predictions. We then extend this to language models, applying Bayesian inference first to a frozen head and finally to LoRA-adapted transformers, evaluated on the CommonsenseQA benchmark. Rather than aiming for state-of-the-art accuracy, we compare Laplace approximations against maximum a posteriori (MAP) estimates to highlight uncertainty calibration and selective prediction. This allows models to abstain when confidence is low. An ``I don't know'' response not only improves interpretability but also illustrates how Bayesian methods can contribute to more responsible and ethical deployment of neural question-answering systems.
- Abstract(参考訳): 質問応答のためのニューラルネットワークにおける不確実性を定量化する手段として,ベイズ推論について検討する。
Irisデータセット上の多層パーセプトロンから始めると、後部推論が予測の信頼をいかに伝達するかを示す。
次に、これを言語モデルに拡張し、まずベイジアン推論をフリーズヘッドに適用し、最後にLoRA適応変換器に適用し、CommonsenseQAベンチマークで評価する。
最先端の精度を目標とするのではなく,最大アフターリ(MAP)推定に対するラプラス近似を比較し,不確実性の校正と選択的予測を強調した。
これにより、信頼性が低い場合にはモデルを停止できる。
の反応は解釈可能性を改善するだけでなく、ベイズ的手法が神経質問応答システムのより責任的で倫理的な展開にどのように貢献するかも示している。
関連論文リスト
- Tractable Function-Space Variational Inference in Bayesian Neural
Networks [72.97620734290139]
ニューラルネットワークの予測不確かさを推定するための一般的なアプローチは、ネットワークパラメータに対する事前分布を定義することである。
本稿では,事前情報を組み込むスケーラブルな関数空間変動推論手法を提案する。
提案手法は,様々な予測タスクにおいて,最先端の不確実性評価と予測性能をもたらすことを示す。
論文 参考訳(メタデータ) (2023-12-28T18:33:26Z) - Calibrating Neural Simulation-Based Inference with Differentiable
Coverage Probability [50.44439018155837]
ニューラルモデルのトレーニング目的に直接キャリブレーション項を含めることを提案する。
古典的なキャリブレーション誤差の定式化を緩和することにより、エンドツーエンドのバックプロパゲーションを可能にする。
既存の計算パイプラインに直接適用でき、信頼性の高いブラックボックス後部推論が可能である。
論文 参考訳(メタデータ) (2023-10-20T10:20:45Z) - Do Bayesian Variational Autoencoders Know What They Don't Know? [0.6091702876917279]
OoD(Out-of-Distribution)入力を検出する問題は、ディープニューラルネットワークにとって最重要課題である。
入力の密度を推定できる深部生成モデルでさえ、信頼できない可能性があることが以前に示されている。
本稿では,マルコフ連鎖モンテカルロ,バックプロパゲーションによるベイズ勾配,およびウェイト平均ガウスの3つの推論手法について検討する。
論文 参考訳(メタデータ) (2022-12-29T11:48:01Z) - Uncertainty of Feed Forward Neural Networks Recognizing Quantum
Contextuality [2.5665227681407243]
ベイズニューラルネットワーク(BNN)による精度と不確実性の両方を推定する強力な手法
偏りのあるデータセットを用いてトレーニングした後でも、BNNが確実な不確実性推定の能力をいかに強調できるかを示す。
論文 参考訳(メタデータ) (2022-12-27T17:33:46Z) - Understanding Approximation for Bayesian Inference in Neural Networks [7.081604594416339]
ベイズニューラルネットワークにおける近似推論について検討する。
近似後部の期待効用は推論品質を測定することができる。
継続的かつ活発な学習セットは、後部品質とは無関係な課題を引き起こします。
論文 参考訳(メタデータ) (2022-11-11T11:31:13Z) - NUQ: Nonparametric Uncertainty Quantification for Deterministic Neural
Networks [151.03112356092575]
本研究では,Nadaraya-Watson の条件付きラベル分布の非パラメトリック推定に基づく分類器の予測の不確かさの測定方法を示す。
種々の実世界の画像データセットにおける不確実性推定タスクにおいて,本手法の強い性能を示す。
論文 参考訳(メタデータ) (2022-02-07T12:30:45Z) - Bayesian Neural Networks for Reversible Steganography [0.7614628596146599]
ベイズ深層学習の理論的枠組みに基づく予測モデルにおける不確実性を検討することを提案する。
我々はモンテカルロサンプリングによる後方予測分布を可逆な前方通過で近似した。
予測の不確実性はアレータリックな不確実性に切り離すことができ、これらの量は教師なしの方法で学習可能であることを示す。
論文 参考訳(メタデータ) (2022-01-07T14:56:33Z) - Dense Uncertainty Estimation [62.23555922631451]
本稿では,ニューラルネットワークと不確実性推定手法について検討し,正確な決定論的予測と確実性推定の両方を実現する。
本研究では,アンサンブルに基づく手法と生成モデルに基づく手法の2つの不確実性推定法について検討し,それらの長所と短所を,完全/半端/弱度に制御されたフレームワークを用いて説明する。
論文 参考訳(メタデータ) (2021-10-13T01:23:48Z) - Being Bayesian, Even Just a Bit, Fixes Overconfidence in ReLU Networks [65.24701908364383]
我々は、ReLUネットワーク上の不確実性に対する十分条件が「少しベイズ校正される」ことを示す。
さらに,これらの知見を,共通深部ReLUネットワークとLaplace近似を用いた各種標準実験により実証的に検証した。
論文 参考訳(メタデータ) (2020-02-24T08:52:06Z) - Bayesian Deep Learning and a Probabilistic Perspective of Generalization [56.69671152009899]
ディープアンサンブルはベイズ辺化を近似する有効なメカニズムであることを示す。
また,アトラクションの流域内での辺縁化により,予測分布をさらに改善する関連手法を提案する。
論文 参考訳(メタデータ) (2020-02-20T15:13:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。