論文の概要: Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning
- arxiv url: http://arxiv.org/abs/2508.07556v1
- Date: Mon, 11 Aug 2025 02:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.911632
- Title: Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning
- Title(参考訳): 不確実性駆動の信頼性: 現代の機械学習における選択的な予測と信頼できるデプロイ
- Authors: Stephan Rabanser,
- Abstract要約: この論文は、不確実性推定が機械学習(ML)システムの安全性と信頼性を高める方法について考察する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
本稿では,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック禁忌手法を提案する。
- 参考スコア(独自算出の注目度): 0.7252027234425332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) systems are increasingly deployed in high-stakes domains where reliability is paramount. This thesis investigates how uncertainty estimation can enhance the safety and trustworthiness of ML, focusing on selective prediction -- where models abstain when confidence is low. We first show that a model's training trajectory contains rich uncertainty signals that can be exploited without altering its architecture or loss. By ensembling predictions from intermediate checkpoints, we propose a lightweight, post-hoc abstention method that works across tasks, avoids the cost of deep ensembles, and achieves state-of-the-art selective prediction performance. Crucially, this approach is fully compatible with differential privacy (DP), allowing us to study how privacy noise affects uncertainty quality. We find that while many methods degrade under DP, our trajectory-based approach remains robust, and we introduce a framework for isolating the privacy-uncertainty trade-off. Next, we then develop a finite-sample decomposition of the selective classification gap -- the deviation from the oracle accuracy-coverage curve -- identifying five interpretable error sources and clarifying which interventions can close the gap. This explains why calibration alone cannot fix ranking errors, motivating methods that improve uncertainty ordering. Finally, we show that uncertainty signals can be adversarially manipulated to hide errors or deny service while maintaining high accuracy, and we design defenses combining calibration audits with verifiable inference. Together, these contributions advance reliable ML by improving, evaluating, and safeguarding uncertainty estimation, enabling models that not only make accurate predictions -- but also know when to say "I do not know".
- Abstract(参考訳): マシンラーニング(ML)システムは、信頼性が最重要である高い領域にますますデプロイされている。
この論文は、不確実性推定がMLの安全性と信頼性を高める方法を検討する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
中間チェックポイントから予測をアンサンブルすることにより,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック停止法を提案する。
重要なことに、このアプローチは差分プライバシー(DP)と完全に互換性があり、プライバシーのノイズが不確実性の品質にどのように影響するかを研究することができます。
DPの下では,多くの手法が劣化するが,軌道に基づくアプローチは依然として堅牢であり,プライバシー不確実性のトレードオフを分離するための枠組みを導入する。
次に、選択的な分類ギャップの有限サンプル分解 -- オラクルの精度-被覆曲線からの偏差 -- 解釈可能な5つのエラー源を特定し、どの介入がギャップを埋めるかを明確にする -- を論じる。これは、キャリブレーションだけでランキングエラーを修正できない理由、不確実性の順序付けを改善する方法の動機づけを説明している。最後に、不確実性信号は、高い精度を維持しつつエラーを隠蔽したり、サービスを否定したりするために逆向きに操作できることを示すとともに、キャリブレーション監査と検証可能な推論を組み合わせた防御を設計する。これらの貢献は、信頼性の高いMLを向上し、評価し、保証することで、不確実性推定を助長する。
関連論文リスト
- Decision-Aware Trust Signal Alignment for SOC Alert Triage [0.0]
本稿では,SOC警告トリアージの信頼信号対応方式を提案する。
このフレームワークは、調整済みの信頼性、軽量不確実性、そしてコストに敏感な決定しきい値をコヒーレントな決定支持層に組み合わせている。
信頼度が不一致な表示によって偽陰性が大幅に増幅されるのに対し、コスト重み付き損失は決定整合信頼信号を持つモデル間での桁違いに減少することを示す。
論文 参考訳(メタデータ) (2026-01-08T01:41:54Z) - Calibrating Uncertainty for Zero-Shot Adversarial CLIP [33.707647228637114]
予測精度と不確実性アライメントの両方を考慮した,CLIPの新たな逆調整目標を提案する。
我々の目的は、これらの分布を摂動の下で均等に整列させ、シングルログのアンカーを超えて不確実性を回復することである。
論文 参考訳(メタデータ) (2025-12-15T05:41:08Z) - Confidential Guardian: Cryptographically Prohibiting the Abuse of Model Abstention [65.47632669243657]
不正直な機関は、不確実性の観点からサービスを差別または不正に否定する機構を利用することができる。
我々は、ミラージュと呼ばれる不確実性誘導攻撃を導入することで、この脅威の実践性を実証する。
本研究では,参照データセット上のキャリブレーションメトリクスを分析し,人工的に抑制された信頼度を検出するフレームワークであるConfidential Guardianを提案する。
論文 参考訳(メタデータ) (2025-05-29T19:47:50Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Beyond Uncertainty Quantification: Learning Uncertainty for Trust-Informed Neural Network Decisions - A Case Study in COVID-19 Classification [7.383605511698832]
信頼性の高い不確実性定量化は、医学的診断のような高い評価の応用において重要である。
従来の不確実性定量化法は、予測を自信または不確実性として分類するために、予め定義された信頼しきい値に依存する。
このアプローチは、しきい値を超える予測は信頼に値するが、それ以下の予測は信頼性の高い予測の正確性を明確に評価することなく不確実であると仮定する。
本研究では,予測の信頼度を学習することで,従来の不確実性定量化を拡張した不確実性認識型ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-19T04:20:12Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Decomposing Uncertainty for Large Language Models through Input Clarification Ensembling [69.83976050879318]
大規模言語モデル(LLM)では、不確実性の原因を特定することが、信頼性、信頼性、解釈可能性を改善するための重要なステップである。
本稿では,LLMのための不確実性分解フレームワークについて述べる。
提案手法は,入力に対する一連の明確化を生成し,それらをLLMに入力し,対応する予測をアンサンブルする。
論文 参考訳(メタデータ) (2023-11-15T05:58:35Z) - Lightweight, Uncertainty-Aware Conformalized Visual Odometry [2.429910016019183]
データ駆動型ビジュアルオドメトリー(VO)は、自律エッジロボティクスにとって重要なサブルーチンである。
昆虫スケールドローンや外科ロボットのような最先端ロボットデバイスは、VOの予測の不確実性を推定する計算的に効率的な枠組みを欠いている。
本稿では,共形推論(CI)を利用してVOの不確実な帯域を抽出する,新しい,軽量で統計的に堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-03T20:37:55Z) - Calibrated Regression Against An Adversary Without Regret [10.470326550507117]
データポイントの任意のストリーム上でこれらの目標を達成するために保証されたオンラインアルゴリズムを導入する。
具体的には、アルゴリズムは(1)キャリブレーションされた予測を生成する。すなわち、80%の信頼区間は、その時間の80%の真の結果を含む。
我々は、回帰においてこれらの目標を確実に達成するポストホックリカレーション戦略を実装している。
論文 参考訳(メタデータ) (2023-02-23T17:42:11Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。