論文の概要: Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning
- arxiv url: http://arxiv.org/abs/2508.07556v1
- Date: Mon, 11 Aug 2025 02:33:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-12 21:23:28.911632
- Title: Uncertainty-Driven Reliability: Selective Prediction and Trustworthy Deployment in Modern Machine Learning
- Title(参考訳): 不確実性駆動の信頼性: 現代の機械学習における選択的な予測と信頼できるデプロイ
- Authors: Stephan Rabanser,
- Abstract要約: この論文は、不確実性推定が機械学習(ML)システムの安全性と信頼性を高める方法について考察する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
本稿では,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック禁忌手法を提案する。
- 参考スコア(独自算出の注目度): 0.7252027234425332
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning (ML) systems are increasingly deployed in high-stakes domains where reliability is paramount. This thesis investigates how uncertainty estimation can enhance the safety and trustworthiness of ML, focusing on selective prediction -- where models abstain when confidence is low. We first show that a model's training trajectory contains rich uncertainty signals that can be exploited without altering its architecture or loss. By ensembling predictions from intermediate checkpoints, we propose a lightweight, post-hoc abstention method that works across tasks, avoids the cost of deep ensembles, and achieves state-of-the-art selective prediction performance. Crucially, this approach is fully compatible with differential privacy (DP), allowing us to study how privacy noise affects uncertainty quality. We find that while many methods degrade under DP, our trajectory-based approach remains robust, and we introduce a framework for isolating the privacy-uncertainty trade-off. Next, we then develop a finite-sample decomposition of the selective classification gap -- the deviation from the oracle accuracy-coverage curve -- identifying five interpretable error sources and clarifying which interventions can close the gap. This explains why calibration alone cannot fix ranking errors, motivating methods that improve uncertainty ordering. Finally, we show that uncertainty signals can be adversarially manipulated to hide errors or deny service while maintaining high accuracy, and we design defenses combining calibration audits with verifiable inference. Together, these contributions advance reliable ML by improving, evaluating, and safeguarding uncertainty estimation, enabling models that not only make accurate predictions -- but also know when to say "I do not know".
- Abstract(参考訳): マシンラーニング(ML)システムは、信頼性が最重要である高い領域にますますデプロイされている。
この論文は、不確実性推定がMLの安全性と信頼性を高める方法を検討する。
まず、モデルのトレーニング軌道は、アーキテクチャの変更や損失を伴わずに活用できるような、豊富な不確実性信号を含むことを示す。
中間チェックポイントから予測をアンサンブルすることにより,タスク間で動作し,深層アンサンブルのコストを回避し,最先端の選択的予測性能を実現する軽量なポストホック停止法を提案する。
重要なことに、このアプローチは差分プライバシー(DP)と完全に互換性があり、プライバシーのノイズが不確実性の品質にどのように影響するかを研究することができます。
DPの下では,多くの手法が劣化するが,軌道に基づくアプローチは依然として堅牢であり,プライバシー不確実性のトレードオフを分離するための枠組みを導入する。
次に、選択的な分類ギャップの有限サンプル分解 -- オラクルの精度-被覆曲線からの偏差 -- 解釈可能な5つのエラー源を特定し、どの介入がギャップを埋めるかを明確にする -- を論じる。これは、キャリブレーションだけでランキングエラーを修正できない理由、不確実性の順序付けを改善する方法の動機づけを説明している。最後に、不確実性信号は、高い精度を維持しつつエラーを隠蔽したり、サービスを否定したりするために逆向きに操作できることを示すとともに、キャリブレーション監査と検証可能な推論を組み合わせた防御を設計する。これらの貢献は、信頼性の高いMLを向上し、評価し、保証することで、不確実性推定を助長する。
関連論文リスト
- Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Know Where You're Uncertain When Planning with Multimodal Foundation Models: A Formal Framework [54.40508478482667]
認識と計画生成の不確実性を解消し、定量化し、緩和する包括的枠組みを提案する。
本稿では,知覚と意思決定の独特な性質に合わせた手法を提案する。
この不確実性分散フレームワークは, 変動率を最大40%削減し, タスク成功率をベースラインに比べて5%向上させることを示した。
論文 参考訳(メタデータ) (2024-11-03T17:32:00Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Revisiting Confidence Estimation: Towards Reliable Failure Prediction [53.79160907725975]
多くの信頼度推定法は誤分類誤りを検出するのに有害である。
本稿では, 最先端の故障予測性能を示す平坦な最小値を求めることにより, 信頼性ギャップを拡大することを提案する。
論文 参考訳(メタデータ) (2024-03-05T11:44:14Z) - Lightweight, Uncertainty-Aware Conformalized Visual Odometry [2.429910016019183]
データ駆動型ビジュアルオドメトリー(VO)は、自律エッジロボティクスにとって重要なサブルーチンである。
昆虫スケールドローンや外科ロボットのような最先端ロボットデバイスは、VOの予測の不確実性を推定する計算的に効率的な枠組みを欠いている。
本稿では,共形推論(CI)を利用してVOの不確実な帯域を抽出する,新しい,軽量で統計的に堅牢なフレームワークを提案する。
論文 参考訳(メタデータ) (2023-03-03T20:37:55Z) - Calibrated Regression Against An Adversary Without Regret [10.470326550507117]
データポイントの任意のストリーム上でこれらの目標を達成するために保証されたオンラインアルゴリズムを導入する。
具体的には、アルゴリズムは(1)キャリブレーションされた予測を生成する。すなわち、80%の信頼区間は、その時間の80%の真の結果を含む。
我々は、回帰においてこれらの目標を確実に達成するポストホックリカレーション戦略を実装している。
論文 参考訳(メタデータ) (2023-02-23T17:42:11Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。