論文の概要: Towards a Certificate of Trust: Task-Aware OOD Detection for Scientific AI
- arxiv url: http://arxiv.org/abs/2509.25080v1
- Date: Mon, 29 Sep 2025 17:21:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:20.15984
- Title: Towards a Certificate of Trust: Task-Aware OOD Detection for Scientific AI
- Title(参考訳): 信頼の証明書を目指して:科学AIのためのタスク対応OOD検出
- Authors: Bogdan Raonić, Siddhartha Mishra, Samuel Lanthaler,
- Abstract要約: スコアベース拡散モデルを用いて関節確率を推定する新しいOOD検出法を提案する。
このアプローチは入力だけでなく回帰モデルの予測も考慮し、タスク対応の信頼性スコアを提供する。
我々の研究は「信頼の証明」を構築するための基本的なステップを提供し、それによってAIベースの予測の信頼性を評価するための実践的なツールを提供する。
- 参考スコア(独自算出の注目度): 18.927559053107842
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data-driven models are increasingly adopted in critical scientific fields like weather forecasting and fluid dynamics. These methods can fail on out-of-distribution (OOD) data, but detecting such failures in regression tasks is an open challenge. We propose a new OOD detection method based on estimating joint likelihoods using a score-based diffusion model. This approach considers not just the input but also the regression model's prediction, providing a task-aware reliability score. Across numerous scientific datasets, including PDE datasets, satellite imagery and brain tumor segmentation, we show that this likelihood strongly correlates with prediction error. Our work provides a foundational step towards building a verifiable 'certificate of trust', thereby offering a practical tool for assessing the trustworthiness of AI-based scientific predictions. Our code is publicly available at https://github.com/bogdanraonic3/OOD_Detection_ScientificML
- Abstract(参考訳): データ駆動モデルは、天気予報や流体力学といった重要な科学分野でますます採用されている。
これらの手法は、オフ・オブ・ディストリビューション(OOD)データで失敗する可能性があるが、回帰タスクにおけるそのような失敗を検出することは、オープンな課題である。
スコアベース拡散モデルを用いて関節確率を推定する新しいOOD検出法を提案する。
このアプローチは入力だけでなく回帰モデルの予測も考慮し、タスク対応の信頼性スコアを提供する。
PDEデータセット、衛星画像、脳腫瘍のセグメンテーションなど、多くの科学的データセットにおいて、予測誤差と強い相関関係があることが示されている。
我々の研究は、検証可能な「信頼の証明」を構築するための基本的なステップを提供し、それによってAIベースの科学的予測の信頼性を評価するための実践的なツールを提供する。
私たちのコードはhttps://github.com/bogdanraonic3/OOD_Detection_ScientificMLで公開されています。
関連論文リスト
- CARE: Confidence-Aware Regression Estimation of building density fine-tuning EO Foundation Models [0.9558392439655016]
本研究は、回帰出力とともに信頼度を計算・割り当てするEO衛星データを用いたファンデーションモデルの開発である。
このモデルCAREは、EOデータに対するファンデーションモデルの下流タスクとして回帰結果に対する信頼度を算出し、低信頼領域に対する信頼度を考慮した自己補正学習手法を実行する。
論文 参考訳(メタデータ) (2025-02-19T14:02:00Z) - An Investigation on Machine Learning Predictive Accuracy Improvement and Uncertainty Reduction using VAE-based Data Augmentation [2.517043342442487]
深層生成学習は、特定のMLモデルを使用して、既存のデータの基盤となる分布を学習し、実際のデータに似た合成サンプルを生成する。
本研究では,変分オートエンコーダ(VAE)を用いた深部生成モデルを用いて,データ拡張の有効性を評価することを目的とする。
本研究では,拡張データを用いてトレーニングしたディープニューラルネットワーク(DNN)モデルの予測において,データ拡張が精度の向上につながるかどうかを検討した。
論文 参考訳(メタデータ) (2024-10-24T18:15:48Z) - Mitigating Overconfidence in Out-of-Distribution Detection by Capturing Extreme Activations [1.8531577178922987]
Overconfidence"は特定のニューラルネットワークアーキテクチャの本質的な性質であり、OOD検出の低さにつながる。
ニューラルネットワークの最後層における極端なアクティベーション値を計測し、この過信のプロキシを利用して、複数のOOD検出ベースラインを改善する。
基準値と比較すると,OOD検出は2桁に増加し,精度が向上することが多い。
論文 参考訳(メタデータ) (2024-05-21T10:14:50Z) - Conservative Prediction via Data-Driven Confidence Minimization [70.93946578046003]
機械学習の安全性クリティカルな応用においては、モデルが保守的であることが望ましいことが多い。
本研究では,不確実性データセットに対する信頼性を最小化するデータ駆動信頼性最小化フレームワークを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:05:36Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Out-of-Distribution Detection with Hilbert-Schmidt Independence
Optimization [114.43504951058796]
異常検出タスクはAIの安全性において重要な役割を担っている。
ディープニューラルネットワーク分類器は通常、アウト・オブ・ディストリビューション(OOD)の入力を、信頼性の高いイン・ディストリビューション・クラスに誤って分類する傾向がある。
我々は,OOD検出タスクにおいて実用的かつ理論的に有効な代替確率論的パラダイムを提案する。
論文 参考訳(メタデータ) (2022-09-26T15:59:55Z) - Augmenting Softmax Information for Selective Classification with
Out-of-Distribution Data [7.221206118679026]
既存のポストホック法はOOD検出でのみ評価した場合とは大きく異なる性能を示す。
本稿では,特徴に依存しない情報を用いて,ソフトマックスに基づく信頼度を向上するSCOD(Softmax Information Retaining Combination, SIRC)の新たな手法を提案する。
多様なImageNetスケールのデータセットと畳み込みニューラルネットワークアーキテクチャの実験は、SIRCがSCODのベースラインを一貫して一致または上回っていることを示している。
論文 参考訳(メタデータ) (2022-07-15T14:39:57Z) - Leveraging Unlabeled Data to Predict Out-of-Distribution Performance [63.740181251997306]
実世界の機械学習デプロイメントは、ソース(トレーニング)とターゲット(テスト)ディストリビューションのミスマッチによって特徴づけられる。
本研究では,ラベル付きソースデータとラベルなしターゲットデータのみを用いて,対象領域の精度を予測する手法を検討する。
本稿では,モデルの信頼度をしきい値として学習し,精度をラベルなし例のごく一部として予測する実践的手法である平均閾値保持信頼度(ATC)を提案する。
論文 参考訳(メタデータ) (2022-01-11T23:01:12Z) - Improving Uncertainty Calibration via Prior Augmented Data [56.88185136509654]
ニューラルネットワークは、普遍関数近似器として機能することで、複雑なデータ分布から学習することに成功した。
彼らはしばしば予測に自信過剰であり、不正確で誤った確率的予測に繋がる。
本稿では,モデルが不当に過信である特徴空間の領域を探索し,それらの予測のエントロピーをラベルの以前の分布に対して条件的に高める手法を提案する。
論文 参考訳(メタデータ) (2021-02-22T07:02:37Z) - Unlabelled Data Improves Bayesian Uncertainty Calibration under
Covariate Shift [100.52588638477862]
後続正則化に基づく近似ベイズ推定法を開発した。
前立腺癌の予後モデルを世界規模で導入する上で,本手法の有用性を実証する。
論文 参考訳(メタデータ) (2020-06-26T13:50:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。