論文の概要: Accounting for Uncertainty in Machine Learning Surrogates: A Gauss-Hermite Quadrature Approach to Reliability Analysis
- arxiv url: http://arxiv.org/abs/2509.18128v1
- Date: Thu, 11 Sep 2025 12:15:16 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-28 15:30:14.393501
- Title: Accounting for Uncertainty in Machine Learning Surrogates: A Gauss-Hermite Quadrature Approach to Reliability Analysis
- Title(参考訳): 機械学習サロゲートの不確かさの会計--信頼性解析へのガウス・ハーマイト四分法アプローチ
- Authors: Amirreza Tootchi, Xiaoping Du,
- Abstract要約: 本研究では,ネストした不確かさを分離し,より正確な信頼性解析を可能にするガウス・ハーマイト二次手法を提案する。
提案手法は,モデルの不確実性を無視する従来の手法よりも信頼性の高い予測を導出しながら,計算効率を維持する。
- 参考スコア(独自算出の注目度): 0.9381936349291689
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Machine learning surrogates are increasingly employed to replace expensive computational models for physics-based reliability analysis. However, their use introduces epistemic uncertainty from model approximation errors, which couples with aleatory uncertainty in model inputs, potentially compromising the accuracy of reliability predictions. This study proposes a Gauss-Hermite quadrature approach to decouple these nested uncertainties and enable more accurate reliability analysis. The method evaluates conditional failure probabilities under aleatory uncertainty using First and Second Order Reliability Methods and then integrates these probabilities across realizations of epistemic uncertainty. Three examples demonstrate that the proposed approach maintains computational efficiency while yielding more trustworthy predictions than traditional methods that ignore model uncertainty.
- Abstract(参考訳): 機械学習サロゲートは、物理学に基づく信頼性分析のための高価な計算モデルを置き換えるために、ますます採用されている。
しかし、それらの手法はモデル近似誤差からエピステマティックな不確実性を導入し、モデル入力の保留的不確実性を伴い、信頼性予測の精度を損なう可能性がある。
本研究では,これらのネストした不確かさを分離し,より正確な信頼性解析を可能にするガウス・ハーマイト二次手法を提案する。
本手法は1次信頼性法と2次信頼性法を用いて, 予備的不確実性の下での条件付き故障確率を評価し, 疫学的不確実性を実現するためにこれらの確率を統合する。
3つの例は、モデルの不確実性を無視した従来の手法よりも信頼性の高い予測を導出しながら、提案手法が計算効率を維持することを示している。
関連論文リスト
- ConfEviSurrogate: A Conformalized Evidential Surrogate Model for Uncertainty Quantification [19.44456342675541]
サーロゲートモデル(英: Surrogate model)とは、シミュレーションノイズからモデル予測エラーまで、複雑なシミュレーションデータを科学的に近似するために不可欠なモデルである。
ConfEviSurrogateは,高次明細分布を効率よく学習できる新しいコンフォーマル化証拠サロゲートモデルである。
我々のモデルは、宇宙論、海洋力学、流体力学を含む様々なシミュレーションにおいて、正確な予測と頑健な不確実性推定を示す。
論文 参考訳(メタデータ) (2025-04-03T15:44:14Z) - From Data to Uncertainty Sets: a Machine Learning Approach [5.877778007271621]
我々は、堅牢な最適化を活用し、機械学習モデルの出力の不確実性に対する制約を保護する。
我々は違反の可能性を強く保証する。
合成計算実験では、この手法は他の手法よりも1桁小さい半径を持つ不確実性集合を必要とする。
論文 参考訳(メタデータ) (2025-03-04T01:30:28Z) - Probabilistic Modeling of Disparity Uncertainty for Robust and Efficient Stereo Matching [61.73532883992135]
本稿では,新しい不確実性を考慮したステレオマッチングフレームワークを提案する。
我々はベイズリスクを不確実性の測定として採用し、データを別々に見積もり、不確実性をモデル化する。
論文 参考訳(メタデータ) (2024-12-24T23:28:20Z) - Error-Driven Uncertainty Aware Training [7.702016079410588]
Error-Driven Uncertainty Aware Trainingは、ニューラル分類器が不確実性を正確に推定する能力を高めることを目的としている。
EUATアプローチは、モデルのトレーニングフェーズ中に、トレーニング例が正しく予測されているか、あるいは正しく予測されているかによって、2つの損失関数を選択的に使用することによって機能する。
画像認識領域における多様なニューラルモデルとデータセットを用いてEUATを評価する。
論文 参考訳(メタデータ) (2024-05-02T11:48:14Z) - Leave-One-Out-, Bootstrap- and Cross-Conformal Anomaly Detectors [0.0]
本研究では,異常検出のためのLeft-out-out-, bootstrap-, cross-conformalメソッドを正式に定義し,評価する。
我々は,再サンプリング・コンフォーマルな$p$-値を求める導出手法が,統計効率(全コンフォーマル)と計算効率(スプリット・コンフォーマル)の両立を図っていることを実証した。
論文 参考訳(メタデータ) (2024-02-26T08:22:40Z) - Quantification of Predictive Uncertainty via Inference-Time Sampling [57.749601811982096]
本稿では,データあいまいさの予測不確実性を推定するためのポストホックサンプリング手法を提案する。
この方法は与えられた入力に対して異なる可算出力を生成することができ、予測分布のパラメトリック形式を仮定しない。
論文 参考訳(メタデータ) (2023-08-03T12:43:21Z) - Toward Reliable Human Pose Forecasting with Uncertainty [51.628234388046195]
我々は、複数のモデルを含む人間のポーズ予測のためのオープンソースのライブラリを開発し、複数のデータセットをサポートする。
我々は、パフォーマンスを高め、より良い信頼をもたらすために、問題の2つの不確実性を考案する。
論文 参考訳(メタデータ) (2023-04-13T17:56:08Z) - Reliability-Aware Prediction via Uncertainty Learning for Person Image
Retrieval [51.83967175585896]
UALは、データ不確実性とモデル不確実性を同時に考慮し、信頼性に配慮した予測を提供することを目的としている。
データ不確実性はサンプル固有のノイズを捕捉する」一方、モデル不確実性はサンプルの予測に対するモデルの信頼を表現している。
論文 参考訳(メタデータ) (2022-10-24T17:53:20Z) - Dense Uncertainty Estimation via an Ensemble-based Conditional Latent
Variable Model [68.34559610536614]
我々は、アレータリック不確実性はデータの固有の特性であり、偏見のないオラクルモデルでのみ正確に推定できると論じる。
そこで本研究では,軌道不確実性推定のためのオラクルモデルを近似するために,列車時の新しいサンプリングと選択戦略を提案する。
以上の結果から,提案手法は精度の高い決定論的結果と確実な不確実性推定の両方を達成できることが示唆された。
論文 参考訳(メタデータ) (2021-11-22T08:54:10Z) - DEUP: Direct Epistemic Uncertainty Prediction [56.087230230128185]
認識の不確実性は、学習者の知識の欠如によるサンプル外の予測エラーの一部である。
一般化誤差の予測を学習し, aleatoric uncertaintyの推定を減算することで, 認識的不確かさを直接推定する原理的アプローチを提案する。
論文 参考訳(メタデータ) (2021-02-16T23:50:35Z) - Trust but Verify: Assigning Prediction Credibility by Counterfactual
Constrained Learning [123.3472310767721]
予測信頼性尺度は統計学と機械学習において基本的なものである。
これらの措置は、実際に使用される多種多様なモデルを考慮に入れるべきである。
この研究で開発されたフレームワークは、リスクフィットのトレードオフとして信頼性を表現している。
論文 参考訳(メタデータ) (2020-11-24T19:52:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。