論文の概要: Interpretable Uncertainty Quantification in AI for HEP
- arxiv url: http://arxiv.org/abs/2208.03284v1
- Date: Fri, 5 Aug 2022 17:20:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-08 12:23:30.928035
- Title: Interpretable Uncertainty Quantification in AI for HEP
- Title(参考訳): HEPのためのAIにおける解釈不能な不確実性定量化
- Authors: Thomas Y. Chen, Biprateep Dey, Aishik Ghosh, Michael Kagan, Brian
Nord, Nesar Ramachandra
- Abstract要約: 不確実性の推定は、HEPにおける科学的測定の核心にある。
不確実性定量化(UQ)の目標は「これらの不確実性をどのように物理的に統計的に解釈するか」という問題と密接に関連している。
HEPにおける人工知能(AI)応用には、UQの解釈可能な手法が不可欠である分野がいくつかある。
- 参考スコア(独自算出の注目度): 2.922388615593672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Estimating uncertainty is at the core of performing scientific measurements
in HEP: a measurement is not useful without an estimate of its uncertainty. The
goal of uncertainty quantification (UQ) is inextricably linked to the question,
"how do we physically and statistically interpret these uncertainties?" The
answer to this question depends not only on the computational task we aim to
undertake, but also on the methods we use for that task. For artificial
intelligence (AI) applications in HEP, there are several areas where
interpretable methods for UQ are essential, including inference, simulation,
and control/decision-making. There exist some methods for each of these areas,
but they have not yet been demonstrated to be as trustworthy as more
traditional approaches currently employed in physics (e.g., non-AI frequentist
and Bayesian methods).
Shedding light on the questions above requires additional understanding of
the interplay of AI systems and uncertainty quantification. We briefly discuss
the existing methods in each area and relate them to tasks across HEP. We then
discuss recommendations for avenues to pursue to develop the necessary
techniques for reliable widespread usage of AI with UQ over the next decade.
- Abstract(参考訳): 不確実性の推定は、hepにおける科学的測定の実行の中核である: 測定はその不確実性の推定なしでは役に立たない。
不確実性定量化(uq)の目標は「物理的・統計的にこれらの不確実性をどう解釈するか?
この質問に対する答えは、我々が実行しようとしている計算タスクだけでなく、そのタスクに使用するメソッドにも依存します。
HEPにおける人工知能(AI)応用には、推論、シミュレーション、制御/決定など、UQの解釈可能な手法が不可欠である領域がいくつかある。
これらの領域にはいくつかの方法が存在するが、それらは現在物理学で使われている伝統的なアプローチほど信頼に値するものではない(例えば、非ai頻度主義やベイズ的手法)。
上記の質問に光を当てるには、AIシステムの相互作用と不確実性定量化のさらなる理解が必要である。
我々は,各領域における既存手法を簡潔に議論し,hepを横断するタスクに関連付ける。
次に、今後10年間にAIとUQを確実に利用するために必要な技術を開発するための道の推奨について議論する。
関連論文リスト
- Certainly Uncertain: A Benchmark and Metric for Multimodal Epistemic and Aleatoric Awareness [106.52630978891054]
視覚言語AIシステムに特有の不確実性の分類法を提案する。
また、精度と校正誤差の両方によく相関する新しい計量信頼度重み付き精度を導入する。
論文 参考訳(メタデータ) (2024-07-02T04:23:54Z) - Word-Sequence Entropy: Towards Uncertainty Estimation in Free-Form Medical Question Answering Applications and Beyond [52.246494389096654]
本稿ではワードシーケンスエントロピー(WSE)を紹介し,単語レベルとシーケンスレベルの不確実性を校正する手法を提案する。
We compare WSE with six baseline method on five free-form medical QA datasets, using 7 popular large language model (LLMs)。
論文 参考訳(メタデータ) (2024-02-22T03:46:08Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Uncertainty in Natural Language Processing: Sources, Quantification, and
Applications [56.130945359053776]
NLP分野における不確実性関連作業の総合的なレビューを行う。
まず、自然言語の不確実性の原因を、入力、システム、出力の3つのタイプに分類する。
我々は,NLPにおける不確実性推定の課題について論じ,今後の方向性について論じる。
論文 参考訳(メタデータ) (2023-06-05T06:46:53Z) - A Survey on Uncertainty Quantification Methods for Deep Learning [7.102893202197349]
不確かさ定量化(UQ)は、予測精度以上のDNN予測の信頼性を推定することを目的としている。
本稿では,DNNに対するUQ手法の系統分類を,不確実性源の種類に基づいて提案する。
我々は、我々のUQ方法論の分類が、異なる機械学習問題におけるUQ手法の選択を導くのにどのように役立つかを示す。
論文 参考訳(メタデータ) (2023-02-26T22:30:08Z) - Conformal Methods for Quantifying Uncertainty in Spatiotemporal Data: A
Survey [0.0]
高リスク環境では、モデルが自身の信頼を反映し、失敗を避けるために不確実性を生み出すことが重要である。
本稿では, ディープラーニングにおける不確実性(UQ)に関する最近の研究, 特に, 数学的, 広範に適用可能な分布自由な等角予測法について調査する。
論文 参考訳(メタデータ) (2022-09-08T06:08:48Z) - The Unreasonable Effectiveness of Deep Evidential Regression [72.30888739450343]
不確実性を考慮した回帰ベースニューラルネットワーク(NN)による新しいアプローチは、従来の決定論的手法や典型的なベイズ的NNよりも有望であることを示している。
我々は、理論的欠点を詳述し、合成および実世界のデータセットのパフォーマンスを分析し、Deep Evidential Regressionが正確な不確実性ではなく定量化であることを示す。
論文 参考訳(メタデータ) (2022-05-20T10:10:32Z) - A Review of Uncertainty Quantification in Deep Learning: Techniques,
Applications and Challenges [76.20963684020145]
不確実性定量化(UQ)は、最適化と意思決定プロセスの両方において不確実性の低減に重要な役割を果たしている。
ビザレ近似とアンサンブル学習技術は、文学において最も広く使われている2つのUQ手法である。
本研究は, 深層学習におけるUQ手法の最近の進歩を概観し, 強化学習におけるこれらの手法の適用について検討する。
論文 参考訳(メタデータ) (2020-11-12T06:41:05Z) - A Comparison of Uncertainty Estimation Approaches in Deep Learning
Components for Autonomous Vehicle Applications [0.0]
自律走行車(AV)の安全性を確保する主要な要因は、望ましくない、予測できない状況下での異常な行動を避けることである。
データやモデルにおける不確実性の定量化のための様々な手法が近年提案されている。
これらの手法では、高い計算負荷、高いメモリフットプリント、余分なレイテンシが要求され、安全クリティカルなアプリケーションでは禁止される。
論文 参考訳(メタデータ) (2020-06-26T18:55:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。