論文の概要: From Aleatoric to Epistemic: Exploring Uncertainty Quantification Techniques in Artificial Intelligence
- arxiv url: http://arxiv.org/abs/2501.03282v1
- Date: Sun, 05 Jan 2025 23:14:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-08 15:50:28.198947
- Title: From Aleatoric to Epistemic: Exploring Uncertainty Quantification Techniques in Artificial Intelligence
- Title(参考訳): Aleatoric から Epistemicへ:人工知能における不確かさの定量化技術を探る
- Authors: Tianyang Wang, Yunze Wang, Jun Zhou, Benji Peng, Xinyuan Song, Charles Zhang, Xintian Sun, Qian Niu, Junyu Liu, Silin Chen, Keyu Chen, Ming Li, Pohsun Feng, Ziqian Bi, Ming Liu, Yichao Zhang, Cheng Fei, Caitlyn Heqi Yin, Lawrence KQ Yan,
- Abstract要約: 不確実性定量化(英: Uncertainty Quantification、UQ)は、人工知能(AI)システムにおいて重要な側面である。
本稿では,AIにおける不確実性定量化技術の進化について概説する。
様々な分野におけるUQの多様な応用について検討し、意思決定、予測精度、システムの堅牢性への影響を強調した。
- 参考スコア(独自算出の注目度): 19.369216778200034
- License:
- Abstract: Uncertainty quantification (UQ) is a critical aspect of artificial intelligence (AI) systems, particularly in high-risk domains such as healthcare, autonomous systems, and financial technology, where decision-making processes must account for uncertainty. This review explores the evolution of uncertainty quantification techniques in AI, distinguishing between aleatoric and epistemic uncertainties, and discusses the mathematical foundations and methods used to quantify these uncertainties. We provide an overview of advanced techniques, including probabilistic methods, ensemble learning, sampling-based approaches, and generative models, while also highlighting hybrid approaches that integrate domain-specific knowledge. Furthermore, we examine the diverse applications of UQ across various fields, emphasizing its impact on decision-making, predictive accuracy, and system robustness. The review also addresses key challenges such as scalability, efficiency, and integration with explainable AI, and outlines future directions for research in this rapidly developing area. Through this comprehensive survey, we aim to provide a deeper understanding of UQ's role in enhancing the reliability, safety, and trustworthiness of AI systems.
- Abstract(参考訳): 不確実性定量化(英: Uncertainty Quantification、UQ)は、人工知能(AI)システムにおいて重要な側面であり、特に医療、自律システム、金融技術といったリスクの高い分野において、意思決定プロセスが不確実性を考慮しなければならない。
本稿では,AIにおける不確実性定量化技術の進化を考察し,これらの不確かさを定量化する数学的基礎と方法について議論する。
本稿では,確率論的手法,アンサンブル学習,サンプリングベースアプローチ,生成モデルなど,先進的な手法の概要を紹介するとともに,ドメイン固有の知識を統合するハイブリッドアプローチを強調した。
さらに、様々な分野におけるUQの多様な応用について検討し、意思決定、予測精度、システムの堅牢性への影響を強調した。
このレビューは、スケーラビリティ、効率性、説明可能なAIとの統合といった重要な課題にも対処し、この急速に発展する領域における研究の今後の方向性を概説している。
この包括的な調査を通じて、AIシステムの信頼性、安全性、信頼性を高める上でのUQの役割について、より深く理解することを目指している。
関連論文リスト
- Artificial Intelligence-Driven Clinical Decision Support Systems [5.010570270212569]
この章は、医療で信頼できるAIシステムを作るには、公平さ、説明可能性、プライバシーを慎重に考慮する必要があることを強調している。
AIによる公平な医療提供を保証するという課題は強調され、臨床予測モデルのバイアスを特定し緩和する方法が議論されている。
この議論は、ディープラーニングモデルのデータ漏洩からモデル説明に対する高度な攻撃に至るまで、医療AIシステムのプライバシ脆弱性の分析に進展している。
論文 参考訳(メタデータ) (2025-01-16T16:17:39Z) - A Unified Framework for Evaluating the Effectiveness and Enhancing the Transparency of Explainable AI Methods in Real-World Applications [2.0681376988193843]
AIモデルの特徴である"ブラックボックス"は、解釈可能性、透明性、信頼性を制約する。
本研究では,AIモデルによる説明の正確性,解釈可能性,堅牢性,公正性,完全性を評価するための統合XAI評価フレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-05T05:30:10Z) - Neurosymbolic Conformal Classification [6.775534755081169]
過去数十年間、機械学習(ML)は大幅に改善され、主にディープラーニング(DL)によって駆動された。
多くの領域におけるMLの成功にもかかわらず、適合性の保証やMLシステムの脆弱性を提供することの不可能さは、信頼できるAIシステムの設計を妨げている。
この脆弱性を緩和し、MLシステムの動作に関するいくつかの保証を提供するために、いくつかの研究パスが研究されている。
論文 参考訳(メタデータ) (2024-09-20T15:38:34Z) - Uncertainty Quantification for Forward and Inverse Problems of PDEs via
Latent Global Evolution [110.99891169486366]
本稿では,効率的かつ高精度な不確実性定量化を深層学習に基づく代理モデルに統合する手法を提案する。
本手法は,フォワード問題と逆問題の両方に対して,堅牢かつ効率的な不確実性定量化機能を備えたディープラーニングに基づく代理モデルを提案する。
提案手法は, 長期予測を含むシナリオに適合し, 拡張された自己回帰ロールアウトに対する不確かさの伝播に優れる。
論文 参考訳(メタデータ) (2024-02-13T11:22:59Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - Interpretable Uncertainty Quantification in AI for HEP [2.922388615593672]
不確実性の推定は、HEPにおける科学的測定の核心にある。
不確実性定量化(UQ)の目標は「これらの不確実性をどのように物理的に統計的に解釈するか」という問題と密接に関連している。
HEPにおける人工知能(AI)応用には、UQの解釈可能な手法が不可欠である分野がいくつかある。
論文 参考訳(メタデータ) (2022-08-05T17:20:27Z) - Statistical Perspectives on Reliability of Artificial Intelligence
Systems [6.284088451820049]
AIシステムの信頼性に関する統計的視点を提供する。
本稿では,AI信頼性研究のためのSMART統計フレームワークを提案する。
我々は、AI信頼性のモデリングと分析における最近の発展について論じる。
論文 参考訳(メタデータ) (2021-11-09T20:00:14Z) - Multi Agent System for Machine Learning Under Uncertainty in Cyber
Physical Manufacturing System [78.60415450507706]
近年の予測機械学習の進歩は、製造における様々なユースケースに応用されている。
ほとんどの研究は、それに関連する不確実性に対処することなく予測精度を最大化することに焦点を当てた。
本稿では,機械学習における不確実性の原因を特定し,不確実性下での機械学習システムの成功基準を確立する。
論文 参考訳(メタデータ) (2021-07-28T10:28:05Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - An interdisciplinary conceptual study of Artificial Intelligence (AI)
for helping benefit-risk assessment practices: Towards a comprehensive
qualification matrix of AI programs and devices (pre-print 2020) [55.41644538483948]
本稿では,インテリジェンスの概念に対処するさまざまな分野の既存の概念を包括的に分析する。
目的は、AIシステムを評価するための共有概念や相違点を特定することである。
論文 参考訳(メタデータ) (2021-05-07T12:01:31Z) - Neuro-symbolic Architectures for Context Understanding [59.899606495602406]
本稿では,データ駆動型アプローチと知識駆動型アプローチの強みを組み合わせたフレームワークとして,ハイブリッドAI手法を提案する。
具体的には、知識ベースを用いて深層ニューラルネットワークの学習過程を導く方法として、ニューロシンボリズムの概念を継承する。
論文 参考訳(メタデータ) (2020-03-09T15:04:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。