論文の概要: From Black Box to Insight: Explainable AI for Extreme Event Preparedness
- arxiv url: http://arxiv.org/abs/2511.13712v1
- Date: Mon, 17 Nov 2025 18:57:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-18 18:52:09.695315
- Title: From Black Box to Insight: Explainable AI for Extreme Event Preparedness
- Title(参考訳): ブラックボックスからインサイト:極度のイベント準備のための説明可能なAI
- Authors: Kiana Vu, İsmet Selçuk Özer, Phung Lai, Zheng Wu, Thilanka Munasinghe, Jennifer Wei,
- Abstract要約: 気候変動が山火事などの極端な出来事の頻度と深刻度を加速するにつれ、正確で説明可能な予測や行動可能な予測の必要性が高まっている。
人工知能(AI)モデルはそのような事象を予測することを約束しているが、現実の意思決定への採用はブラックボックスの性質のために制限されている。
本稿では、予測精度と極端な事象予測のための実用的な洞察とのギャップを埋める上での、説明可能なAI(XAI)の役割について検討する。
- 参考スコア(独自算出の注目度): 6.583192288853322
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: As climate change accelerates the frequency and severity of extreme events such as wildfires, the need for accurate, explainable, and actionable forecasting becomes increasingly urgent. While artificial intelligence (AI) models have shown promise in predicting such events, their adoption in real-world decision-making remains limited due to their black-box nature, which limits trust, explainability, and operational readiness. This paper investigates the role of explainable AI (XAI) in bridging the gap between predictive accuracy and actionable insight for extreme event forecasting. Using wildfire prediction as a case study, we evaluate various AI models and employ SHapley Additive exPlanations (SHAP) to uncover key features, decision pathways, and potential biases in model behavior. Our analysis demonstrates how XAI not only clarifies model reasoning but also supports critical decision-making by domain experts and response teams. In addition, we provide supporting visualizations that enhance the interpretability of XAI outputs by contextualizing feature importance and temporal patterns in seasonality and geospatial characteristics. This approach enhances the usability of AI explanations for practitioners and policymakers. Our findings highlight the need for AI systems that are not only accurate but also interpretable, accessible, and trustworthy, essential for effective use in disaster preparedness, risk mitigation, and climate resilience planning.
- Abstract(参考訳): 気候変動が山火事などの極端な出来事の頻度と深刻度を加速するにつれ、正確で説明可能な予測や行動可能な予測の必要性が高まっている。
人工知能(AI)モデルはそのような事象を予測することを約束しているが、信頼、説明可能性、運用上の準備が制限されるブラックボックスの性質のため、現実の意思決定への採用は制限されている。
本稿では、予測精度と極端な事象予測のための実用的な洞察とのギャップを埋める上での、説明可能なAI(XAI)の役割について検討する。
ケーススタディとして山火事予測を用いて、さまざまなAIモデルを評価し、SHAP(SHapley Additive ExPlanations)を用いて、重要な特徴、決定経路、モデル行動の潜在的なバイアスを明らかにする。
我々の分析は、XAIがモデル推論を明確にするだけでなく、ドメインの専門家や対応チームによる重要な意思決定をサポートする方法を示している。
さらに,季節特性や地理空間特性における特徴の重要性と時間的パターンを文脈化することにより,XAI出力の解釈可能性を高める可視化を支援する。
このアプローチは、実践者や政策立案者のためのAI説明のユーザビリティを高める。
我々の発見は、正確であるだけでなく、解釈可能で、アクセスしやすく、信頼できるAIシステムの必要性を強調し、災害の準備、リスク軽減、気候回復計画に有効な利用に不可欠である。
関連論文リスト
- AI for Extreme Event Modeling and Understanding: Methodologies and Challenges [7.636789744934743]
この論文は、AIが極端な出来事(洪水、干ばつ、山火事、熱波など)を分析するためにどのように使われているのかをレビューする。
限られたデータに対処し、情報をリアルタイムで統合し、モデルをデプロイし、それらを理解できるようにするというハードルについて論じる。
私たちは、実践的、理解可能、信頼に値するAIソリューションを作成するために、さまざまな分野にわたるコラボレーションの必要性を強調します。
論文 参考訳(メタデータ) (2024-06-28T17:45:25Z) - Towards an end-to-end artificial intelligence driven global weather forecasting system [57.5191940978886]
我々は,地球規模の気象変動に対するAIに基づくデータ同化モデル,すなわちAdasを提案する。
我々は,アダスが地球観測を同化して高品質な分析を行い,長期にわたって安定して運用できることを実証した。
この手法を現実のシナリオに適用するのは,私たちが初めてです。
論文 参考訳(メタデータ) (2023-12-18T09:05:28Z) - Predictable Artificial Intelligence [77.1127726638209]
本稿では予測可能なAIのアイデアと課題を紹介する。
それは、現在および将来のAIエコシステムの重要な妥当性指標を予測できる方法を探る。
予測可能性を達成することは、AIエコシステムの信頼、責任、コントロール、アライメント、安全性を促進するために不可欠である、と私たちは主張する。
論文 参考訳(メタデータ) (2023-10-09T21:36:21Z) - What Should I Know? Using Meta-gradient Descent for Predictive Feature
Discovery in a Single Stream of Experience [63.75363908696257]
計算強化学習は、未来の感覚の予測を通じて、エージェントの世界の知覚を構築しようとする。
この一連の作業において、オープンな課題は、エージェントがどの予測が意思決定を最も支援できるかを、無限に多くの予測から決定することである。
本稿では,エージェントが何を予測するかを学習するメタ段階的な降下過程,(2)選択した予測の見積もり,3)将来の報酬を最大化するポリシーを生成する方法を紹介する。
論文 参考訳(メタデータ) (2022-06-13T21:31:06Z) - Counterfactual Explanations as Interventions in Latent Space [62.997667081978825]
反現実的な説明は、望ましい結果を達成するために変更が必要な機能のセットをエンドユーザに提供することを目的としています。
現在のアプローチでは、提案された説明を達成するために必要な行動の実現可能性を考慮することはめったにない。
本稿では,非現実的説明を生成する手法として,潜時空間における干渉としての対実的説明(CEILS)を提案する。
論文 参考訳(メタデータ) (2021-06-14T20:48:48Z) - XAI-KG: knowledge graph to support XAI and decision-making in
manufacturing [0.5872014229110215]
本稿では,予測,予測説明,推奨意思決定オプション,ユーザ行動に関するフィードバック収集を支援するオントロジーと知識グラフを提案する。
このように、予測モデル、説明、意思決定オプションの推奨を改善する手段を提供する。
論文 参考訳(メタデータ) (2021-05-05T08:42:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。