論文の概要: Explainable AI in Time-Sensitive Scenarios: Prefetched Offline Explanation Model
- arxiv url: http://arxiv.org/abs/2503.04283v1
- Date: Thu, 06 Mar 2025 10:09:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-07 16:01:08.028814
- Title: Explainable AI in Time-Sensitive Scenarios: Prefetched Offline Explanation Model
- Title(参考訳): 時間知覚シナリオにおける説明可能なAI:事前のオフライン説明モデル
- Authors: Fabio Michele Russo, Carlo Metta, Anna Monreale, Salvatore Rinzivillo, Fabio Pinelli,
- Abstract要約: Poemは、画像データに対するモデルに依存しない局所的な説明可能性アルゴリズムである。
それは、迅速かつ効果的な説明を提供するために、模範者、反例者、および正当性マップを生成する。
前作のAbeleのスピードと能力は、よりニュアンスで多彩な模範を生み出す能力で上回っている。
- 参考スコア(独自算出の注目度): 4.182645056052712
- License:
- Abstract: As predictive machine learning models become increasingly adopted and advanced, their role has evolved from merely predicting outcomes to actively shaping them. This evolution has underscored the importance of Trustworthy AI, highlighting the necessity to extend our focus beyond mere accuracy and toward a comprehensive understanding of these models' behaviors within the specific contexts of their applications. To further progress in explainability, we introduce Poem, Prefetched Offline Explanation Model, a model-agnostic, local explainability algorithm for image data. The algorithm generates exemplars, counterexemplars and saliency maps to provide quick and effective explanations suitable for time-sensitive scenarios. Leveraging an existing local algorithm, \poem{} infers factual and counterfactual rules from data to create illustrative examples and opposite scenarios with an enhanced stability by design. A novel mechanism then matches incoming test points with an explanation base and produces diverse exemplars, informative saliency maps and believable counterexemplars. Experimental results indicate that Poem outperforms its predecessor Abele in speed and ability to generate more nuanced and varied exemplars alongside more insightful saliency maps and valuable counterexemplars.
- Abstract(参考訳): 予測機械学習モデルがますます採用され、進歩していくにつれて、その役割は単に結果を予測することから、積極的に形づくることへと進化してきた。
この進化は、信頼に値するAIの重要性を強調し、単に正確性を超えて焦点を拡大し、アプリケーションの特定のコンテキスト内でこれらのモデルの振る舞いを包括的に理解する必要性を強調している。
さらに説明可能性を高めるために,画像データに対するモデルに依存しない局所的説明可能性アルゴリズムである Poem, Prefetched Offline Explanation Model を導入する。
このアルゴリズムは、時間に敏感なシナリオに適した迅速かつ効果的な説明を提供するために、模範、反例、正当性マップを生成する。
既存のローカルアルゴリズムを活用して、データから実例と反事実のルールを推論し、図示的な例と反対のシナリオを作成し、設計による安定性を向上する。
新たなメカニズムは、入ってくるテストポイントと説明ベースとを一致させ、様々な例え、情報的サリエンシマップ、そして信じられない反例を生み出す。
実験結果から,ポエムは前任のアベレより速さや能力に優れており,より繊細で多様な模範を生み出すとともに,より洞察に富んだサリエンシマップや貴重な反例も生み出すことがわかった。
関連論文リスト
- Improving Network Interpretability via Explanation Consistency Evaluation [56.14036428778861]
本稿では、より説明可能なアクティベーションヒートマップを取得し、同時にモデル性能を向上させるフレームワークを提案する。
具体的には、モデル学習において、トレーニングサンプルを適応的に重み付けするために、新しいメトリクス、すなわち説明整合性を導入する。
そこで,本フレームワークは,これらのトレーニングサンプルに深い注意を払ってモデル学習を促進する。
論文 参考訳(メタデータ) (2024-08-08T17:20:08Z) - Counterfactual Explanations for Deep Learning-Based Traffic Forecasting [42.31238891397725]
この研究は、説明可能なAIアプローチ、反実的説明を活用し、ディープラーニングベースのトラフィック予測モデルの説明可能性とユーザビリティを高めることを目的としている。
この研究は、まず、過去の交通データと文脈変数に基づいて、交通速度を予測するディープラーニングモデルを実装する。
次に、これらの入力変数の変化が予測結果にどのように影響するかを照らすために、対実的な説明が使用される。
論文 参考訳(メタデータ) (2024-05-01T11:26:31Z) - Evaluating the Utility of Model Explanations for Model Development [54.23538543168767]
機械学習モデル構築の実践シナリオにおいて、説明が人間の意思決定を改善するかどうかを評価する。
驚いたことに、サリエンシマップが提供されたとき、タスクが大幅に改善されたという証拠は見つからなかった。
以上の結果から,サリエンシに基づく説明における誤解の可能性と有用性について注意が必要であることが示唆された。
論文 参考訳(メタデータ) (2023-12-10T23:13:23Z) - On the Consistency and Robustness of Saliency Explanations for Time
Series Classification [4.062872727927056]
時系列ウィンドウを画像として解釈するために、サリエンシマップが適用されている。
本稿では,時系列の特徴と時間的属性に対するサリエンシマップの一貫性とロバスト性について広く分析する。
論文 参考訳(メタデータ) (2023-09-04T09:08:22Z) - Explaining Explainability: Towards Deeper Actionable Insights into Deep
Learning through Second-order Explainability [70.60433013657693]
2階説明可能なAI(SOXAI)は、最近インスタンスレベルからデータセットレベルまで説明可能なAI(XAI)を拡張するために提案されている。
そこで本研究では,SOXAIの動作可能な洞察に基づくトレーニングセットから無関係な概念を除外することで,モデルの性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-14T23:24:01Z) - Parallel Sentence-Level Explanation Generation for Real-World
Low-Resource Scenarios [18.5713713816771]
本論文は,弱教師付き学習から教師なし学習へ,問題を円滑に探求する最初の試みである。
並列説明生成と同時予測を容易にする非自己回帰解釈モデルを提案する。
論文 参考訳(メタデータ) (2023-02-21T14:52:21Z) - TempSAL -- Uncovering Temporal Information for Deep Saliency Prediction [64.63645677568384]
本稿では,逐次時間間隔でサリエンシマップを出力する新たなサリエンシ予測モデルを提案する。
提案手法は,学習した時間マップを組み合わせることで,サリエンシ予測を局所的に調整する。
私たちのコードはGitHubで公開されます。
論文 参考訳(メタデータ) (2023-01-05T22:10:16Z) - Explainability in Process Outcome Prediction: Guidelines to Obtain
Interpretable and Faithful Models [77.34726150561087]
本稿では、プロセス結果予測の分野における説明可能性モデルと説明可能性モデルの忠実性を通して、説明可能性を定義する。
本稿では,イベントログの仕様に基づいて適切なモデルを選択することのできる,X-MOPというガイドラインのセットを提案する。
論文 参考訳(メタデータ) (2022-03-30T05:59:50Z) - Generative Counterfactuals for Neural Networks via Attribute-Informed
Perturbation [51.29486247405601]
AIP(Attribute-Informed Perturbation)の提案により,生データインスタンスの反事実を生成するフレームワークを設計する。
異なる属性を条件とした生成モデルを利用することで、所望のラベルとの反事実を効果的かつ効率的に得ることができる。
実世界のテキストや画像に対する実験結果から, 設計したフレームワークの有効性, サンプル品質, および効率が示された。
論文 参考訳(メタデータ) (2021-01-18T08:37:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。