論文の概要: Robustness of Explainable Artificial Intelligence in Industrial Process Modelling
- arxiv url: http://arxiv.org/abs/2407.09127v1
- Date: Fri, 12 Jul 2024 09:46:26 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-15 23:57:34.208180
- Title: Robustness of Explainable Artificial Intelligence in Industrial Process Modelling
- Title(参考訳): 産業プロセスモデリングにおける説明可能な人工知能のロバスト性
- Authors: Benedikt Kantz, Clemens Staudinger, Christoph Feilmayr, Johannes Wachlmayr, Alexander Haberl, Stefan Schuster, Franz Pernkopf,
- Abstract要約: 我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
- 参考スコア(独自算出の注目度): 43.388607981317016
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: eXplainable Artificial Intelligence (XAI) aims at providing understandable explanations of black box models. In this paper, we evaluate current XAI methods by scoring them based on ground truth simulations and sensitivity analysis. To this end, we used an Electric Arc Furnace (EAF) model to better understand the limits and robustness characteristics of XAI methods such as SHapley Additive exPlanations (SHAP), Local Interpretable Model-agnostic Explanations (LIME), as well as Averaged Local Effects (ALE) or Smooth Gradients (SG) in a highly topical setting. These XAI methods were applied to various types of black-box models and then scored based on their correctness compared to the ground-truth sensitivity of the data-generating processes using a novel scoring evaluation methodology over a range of simulated additive noise. The resulting evaluation shows that the capability of the Machine Learning (ML) models to capture the process accurately is, indeed, coupled with the correctness of the explainability of the underlying data-generating process. We furthermore show the differences between XAI methods in their ability to correctly predict the true sensitivity of the modeled industrial process.
- Abstract(参考訳): eXplainable Artificial Intelligence (XAI)は、ブラックボックスモデルの理解可能な説明を提供することを目的としている。
本稿では,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
この目的のために、我々は、HAAP(SHAP)、LIME(Local Interpretable Model-Agnostic Explanations)、ALE(Averaged Local Effects)、Smooth Gradients(SG)といったXAI手法の限界とロバスト性をよりよく理解するために、Electric Arc Furnace(EAF)モデルを使用しました。
これらのXAI法は, 各種ブラックボックスモデルに適用され, その正しさをデータ生成過程の地味感度と比較した。
その結果、機械学習(ML)モデルが正確にプロセスをキャプチャする能力は、実際に、基礎となるデータ生成プロセスの説明可能性の正しさと結びついていることが判明した。
さらに、XAI法とXAI法の違いが、モデル化された産業プロセスの真の感度を正確に予測する能力の相違について述べる。
関連論文リスト
- Explainable Artificial Intelligence for Dependent Features: Additive Effects of Collinearity [0.0]
本稿では,コリナリティ問題を考慮した新しいXAI手法として,コリナリティの付加効果(AEC)を提案する。
提案手法はシミュレーションデータと実データを用いて,芸術的XAI法と比較し,その効率性を検証した。
論文 参考訳(メタデータ) (2024-10-30T07:00:30Z) - Introducing δ-XAI: a novel sensitivity-based method for local AI explanations [42.06878765569675]
ハイパフォーマンスなAI/MLモデルは、しばしば解釈可能性に欠け、臨床医の予測に対する信頼を妨げている。
これを解決するために、AI/ML予測を人間の理解可能な言葉で記述するXAI技術が開発されている。
本稿では、デルタ指数を拡張してMLモデル予測の局所的な説明を提供する新しいデルタXAI法を提案する。
論文 参考訳(メタデータ) (2024-07-25T19:07:49Z) - CHILLI: A data context-aware perturbation method for XAI [3.587367153279351]
機械学習(ML)モデルの信頼性は評価が難しいが、リスクの高いアプリケーションや倫理的に敏感なアプリケーションでは重要である。
本稿では,文脈に意識された摂動を生成することで,データコンテキストをXAIに組み込む新しいフレームワークCHILLIを提案する。
これは説明の正確さと正確さを両立させることが示されている。
論文 参考訳(メタデータ) (2024-07-10T10:18:07Z) - How Reliable and Stable are Explanations of XAI Methods? [0.4749981032986242]
ブラックボックスモデルは、社会の中で生活している人間の日常生活にますます使われている。
XAI(Explainable Artificial Intelligence)メソッドが登場し、モデルが特定の予測を行う方法に関するさらなる説明が生まれている。
その結果、現在のXAI法は1つの特定の方法を除いて摂動に敏感であることが判明した。
論文 参考訳(メタデータ) (2024-07-03T13:47:41Z) - EXACT: Towards a platform for empirically benchmarking Machine Learning model explanation methods [1.6383837447674294]
本稿では、初期ベンチマークプラットフォームにおいて、様々なベンチマークデータセットと新しいパフォーマンス指標をまとめる。
我々のデータセットには、クラス条件の特徴に対する真実の説明が組み込まれています。
このプラットフォームは、それらが生成する説明の品質において、ポストホックなXAIメソッドのパフォーマンスを評価する。
論文 参考訳(メタデータ) (2024-05-20T14:16:06Z) - QualEval: Qualitative Evaluation for Model Improvement [82.73561470966658]
モデル改善のための手段として,自動定性評価による定量的スカラー指標を付加するQualEvalを提案する。
QualEvalは強力なLCM推論器と新しいフレキシブルリニアプログラミングソルバを使用して、人間の読みやすい洞察を生成する。
例えば、その洞察を活用することで、Llama 2モデルの絶対性能が最大15%向上することを示す。
論文 参考訳(メタデータ) (2023-11-06T00:21:44Z) - MACE: An Efficient Model-Agnostic Framework for Counterfactual
Explanation [132.77005365032468]
MACE(Model-Agnostic Counterfactual Explanation)の新たな枠組みを提案する。
MACE法では, 優れた反実例を見つけるための新しいRL法と, 近接性向上のための勾配のない降下法を提案する。
公開データセットの実験は、有効性、空間性、近接性を向上して検証する。
論文 参考訳(メタデータ) (2022-05-31T04:57:06Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z) - VAE-LIME: Deep Generative Model Based Approach for Local Data-Driven
Model Interpretability Applied to the Ironmaking Industry [70.10343492784465]
モデル予測だけでなく、その解釈可能性も、プロセスエンジニアに公開する必要があります。
LIMEに基づくモデルに依存しない局所的解釈可能性ソリューションが最近出現し、元の手法が改良された。
本稿では, 燃焼炉で生成する高温金属の温度を推定するデータ駆動型モデルの局所的解釈可能性に関する新しいアプローチ, VAE-LIMEを提案する。
論文 参考訳(メタデータ) (2020-07-15T07:07:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。