論文の概要: EvaluateXAI: A Framework to Evaluate the Reliability and Consistency of Rule-based XAI Techniques for Software Analytics Tasks
- arxiv url: http://arxiv.org/abs/2407.13902v1
- Date: Thu, 18 Jul 2024 21:09:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 19:32:58.897195
- Title: EvaluateXAI: A Framework to Evaluate the Reliability and Consistency of Rule-based XAI Techniques for Software Analytics Tasks
- Title(参考訳): EvaluateXAI: ソフトウェア分析タスクのためのルールベースのXAIテクニックの信頼性と一貫性を評価するフレームワーク
- Authors: Md Abdul Awal, Chanchal K. Roy,
- Abstract要約: PyExplainerとLIMEは、ソフトウェア分析タスクにおけるMLモデルの予測を説明するために使用されている。
本稿では,これらの手法がMLモデルの信頼性と一貫した説明を生成する能力を評価する。
- 参考スコア(独自算出の注目度): 5.176434782905268
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The advancement of machine learning (ML) models has led to the development of ML-based approaches to improve numerous software engineering tasks in software maintenance and evolution. Nevertheless, research indicates that despite their potential successes, ML models may not be employed in real-world scenarios because they often remain a black box to practitioners, lacking explainability in their reasoning. Recently, various rule-based model-agnostic Explainable AI (XAI) techniques, such as PyExplainer and LIME, have been employed to explain the predictions of ML models in software analytics tasks. This paper assesses the ability of these techniques (e.g., PyExplainer and LIME) to generate reliable and consistent explanations for ML models across various software analytics tasks, including Just-in-Time (JIT) defect prediction, clone detection, and the classification of useful code review comments. Our manual investigations find inconsistencies and anomalies in the explanations generated by these techniques. Therefore, we design a novel framework: Evaluation of Explainable AI (EvaluateXAI), along with granular-level evaluation metrics, to automatically assess the effectiveness of rule-based XAI techniques in generating reliable and consistent explanations for ML models in software analytics tasks. After conducting in-depth experiments involving seven state-of-the-art ML models trained on five datasets and six evaluation metrics, we find that none of the evaluation metrics reached 100\%, indicating the unreliability of the explanations generated by XAI techniques. Additionally, PyExplainer and LIME failed to provide consistent explanations for 86.11% and 77.78% of the experimental combinations, respectively. Therefore, our experimental findings emphasize the necessity for further research in XAI to produce reliable and consistent explanations for ML models in software analytics tasks.
- Abstract(参考訳): 機械学習(ML)モデルの進歩は、ソフトウェア保守と進化における多数のソフトウェアエンジニアリングタスクを改善するためのMLベースのアプローチの開発につながった。
それでも研究は、潜在的な成功にもかかわらず、MLモデルは実践者にとってブラックボックスのままであり、推論に説明責任が欠如しているため、現実のシナリオでは採用されない可能性があることを示唆している。
近年、ソフトウェア分析タスクにおけるMLモデルの予測を説明するために、PyExplainerやLIMEなど、ルールベースのモデルに依存しないXAI技術が採用されている。
本稿では、Just-in-Time(JIT)欠陥予測、クローン検出、有用なコードレビューコメントの分類など、さまざまなソフトウェア分析タスクにおけるMLモデルの信頼性と一貫性のある説明を生成するための、これらのテクニック(例えば、PyExplainerとLIME)の能力を評価する。
筆者らの手作業による調査では,これらの手法が生み出した説明に矛盾や異常がみられた。
そこで我々は、ソフトウェア分析タスクにおけるMLモデルの信頼性と一貫性のある説明を生成する上で、ルールベースのXAI技術の有効性を自動的に評価するために、説明可能なAI(EvaluateXAI)の評価と粒度評価指標を併用して、新しいフレームワークを設計する。
5つのデータセットと6つの評価指標に基づいてトレーニングされた7つの最先端MLモデルを含む詳細な実験を行った結果、評価指標のいずれも100\%に達しず、XAI技術による説明の信頼性の欠如が示唆された。
加えて、PyExplainerとLIMEは、それぞれ86.11%と77.78%という一貫した説明を提供しられなかった。
そこで本研究では,ソフトウェア解析タスクにおけるMLモデルの信頼性と一貫した説明を生成するために,XAIにおけるさらなる研究の必要性を強調した。
関連論文リスト
- Investigating Adversarial Attacks in Software Analytics via Machine Learning Explainability [11.16693333878553]
本研究では、ソフトウェア解析タスクにおけるMLモデルの堅牢性を測定するために、ML説明可能性と敵攻撃の関係について検討する。
6つのデータセット、3つのML説明可能性技術、7つのMLモデルを含む我々の実験は、ソフトウェア分析タスクにおいてMLモデルに対する敵攻撃を成功させるのにML説明可能性を使用することができることを示した。
論文 参考訳(メタデータ) (2024-08-07T23:21:55Z) - Robustness of Explainable Artificial Intelligence in Industrial Process Modelling [43.388607981317016]
我々は,地中真実シミュレーションと感度解析に基づいて,現在のXAI手法を評価する。
モデル化された産業プロセスの真の感度を正確に予測する能力において,XAI法とXAI法の違いを示す。
論文 参考訳(メタデータ) (2024-07-12T09:46:26Z) - MR-Ben: A Meta-Reasoning Benchmark for Evaluating System-2 Thinking in LLMs [55.20845457594977]
大規模言語モデル(LLM)は、問題解決と意思決定の能力の向上を示している。
本稿ではメタ推論技術を必要とするプロセスベースのベンチマークMR-Benを提案する。
メタ推論のパラダイムは,システム2のスロー思考に特に適しています。
論文 参考訳(メタデータ) (2024-06-20T03:50:23Z) - LLMs for XAI: Future Directions for Explaining Explanations [50.87311607612179]
既存のXAIアルゴリズムを用いて計算した説明の精細化に着目する。
最初の実験とユーザスタディは、LLMがXAIの解釈可能性とユーザビリティを高めるための有望な方法を提供することを示唆している。
論文 参考訳(メタデータ) (2024-05-09T19:17:47Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Hessian-based toolbox for reliable and interpretable machine learning in
physics [58.720142291102135]
本稿では,モデルアーキテクチャの解釈可能性と信頼性,外挿を行うためのツールボックスを提案する。
与えられたテストポイントでの予測に対する入力データの影響、モデル予測の不確実性の推定、およびモデル予測の不可知スコアを提供する。
我々の研究は、物理学やより一般的には科学に適用されたMLにおける解釈可能性と信頼性の方法の体系的利用への道を開く。
論文 参考訳(メタデータ) (2021-08-04T16:32:59Z) - Towards Model-informed Precision Dosing with Expert-in-the-loop Machine
Learning [0.0]
モデル学習ループに人的専門家を取り入れることで、モデル学習を加速し、解釈可能性を向上させるMLフレームワークを検討する。
本稿では,データアノテーションのコストが高い学習問題に対処することを目的とした,新たなヒューマン・イン・ザ・ループMLフレームワークを提案する。
精度測定への応用により,本手法はデータから解釈可能なルールを学習し,専門家の作業負荷を低減できる可能性が示唆された。
論文 参考訳(メタデータ) (2021-06-28T03:45:09Z) - Practical Machine Learning Safety: A Survey and Primer [81.73857913779534]
自動運転車のような安全クリティカルなアプリケーションにおける機械学習アルゴリズムのオープンワールド展開は、さまざまなML脆弱性に対処する必要がある。
一般化エラーを低減し、ドメイン適応を実現し、外乱例や敵攻撃を検出するための新しいモデルと訓練技術。
我々の組織は、MLアルゴリズムの信頼性を異なる側面から向上するために、最先端のML技術を安全戦略にマッピングする。
論文 参考訳(メタデータ) (2021-06-09T05:56:42Z) - Learning by Design: Structuring and Documenting the Human Choices in
Machine Learning Development [6.903929927172917]
本稿では,機械学習モデル作成における熟考と規範的選択を概説する8つの設計質問からなる手法を提案する。
本手法は,方法論的透明性を通じた批判的評価を支援するなど,いくつかの利点がある。
本手法は,MLモデルの開発において,ML実践者が選択や仮定を構造化し,正当化する上で有効であると考えている。
論文 参考訳(メタデータ) (2021-05-03T08:47:45Z) - Transfer Learning without Knowing: Reprogramming Black-box Machine
Learning Models with Scarce Data and Limited Resources [78.72922528736011]
そこで我々は,ブラックボックス・アタベラル・リプログラミング (BAR) という新しい手法を提案する。
ゼロオーダー最適化とマルチラベルマッピング技術を用いて、BARは入力出力応答のみに基づいてブラックボックスMLモデルをプログラムする。
BARは最先端の手法より優れ、バニラ対逆プログラミング法に匹敵する性能を得る。
論文 参考訳(メタデータ) (2020-07-17T01:52:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。