論文の概要: Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement
- arxiv url: http://arxiv.org/abs/2203.08008v1
- Date: Tue, 15 Mar 2022 15:44:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-16 15:45:44.877924
- Title: Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement
- Title(参考訳): beyond explains: xaiベースのモデル改善の機会と課題
- Authors: Leander Weber, Sebastian Lapuschkin, Alexander Binder, Wojciech Samek
- Abstract要約: 説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
- 参考スコア(独自算出の注目度): 75.00655434905417
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Explainable Artificial Intelligence (XAI) is an emerging research field
bringing transparency to highly complex and opaque machine learning (ML)
models. Despite the development of a multitude of methods to explain the
decisions of black-box classifiers in recent years, these tools are seldomly
used beyond visualization purposes. Only recently, researchers have started to
employ explanations in practice to actually improve models. This paper offers a
comprehensive overview over techniques that apply XAI practically for improving
various properties of ML models, and systematically categorizes these
approaches, comparing their respective strengths and weaknesses. We provide a
theoretical perspective on these methods, and show empirically through
experiments on toy and realistic settings how explanations can help improve
properties such as model generalization ability or reasoning, among others. We
further discuss potential caveats and drawbacks of these methods. We conclude
that while model improvement based on XAI can have significant beneficial
effects even on complex and not easily quantifyable model properties, these
methods need to be applied carefully, since their success can vary depending on
a multitude of factors, such as the model and dataset used, or the employed
explanation method.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、高度に複雑で不透明な機械学習(ML)モデルに透明性をもたらす、新たな研究分野である。
近年,ブラックボックス分類器の判定方法が数多く開発されているが,これらのツールは可視化以上の用途ではほとんど使われていない。
最近になって、研究者たちは実際にモデルを改善するために説明を取り入れた。
本稿では,機械学習モデルの諸特性改善にXAIを実用的に応用する手法を概観し,これらの手法を体系的に分類し,それぞれの長所と短所を比較した。
我々は,これらの手法に関する理論的視点を提供し,モデル一般化能力や推論などの特性改善にどのように役立つのかを,おもちゃやリアルな設定で実験を通じて実証的に示す。
さらに、これらの手法の潜在的な欠点と欠点について論じる。
結論として,xaiに基づくモデル改善は,複雑で定量化が容易なモデル特性に対しても有益であるが,その成功は,使用するモデルやデータセットなど多種多様な要因や,使用する説明方法によって異なるため,慎重に適用する必要がある。
関連論文リスト
- Are Large Language Models Post Hoc Explainers? [30.46464564836906]
大規模言語モデル(LLM)は、様々なタスクで有効な強力なツールとして登場した。
我々は,LLMの文脈内学習機能を利用した3つの新しい手法を提案し,他の複雑なモデルによる予測を説明する。
我々は、これらのアプローチを実世界のデータセット上で広範囲に実験し、LLMが最先端のポストホック説明器と同等に動作することを示す。
論文 参考訳(メタデータ) (2023-10-09T15:31:03Z) - Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - MinT: Boosting Generalization in Mathematical Reasoning via Multi-View
Fine-Tuning [53.90744622542961]
数学領域における推論は、小言語モデル(LM)にとって重要な課題である。
多様なアノテーションスタイルで既存の数学的問題データセットを利用する新しい手法を提案する。
実験結果から,LLaMA-7Bモデルが先行手法より優れていることが示された。
論文 参考訳(メタデータ) (2023-07-16T05:41:53Z) - Commentary on explainable artificial intelligence methods: SHAP and LIME [7.104895625811305]
本稿では、広く使われている2つのXAI手法の説明可能性指標について論じる。
本稿では,その弱点と強みを浮き彫りにして,その成果を解釈するための枠組みを提案する。
論文 参考訳(メタデータ) (2023-05-03T10:04:46Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Towards Interpretable Deep Reinforcement Learning Models via Inverse
Reinforcement Learning [27.841725567976315]
本稿では,逆逆強化学習を利用した新しいフレームワークを提案する。
このフレームワークは、強化学習モデルによる決定のグローバルな説明を提供する。
モデルの意思決定過程を要約することで、モデルが従う直感的な傾向を捉える。
論文 参考訳(メタデータ) (2022-03-30T17:01:59Z) - Model-agnostic multi-objective approach for the evolutionary discovery
of mathematical models [55.41644538483948]
現代のデータ科学では、どの部分がより良い結果を得るために置き換えられるかというモデルの性質を理解することがより興味深い。
合成データ駆動型モデル学習において,多目的進化最適化を用いてアルゴリズムの所望特性を求める。
論文 参考訳(メタデータ) (2021-07-07T11:17:09Z) - A Diagnostic Study of Explainability Techniques for Text Classification [52.879658637466605]
既存の説明可能性技術を評価するための診断特性のリストを作成する。
そこで本研究では, モデルの性能と有理性との整合性の関係を明らかにするために, 説明可能性手法によって割り当てられた有理性スコアと有理性入力領域の人間のアノテーションを比較した。
論文 参考訳(メタデータ) (2020-09-25T12:01:53Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。