論文の概要: Commentary on explainable artificial intelligence methods: SHAP and LIME
- arxiv url: http://arxiv.org/abs/2305.02012v2
- Date: Mon, 8 May 2023 11:09:07 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 19:50:01.051704
- Title: Commentary on explainable artificial intelligence methods: SHAP and LIME
- Title(参考訳): 説明可能な人工知能手法に関する解説:SHAPとLIME
- Authors: Ahmed Salih, Zahra Raisi-Estabragh, Ilaria Boscolo Galazzo, Petia
Radeva, Steffen E. Petersen, Gloria Menegaz, Karim Lekadir
- Abstract要約: 本稿では、広く使われている2つのXAI手法の説明可能性指標について論じる。
本稿では,その弱点と強みを浮き彫りにして,その成果を解釈するための枠組みを提案する。
- 参考スコア(独自算出の注目度): 7.104895625811305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: eXplainable artificial intelligence (XAI) methods have emerged to convert the
black box of machine learning models into a more digestible form. These methods
help to communicate how the model works with the aim of making machine learning
models more transparent and increasing the trust of end-users into their
output. SHapley Additive exPlanations (SHAP) and Local Interpretable Model
Agnostic Explanation (LIME) are two widely used XAI methods particularly with
tabular data. In this commentary piece, we discuss the way the explainability
metrics of these two methods are generated and propose a framework for
interpretation of their outputs, highlighting their weaknesses and strengths.
- Abstract(参考訳): eXplainable AI(XAI)メソッドは、機械学習モデルのブラックボックスを、より消化しやすい形式に変換するために登場した。
これらの方法は、機械学習モデルをより透明にし、エンドユーザの信頼をアウトプットに高めることを目的として、モデルがどのように機能するかを伝えるのに役立つ。
SHAP(SHapley Additive ExPlanations)とLIME(Local Interpretable Model Agnostic Explanation)は、特に表データで広く使われているXAI手法である。
本稿では,これら2つの手法の説明可能性メトリクスの生成方法について論じ,その弱点と強みを浮き彫りにして,それらの出力を解釈するためのフレームワークを提案する。
関連論文リスト
- Explainability for Large Language Models: A Survey [59.67574757137078]
大規模言語モデル(LLM)は、自然言語処理における印象的な能力を示している。
本稿では,トランスフォーマーに基づく言語モデルを記述する手法について,説明可能性の分類法を紹介した。
論文 参考訳(メタデータ) (2023-09-02T22:14:26Z) - Evaluating and Explaining Large Language Models for Code Using Syntactic
Structures [74.93762031957883]
本稿では,コード用大規模言語モデルに特有の説明可能性手法であるASTxplainerを紹介する。
その中核にあるASTxplainerは、トークン予測をASTノードに整合させる自動メソッドを提供する。
私たちは、最も人気のあるGitHubプロジェクトのキュレートデータセットを使用して、コード用の12の人気のあるLLMに対して、実証的な評価を行います。
論文 参考訳(メタデータ) (2023-08-07T18:50:57Z) - Characterizing the contribution of dependent features in XAI methods [6.990173577370281]
本稿では,XAI特徴量ランキング法の結果を,予測者間の依存性を考慮に入れたプロキシを提案する。
提案手法はモデルに依存しないという利点があり、コリニアリティが存在する場合のモデルにおける各予測器の影響を計算するのが簡単である。
論文 参考訳(メタデータ) (2023-04-04T11:25:57Z) - Learning with Explanation Constraints [91.23736536228485]
我々は、説明がモデルの学習をどのように改善するかを分析するための学習理論フレームワークを提供する。
我々は,多数の合成および実世界の実験に対して,我々のアプローチの利点を実証する。
論文 参考訳(メタデータ) (2023-03-25T15:06:47Z) - Local Interpretable Model Agnostic Shap Explanations for machine
learning models [0.0]
局所解釈可能なモデル非依存型シェイプ説明法(LIMASE)を提案する。
提案手法は, LIMEパラダイムの下でシェープリー値を用いて, 局所的忠実かつ解釈可能な決定木モデルを用いて, シェープリー値を計算し, 視覚的に解釈可能な説明を行うことにより, 任意のモデルの予測を行う。
論文 参考訳(メタデータ) (2022-10-10T10:07:27Z) - What and How of Machine Learning Transparency: Building Bespoke
Explainability Tools with Interoperable Algorithmic Components [77.87794937143511]
本稿では,データ駆動予測モデルを説明するためのハンズオントレーニング教材について紹介する。
これらのリソースは、解釈可能な表現合成、データサンプリング、説明生成の3つのコアビルディングブロックをカバーする。
論文 参考訳(メタデータ) (2022-09-08T13:33:25Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Provably Robust Model-Centric Explanations for Critical Decision-Making [14.367217955827002]
データ中心の手法は、限られた実用性についての脆い説明をもたらす可能性がある。
しかし、モデル中心のフレームワークは、実際にAIモデルを使用するリスクに関する実用的な洞察を提供することができる。
論文 参考訳(メタデータ) (2021-10-26T18:05:49Z) - Rational Shapley Values [0.0]
ポストホックな説明可能な人工知能(XAI)の一般的なツールは、文脈に敏感であるか、要約が難しい。
非互換なアプローチを合成し拡張する新しいXAI手法である、エミュレーション型シェープリー値を導入する。
私は、意思決定理論や因果モデリングのツールを活用して、XAIにおける多くの既知の課題を解決する実用的なアプローチを定式化し、実装します。
論文 参考訳(メタデータ) (2021-06-18T15:45:21Z) - Beyond Trivial Counterfactual Explanations with Diverse Valuable
Explanations [64.85696493596821]
コンピュータビジョンの応用において、生成的対実法はモデルの入力を摂動させて予測を変更する方法を示す。
本稿では,多様性強化損失を用いて制約される不連続潜在空間における摂動を学習する反事実法を提案する。
このモデルは, 従来の最先端手法と比較して, 高品質な説明を生産する成功率を向上させる。
論文 参考訳(メタデータ) (2021-03-18T12:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。