論文の概要: GLIME: A new graphical methodology for interpretable model-agnostic
explanations
- arxiv url: http://arxiv.org/abs/2107.09927v1
- Date: Wed, 21 Jul 2021 08:06:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-22 14:10:48.582565
- Title: GLIME: A new graphical methodology for interpretable model-agnostic
explanations
- Title(参考訳): glime: 解釈可能なモデル非依存な説明のための新しいグラフィカル方法論
- Authors: Zoumpolia Dikopoulou, Serafeim Moustakidis, Patrik Karlsson
- Abstract要約: 本稿では,ブラックボックスモデルのための新しいグラフィカルな説明可能性ツールの開発に寄与する。
gLIMEと呼ばれる提案されたXAI方法論は、グローバル(データセット全体)またはローカルスケール(特定のデータポイント)でグラフィカルなモデルに依存しない説明を提供する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Explainable artificial intelligence (XAI) is an emerging new domain in which
a set of processes and tools allow humans to better comprehend the decisions
generated by black box models. However, most of the available XAI tools are
often limited to simple explanations mainly quantifying the impact of
individual features to the models' output. Therefore, human users are not able
to understand how the features are related to each other to make predictions,
whereas the inner workings of the trained models remain hidden. This paper
contributes to the development of a novel graphical explainability tool that
not only indicates the significant features of the model but also reveals the
conditional relationships between features and the inference capturing both the
direct and indirect impact of features to the models' decision. The proposed
XAI methodology, termed as gLIME, provides graphical model-agnostic
explanations either at the global (for the entire dataset) or the local scale
(for specific data points). It relies on a combination of local interpretable
model-agnostic explanations (LIME) with graphical least absolute shrinkage and
selection operator (GLASSO) producing undirected Gaussian graphical models.
Regularization is adopted to shrink small partial correlation coefficients to
zero providing sparser and more interpretable graphical explanations. Two
well-known classification datasets (BIOPSY and OAI) were selected to confirm
the superiority of gLIME over LIME in terms of both robustness and consistency
over multiple permutations. Specifically, gLIME accomplished increased
stability over the two datasets with respect to features' importance (76%-96%
compared to 52%-77% using LIME). gLIME demonstrates a unique potential to
extend the functionality of the current state-of-the-art in XAI by providing
informative graphically given explanations that could unlock black boxes.
- Abstract(参考訳): 説明可能な人工知能(XAI)は、プロセスとツールのセットが、ブラックボックスモデルによって生成された決定をよりよく理解できるようにする、新たなドメインである。
しかしながら、利用可能なXAIツールのほとんどは、主にモデルの出力に対する個々の特徴の影響を定量化する単純な説明に限られることが多い。
したがって、人間のユーザは、機能がどのように相互に関連しているかを理解して予測できないが、トレーニングされたモデルの内部動作は隠されている。
本稿では,モデルの重要な特徴を示すだけでなく,特徴間の条件付き関係や,特徴の直接的および間接的影響をモデル決定に反映する推論も示す,新しいグラフィカルな説明可能性ツールの開発に寄与する。
gLIMEと呼ばれる提案されたXAI方法論は、グローバル(データセット全体)またはローカルスケール(特定のデータポイント)でグラフィカルなモデルに依存しない説明を提供する。
局所的な解釈可能なモデルに依存しない説明(LIME)と、非直交ガウス図形モデルを生成する最小絶対縮小と選択演算子(GLASSO)の組み合わせに依存している。
正規化は、小さな部分相関係数をゼロに縮小することで、スパーザーとより解釈可能なグラフィカルな説明を提供する。
2つのよく知られた分類データセット(BIOPSYとOAI)が選択され、複数の置換に対する堅牢性と一貫性の両方の観点から、LIMEに対するgLIMEの優位性が確認された。
特に、gLIMEは機能の重要性に関して2つのデータセットの安定性を向上した(LIMEを使用する52%-77%に比べて76%~96%)。
gLIMEは、ブラックボックスをアンロックできる情報的な説明を提供することで、XAIにおける現在の最先端の機能を拡張するユニークな可能性を示している。
関連論文リスト
- DSEG-LIME - Improving Image Explanation by Hierarchical Data-Driven
Segmentation [2.6473021051027534]
LIME(Local Interpretable Model-Agnostic Explanations)は画像解析のためのXAIフレームワークとしてよく知られている。
DSEG-LIME(Data-Driven LIME)を導入し,人間の認識機能生成のためのデータ駆動セグメンテーションを特徴とする。
我々は,事前学習したモデルのDSEG-LIMEをImageNetデータセットの画像でベンチマークする。
論文 参考訳(メタデータ) (2024-03-12T15:13:12Z) - Context-aware feature attribution through argumentation [0.0]
我々はCA-FATA (Context-Aware Feature Attribution Through Argumentation) と呼ばれる新しい特徴属性フレームワークを定義する。
我々のフレームワークは、各特徴を、予測を支援したり、攻撃したり、中和したりできる議論として扱うことによって、議論の力を利用する。
論文 参考訳(メタデータ) (2023-10-24T20:02:02Z) - Graph Relation Aware Continual Learning [3.908470250825618]
連続グラフ学習(CGL)は、無限のグラフデータストリームから学習する問題を研究する。
我々は、縁の裏側にある潜伏関係を探索する関係発見モジュールからなるRAM-CGと呼ばれる関係認識適応モデルを設計する。
RAM-CGはCitationNet、OGBN-arxiv、TWITCHデータセットの最先端結果に対して2.2%、6.9%、および6.6%の精度向上を提供する。
論文 参考訳(メタデータ) (2023-08-16T09:53:20Z) - GAM(e) changer or not? An evaluation of interpretable machine learning
models based on additive model constraints [5.783415024516947]
本稿では,一連の固有解釈可能な機械学習モデルについて検討する。
5つのGAMの予測特性を従来のMLモデルと比較した。
論文 参考訳(メタデータ) (2022-04-19T20:37:31Z) - Beyond Explaining: Opportunities and Challenges of XAI-Based Model
Improvement [75.00655434905417]
説明可能な人工知能(XAI)は、高度に複雑な機械学習(ML)モデルに透明性をもたらす新たな研究分野である。
本稿では,機械学習モデルの諸特性を改善するために,XAIを実用的に応用する手法を概観する。
実験では,モデル一般化能力や推論などの特性を改善する上で,説明がどのように役立つのかを,おもちゃと現実的な設定で実証的に示す。
論文 参考訳(メタデータ) (2022-03-15T15:44:28Z) - Towards Open-World Feature Extrapolation: An Inductive Graph Learning
Approach [80.8446673089281]
グラフ表現と学習を伴う新しい学習パラダイムを提案する。
本フレームワークは,1) 下位モデルとしてのバックボーンネットワーク(フィードフォワードニューラルネットなど)が,予測ラベルの入力および出力として機能を取り,2) 上位モデルとしてのグラフニューラルネットワークが,観測データから構築された特徴データグラフをメッセージパッシングすることで,新機能の埋め込みを外挿することを学ぶ。
論文 参考訳(メタデータ) (2021-10-09T09:02:45Z) - Model-Agnostic Graph Regularization for Few-Shot Learning [60.64531995451357]
グラフ組み込み数ショット学習に関する包括的な研究を紹介します。
本稿では,ラベル間のグラフ情報の組み込みによる影響をより深く理解できるグラフ正規化手法を提案する。
提案手法は,Mini-ImageNetで最大2%,ImageNet-FSで6.7%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-02-14T05:28:13Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - Structural Landmarking and Interaction Modelling: on Resolution Dilemmas
in Graph Classification [50.83222170524406]
解法ジレンマの統一概念に基づくグラフ分類における本質的難易度の研究」
構造ランドマークと相互作用モデリングのためのインダクティブニューラルネットワークモデルSLIM'を提案する。
論文 参考訳(メタデータ) (2020-06-29T01:01:42Z) - Explainable Matrix -- Visualization for Global and Local
Interpretability of Random Forest Classification Ensembles [78.6363825307044]
本研究では,ランダムフォレスト (RF) 解釈のための新しい可視化手法である Explainable Matrix (ExMatrix) を提案する。
単純なマトリックスのようなメタファで、行はルール、列は特徴、セルはルールを述語する。
ExMatrixの適用性は、異なる例を通じて確認され、RFモデルの解釈可能性を促進するために実際にどのように使用できるかを示している。
論文 参考訳(メタデータ) (2020-05-08T21:03:48Z) - Post-hoc explanation of black-box classifiers using confident itemsets [12.323983512532651]
ブラックボックス人工知能(AI)法は予測モデルの構築に広く利用されている。
内部動作や決定ロジックがユーザから隠されているため,そのような方法による決定を信頼することは困難である。
論文 参考訳(メタデータ) (2020-05-05T08:11:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。