論文の概要: McXai: Local model-agnostic explanation as two games
- arxiv url: http://arxiv.org/abs/2201.01044v1
- Date: Tue, 4 Jan 2022 09:02:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-01-05 13:41:50.016792
- Title: McXai: Local model-agnostic explanation as two games
- Title(参考訳): McXai: ローカルモデルに依存しない2つのゲーム
- Authors: Yiran Huang, Nicole Schaal, Michael Hefenbrock, Yexu Zhou, Till
Riedel, Likun Fang, Michael Beigl
- Abstract要約: この研究はモンテカルロ木探索(Monte Carlo tree search for eXplainable Artificial Intelligent, McXai)と呼ばれる強化学習に基づくアプローチを導入し、ブラックボックス分類モデル(分類器)の決定について説明する。
実験の結果, LIME や SHAP などの古典的手法に比べて,本手法の特徴は分類に関してより有益であることが示唆された。
- 参考スコア(独自算出の注目度): 5.2229999775211216
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To this day, a variety of approaches for providing local interpretability of
black-box machine learning models have been introduced. Unfortunately, all of
these methods suffer from one or more of the following deficiencies: They are
either difficult to understand themselves, they work on a per-feature basis and
ignore the dependencies between features and/or they only focus on those
features asserting the decision made by the model. To address these points,
this work introduces a reinforcement learning-based approach called Monte Carlo
tree search for eXplainable Artificial Intelligent (McXai) to explain the
decisions of any black-box classification model (classifier). Our method
leverages Monte Carlo tree search and models the process of generating
explanations as two games. In one game, the reward is maximized by finding
feature sets that support the decision of the classifier, while in the second
game, finding feature sets leading to alternative decisions maximizes the
reward. The result is a human friendly representation as a tree structure, in
which each node represents a set of features to be studied with smaller
explanations at the top of the tree. Our experiments show, that the features
found by our method are more informative with respect to classifications than
those found by classical approaches like LIME and SHAP. Furthermore, by also
identifying misleading features, our approach is able to guide towards improved
robustness of the black-box model in many situations.
- Abstract(参考訳): 今日まで、ブラックボックス機械学習モデルのローカル解釈可能性を提供する様々なアプローチが導入されてきた。
これらのメソッドは、自分自身を理解するのが難しいか、機能ごとの作業を行い、機能間の依存関係を無視しているか、あるいはモデルによってなされた決定を主張する機能のみに焦点を当てているかのどちらかです。
これらの点に対処するため、この研究はモンテカルロ木探索と呼ばれる強化学習に基づくeXplainable Artificial Intelligent (McXai)のアプローチを導入し、ブラックボックス分類モデル(分類器)の決定を説明する。
本手法はモンテカルロ木探索を活用し,説明生成過程を2ゲームとしてモデル化する。
あるゲームでは、報酬は分類器の決定を支持する特徴セットを見つけることで最大化され、第二ゲームでは、代替決定につながる特徴セットを見つけることが報酬を最大化する。
その結果、木構造としての人間に親しみやすい表現となり、各ノードは、木の上部でより小さな説明で研究すべき特徴の集合を表す。
実験の結果, LIME や SHAP などの古典的手法に比べて,本手法の特徴は分類に関してより有益であることがわかった。
さらに,誤解を招く特徴を識別することで,ブラックボックスモデルのロバスト性向上を多くの場面で導くことができる。
関連論文リスト
- Explaining the Model and Feature Dependencies by Decomposition of the
Shapley Value [3.0655581300025996]
共有値は、複雑なモデルをエンドユーザに説明するためのゴートメソッドの1つになっています。
欠点の1つは、いくつかの機能が欠けている場合、常にモデルの出力を必要とすることである。
しかし、これは非自明な選択をもたらす: 未知の機能に条件を付けるか、しないか?
本稿では,両説明を組み合わせ,選択の負担を軽減し,シェープリー値の説明力を高めるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T12:20:23Z) - An Interpretable Loan Credit Evaluation Method Based on Rule
Representation Learner [8.08640000394814]
我々は、Lending ClubデータセットのRRL(Rule Representation)に基づいて、本質的に解釈可能なモデルを設計する。
トレーニング中、私たちは以前の研究から、バイナリウェイトを効果的にトレーニングするためのトリックを学びました。
本モデルは,ポストホック法により生成された説明の正当性を検証するために用いられる。
論文 参考訳(メタデータ) (2023-04-03T05:55:04Z) - Symbolic Metamodels for Interpreting Black-boxes Using Primitive
Functions [15.727276506140878]
ブラックボックス機械学習モデルを解釈する1つのアプローチは、単純な解釈可能な関数を使ってモデルのグローバルな近似を見つけることである。
本研究では,解釈可能なメタモデルを見つけるための新しい手法を提案する。
論文 参考訳(メタデータ) (2023-02-09T17:30:43Z) - Learning to Scaffold: Optimizing Model Explanations for Teaching [74.25464914078826]
我々は3つの自然言語処理とコンピュータビジョンタスクのモデルを訓練する。
筆者らは,本フレームワークで抽出した説明文を学習した学生が,従来の手法よりもはるかに効果的に教師をシミュレートできることを発見した。
論文 参考訳(メタデータ) (2022-04-22T16:43:39Z) - Reinforcement Explanation Learning [4.852320309766702]
従順写像を生成するブラックボックス法は、決定を説明するためにモデルの内部を使わないという事実から、特に興味深い。
逐次探索問題としてサリエンシマップ生成を定式化し、強化学習(RL)を利用して入力画像から証拠を蓄積する。
3つのベンチマークデータセットの実験は、提案手法がパフォーマンスを損なわずに最先端の予測時間よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-11-26T10:20:01Z) - Search Methods for Sufficient, Socially-Aligned Feature Importance
Explanations with In-Distribution Counterfactuals [72.00815192668193]
特徴重要度(FI)推定は一般的な説明形式であり、テスト時に特定の入力特徴を除去することによって生じるモデル信頼度の変化を計算し、評価することが一般的である。
FIに基づく説明の未探索次元についていくつかの考察を行い、この説明形式に対する概念的および実証的な改善を提供する。
論文 参考訳(メタデータ) (2021-06-01T20:36:48Z) - Contrastive Explanations for Model Interpretability [77.92370750072831]
分類モデルの対照的説明を生成する手法を提案する。
本手法は潜在空間へのモデル表現の投影に基づいている。
本研究は,モデル決定のより正確できめ細かな解釈性を提供するためのラベルコントラスト的説明の能力に光を当てた。
論文 参考訳(メタデータ) (2021-03-02T00:36:45Z) - Learning outside the Black-Box: The pursuit of interpretable models [78.32475359554395]
本稿では,任意の連続ブラックボックス関数の連続的大域的解釈を生成するアルゴリズムを提案する。
我々の解釈は、その芸術の以前の状態から飛躍的な進歩を表している。
論文 参考訳(メタデータ) (2020-11-17T12:39:44Z) - The Struggles of Feature-Based Explanations: Shapley Values vs. Minimal
Sufficient Subsets [61.66584140190247]
機能に基づく説明は、自明なモデルでも問題を引き起こすことを示す。
そこで本研究では,2つの一般的な説明書クラスであるシェープリー説明書と十分最小限の部分集合説明書が,基本的に異なる基底的説明書のタイプをターゲットにしていることを示す。
論文 参考訳(メタデータ) (2020-09-23T09:45:23Z) - Deducing neighborhoods of classes from a fitted model [68.8204255655161]
本稿では,新しいタイプの解釈可能な機械学習手法を提案する。
量子シフトを用いた分類モデルでは、特徴空間の予測クラスへの分割を理解するのに役立ちます。
基本的に、実際のデータポイント(または特定の関心点)を使用し、特定の特徴をわずかに引き上げたり減少させたりした後の予測の変化を観察する。
論文 参考訳(メタデータ) (2020-09-11T16:35:53Z) - Solve Traveling Salesman Problem by Monte Carlo Tree Search and Deep
Neural Network [8.19063619210761]
本稿では,モンテカルロ木探索と深層強化学習を組み合わせた自己学習手法を提案する。
実験結果から,提案手法は小口径問題設定において,他の手法に対して良好に動作することがわかった。
大規模な問題設定では、最先端のパフォーマンスに匹敵するパフォーマンスを示している。
論文 参考訳(メタデータ) (2020-05-14T11:36:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。