論文の概要: Comparing Baseline Shapley and Integrated Gradients for Local
Explanation: Some Additional Insights
- arxiv url: http://arxiv.org/abs/2208.06096v1
- Date: Fri, 12 Aug 2022 03:18:15 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-15 13:00:32.305460
- Title: Comparing Baseline Shapley and Integrated Gradients for Local
Explanation: Some Additional Insights
- Title(参考訳): 局所的説明のためのベースラインシェープと統合的グラディエントの比較:追加的考察
- Authors: Tianshu Feng, Zhipu Zhou, Joshi Tarun, Vijayan N. Nair
- Abstract要約: 統合グラディエント(Sundararajan, Taly, & Yan, 2017)とベースラインシェープリー(Sundararajan, Najmi, 2020)の2つの新しい手法を検討する。
両者が同じ説明をし,その相違点を論じる。
また、ReLUアクティベーション機能を持つニューラルネットワークがモデルに適合するかどうかをシミュレーション研究で調べる。
- 参考スコア(独自算出の注目度): 3.871148938060281
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are many different methods in the literature for local explanation of
machine learning results. However, the methods differ in their approaches and
often do not provide same explanations. In this paper, we consider two recent
methods: Integrated Gradients (Sundararajan, Taly, & Yan, 2017) and Baseline
Shapley (Sundararajan and Najmi, 2020). The original authors have already
studied the axiomatic properties of the two methods and provided some
comparisons. Our work provides some additional insights on their comparative
behavior for tabular data. We discuss common situations where the two provide
identical explanations and where they differ. We also use simulation studies to
examine the differences when neural networks with ReLU activation function is
used to fit the models.
- Abstract(参考訳): 機械学習の結果を局所的に説明するための文献には様々な方法がある。
しかし、手法はアプローチによって異なり、しばしば同じ説明をしない。
本稿では,統合グラディエント (Sundararajan, Taly, & Yan, 2017) とベースラインシェープ (Sundararajan, Najmi, 2020) の2つの手法を検討する。
原著者は既に2つの方法の公理的性質を研究し、いくつかの比較を行った。
我々の研究は、グラフデータの比較行動に関する追加の洞察を提供する。
我々は,両者が同一の説明を提供し,両者の相違点を議論する。
また,reluアクティベーション関数を有するニューラルネットワークがモデルに適合する場合の差異をシミュレーションにより検証する。
関連論文リスト
- Beyond Coarse-Grained Matching in Video-Text Retrieval [50.799697216533914]
きめ細かい評価のための新しいアプローチを導入する。
テストキャプションを自動的に生成することで,既存のデータセットにアプローチを適用することができる。
きめ細かい評価実験は、このアプローチがきめ細かな違いを理解するモデルの能力を高めることを実証している。
論文 参考訳(メタデータ) (2024-10-16T09:42:29Z) - Explaining Text Similarity in Transformer Models [52.571158418102584]
説明可能なAIの最近の進歩により、トランスフォーマーの説明の改善を活用することで、制限を緩和できるようになった。
両線形類似性モデルにおける2次説明の計算のために開発された拡張であるBiLRPを用いて、NLPモデルにおいてどの特徴相互作用が類似性を促進するかを調べる。
我々の発見は、異なる意味的類似性タスクやモデルに対するより深い理解に寄与し、新しい説明可能なAIメソッドが、どのようにして深い分析とコーパスレベルの洞察を可能にするかを強調した。
論文 参考訳(メタデータ) (2024-05-10T17:11:31Z) - CNN-based explanation ensembling for dataset, representation and explanations evaluation [1.1060425537315088]
畳み込みモデルを用いた深層分類モデルによる説明文の要約の可能性について検討する。
実験と分析を通じて、モデル行動のより一貫性と信頼性のあるパターンを明らかにするために、説明を組み合わせることの意味を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2024-04-16T08:39:29Z) - Comparing Explanation Methods for Traditional Machine Learning Models
Part 1: An Overview of Current Methods and Quantifying Their Disagreement [0.0]
本研究は,説明可能性と解釈可能性,局所的説明可能性とグローバル的説明可能性,特徴的重要性と特徴的関連性とを区別する。
我々は、様々な説明方法、解釈方法、そして、将来の研究者がこれらの製品を探索できるように完全なPythonパッケージ(scikit-explain)を提供し、それを実証し、視覚化する。
論文 参考訳(メタデータ) (2022-11-16T14:45:16Z) - Comparing Feature Importance and Rule Extraction for Interpretability on
Text Data [7.893831644671976]
異なる手法を用いることで、予想外の異なる説明がもたらされることが示される。
この効果を定量化するために,異なる手法による説明を比較するための新しい手法を提案する。
論文 参考訳(メタデータ) (2022-07-04T13:54:55Z) - CARLA: A Python Library to Benchmark Algorithmic Recourse and
Counterfactual Explanation Algorithms [6.133522864509327]
CARLA (Counterfactual And Recourse LibrAry) は、対物的説明法をベンチマークするピソンライブラリである。
提案手法は,11種類の反事実的説明手法の広範なベンチマークを提供する。
また,将来的対実的説明法の研究のためのベンチマークフレームワークも提供する。
論文 参考訳(メタデータ) (2021-08-02T11:00:43Z) - Evaluating Explanations: How much do explanations from the teacher aid
students? [103.05037537415811]
本研究では,説明が生徒の学習モデルを改善する程度を測る学生-教師パラダイムを用いて,説明の価値を定式化する。
説明を評価するための従来の提案とは異なり、我々のアプローチは容易にゲーム化できず、原則付き、スケーラブルで、属性の自動評価を可能にします。
論文 参考訳(メタデータ) (2020-12-01T23:40:21Z) - Leakage-Adjusted Simulatability: Can Models Generate Non-Trivial
Explanations of Their Behavior in Natural Language? [86.60613602337246]
我々はNL説明を評価するためのリーク調整シミュラビリティ(LAS)指標を提案する。
LASは、どのように説明が直接アウトプットをリークするかを制御しながら、オブザーバがモデルのアウトプットを予測するのに役立つかを計測する。
マルチエージェントゲームとしての説明文生成を行い、ラベルリークをペナライズしながら、シミュラビリティの説明を最適化する。
論文 参考訳(メタデータ) (2020-10-08T16:59:07Z) - Stance Detection in Web and Social Media: A Comparative Study [3.937145867005019]
オンラインフォーラムやソーシャルメディアプラットフォームは、異なる人々が異なる姿勢をとるさまざまな極性に関するトピックを議論するために、ますます利用されています。
テキストからの自動姿勢検出のためのいくつかの手法が文献で提案されている。
我々の知る限りでは、それらとその比較パフォーマンスについて、体系的な調査は行われていない。
論文 参考訳(メタデータ) (2020-07-12T12:39:35Z) - Evaluating Explainable AI: Which Algorithmic Explanations Help Users
Predict Model Behavior? [97.77183117452235]
我々は、モデル解釈性に対するアルゴリズム的説明の影響を分離するために、人体テストを実施している。
方法の有効性の明確な証拠はごく少数にみえる。
以上の結果から,説明がシミュラビリティにどのように影響するかの信頼性と包括的評価が得られた。
論文 参考訳(メタデータ) (2020-05-04T20:35:17Z) - There and Back Again: Revisiting Backpropagation Saliency Methods [87.40330595283969]
正当性法は,各入力サンプルの重要度マップを作成することによって,モデルの予測を説明する。
このような手法の一般的なクラスは、信号のバックプロパゲートと結果の勾配の分析に基づいている。
本稿では,そのような手法を統一可能な単一のフレームワークを提案する。
論文 参考訳(メタデータ) (2020-04-06T17:58:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。