論文の概要: Shapley Flow: A Graph-based Approach to Interpreting Model Predictions
- arxiv url: http://arxiv.org/abs/2010.14592v3
- Date: Fri, 26 Feb 2021 15:49:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-02 11:30:54.592154
- Title: Shapley Flow: A Graph-based Approach to Interpreting Model Predictions
- Title(参考訳): Shapley Flow: モデル予測の解釈のためのグラフベースのアプローチ
- Authors: Jiaxuan Wang, Jenna Wiens, Scott Lundberg
- Abstract要約: Shapley Flowは、機械学習モデルを解釈するための新しいアプローチである。
因果グラフ全体を考慮し、ノードをクレジット割り当ての基本単位として扱う代わりに、クレジットをテキストメッセージに割り当てる。
- 参考スコア(独自算出の注目度): 12.601158020289105
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many existing approaches for estimating feature importance are problematic
because they ignore or hide dependencies among features. A causal graph, which
encodes the relationships among input variables, can aid in assigning feature
importance. However, current approaches that assign credit to nodes in the
causal graph fail to explain the entire graph. In light of these limitations,
we propose Shapley Flow, a novel approach to interpreting machine learning
models. It considers the entire causal graph, and assigns credit to
\textit{edges} instead of treating nodes as the fundamental unit of credit
assignment. Shapley Flow is the unique solution to a generalization of the
Shapley value axioms to directed acyclic graphs. We demonstrate the benefit of
using Shapley Flow to reason about the impact of a model's input on its output.
In addition to maintaining insights from existing approaches, Shapley Flow
extends the flat, set-based, view prevalent in game theory based explanation
methods to a deeper, \textit{graph-based}, view. This graph-based view enables
users to understand the flow of importance through a system, and reason about
potential interventions.
- Abstract(参考訳): 機能間の依存関係を無視したり隠したりするため、機能の重要性を見積もる既存のアプローチの多くは問題となる。
入力変数間の関係をエンコードする因果グラフは、特徴の重要性を割り当てるのに役立つ。
しかし、因果グラフのノードにクレジットを割り当てる現在のアプローチでは、グラフ全体を説明できない。
これらの制約を踏まえて,機械学習モデル解釈のための新しいアプローチであるshapley flowを提案する。
因果グラフ全体を考慮し、ノードを信用割り当ての基本単位として扱うのではなく、クレジットを \textit{edges} に割り当てる。
シャプリーフロー(Shapley Flow)は、シャプリー値公理を有向非巡回グラフに一般化する一意の解である。
モデルの入力が出力に与える影響を判断するためにShapley Flowを使用することの利点を実証する。
既存のアプローチからの洞察の維持に加えて、shapley flowは、ゲーム理論に基づく説明法で一般的なフラットなセットベースのビューを、より深い、\textit{graph-based}ビューに拡張する。
このグラフベースのビューは、システムを通じた重要度の流れと潜在的な介入の理由を理解することができる。
関連論文リスト
- Invariant Graph Transformer [0.0]
グラフ機械学習の文脈では、グラフ合理化はモデルの性能を高めることができる。
抽出された有理部分グラフの識別力を確保するために「干渉」と呼ばれる重要な手法が適用される。
本稿では,グラフデータに対する適切な介入戦略を提案する。
論文 参考訳(メタデータ) (2023-12-13T02:56:26Z) - CLEAR: Generative Counterfactual Explanations on Graphs [60.30009215290265]
グラフ上での対実的説明生成の問題について検討する。
グラフに関する反実的な説明を調査する研究はいくつかあるが、この問題の多くの課題はまだ十分に適応されていない。
本稿では,グラフレベルの予測モデルに対して,グラフ上の反実的説明を生成するための新しいフレームワークCLEARを提案する。
論文 参考訳(メタデータ) (2022-10-16T04:35:32Z) - Interpretations Steered Network Pruning via Amortized Inferred Saliency
Maps [85.49020931411825]
限られたリソースを持つエッジデバイスにこれらのモデルをデプロイするには、畳み込みニューラルネットワーク(CNN)圧縮が不可欠である。
本稿では,新しい視点からチャネルプルーニング問題に対処するために,モデルの解釈を活用して,プルーニング過程を解析する手法を提案する。
本研究では,実時間スムーズなスムーズなスムーズなスムーズなマスク予測を行うセレクタモデルを導入することで,この問題に対処する。
論文 参考訳(メタデータ) (2022-09-07T01:12:11Z) - Graph Pooling with Maximum-Weight $k$-Independent Sets [12.251091325930837]
最大ウェイト$k$非依存集合のグラフ理論的概念に基づくグラフ粗化機構を導入する。
我々は、経路長の歪み境界の理論的保証と、粗化グラフにおける重要な位相特性を保存できることを証明した。
論文 参考訳(メタデータ) (2022-08-06T14:12:47Z) - GRAPHSHAP: Explaining Identity-Aware Graph Classifiers Through the
Language of Motifs [11.453325862543094]
GraphSHAPは、ID対応グラフ分類器のモチーフベースの説明を提供することができる。
簡単なカーネルが説明スコアを効率的に近似し,説明空間が大きいシナリオで GraphSHAP をスケールできるようにする方法を示す。
実験では,ブラックボックスモデルによって提供される分類が,いくつかのコネクトロミクスパターンによって効果的に説明できることを強調した。
論文 参考訳(メタデータ) (2022-02-17T18:29:30Z) - Graph-wise Common Latent Factor Extraction for Unsupervised Graph
Representation Learning [40.70562886682939]
我々は、教師なしグラフ表現学習のための新しい原則を提案する:グラフワイド共通潜在因子抽出(GCFX)
GCFXは入力グラフから一般的な潜伏因子を明示的に抽出し、現在の最先端のタスクで改善された結果を達成する。
広範囲な実験と分析により,GCFXは個々のノードや周辺地域の局所的な変動による障害を軽減するため,グラフレベルのタスクに有用であることを示す。
論文 参考訳(メタデータ) (2021-12-16T12:22:49Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Unbiased Graph Embedding with Biased Graph Observations [52.82841737832561]
基礎となるバイアスのないグラフから学習することで、バイアスのない表現を得るための、原則化された新しい方法を提案する。
この新たな視点に基づいて、そのような基礎となるグラフを明らかにするための2つの補完的手法を提案する。
論文 参考訳(メタデータ) (2021-10-26T18:44:37Z) - GraphMI: Extracting Private Graph Data from Graph Neural Networks [59.05178231559796]
GNNを反転させてトレーニンググラフのプライベートグラフデータを抽出することを目的とした textbfGraph textbfModel textbfInversion attack (GraphMI) を提案する。
具体的には,グラフ特徴の空間性と滑らかさを保ちながら,グラフエッジの離散性に対処する勾配モジュールを提案する。
エッジ推論のためのグラフトポロジ、ノード属性、ターゲットモデルパラメータを効率的に活用するグラフ自動エンコーダモジュールを設計する。
論文 参考訳(メタデータ) (2021-06-05T07:07:52Z) - Towards Efficient Scene Understanding via Squeeze Reasoning [71.1139549949694]
我々はSqueeze Reasoningと呼ばれる新しいフレームワークを提案する。
空間地図上の情報を伝播するのではなく、まず入力特徴をチャネルワイドなグローバルベクトルに絞ることを学ぶ。
提案手法はエンドツーエンドのトレーニングブロックとしてモジュール化可能であり,既存のネットワークに簡単に接続可能であることを示す。
論文 参考訳(メタデータ) (2020-11-06T12:17:01Z) - Non-Parametric Graph Learning for Bayesian Graph Neural Networks [35.88239188555398]
グラフ隣接行列の後方分布を構築するための新しい非パラメトリックグラフモデルを提案する。
このモデルの利点を,ノード分類,リンク予測,レコメンデーションという3つの異なる問題設定で示す。
論文 参考訳(メタデータ) (2020-06-23T21:10:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。