論文の概要: GREASE: Generate Factual and Counterfactual Explanations for GNN-based
Recommendations
- arxiv url: http://arxiv.org/abs/2208.04222v1
- Date: Thu, 4 Aug 2022 09:13:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-09 12:50:24.513561
- Title: GREASE: Generate Factual and Counterfactual Explanations for GNN-based
Recommendations
- Title(参考訳): GREASE:GNNベースの勧告のための実例と実例を生成
- Authors: Ziheng Chen, Fabrizio Silvestri, Jia Wang, Yongfeng Zhang, Zhenhua
Huang, Hongshik Ahn, Gabriele Tolomei
- Abstract要約: グラフニューラルネットワーク(GNN)は、リコメンダシステムの開発に広く利用されている。
GNNベースのレコメンデータシステムでは,特定の項目がユーザの提案リストに表示される理由について,具体的な説明を付けることは極めて困難である。
我々は,任意のブラックボックスGNNベースのレコメンデーションシステムが提供する提案を説明する新しい手法であるGREASEを提案する。
- 参考スコア(独自算出の注目度): 28.032483532864333
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, graph neural networks (GNNs) have been widely used to develop
successful recommender systems. Although powerful, it is very difficult for a
GNN-based recommender system to attach tangible explanations of why a specific
item ends up in the list of suggestions for a given user. Indeed, explaining
GNN-based recommendations is unique, and existing GNN explanation methods are
inappropriate for two reasons. First, traditional GNN explanation methods are
designed for node, edge, or graph classification tasks rather than ranking, as
in recommender systems. Second, standard machine learning explanations are
usually intended to support skilled decision-makers. Instead, recommendations
are designed for any end-user, and thus their explanations should be provided
in user-understandable ways. In this work, we propose GREASE, a novel method
for explaining the suggestions provided by any black-box GNN-based recommender
system. Specifically, GREASE first trains a surrogate model on a target
user-item pair and its $l$-hop neighborhood. Then, it generates both factual
and counterfactual explanations by finding optimal adjacency matrix
perturbations to capture the sufficient and necessary conditions for an item to
be recommended, respectively. Experimental results conducted on real-world
datasets demonstrate that GREASE can generate concise and effective
explanations for popular GNN-based recommender models.
- Abstract(参考訳): 近年,グラフニューラルネットワーク(GNN)は,提案システムの成功に広く利用されている。
しかし,GNNベースのレコメンデータシステムでは,特定の項目がユーザの提案リストに表示される理由について,具体的な説明を付けることは極めて困難である。
実際、GNNに基づくレコメンデーションの説明はユニークであり、既存のGNN説明法は2つの理由から不適切である。
まず、従来のGNN説明法は、推薦システムのように、ランキングではなくノード、エッジ、グラフ分類タスク用に設計されている。
第二に、標準的な機械学習の説明は通常、熟練した意思決定者をサポートすることを意図している。
代わりに、レコメンデーションはあらゆるエンドユーザ向けに設計されているため、その説明はユーザ理解可能な方法で提供されるべきである。
本稿では,ブラックボックスGNNベースのレコメンデーションシステムにおいて提案される提案を説明する新しい手法であるGREASEを提案する。
具体的には、GREASEはまず、ターゲットのユーザとイタムのペアと、その$l$-hop地区で代理モデルを訓練する。
そして,提案する項目の適切な条件と必要な条件をそれぞれ把握するために最適な隣接行列摂動を求めることにより,事実と反事実の両方の説明を生成する。
実世界のデータセットで行った実験結果から、GREASEは人気のあるGNNベースのレコメンデータモデルに対して簡潔で効果的な説明を生成できることが示された。
関連論文リスト
- Global Graph Counterfactual Explanation: A Subgraph Mapping Approach [54.42907350881448]
グラフニューラルネットワーク(GNN)は、様々な現実世界のアプリケーションに広くデプロイされている。
対実的説明は、GNN予測を変える入力グラフ上で最小の摂動を見つけることを目的としている。
我々は,グローバルレベルのグラフ対実的説明法であるGlobalGCEを提案する。
論文 参考訳(メタデータ) (2024-10-25T21:39:05Z) - A Novel Evaluation Perspective on GNNs-based Recommender Systems through the Topology of the User-Item Graph [14.12873271435375]
グラフニューラルネットワーク(GNN)ベースのレコメンデーションシステムは、レコメンデーションにおいて大きな成功を収めている。
本稿では,GNNをベースとしたレコメンデーションに対する新たな評価視点を提案し,グラフトポロジがレコメンデーション性能に与える影響について検討する。
論文 参考訳(メタデータ) (2024-08-21T16:34:53Z) - Explainable Graph Neural Networks Under Fire [69.15708723429307]
グラフニューラルネットワーク(GNN)は通常、複雑な計算挙動とグラフの抽象的性質のために解釈性に欠ける。
ほとんどのGNN説明法は、ポストホックな方法で動作し、重要なエッジと/またはノードの小さなサブセットの形で説明を提供する。
本稿では,これらの説明が信頼できないことを実証する。GNNの一般的な説明手法は,敵対的摂動に強い影響を受けやすいことが判明した。
論文 参考訳(メタデータ) (2024-06-10T16:09:16Z) - Linear-Time Graph Neural Networks for Scalable Recommendations [50.45612795600707]
推薦システムの鍵は、過去のユーザとイテムのインタラクションに基づいて、ユーザの将来の振る舞いを予測することである。
近年、リコメンデータシステムの予測性能を高めるためにグラフニューラルネットワーク(GNN)を活用することへの関心が高まっている。
我々は,従来のMF手法と同等のスケーラビリティを実現するために,GNNベースのレコメンデータシステムをスケールアップするための線形時間グラフニューラルネットワーク(LTGNN)を提案する。
論文 参考訳(メタデータ) (2024-02-21T17:58:10Z) - GNNInterpreter: A Probabilistic Generative Model-Level Explanation for
Graph Neural Networks [25.94529851210956]
本稿では,異なるグラフニューラルネットワーク(GNN)に対して,メッセージパッシング方式であるGNNInterpreterに従うモデルに依存しないモデルレベルの説明手法を提案する。
GNNInterpreterは、GNNが検出しようとする最も識別性の高いグラフパターンを生成する確率的生成グラフ分布を学習する。
既存の研究と比較すると、GNNInterpreterはノードとエッジの異なるタイプの説明グラフを生成する際に、より柔軟で計算的に効率的である。
論文 参考訳(メタデータ) (2022-09-15T07:45:35Z) - GraphFramEx: Towards Systematic Evaluation of Explainability Methods for Graph Neural Networks [15.648750523827616]
3つの異なる「ユーザニーズ」に対する説明可能性を考慮したGNN説明可能性のための最初の体系的評価フレームワークを提案する。
不適切なが広く使われている合成ベンチマークでは、パーソナライズされたPageRankのような驚くほど浅いテクニックが最小限の計算時間で最高のパフォーマンスを持つ。
しかし,グラフ構造が複雑で有意義な特徴を持つ場合,評価基準に従って勾配法が最適である。
論文 参考訳(メタデータ) (2022-06-20T09:33:12Z) - Task-Agnostic Graph Explanations [50.17442349253348]
グラフニューラルネットワーク(GNN)は、グラフ構造化データをエンコードする強力なツールとして登場した。
既存の学習ベースのGNN説明手法は、訓練においてタスク固有である。
本稿では、下流タスクの知識のない自己監督下で訓練されたタスク非依存のGNN Explainer(TAGE)を提案する。
論文 参考訳(メタデータ) (2022-02-16T21:11:47Z) - ProtGNN: Towards Self-Explaining Graph Neural Networks [12.789013658551454]
本稿では,プロトタイプ学習とGNNを組み合わせたプロトタイプグラフニューラルネットワーク(ProtGNN)を提案する。
ProtGNNとProtGNN+は、非解釈不能のものと同等の精度を保ちながら、本質的に解釈可能である。
論文 参考訳(メタデータ) (2021-12-02T01:16:29Z) - Parameterized Explainer for Graph Neural Network [49.79917262156429]
グラフニューラルネットワーク(GNN)のためのパラメータ化説明器PGExplainerを提案する。
既存の研究と比較すると、PGExplainerはより優れた一般化能力を持ち、インダクティブな設定で容易に利用することができる。
合成データセットと実生活データセットの両方の実験では、グラフ分類の説明に関するAUCの相対的な改善が24.7%まで高い競争性能を示した。
論文 参考訳(メタデータ) (2020-11-09T17:15:03Z) - XGNN: Towards Model-Level Explanations of Graph Neural Networks [113.51160387804484]
グラフニューラルネットワーク(GNN)は、隣の情報を集約して組み合わせることでノードの特徴を学習する。
GNNはブラックボックスとして扱われ、人間の知的な説明が欠けている。
我々はモデルレベルでGNNを解釈する新しい手法 XGNN を提案する。
論文 参考訳(メタデータ) (2020-06-03T23:52:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。