論文の概要: Rethinking Node Representation Interpretation through Relation Coherence
- arxiv url: http://arxiv.org/abs/2411.00653v1
- Date: Fri, 01 Nov 2024 15:15:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-05 14:47:21.248642
- Title: Rethinking Node Representation Interpretation through Relation Coherence
- Title(参考訳): リレーショナルコヒーレンスによるノード表現解釈の再考
- Authors: Ying-Chun Lin, Jennifer Neville, Cassiano Becker, Purvanshi Metha, Nabiha Asghar, Vipul Agarwal,
- Abstract要約: グラフベースのモデルにおけるノード表現を理解することはバイアスを明らかにするのに不可欠である。
ノード表現のための説明可能なAIに関するこれまでの研究は、主に解釈よりも説明を強調してきた。
- 参考スコア(独自算出の注目度): 8.405141702218707
- License:
- Abstract: Understanding node representations in graph-based models is crucial for uncovering biases ,diagnosing errors, and building trust in model decisions. However, previous work on explainable AI for node representations has primarily emphasized explanations (reasons for model predictions) rather than interpretations (mapping representations to understandable concepts). Furthermore, the limited research that focuses on interpretation lacks validation, and thus the reliability of such methods is unclear. We address this gap by proposing a novel interpretation method-Node Coherence Rate for Representation Interpretation (NCI)-which quantifies how well different node relations are captured in node representations. We also propose a novel method (IME) to evaluate the accuracy of different interpretation methods. Our experimental results demonstrate that NCI reduces the error of the previous best approach by an average of 39%. We then apply NCI to derive insights about the node representations produced by several graph-based methods and assess their quality in unsupervised settings.
- Abstract(参考訳): グラフベースのモデルにおけるノード表現を理解することは、バイアスの発見、エラーの診断、モデル決定における信頼の構築に不可欠である。
しかし、ノード表現のための説明可能なAIに関するこれまでの研究は、解釈(表現を理解可能な概念にマッピングする)よりも説明(モデル予測の理由)を強調してきた。
さらに、解釈に焦点をあてた限られた研究は検証に欠けており、そのような手法の信頼性は不明確である。
本稿では,ノード表現においてノード間の関係がいかにうまく捉えられているかを定量化する,新しい解釈手法-ノードのコヒーレンスレート(NCI)を提案し,このギャップに対処する。
また,異なる解釈手法の精度を評価するための新しい方法(IME)を提案する。
実験の結果,NCIは従来のベストアプローチの誤差を平均39%削減できることがわかった。
次に、NCIを適用して、いくつかのグラフベースの手法によって生成されたノード表現に関する洞察を導き、教師なし設定でそれらの品質を評価する。
関連論文リスト
- Concept Prerequisite Relation Prediction by Using Permutation-Equivariant Directed Graph Neural Networks [3.1688996975958306]
CPRPは、概念の前提条件関係予測であり、AIを教育に利用する上での基本的な課題である。
Wesfeiler-Lehman 検定を GNN 学習に導入することにより,変分同変の有向 GNN モデルを提案する。
我々のモデルは最先端の手法よりも優れた予測性能を提供する。
論文 参考訳(メタデータ) (2023-12-15T14:01:56Z) - GInX-Eval: Towards In-Distribution Evaluation of Graph Neural Network
Explanations [21.997015999698732]
グラフニューラルネットワーク(GNN)の様々な説明可能性法は、モデル予測に最も寄与するグラフのエッジとノードを強調するために開発されている。
これらの説明の正しさを人間やモデルの観点から評価する方法はまだ明らかになっていない。
本稿では,信頼の落とし穴を克服するグラフ説明の評価手法であるGInX-Evalを提案する。
論文 参考訳(メタデータ) (2023-09-28T07:56:10Z) - Counterfactuals of Counterfactuals: a back-translation-inspired approach
to analyse counterfactual editors [3.4253416336476246]
我々は、反事実的、対照的な説明の分析に焦点をあてる。
本稿では,新しい逆翻訳に基づく評価手法を提案する。
本研究では, 予測モデルと説明モデルの両方の振る舞いについて, 反事実を反復的に説明者に与えることで, 価値ある洞察を得ることができることを示す。
論文 参考訳(メタデータ) (2023-05-26T16:04:28Z) - FICNN: A Framework for the Interpretation of Deep Convolutional Neural
Networks [0.0]
本研究の目的は,視覚データから学習したCNNモデルを対象とした解釈手法の研究のためのフレームワークを提案することである。
提案する要因のごく一部と組み合わせが実際に研究されていることを,我々のフレームワークが強調する。
論文 参考訳(メタデータ) (2023-05-17T10:59:55Z) - Logical Satisfiability of Counterfactuals for Faithful Explanations in
NLI [60.142926537264714]
本稿では, 忠実度スルー・カウンタファクトの方法論について紹介する。
これは、説明に表される論理述語に基づいて、反実仮説を生成する。
そして、そのモデルが表現された論理と反ファクトの予測が一致しているかどうかを評価する。
論文 参考訳(メタデータ) (2022-05-25T03:40:59Z) - Deconfounding to Explanation Evaluation in Graph Neural Networks [136.73451468551656]
我々は、全グラフと部分グラフの間に分布シフトが存在し、分布外問題を引き起こすと論じる。
本稿では,モデル予測に対する説明文の因果効果を評価するために,Decon founded Subgraph Evaluation (DSE)を提案する。
論文 参考訳(メタデータ) (2022-01-21T18:05:00Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - On the Faithfulness Measurements for Model Interpretations [100.2730234575114]
ポストホックな解釈は、自然言語処理(NLP)モデルがどのように予測を行うかを明らかにすることを目的とする。
これらの問題に取り組むために,我々は,削除基準,解釈の感度,解釈の安定性という3つの基準から始める。
これらの忠実性概念のデシデラタムに動機づけられ、敵対的領域からのテクニックを採用する新しい解釈方法のクラスを導入する。
論文 参考訳(メタデータ) (2021-04-18T09:19:44Z) - Explaining and Improving Model Behavior with k Nearest Neighbor
Representations [107.24850861390196]
モデルの予測に責任のあるトレーニング例を特定するために, k 近傍表現を提案する。
我々は,kNN表現が学習した素因関係を明らかにするのに有効であることを示す。
以上の結果から,kNN手法により,直交モデルが逆入力に対してより堅牢であることが示唆された。
論文 参考訳(メタデータ) (2020-10-18T16:55:25Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。