論文の概要: Encoding Concepts in Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2207.13586v1
- Date: Wed, 27 Jul 2022 15:34:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:09:53.630510
- Title: Encoding Concepts in Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークにおける概念の符号化
- Authors: Lucie Charlotte Magister and Pietro Barbiero and Dmitry Kazhdan and
Federico Siciliano and Gabriele Ciravegna and Fabrizio Silvestri and Pietro
Lio and Mateja Jamnik
- Abstract要約: 本稿では,グラフネットワークにおける最初の差別化可能な概念発見手法であるConcept Moduleを紹介する。
提案手法は,まずグラフの概念を発見し,それを用いてタスクを解くことにより,グラフネットワークを設計により説明可能にする。
提案手法により,グラフネットワークは等価なバニラバージョンと同等の精度でモデルの精度が得られることを示す。
- 参考スコア(独自算出の注目度): 6.129235861306906
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The opaque reasoning of Graph Neural Networks induces a lack of human trust.
Existing graph network explainers attempt to address this issue by providing
post-hoc explanations, however, they fail to make the model itself more
interpretable. To fill this gap, we introduce the Concept Encoder Module, the
first differentiable concept-discovery approach for graph networks. The
proposed approach makes graph networks explainable by design by first
discovering graph concepts and then using these to solve the task. Our results
demonstrate that this approach allows graph networks to: (i) attain model
accuracy comparable with their equivalent vanilla versions, (ii) discover
meaningful concepts that achieve high concept completeness and purity scores,
(iii) provide high-quality concept-based logic explanations for their
prediction, and (iv) support effective interventions at test time: these can
increase human trust as well as significantly improve model performance.
- Abstract(参考訳): グラフニューラルネットワークの不透明な推論は、人間の信頼の欠如を引き起こす。
既存のグラフネットワーク説明者は、ポストホックな説明を提供することでこの問題に対処しようとしたが、モデル自体をより解釈しやすくしなかった。
このギャップを埋めるために、グラフネットワークにおける最初の微分可能な概念発見手法であるConcept Encoder Moduleを導入する。
提案手法は,まずグラフの概念を発見し,それを用いてタスクを解くことにより,グラフネットワークを設計により説明可能にする。
我々の結果は、このアプローチがグラフネットワークを可能にすることを実証している。
(i)モデル精度を同等のバニラバージョンと同等にする。
(二)高い概念完全性と純度スコアを達成する有意義な概念を見つけること。
(iii)その予測のために高品質な概念に基づく論理説明を提供する。
(iv) テスト時の効果的な介入をサポートする: これは人間の信頼を高め、モデルのパフォーマンスを大幅に改善する。
関連論文リスト
- Graph Reasoning Networks [9.18586425686959]
Graph Reasoning Networks (GRNs) は、グラフ表現と学習したグラフ表現の長所と、微分可能満足度解法に基づく推論モジュールを組み合わせるための新しいアプローチである。
実世界のデータセットの結果は、GNNに匹敵するパフォーマンスを示している。
合成データセットの実験は、新しく提案された手法の可能性を示している。
論文 参考訳(メタデータ) (2024-07-08T10:53:49Z) - Foundations and Frontiers of Graph Learning Theory [81.39078977407719]
グラフ学習の最近の進歩は、複雑な構造を持つデータを理解し分析する方法に革命をもたらした。
グラフニューラルネットワーク(GNN)、すなわちグラフ表現を学習するために設計されたニューラルネットワークアーキテクチャは、一般的なパラダイムとなっている。
本稿では,グラフ学習モデルに固有の近似と学習行動に関する理論的基礎とブレークスルーについて概説する。
論文 参考訳(メタデータ) (2024-07-03T14:07:41Z) - ResolvNet: A Graph Convolutional Network with multi-scale Consistency [47.98039061491647]
マルチスケール一貫性の概念を導入する。
グラフレベルでは、マルチスケールの一貫性は、異なる解像度で同じオブジェクトを記述する異なるグラフが同様の特徴ベクトルを割り当てるべきという事実を指す。
本稿では,リゾルダーの数学的概念に基づくフレキシブルグラフニューラルネットワークResolvNetを紹介する。
論文 参考訳(メタデータ) (2023-09-30T16:46:45Z) - DEGREE: Decomposition Based Explanation For Graph Neural Networks [55.38873296761104]
我々は,GNN予測に対する忠実な説明を提供するためにDGREEを提案する。
GNNの情報生成と集約機構を分解することにより、DECREEは入力グラフの特定のコンポーネントのコントリビューションを最終的な予測に追跡することができる。
また,従来の手法で見過ごされるグラフノード間の複雑な相互作用を明らかにするために,サブグラフレベルの解釈アルゴリズムを設計する。
論文 参考訳(メタデータ) (2023-05-22T10:29:52Z) - A Theory of Link Prediction via Relational Weisfeiler-Leman on Knowledge
Graphs [6.379544211152605]
グラフニューラルネットワークは、グラフ構造化データ上での表現学習のための顕著なモデルである。
私たちの目標は、知識グラフのためのグラフニューラルネットワークのランドスケープを体系的に理解することです。
論文 参考訳(メタデータ) (2023-02-04T17:40:03Z) - MEGAN: Multi-Explanation Graph Attention Network [1.1470070927586016]
マルチエクスラレーショングラフアテンションネットワーク(MEGAN)を提案する。
既存のグラフ説明可能性法とは異なり、ネットワークは複数のチャネルに沿ってノードとエッジの属性の説明を生成することができる。
我々の注意に基づくネットワークは完全に差別化可能であり、説明を指導的な方法で積極的に訓練することができる。
論文 参考訳(メタデータ) (2022-11-23T16:10:13Z) - Bayesian Graph Contrastive Learning [55.36652660268726]
本稿では,ランダムな拡張がエンコーダにつながることを示すグラフコントラスト学習手法の新たな視点を提案する。
提案手法は,各ノードを決定論的ベクトルに埋め込む既存の手法とは対照的に,各ノードを潜在空間の分布で表現する。
いくつかのベンチマークデータセットにおける既存の最先端手法と比較して,性能が大幅に向上したことを示す。
論文 参考訳(メタデータ) (2021-12-15T01:45:32Z) - Algorithmic Concept-based Explainable Reasoning [0.3149883354098941]
グラフニューラルネットワーク(GNN)モデルに関する最近の研究は、古典的なグラフアルゴリズムと最適化問題にGNNを適用した。
これらのアプローチの主な障害は、GNNは直接解釈できないブラックボックスモデルであるため、説明可能性の欠如である。
本稿では,GNNの読み出し機構を改良したコンセプトブートネックGNNを紹介する。
論文 参考訳(メタデータ) (2021-07-15T17:44:51Z) - Contrastive Graph Neural Network Explanation [13.234975857626749]
グラフニューラルネットワークは構造化データの問題に対して顕著な結果を得るが、ブラックボックス予測器として現れる。
我々は、訓練データの基礎となる分布に準拠するグラフを使用しなければならないと論じる。
本稿では,このパラダイムに従う新しいコントラストGNN説明手法を提案する。
論文 参考訳(メタデータ) (2020-10-26T15:32:42Z) - Towards Deeper Graph Neural Networks [63.46470695525957]
グラフ畳み込みは近傍の集約を行い、最も重要なグラフ操作の1つである。
いくつかの最近の研究で、この性能劣化は過度に滑らかな問題に起因している。
本研究では,大きな受容領域からの情報を適応的に組み込むディープ適応グラフニューラルネットワーク(DAGNN)を提案する。
論文 参考訳(メタデータ) (2020-07-18T01:11:14Z) - Dynamic Inference: A New Approach Toward Efficient Video Action
Recognition [69.9658249941149]
ビデオにおけるアクション認識は近年大きな成功を収めているが、膨大な計算コストのために依然として難しい課題である。
本稿では,異なるビデオの識別可能性の変動を利用して,推論効率を向上させるための一般的な動的推論手法を提案する。
論文 参考訳(メタデータ) (2020-02-09T11:09:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。