論文の概要: Graph Neural Networks Including Sparse Interpretability
- arxiv url: http://arxiv.org/abs/2007.00119v1
- Date: Tue, 30 Jun 2020 21:35:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-15 05:04:06.433305
- Title: Graph Neural Networks Including Sparse Interpretability
- Title(参考訳): スパース解釈性を含むグラフニューラルネットワーク
- Authors: Chris Lin, Gerald J. Sun, Krishna C. Bulusu, Jonathan R. Dry and
Marylens Hernandez
- Abstract要約: 本稿では,重要なグラフ構造とノード特徴を解釈するためのモデルに依存しないフレームワークを提案する。
GISSTモデルは、合成データセットにおいて優れたノード特徴とエッジ説明精度を実現する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Graph Neural Networks (GNNs) are versatile, powerful machine learning methods
that enable graph structure and feature representation learning, and have
applications across many domains. For applications critically requiring
interpretation, attention-based GNNs have been leveraged. However, these
approaches either rely on specific model architectures or lack a joint
consideration of graph structure and node features in their interpretation.
Here we present a model-agnostic framework for interpreting important graph
structure and node features, Graph neural networks Including SparSe
inTerpretability (GISST). With any GNN model, GISST combines an attention
mechanism and sparsity regularization to yield an important subgraph and node
feature subset related to any graph-based task. Through a single self-attention
layer, a GISST model learns an importance probability for each node feature and
edge in the input graph. By including these importance probabilities in the
model loss function, the probabilities are optimized end-to-end and tied to the
task-specific performance. Furthermore, GISST sparsifies these importance
probabilities with entropy and L1 regularization to reduce noise in the input
graph topology and node features. Our GISST models achieve superior node
feature and edge explanation precision in synthetic datasets, as compared to
alternative interpretation approaches. Moreover, our GISST models are able to
identify important graph structure in real-world datasets. We demonstrate in
theory that edge feature importance and multiple edge types can be considered
by incorporating them into the GISST edge probability computation. By jointly
accounting for topology, node features, and edge features, GISST inherently
provides simple and relevant interpretations for any GNN models and tasks.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造と特徴表現学習を可能にし、多くのドメインにまたがるアプリケーションを持つ、汎用的で強力な機械学習手法である。
重要な解釈を必要とするアプリケーションでは、注意に基づくGNNが活用されている。
しかし、これらのアプローチは特定のモデルアーキテクチャに依存するか、あるいはその解釈においてグラフ構造とノードの特徴を共同で考慮していない。
本稿では,重要なグラフ構造とノード特徴を解釈するためのモデル非依存フレームワークであるsparse interpretability(gisst)を含むグラフニューラルネットワークを提案する。
GNNモデルでは、GISSTはアテンション機構とスパーシティ正規化を組み合わせて、グラフベースのタスクに関連する重要なサブグラフとノード特徴サブセットを生成する。
単一の自己アテンション層を通じて、GISSTモデルは入力グラフの各ノードの特徴とエッジに対する重要確率を学習する。
これらの重要度をモデル損失関数に含めることで、その確率はエンドツーエンドに最適化され、タスク固有のパフォーマンスに結びつく。
さらにgisstは、エントロピーとl1正規化によるこれらの重要度確率をスパースし、入力グラフトポロジーとノード特徴のノイズを低減する。
GISSTモデルは、代替解釈手法と比較して、合成データセットにおいて優れたノード特徴とエッジ説明精度を実現する。
さらに、GISSTモデルは、実世界のデータセットにおいて重要なグラフ構造を識別することができる。
GISSTエッジ確率計算にそれらを組み込むことで、エッジ特徴の重要性と複数のエッジタイプを考慮できることを示す。
GISSTは、トポロジ、ノードの特徴、エッジの特徴を共同で説明することによって、GNNモデルやタスクに対して本質的にシンプルで関連する解釈を提供する。
関連論文リスト
- TANGNN: a Concise, Scalable and Effective Graph Neural Networks with Top-m Attention Mechanism for Graph Representation Learning [7.879217146851148]
本稿では,Top-mアテンション機構アグリゲーションコンポーネントと近傍アグリゲーションコンポーネントを統合した,革新的なグラフニューラルネットワーク(GNN)アーキテクチャを提案する。
提案手法の有効性を評価するため,提案手法をGNN分野において未探索の新たな課題である引用感情予測に適用した。
論文 参考訳(メタデータ) (2024-11-23T05:31:25Z) - Hyperbolic Benchmarking Unveils Network Topology-Feature Relationship in GNN Performance [0.5416466085090772]
グラフ機械学習のための総合的なベンチマークフレームワークを導入する。
我々は,現実的なトポロジ特性とノード特徴ベクトルを持つ合成ネットワークを生成する。
その結果,ネットワーク構造とノード特徴間の相互作用にモデル性能が依存していることが明らかになった。
論文 参考訳(メタデータ) (2024-06-04T20:40:06Z) - DGNN: Decoupled Graph Neural Networks with Structural Consistency
between Attribute and Graph Embedding Representations [62.04558318166396]
グラフニューラルネットワーク(GNN)は、複雑な構造を持つグラフ上での表現学習の堅牢性を示す。
ノードのより包括的な埋め込み表現を得るために、Decoupled Graph Neural Networks (DGNN)と呼ばれる新しいGNNフレームワークが導入された。
複数のグラフベンチマークデータセットを用いて、ノード分類タスクにおけるDGNNの優位性を検証した。
論文 参考訳(メタデータ) (2024-01-28T06:43:13Z) - GraphGLOW: Universal and Generalizable Structure Learning for Graph
Neural Networks [72.01829954658889]
本稿では,この新たな問題設定の数学的定義を紹介する。
一つのグラフ共有構造学習者と複数のグラフ固有GNNを協調する一般的なフレームワークを考案する。
十分に訓練された構造学習者は、微調整なしで、目に見えない対象グラフの適応的な構造を直接生成することができる。
論文 参考訳(メタデータ) (2023-06-20T03:33:22Z) - Topological Pooling on Graphs [24.584372324701885]
グラフニューラルネットワーク(GNN)は、さまざまなグラフ学習タスクにおいて大きな成功を収めている。
そこで我々は,新しいトポロジカルプール層とビジター複合型トポロジカル埋め込み機構を提案する。
Wit-TopoPoolは、すべてのデータセットで競合他社よりも大幅に優れています。
論文 参考訳(メタデータ) (2023-03-25T19:30:46Z) - Simplifying approach to Node Classification in Graph Neural Networks [7.057970273958933]
グラフニューラルネットワークのノード特徴集約ステップと深さを分離し、異なる集約特徴が予測性能にどのように寄与するかを経験的に分析する。
集約ステップによって生成された全ての機能が有用であるとは限らないことを示し、これらの少ない情報的特徴を用いることは、GNNモデルの性能に有害であることを示す。
提案モデルでは,提案モデルが最先端のGNNモデルと同等あるいはそれ以上の精度を達成可能であることを実証的に示す。
論文 参考訳(メタデータ) (2021-11-12T14:53:22Z) - Explicit Pairwise Factorized Graph Neural Network for Semi-Supervised
Node Classification [59.06717774425588]
本稿では,グラフ全体を部分的に観測されたマルコフ確率場としてモデル化するEPFGNN(Explicit Pairwise Factorized Graph Neural Network)を提案する。
出力-出力関係をモデル化するための明示的なペアワイズ要素を含み、入力-出力関係をモデル化するためにGNNバックボーンを使用する。
本研究では,グラフ上での半教師付きノード分類の性能を効果的に向上できることを示す。
論文 参考訳(メタデータ) (2021-07-27T19:47:53Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - GraphSVX: Shapley Value Explanations for Graph Neural Networks [81.83769974301995]
グラフニューラルネットワーク(GNN)は、幾何データに基づく様々な学習タスクにおいて大きな性能を発揮する。
本稿では,既存のGNN解説者の多くが満足する統一フレームワークを提案する。
GNN用に特別に設計されたポストホックローカルモデル非依存説明法であるGraphSVXを紹介します。
論文 参考訳(メタデータ) (2021-04-18T10:40:37Z) - Learning to Drop: Robust Graph Neural Network via Topological Denoising [50.81722989898142]
グラフニューラルネットワーク(GNN)のロバスト性および一般化性能を向上させるために,パラメータ化トポロジカルデノイングネットワークであるPTDNetを提案する。
PTDNetは、パラメータ化されたネットワークでスパーシファイドグラフ内のエッジ数をペナル化することで、タスク非関連エッジを創出する。
PTDNetはGNNの性能を著しく向上させ,さらにノイズの多いデータセットでは性能が向上することを示す。
論文 参考訳(メタデータ) (2020-11-13T18:53:21Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。