論文の概要: Explicit Feature Interaction-aware Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2204.03225v1
- Date: Thu, 7 Apr 2022 05:30:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-09 04:22:15.480935
- Title: Explicit Feature Interaction-aware Graph Neural Networks
- Title(参考訳): 明示的特徴相互作用を考慮したグラフニューラルネットワーク
- Authors: Minkyu Kim, Hyun-Soo Choi, Jinho Kim
- Abstract要約: 既存のグラフニューラルネットワークは、高次特徴相互作用を暗黙的に学習するのみである。
EFI-GNN(Explicit Feature Interaction-Aware Graph Neural Network)を提案する。
EFI-GNNは、他のグラフニューラルネットワークと共同で学習することができる。
- 参考スコア(独自算出の注目度): 2.127049691404299
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph neural networks are powerful methods to handle graph-structured data.
However, existing graph neural networks only learn higher-order feature
interactions implicitly. Thus, they cannot capture information that occurred in
low-order feature interactions. To overcome this problem, we propose Explicit
Feature Interaction-aware Graph Neural Network (EFI-GNN), which explicitly
learns arbitrary-order feature interactions. EFI-GNN can jointly learn with any
other graph neural network. We demonstrate that the joint learning method
always enhances performance on the various node classification tasks.
Furthermore, since EFI-GNN is inherently a linear model, we can interpret the
prediction result of EFI-GNN. With the computation rule, we can obtain an
any-order feature's effect on the decision. By that, we visualize the effects
of the first-order and second-order features as a form of a heatmap.
- Abstract(参考訳): グラフニューラルネットワークは、グラフ構造化データを処理する強力な方法である。
しかし、既存のグラフニューラルネットワークは、高次特徴相互作用を暗黙的に学習するのみである。
したがって、低次特徴相互作用で発生した情報をキャプチャすることができない。
この問題を解決するために,任意順序の特徴相互作用を明示的に学習する明示的特徴相互作用対応グラフニューラルネットワーク(EFI-GNN)を提案する。
EFI-GNNは、他のグラフニューラルネットワークと共同で学習することができる。
共同学習手法は,様々なノード分類タスクの性能を常に向上させることを示した。
さらに、EFI-GNNは本質的に線形モデルであるため、EFI-GNNの予測結果を解釈することができる。
計算規則により、決定に対する任意の順序特徴の影響を得ることができる。
これにより、一階および二階の機能の効果をヒートマップとして可視化する。
関連論文リスト
- Graph Neural Networks Provably Benefit from Structural Information: A
Feature Learning Perspective [53.999128831324576]
グラフニューラルネットワーク(GNN)は、グラフ表現学習の先駆けとなった。
本研究では,特徴学習理論の文脈におけるグラフ畳み込みの役割について検討する。
論文 参考訳(メタデータ) (2023-06-24T10:21:11Z) - Automatic Relation-aware Graph Network Proliferation [182.30735195376792]
GNNを効率的に検索するためのARGNP(Automatic Relation-Aware Graph Network Proliferation)を提案する。
これらの操作は階層的なノード/リレーショナル情報を抽出し、グラフ上のメッセージパッシングのための異方的ガイダンスを提供する。
4つのグラフ学習タスクのための6つのデータセットの実験により、我々の手法によって生成されたGNNは、現在最先端の手作りおよび検索に基づくGNNよりも優れていることが示された。
論文 参考訳(メタデータ) (2022-05-31T10:38:04Z) - Learning Graph Structure from Convolutional Mixtures [119.45320143101381]
本稿では、観測されたグラフと潜伏グラフのグラフ畳み込み関係を提案し、グラフ学習タスクをネットワーク逆(デコンボリューション)問題として定式化する。
固有分解に基づくスペクトル法の代わりに、近似勾配反復をアンロール・トランケートして、グラフデコンボリューションネットワーク(GDN)と呼ばれるパラメータ化ニューラルネットワークアーキテクチャに到達させる。
GDNは、教師付き方式でグラフの分布を学習し、損失関数を適応させることでリンク予測やエッジウェイト回帰タスクを実行し、本質的に帰納的である。
論文 参考訳(メタデータ) (2022-05-19T14:08:15Z) - Discovering the Representation Bottleneck of Graph Neural Networks from
Multi-order Interactions [51.597480162777074]
グラフニューラルネットワーク(GNN)は、ノード機能を伝搬し、インタラクションを構築するためにメッセージパッシングパラダイムに依存している。
最近の研究は、異なるグラフ学習タスクはノード間の異なる範囲の相互作用を必要とすることを指摘している。
科学領域における2つの共通グラフ構築法、すなわち、emphK-nearest neighbor(KNN)グラフとemphfully-connected(FC)グラフについて検討する。
論文 参考訳(メタデータ) (2022-05-15T11:38:14Z) - Spiking Graph Convolutional Networks [19.36064180392385]
SpikingGCNは、GCNの埋め込みとSNNの生体忠実性特性を統合することを目的としたエンドツーエンドフレームワークである。
ニューロモルフィックチップ上でのスパイキングGCNは、グラフデータ解析にエネルギー効率の明確な利点をもたらすことを示す。
論文 参考訳(メタデータ) (2022-05-05T16:44:36Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z) - CopulaGNN: Towards Integrating Representational and Correlational Roles
of Graphs in Graph Neural Networks [23.115288017590093]
グラフニューラルネットワーク(GNN)モデルが両タイプの情報を効果的に活用する方法について検討する。
提案したCopula Graph Neural Network (CopulaGNN)は、幅広いGNNモデルをベースモデルとして扱うことができる。
論文 参考訳(メタデータ) (2020-10-05T15:20:04Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z) - How hard is to distinguish graphs with graph neural networks? [32.09819774228997]
本研究では,メッセージパッシングモデル(MPNN)におけるグラフアイソモーフィズムの分類変種に対する硬度結果の導出を行う。
MPNNは、今日のグラフニューラルネットワークの大部分を包含しており、ノードにユニークな特徴が与えられた場合、普遍的である。
12のグラフ分類タスクと420のネットワークを含む実証的研究は、実際の性能と理論的予測の間に強い整合性を示す。
論文 参考訳(メタデータ) (2020-05-13T22:28:46Z) - Graphs, Convolutions, and Neural Networks: From Graph Filters to Graph
Neural Networks [183.97265247061847]
我々はグラフ信号処理を活用してグラフニューラルネットワーク(GNN)の表現空間を特徴付ける。
GNNにおけるグラフ畳み込みフィルタの役割について議論し、そのようなフィルタで構築されたアーキテクチャは、置換同値の基本的な性質と位相変化に対する安定性を持つことを示す。
また,ロボット群に対するリコメンデータシステムや分散型コントローラの学習におけるGNNの利用について検討した。
論文 参考訳(メタデータ) (2020-03-08T13:02:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。