論文の概要: Edge-Splitting MLP: Node Classification on Homophilic and Heterophilic Graphs without Message Passing
- arxiv url: http://arxiv.org/abs/2412.08310v1
- Date: Wed, 11 Dec 2024 11:44:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:04:01.200277
- Title: Edge-Splitting MLP: Node Classification on Homophilic and Heterophilic Graphs without Message Passing
- Title(参考訳): エッジ分割型MLP:メッセージパッシングを伴わないホモフィルグラフとヘテロフィルグラフのノード分類
- Authors: Matthias Kohn, Marcel Hoffmann, Ansgar Scherp,
- Abstract要約: ES-MLPは、推論中にエッジを使わずに、すべてのデータセット上のホモ親和性およびヘテロ親和性モデルと同等であることを示す。
ES-MLPは、推論中に複数の種類のエッジノイズに対して堅牢であり、その推定時間は、一般的に使用されるMPNNの2倍から5倍高速である。
- 参考スコア(独自算出の注目度): 3.0177210416625115
- License:
- Abstract: Message Passing Neural Networks (MPNNs) have demonstrated remarkable success in node classification on homophilic graphs. It has been shown that they do not solely rely on homophily but on neighborhood distributions of nodes, i.e., consistency of the neighborhood label distribution within the same class. MLP-based models do not use message passing, \eg Graph-MLP incorporates the neighborhood in a separate loss function. These models are faster and more robust to edge noise. Graph-MLP maps adjacent nodes closer in the embedding space but is unaware of the neighborhood pattern of the labels, i.e., relies solely on homophily. Edge Splitting GNN (ES-GNN) is a model specialized for heterophilic graphs and splits the edges into task-relevant and task-irrelevant, respectively. To mitigate the limitations of Graph-MLP on heterophilic graphs, we propose ES-MLP that combines Graph-MLP with an edge-splitting mechanism from ES-GNN. It incorporates the edge splitting into the loss of Graph-MLP to learn two separate adjacency matrices based on relevant and irrelevant feature pairs. Our experiments on seven datasets with six baselines show that ES-MLP is on par with homophilic and heterophilic models on all datasets without using edges during inference. We show that ES-MLP is robust to multiple types of edge noise during inference and that its inference time is two to five times faster than that of commonly used MPNNs. The source code is available at https://github.com/MatthiasKohn/ES-MLP.
- Abstract(参考訳): メッセージパッシングニューラルネットワーク(MPNN)は、ホモ親和性グラフ上のノード分類において顕著な成功を収めている。
それらはホモフィリーにのみ依存するのではなく、ノードの近傍分布、すなわち同じクラス内の近傍ラベル分布の整合性に依存することが示されている。
MLPベースのモデルはメッセージパッシングを使用しないが、 \eg Graph-MLP はこの地区を別の損失関数に組み込んでいる。
これらのモデルは、エッジノイズに対してより速く、より堅牢である。
グラフ-MLPは隣接ノードを埋め込み空間に近くマッピングするが、ラベルの近傍パターン、すなわちホモフィリーのみに依存することには気づかない。
Edge Splitting GNN (ES-GNN) は異種グラフに特化したモデルであり、エッジをそれぞれタスク関連とタスク関連に分割する。
異種グラフ上のグラフMLPの限界を軽減するため,グラフMLPとES-GNNのエッジ分割機構を組み合わせたES-MLPを提案する。
エッジをGraph-MLPの損失に分割することで、関連する機能ペアと無関係な機能ペアに基づいて、2つの別々の隣接行列を学習する。
6つのベースラインを持つ7つのデータセットに対する実験により、ES-MLPは、推論中にエッジを使わずに、すべてのデータセット上のホモ親和性およびヘテロ親和性モデルと同等であることが示された。
ES-MLPは,複数種類のエッジノイズに対して頑健であり,その推定時間はMPNNの2倍から5倍高速であることを示す。
ソースコードはhttps://github.com/MatthiasKohn/ES-MLP.comで入手できる。
関連論文リスト
- KAGNNs: Kolmogorov-Arnold Networks meet Graph Learning [27.638009679134523]
グラフニューラルネットワーク(GNN)は,ノードとグラフ表現を学習するためのデファクトツールとなっている。
本研究では,KAN(Kolmogorov-Arnold Networks)とグラフ学習タスクの定理の性能を比較した。
論文 参考訳(メタデータ) (2024-06-26T14:21:21Z) - Graph Neural Machine: A New Model for Learning with Tabular Data [25.339493426758903]
グラフニューラルネットワーク(GNN)は最近、グラフ上で機械学習タスクを実行するための標準ツールになっている。
本稿では,表現が非同期メッセージパッシングGNNモデルと等価であることを示す。
次に、データのための新しい機械学習モデル、いわゆるグラフニューラルネットワーク(GNM)を提案する。
論文 参考訳(メタデータ) (2024-02-05T10:22:15Z) - VQGraph: Rethinking Graph Representation Space for Bridging GNNs and
MLPs [97.63412451659826]
VQGraphは、各ノードのローカルサブストラクチャを離散コードとしてエンコードできるグラフデータ上の構造認識トークン化器を学習する。
VQGraphは、GNN-to-MLP蒸留におけるトランスダクティブおよびインダクティブの両方で、新しい最先端性能を実現する。
論文 参考訳(メタデータ) (2023-08-04T02:58:08Z) - Edge-free but Structure-aware: Prototype-Guided Knowledge Distillation from GNNs to MLPs [39.78378636099604]
グラフエッジ(エッジフリー設定)を必要としないが構造認識を学習するプロトタイプガイド型知識蒸留(PGKD)を提案する。
具体的には、まず、グラフニューラルネットワーク(GNN)におけるグラフ構造の影響を分析するために、クラスプロトタイプを使用します。
次に、そのような情報をGNNからベンチマークに抽出するために2つの損失を設計する。
論文 参考訳(メタデータ) (2023-03-24T02:28:55Z) - Bring Your Own View: Graph Neural Networks for Link Prediction with
Personalized Subgraph Selection [57.34881616131377]
異なるエッジに対して最適なサブグラフを自動,個人的,帰納的に識別するプラグイン・アンド・プレイ・フレームワークとしてパーソナライズされたサブグラフセレクタ(PS2)を導入する。
PS2は二段階最適化問題としてインスタンス化され、効率よく解ける。
GNNLPトレーニングに対する新たなアプローチとして,まずエッジの最適な部分グラフを識別し,次にサンプル部分グラフを用いて推論モデルをトレーニングすることを提案する。
論文 参考訳(メタデータ) (2022-12-23T17:30:19Z) - MLPInit: Embarrassingly Simple GNN Training Acceleration with MLP
Initialization [51.76758674012744]
大きなグラフ上でグラフニューラルネットワーク(GNN)をトレーニングするのは複雑で、非常に時間がかかる。
我々は、PeerInitと呼ばれるGNNトレーニングアクセラレーションに対して、恥ずかしく単純だが非常に効果的な方法を提案する。
論文 参考訳(メタデータ) (2022-09-30T21:33:51Z) - GraphMLP: A Graph MLP-Like Architecture for 3D Human Pose Estimation [68.65764751482774]
GraphMLPは3次元ポーズ推定のためのグローバル-ローカル-グラフィック統合アーキテクチャである。
人体のグラフ構造をモデルに組み込んで、3D人間のポーズのドメイン固有の要求を満たす。
複雑な時間力学を単純な方法でモデル化するために拡張することができ、列長の計算コストは無視できる。
論文 参考訳(メタデータ) (2022-06-13T18:59:31Z) - Exploiting Neighbor Effect: Conv-Agnostic GNNs Framework for Graphs with
Heterophily [58.76759997223951]
我々はフォン・ノイマンエントロピーに基づく新しい計量を提案し、GNNのヘテロフィリー問題を再検討する。
また、異種データセット上でのほとんどのGNNの性能を高めるために、Conv-Agnostic GNNフレームワーク(CAGNN)を提案する。
論文 参考訳(メタデータ) (2022-03-19T14:26:43Z) - Graph-MLP: Node Classification without Message Passing in Graph [28.604893350871777]
グラフニューラルネットワーク(GNN)は、非ユークリッド構造データを扱う上での有効性を実証している。
最近の研究は主に強力なメッセージパッシングモジュールに焦点を当てているが、この記事では、メッセージパッシングモジュールは必要ないことを示す。
本稿では,グラフ構造を利用した教師信号を用いた,純粋な多層パーセプトロンベースのGraph-MLPを提案する。
論文 参考訳(メタデータ) (2021-06-08T02:07:21Z) - On Graph Neural Networks versus Graph-Augmented MLPs [51.23890789522705]
Graph-Augmented Multi-Layer Perceptrons (GA-MLPs)は、まずグラフ上の特定のマルチホップ演算子でノード機能を拡張する。
我々は,GA-MLPとGNNの表現力の分離を証明し,指数関数的に成長することを示す。
論文 参考訳(メタデータ) (2020-10-28T17:59:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。