論文の概要: Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2508.19884v1
- Date: Wed, 27 Aug 2025 13:42:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-28 19:07:41.649725
- Title: Parameter-Free Structural-Diversity Message Passing for Graph Neural Networks
- Title(参考訳): グラフニューラルネットワークのためのパラメータフリーな構造多様性メッセージパッシング
- Authors: Mingyue Kong, Yinglong Zhang, Chengda Xu, Xuewen Xia, Xing Xu,
- Abstract要約: グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
本稿では,構造的多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは構造多様性理論にインスパイアされ、統一された構造多様性メッセージパッシング機構を設計する。
- 参考スコア(独自算出の注目度): 8.462209415744098
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Graph Neural Networks (GNNs) have shown remarkable performance in structured data modeling tasks such as node classification. However, mainstream approaches generally rely on a large number of trainable parameters and fixed aggregation rules, making it difficult to adapt to graph data with strong structural heterogeneity and complex feature distributions. This often leads to over-smoothing of node representations and semantic degradation. To address these issues, this paper proposes a parameter-free graph neural network framework based on structural diversity, namely SDGNN (Structural-Diversity Graph Neural Network). The framework is inspired by structural diversity theory and designs a unified structural-diversity message passing mechanism that simultaneously captures the heterogeneity of neighborhood structures and the stability of feature semantics, without introducing additional trainable parameters. Unlike traditional parameterized methods, SDGNN does not rely on complex model training, but instead leverages complementary modeling from both structure-driven and feature-driven perspectives, thereby effectively improving adaptability across datasets and scenarios. Experimental results show that on eight public benchmark datasets and an interdisciplinary PubMed citation network, SDGNN consistently outperforms mainstream GNNs under challenging conditions such as low supervision, class imbalance, and cross-domain transfer. This work provides a new theoretical perspective and general approach for the design of parameter-free graph neural networks, and further validates the importance of structural diversity as a core signal in graph representation learning. To facilitate reproducibility and further research, the full implementation of SDGNN has been released at: https://github.com/mingyue15694/SGDNN/tree/main
- Abstract(参考訳): グラフニューラルネットワーク(GNN)はノード分類などの構造化データモデリングタスクにおいて顕著な性能を示した。
しかし、主流のアプローチは一般に多数のトレーニング可能なパラメータと固定集約ルールに依存しており、強い構造的不均一性と複雑な特徴分布を持つグラフデータに適応することは困難である。
これはしばしばノード表現の過度な平滑化と意味劣化につながる。
これらの課題に対処するために,SDGNN(Structural-Diversity Graph Neural Network)という構造多様性に基づくパラメータフリーグラフニューラルネットワークフレームワークを提案する。
このフレームワークは、構造的多様性理論に着想を得て、訓練可能なパラメータを導入することなく、近隣構造の不均一性と特徴的セマンティクスの安定性を同時にキャプチャする、統一的な構造的多様性メッセージパッシング機構を設計する。
従来のパラメータ化手法とは異なり、SDGNNは複雑なモデルトレーニングに頼るのではなく、構造駆動と特徴駆動の両方の観点から補完的なモデリングを活用し、データセットやシナリオ間の適応性を効果的に改善する。
実験結果によると、8つの公開ベンチマークデータセットと学際的なPubMed引用ネットワークにおいて、SDGNNは、低監督、クラス不均衡、ドメイン間転送といった困難な条件下で、メインストリームのGNNよりも一貫して優れていた。
この研究は、パラメータフリーグラフニューラルネットワークの設計のための新しい理論的視点と一般的なアプローチを提供し、グラフ表現学習におけるコア信号としての構造的多様性の重要性をさらに検証する。
再現性とさらなる研究を容易にするため、SDGNNの完全な実装はhttps://github.com/mingyue15694/SGDNN/tree/mainでリリースされた。
関連論文リスト
- COMBINEX: A Unified Counterfactual Explainer for Graph Neural Networks via Node Feature and Structural Perturbations [6.894071825948456]
我々は,ノード分類タスクとグラフ分類タスクの両方に対して,対実的な説明を生成する新しいGNN説明器であるCOMBINEXを提案する。
構造的および特徴に基づく変更を独立に扱う従来の方法とは異なり、COMBINEXはエッジとノードの特徴への修正を最適にバランスする。
この統一されたアプローチは、モデルの予測を反転させるために必要な最小限かつ効果的な変更を保証し、現実的で解釈可能な反事実をもたらす。
論文 参考訳(メタデータ) (2025-02-14T12:17:24Z) - Matcha: Mitigating Graph Structure Shifts with Test-Time Adaptation [66.40525136929398]
テスト時間適応(TTA)は、ソースドメインに再アクセスすることなく、トレーニング済みのモデルをターゲットドメインに適応できる能力によって注目を集めている。
グラフの構造シフトへの効果的かつ効率的な適応を目的とした,革新的なフレームワークであるMatchaを提案する。
合成と実世界の両方のデータセットに対するMatchaの有効性を検証し、構造と属性シフトの様々な組み合わせにおける頑健さを実証した。
論文 参考訳(メタデータ) (2024-10-09T15:15:40Z) - Learning to Model Graph Structural Information on MLPs via Graph Structure Self-Contrasting [50.181824673039436]
本稿では,グラフ構造情報をメッセージパッシングなしで学習するグラフ構造自己コントラスト(GSSC)フレームワークを提案する。
提案するフレームワークは,構造情報を事前知識として暗黙的にのみ組み込む,MLP(Multi-Layer Perceptrons)に基づいている。
これはまず、近傍の潜在的非形式的あるいはノイズの多いエッジを取り除くために構造的スペーシングを適用し、その後、スペーシングされた近傍で構造的自己コントラストを行い、ロバストなノード表現を学ぶ。
論文 参考訳(メタデータ) (2024-09-09T12:56:02Z) - Learning Invariant Representations of Graph Neural Networks via Cluster
Generalization [58.68231635082891]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのモデリングでますます人気が高まっている。
本稿では,構造変化が発生した場合,GNNの性能が著しく低下することが実験的に確認された。
本稿では,GNNの不変表現を学習するクラスタ情報伝達(CIT)機構を提案する。
論文 参考訳(メタデータ) (2024-03-06T10:36:56Z) - Interpretable A-posteriori Error Indication for Graph Neural Network Surrogate Models [0.0]
本稿では,グラフニューラルネットワーク(GNN)の解釈可能性向上手法を提案する。
最終結果は、予測タスクに本質的に関連付けられたサブグラフに対応する物理空間内の領域を分離する解釈可能なGNNモデルである。
解釈可能なGNNは、推論中に予測される予測エラーの大部分に対応するグラフノードを特定するためにも使用できる。
論文 参考訳(メタデータ) (2023-11-13T18:37:07Z) - Semantic Graph Neural Network with Multi-measure Learning for
Semi-supervised Classification [5.000404730573809]
近年,グラフニューラルネットワーク(GNN)が注目されている。
近年の研究では、GNNはグラフの複雑な基盤構造に弱いことが示されている。
半教師付き分類のための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-04T06:17:11Z) - ASGNN: Graph Neural Networks with Adaptive Structure [41.83813812538167]
本稿では,アダプティブ構造(ASMP)を用いた新しい解釈可能なメッセージパッシング方式を提案する。
ASMPは、異なるレイヤにおけるメッセージパッシングプロセスが動的に調整されたグラフ上で実行可能であるという意味で適応的である。
論文 参考訳(メタデータ) (2022-10-03T15:10:40Z) - Relation Embedding based Graph Neural Networks for Handling
Heterogeneous Graph [58.99478502486377]
我々は、同種GNNが不均一グラフを扱うのに十分な能力を持つように、シンプルで効率的なフレームワークを提案する。
具体的には、エッジ型関係と自己ループ接続の重要性を埋め込むために、関係1つのパラメータのみを使用する関係埋め込みベースのグラフニューラルネットワーク(RE-GNN)を提案する。
論文 参考訳(メタデータ) (2022-09-23T05:24:18Z) - Simple and Efficient Heterogeneous Graph Neural Network [55.56564522532328]
不均一グラフニューラルネットワーク(HGNN)は、不均一グラフの豊富な構造的および意味的な情報をノード表現に埋め込む強力な能力を持つ。
既存のHGNNは、同種グラフ上のグラフニューラルネットワーク(GNN)から多くのメカニズム、特に注意機構と多層構造を継承する。
本稿では,これらのメカニズムを詳細に検討し,簡便かつ効率的なヘテロジニアスグラフニューラルネットワーク(SeHGNN)を提案する。
論文 参考訳(メタデータ) (2022-07-06T10:01:46Z) - A Unified View on Graph Neural Networks as Graph Signal Denoising [49.980783124401555]
グラフニューラルネットワーク(GNN)は,グラフ構造化データの学習表現において顕著に普及している。
本研究では,代表的GNNモデル群における集約過程を,グラフ記述問題の解法とみなすことができることを数学的に確立する。
UGNNから派生した新しいGNNモデルADA-UGNNをインスタンス化し、ノード間の適応的滑らかさでグラフを処理する。
論文 参考訳(メタデータ) (2020-10-05T04:57:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。