論文の概要: Toward Effective Digraph Representation Learning: A Magnetic Adaptive Propagation based Approach
- arxiv url: http://arxiv.org/abs/2501.11817v1
- Date: Tue, 21 Jan 2025 01:52:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-22 14:23:50.685290
- Title: Toward Effective Digraph Representation Learning: A Magnetic Adaptive Propagation based Approach
- Title(参考訳): 効果的なグラフ表現学習に向けて:磁気適応的伝播に基づくアプローチ
- Authors: Xunkai Li, Daohan Su, Zhengyu Wu, Guang Zeng, Hongchao Qin, Rong-Hua Li, Guoren Wang,
- Abstract要約: MagDGは複雑なWebスケールトポロジーをモデル化する上で優れた能力を示している。
既存のMagDGによって達成された大きな成功にもかかわらず、制限は依然として存在する。
MAPはプラグアンドプレイ複合ドメインの伝搬最適化戦略として設計され,MAP++は新たなグラフ学習フレームワークである。
- 参考スコア(独自算出の注目度): 25.480164922103352
- License:
- Abstract: The $q$-parameterized magnetic Laplacian serves as the foundation of directed graph (digraph) convolution, enabling this kind of digraph neural network (MagDG) to encode node features and structural insights by complex-domain message passing. As a generalization of undirected methods, MagDG shows superior capability in modeling intricate web-scale topology. Despite the great success achieved by existing MagDGs, limitations still exist: (1) Hand-crafted $q$: The performance of MagDGs depends on selecting an appropriate $q$-parameter to construct suitable graph propagation equations in the complex domain. This parameter tuning, driven by downstream tasks, limits model flexibility and significantly increases manual effort. (2) Coarse Message Passing: Most approaches treat all nodes with the same complex-domain propagation and aggregation rules, neglecting their unique digraph contexts. This oversight results in sub-optimal performance. To address the above issues, we propose two key techniques: (1) MAP is crafted to be a plug-and-play complex-domain propagation optimization strategy in the context of digraph learning, enabling seamless integration into any MagDG to improve predictions while enjoying high running efficiency. (2) MAP++ is a new digraph learning framework, further incorporating a learnable mechanism to achieve adaptively edge-wise propagation and node-wise aggregation in the complex domain for better performance. Extensive experiments on 12 datasets demonstrate that MAP enjoys flexibility for it can be incorporated with any MagDG, and scalability as it can deal with web-scale digraphs. MAP++ achieves SOTA predictive performance on 4 different downstream tasks.
- Abstract(参考訳): q$-parameterized magnetic Laplacianは、有向グラフ(グラフ)畳み込みの基礎として機能し、このようなダイグラフニューラルネットワーク(MagDG)によって、複雑なドメインメッセージパッシングによるノードの特徴と構造的洞察を符号化することができる。
非指向的手法の一般化として、MagDGは複雑なWebスケールトポロジーをモデル化する上で優れた能力を示す。
1) 手作り$q$: MagDGのパフォーマンスは、複素領域で適切なグラフの伝播方程式を構築するために適切な$q$-parameterを選択することに依存する。
このパラメータチューニングは、下流タスクによって駆動され、モデルの柔軟性が制限され、手作業が大幅に増加します。
2) 粗いメッセージパッシング: ほとんどのアプローチは、すべてのノードを同じ複雑なドメインの伝搬と集約のルールで扱い、独自のグラフコンテキストを無視します。
この監視は準最適性能をもたらす。
上記の課題に対処するため,(1)MAPは,グラフ学習の文脈において,プラグアンドプレイの複合ドメイン伝搬最適化戦略として設計されており,任意のMagDGへのシームレスな統合により,高い実行効率を享受しながら予測を改善することができる。
2)MAP++は新たなダイグラフ学習フレームワークであり,さらに複雑な領域において適応的にエッジワイドな伝搬とノードワイドな集約を実現し,パフォーマンスを向上させるための学習機構を取り入れている。
12のデータセットに対する大規模な実験は、MAPが任意のMagDGに組み込むための柔軟性と、Webスケールのダイグラフを扱うためのスケーラビリティを享受していることを示している。
MAP++は4つの下流タスクでSOTA予測性能を達成する。
関連論文リスト
- DA-MoE: Addressing Depth-Sensitivity in Graph-Level Analysis through Mixture of Experts [70.21017141742763]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを処理することで人気を集めている。
既存のメソッドは通常、固定数のGNNレイヤを使用して、すべてのグラフの表現を生成する。
本稿では,GNNに2つの改良を加えたDA-MoE法を提案する。
論文 参考訳(メタデータ) (2024-11-05T11:46:27Z) - DiRW: Path-Aware Digraph Learning for Heterophily [23.498557237805414]
グラフニューラルネットワーク(GNN)は、グラフ構造化データのための強力な表現学習ツールとして登場した。
我々は,プラグイン・アンド・プレイ戦略や革新的なニューラルアーキテクチャとみなすことができるDirected Random Walk (DiRW)を提案する。
DiRWには、歩行確率、長さ、および数の観点から最適化された方向対応パスサンプリング器が組み込まれている。
論文 参考訳(メタデータ) (2024-10-14T09:26:56Z) - Language Models are Graph Learners [70.14063765424012]
言語モデル(LM)は、グラフニューラルネットワーク(GNN)やグラフトランスフォーマー(GT)など、ドメイン固有のモデルの優位性に挑戦している。
本稿では,ノード分類タスクにおける最先端のGNNに匹敵する性能を実現するために,既製のLMを有効活用する手法を提案する。
論文 参考訳(メタデータ) (2024-10-03T08:27:54Z) - Amplify Graph Learning for Recommendation via Sparsity Completion [16.32861024767423]
グラフ学習モデルは、協調フィルタリング(CF)ベースのレコメンデーションシステムに広くデプロイされている。
データ疎度の問題により、元の入力のグラフ構造は潜在的な肯定的な嗜好エッジを欠いている。
AGL-SC(Amplify Graph Learning framework)を提案する。
論文 参考訳(メタデータ) (2024-06-27T08:26:20Z) - A Pure Transformer Pretraining Framework on Text-attributed Graphs [50.833130854272774]
グラフ構造を先行として扱うことで,特徴中心の事前学習の視点を導入する。
我々のフレームワークであるGraph Sequence Pretraining with Transformer (GSPT)はランダムウォークを通してノードコンテキストをサンプリングする。
GSPTはノード分類とリンク予測の両方に容易に適応でき、様々なデータセットで有望な経験的成功を示す。
論文 参考訳(メタデータ) (2024-06-19T22:30:08Z) - Efficient Topology-aware Data Augmentation for High-Degree Graph Neural Networks [2.7523980737007414]
高次グラフ(HDG)上のグラフニューラルネットワーク(GNN)のための効率的かつ効果的なフロントマウントデータ拡張フレームワークであるTADを提案する。
内部では、(i)構造埋め込みによる機能拡張と(ii)トポロジと属性対応グラフのスパース化という、2つの重要なモジュールが含まれている。
TADAは、ノード分類の観点から8つの実ホモ親和性/ヘテロ親和性HDG上でのメインストリームGNNモデルの予測性能を大幅に改善する。
論文 参考訳(メタデータ) (2024-06-08T14:14:19Z) - Rethinking Node-wise Propagation for Large-scale Graph Learning [42.29535580297932]
textbfAdaptive textbfTopology-aware textbfPropagation (ATP)
ATPは潜在的な高バイアス伝播を低減し、各ノードの構造パターンをスケーラブルに抽出し、実行効率と予測性能を改善する。
ATPは、半教師付きノード分類のための広範でスケーラブルなGNNの性能を改善するのに効率的であることが証明されている。
論文 参考訳(メタデータ) (2024-02-09T01:19:47Z) - Node Feature Extraction by Self-Supervised Multi-scale Neighborhood
Prediction [123.20238648121445]
我々は、新しい自己教師型学習フレームワーク、グラフ情報支援ノード機能exTraction (GIANT)を提案する。
GIANT は eXtreme Multi-label Classification (XMC) 形式を利用しており、これはグラフ情報に基づいた言語モデルの微調整に不可欠である。
我々は,Open Graph Benchmarkデータセット上での標準GNNパイプラインよりもGIANTの方が優れた性能を示す。
論文 参考訳(メタデータ) (2021-10-29T19:55:12Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Robust Optimization as Data Augmentation for Large-scale Graphs [117.2376815614148]
学習中に勾配に基づく逆方向摂動を伴うノード特徴を反復的に拡張するFLAG(Free Large-scale Adversarial Augmentation on Graphs)を提案する。
FLAGはグラフデータに対する汎用的なアプローチであり、ノード分類、リンク予測、グラフ分類タスクで普遍的に機能する。
論文 参考訳(メタデータ) (2020-10-19T21:51:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。