論文の概要: COMBA: Cross Batch Aggregation for Learning Large Graphs with Context Gating State Space Models
- arxiv url: http://arxiv.org/abs/2602.17893v1
- Date: Thu, 19 Feb 2026 23:14:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-23 18:01:41.17777
- Title: COMBA: Cross Batch Aggregation for Learning Large Graphs with Context Gating State Space Models
- Title(参考訳): COMBA: コンテキストゲーティング状態空間モデルによる大規模グラフ学習のためのクロスバッチアグリゲーション
- Authors: Jiajun Shen, Yufei Jin, Yi He, xingquan Zhu,
- Abstract要約: 状態空間モデルを用いた大規模グラフ学習のためのCOMBAを提案する。
2つの重要なイノベーションは、グラフコンテキストゲーティングとクロスバッチアグリゲーションである。
ベンチマークネットワークの実験は、ベースラインアプローチと比較して大きなパフォーマンス向上を示した。
- 参考スコア(独自算出の注目度): 19.591073105733567
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: State space models (SSMs) have recently emerged for modeling long-range dependency in sequence data, with much simplified computational costs than modern alternatives, such as transformers. Advancing SMMs to graph structured data, especially for large graphs, is a significant challenge because SSMs are sequence models and the shear graph volumes make it very expensive to convert graphs as sequences for effective learning. In this paper, we propose COMBA to tackle large graph learning using state space models, with two key innovations: graph context gating and cross batch aggregation. Graph context refers to different hops of neighborhood for each node, and graph context gating allows COMBA to use such context to learn best control of neighbor aggregation. For each graph context, COMBA samples nodes as batches, and train a graph neural network (GNN), with information being aggregated cross batches, allowing COMBA to scale to large graphs. Our theoretical study asserts that cross-batch aggregation guarantees lower error than training GNN without aggregation. Experiments on benchmark networks demonstrate significant performance gains compared to baseline approaches. Code and benchmark datasets will be released for public access.
- Abstract(参考訳): 状態空間モデル(SSM)は、最近、シーケンシャルデータにおける長距離依存性をモデル化するために出現し、トランスフォーマーのような現代の代替品よりも計算コストが大幅に単純化された。
グラフ構造データへのSMMの適応、特に大きなグラフの場合、SSMはシーケンスモデルであり、せん断グラフボリュームはグラフを効果的な学習のためのシーケンスとして変換するのに非常にコストがかかるため、大きな課題である。
本稿では,グラフコンテキストゲーティングとクロスバッチアグリゲーションという,状態空間モデルを用いた大規模グラフ学習を実現するためのCOMBAを提案する。
グラフコンテキスト(Graph context)は各ノードの近傍の異なるホップを指し、グラフコンテキストゲーティング(Graph context gating)はCOMBAがそのようなコンテキストを使用して、近隣の集約の最良の制御を学習することを可能にする。
それぞれのグラフコンテキストに対して、COMBAはノードをバッチとしてサンプリングし、グラフニューラルネットワーク(GNN)をトレーニングする。
我々の理論的研究は、クロスバッチアグリゲーションは、アグリゲーションなしでGNNを訓練するよりも低いエラーを保証していると主張している。
ベンチマークネットワークの実験は、ベースラインアプローチと比較して大きなパフォーマンス向上を示した。
コードとベンチマークデータセットはパブリックアクセス用にリリースされる。
関連論文リスト
- Semi-supervised Instruction Tuning for Large Language Models on Text-Attributed Graphs [62.544129365882014]
本稿では,SIT-Graph というグラフ学習用セミ教師付きインストラクションチューニングパイプラインを提案する。
SIT-Graphはモデルに依存しず、LSMを予測子として利用するグラフ命令チューニングメソッドにシームレスに統合することができる。
SIT-Graphは、最先端グラフチューニング手法に組み込むと、テキスト分散グラフベンチマークの性能を大幅に向上することを示した。
論文 参考訳(メタデータ) (2026-01-19T08:10:53Z) - Bi-View Embedding Fusion: A Hybrid Learning Approach for Knowledge Graph's Nodes Classification Addressing Problems with Limited Data [1.0308647202215706]
Bi-Viewは、ナレッジグラフのノード機能の情報的内容を増加させる、新しいハイブリッドアプローチである。
このアプローチは、特に初期機能に乏しいシナリオにおいて、ダウンストリームタスクのパフォーマンスを改善します。
論文 参考訳(メタデータ) (2025-11-17T06:45:14Z) - GILT: An LLM-Free, Tuning-Free Graph Foundational Model for In-Context Learning [50.40400074353263]
グラフニューラルネットワーク(GNN)は、リレーショナルデータを先行する強力なツールであるが、しばしば目に見えないグラフに一般化するのに苦労する。
textbfGraph textbfIn-context textbfL textbfTransformer (GILT)を導入する。
論文 参考訳(メタデータ) (2025-10-06T08:09:15Z) - Deep Learning for School Dropout Detection: A Comparison of Tabular and Graph-Based Models for Predicting At-Risk Students [0.2029906424353094]
学生の退学は、世界中の教育システムにおいて重要な課題である。
グラフニューラルネットワーク(GNN)は、グラフとして構造化された場合、学生データに固有の複雑な関係をキャプチャすることで潜在的な利点を提供する。
論文 参考訳(メタデータ) (2025-08-09T01:19:32Z) - Scalable Graph Generative Modeling via Substructure Sequences [50.32639806800683]
本稿では,グラフ生成用トランスフォーマー事前学習フレームワークである生成グラフパターンマシン(G$2$PM)を紹介する。
G$2$PMはグラフインスタンス(ノード、エッジ、グラフ全体)をサブ構造のシーケンスとして表現する。
それは、一般化可能かつ伝達可能な表現を学ぶために、シーケンスに関する生成的事前学習を採用する。
論文 参考訳(メタデータ) (2025-05-22T02:16:34Z) - Beyond Message Passing: Neural Graph Pattern Machine [50.78679002846741]
本稿では,グラフサブストラクチャから直接学習することで,メッセージパッシングをバイパスする新しいフレームワークであるNeural Graph Pattern Machine(GPM)を紹介する。
GPMはタスク関連グラフパターンを効率的に抽出し、エンコードし、優先順位付けする。
論文 参考訳(メタデータ) (2025-01-30T20:37:47Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - What Can We Learn from State Space Models for Machine Learning on Graphs? [11.38076877943004]
グラフ構造化データに対する状態空間モデル(SSM)の原則拡張として,グラフ状態空間畳み込み(GSSC)を提案する。
グローバルな置換同変集合アグリゲーションと分解可能なグラフカーネルを活用することにより、GSSCはSSMの3つの利点を全て保持する。
グラフ機械学習のパワフルでスケーラブルなモデルとしてのGSSCの可能性を明らかにする。
論文 参考訳(メタデータ) (2024-06-09T15:03:36Z) - GraphEdit: Large Language Models for Graph Structure Learning [14.16155596597421]
グラフ構造学習(GSL)は、グラフ構造データ中のノード間の固有の依存関係と相互作用をキャプチャすることに焦点を当てている。
既存のGSL法は、監督信号として明示的なグラフ構造情報に大きく依存している。
グラフ構造化データの複雑なノード関係を学習するために,大規模言語モデル(LLM)を利用したグラフ編集を提案する。
論文 参考訳(メタデータ) (2024-02-23T08:29:42Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - Scalable Graph Neural Networks for Heterogeneous Graphs [12.44278942365518]
グラフニューラルネットワーク(GNN)は、グラフ構造化データを学習するためのパラメトリックモデルの一般的なクラスである。
最近の研究は、GNNが主に機能をスムースにするためにグラフを使用しており、ベンチマークタスクで競合する結果を示していると主張している。
本研究では、これらの結果が異種グラフに拡張可能かどうかを問うとともに、異なるエンティティ間の複数のタイプの関係を符号化する。
論文 参考訳(メタデータ) (2020-11-19T06:03:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。