論文の概要: BLISS: Bandit Layer Importance Sampling Strategy for Efficient Training of Graph Neural Networks
- arxiv url: http://arxiv.org/abs/2512.22388v1
- Date: Fri, 26 Dec 2025 21:25:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-30 22:37:30.025343
- Title: BLISS: Bandit Layer Importance Sampling Strategy for Efficient Training of Graph Neural Networks
- Title(参考訳): BLISS:グラフニューラルネットワークの効率的なトレーニングのための帯域層重要度サンプリング戦略
- Authors: Omar Alsaqa, Linh Thi Hoang, Muhammed Fatih Balin,
- Abstract要約: BLISSはBandit Layer Importance Smpling Strategyである。
ノードの重要性の進化に適応し、より情報のあるノードの選択とパフォーマンスの向上につながる。
実験の結果、BLISSはフルバッチトレーニングの正確さを維持したり、超えたりしている。
- 参考スコア(独自算出の注目度): 1.9594704501292777
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Graph Neural Networks (GNNs) are powerful tools for learning from graph-structured data, but their application to large graphs is hindered by computational costs. The need to process every neighbor for each node creates memory and computational bottlenecks. To address this, we introduce BLISS, a Bandit Layer Importance Sampling Strategy. It uses multi-armed bandits to dynamically select the most informative nodes at each layer, balancing exploration and exploitation to ensure comprehensive graph coverage. Unlike existing static sampling methods, BLISS adapts to evolving node importance, leading to more informed node selection and improved performance. It demonstrates versatility by integrating with both Graph Convolutional Networks (GCNs) and Graph Attention Networks (GATs), adapting its selection policy to their specific aggregation mechanisms. Experiments show that BLISS maintains or exceeds the accuracy of full-batch training.
- Abstract(参考訳): グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習するための強力なツールであるが、大きなグラフへの適用は計算コストによって妨げられている。
各ノードの隣人すべてを処理する必要があると、メモリと計算のボトルネックが発生する。
これを解決するために、Bandit Layer Importance Smpling StrategyであるBLISSを紹介します。
マルチアームのバンディットを使用して、各レイヤで最も情報性の高いノードを動的に選択し、探索とエクスプロイトのバランスを取り、包括的なグラフカバレッジを保証する。
既存の静的サンプリング方法とは異なり、BLISSはノードの重要性の進化に適応し、より情報のあるノードの選択と性能の向上につながる。
Graph Convolutional Networks (GCNs) と Graph Attention Networks (GATs) を統合し、その選択ポリシーをそれぞれのアグリゲーションメカニズムに適合させることで、汎用性を示す。
実験の結果、BLISSはフルバッチトレーニングの正確さを維持したり、超えたりしている。
関連論文リスト
- Graph Attention-based Adaptive Transfer Learning for Link Prediction [47.536705576580836]
GAATNet(Graph Attention Adaptive Transfer Network)を提案する。
事前トレーニングと微調整の利点を組み合わせて、さまざまなスケールのデータセットにまたがるグローバルノードの埋め込み情報をキャプチャする。
7つの公開データセットに関する総合的な実験は、GAATNetがLPタスクで最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2025-12-24T05:11:34Z) - GLANCE: Graph Logic Attention Network with Cluster Enhancement for Heterophilous Graph Representation Learning [47.674647127050186]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習する上で大きな成功を収めている。
本稿では,論理誘導推論,動的グラフ改善,適応クラスタリングを統合し,グラフ表現学習を強化する新しいフレームワークであるGLANCEを提案する。
論文 参考訳(メタデータ) (2025-07-24T15:45:26Z) - Revisiting Graph Neural Networks on Graph-level Tasks: Comprehensive Experiments, Analysis, and Improvements [54.006506479865344]
グラフレベルグラフニューラルネットワーク(GNN)のための統一評価フレームワークを提案する。
このフレームワークは、さまざまなデータセットにわたるGNNを評価するための標準化された設定を提供する。
また,表現性の向上と一般化機能を備えた新しいGNNモデルを提案する。
論文 参考訳(メタデータ) (2025-01-01T08:48:53Z) - Spectral Greedy Coresets for Graph Neural Networks [61.24300262316091]
ノード分類タスクにおける大規模グラフの利用は、グラフニューラルネットワーク(GNN)の現実的な応用を妨げる
本稿では,GNNのグラフコアセットについて検討し,スペクトル埋め込みに基づくエゴグラフの選択により相互依存の問題を回避する。
我々のスペクトルグレディグラフコアセット(SGGC)は、数百万のノードを持つグラフにスケールし、モデル事前学習の必要性を排除し、低ホモフィリーグラフに適用する。
論文 参考訳(メタデータ) (2024-05-27T17:52:12Z) - Self-Attention Empowered Graph Convolutional Network for Structure
Learning and Node Embedding [5.164875580197953]
グラフ構造化データの表現学習では、多くの人気のあるグラフニューラルネットワーク(GNN)が長距離依存をキャプチャできない。
本稿では,自己注意型グラフ畳み込みネットワーク(GCN-SA)と呼ばれる新しいグラフ学習フレームワークを提案する。
提案手法はノードレベルの表現学習において例外的な一般化能力を示す。
論文 参考訳(メタデータ) (2024-03-06T05:00:31Z) - Graph Mixture of Experts: Learning on Large-Scale Graphs with Explicit
Diversity Modeling [60.0185734837814]
グラフニューラルネットワーク(GNN)は、グラフデータからの学習に広く応用されている。
GNNの一般化能力を強化するため、グラフ強化のような技術を用いて、トレーニンググラフ構造を増強することが慣例となっている。
本研究では,GNNにMixture-of-Experts(MoE)の概念を導入する。
論文 参考訳(メタデータ) (2023-04-06T01:09:36Z) - A Robust Stacking Framework for Training Deep Graph Models with
Multifaceted Node Features [61.92791503017341]
数値ノード特徴とグラフ構造を入力とするグラフニューラルネットワーク(GNN)は,グラフデータを用いた各種教師付き学習タスクにおいて,優れた性能を示した。
IID(non-graph)データをGNNに簡単に組み込むことはできない。
本稿では、グラフ認識の伝播をIDデータに意図した任意のモデルで融合するロバストな積み重ねフレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-16T22:46:33Z) - ACE-HGNN: Adaptive Curvature Exploration Hyperbolic Graph Neural Network [72.16255675586089]
本稿では、入力グラフと下流タスクに基づいて最適な曲率を適応的に学習する適応曲率探索ハイパーボリックグラフニューラルネットワークACE-HGNNを提案する。
複数の実世界のグラフデータセットの実験は、競争性能と優れた一般化能力を備えたモデル品質において、顕著で一貫したパフォーマンス改善を示す。
論文 参考訳(メタデータ) (2021-10-15T07:18:57Z) - Improving Graph Neural Networks with Simple Architecture Design [7.057970273958933]
グラフニューラルネットワークの重要な設計戦略をいくつか紹介する。
簡便で浅いモデルである特徴選択グラフニューラルネットワーク(FSGNN)を紹介します。
提案手法は,他のGNNモデルよりも優れており,ノード分類タスクの精度が最大64%向上していることを示す。
論文 参考訳(メタデータ) (2021-05-17T06:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。