論文の概要: A Distributed Training Architecture For Combinatorial Optimization
- arxiv url: http://arxiv.org/abs/2511.09261v1
- Date: Thu, 13 Nov 2025 01:43:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.488446
- Title: A Distributed Training Architecture For Combinatorial Optimization
- Title(参考訳): 組合せ最適化のための分散トレーニングアーキテクチャ
- Authors: Yuyao Long,
- Abstract要約: 最適化のための分散グラフニューラルネットワーク(GNN)に基づくトレーニングフレームワークを提案する。
実大規模ソーシャルネットワークデータセットと合成された高複雑性グラフの両方で実験を行った。
我々のフレームワークは、ソリューションの品質と計算効率の両方において最先端のアプローチより優れています。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, graph neural networks (GNNs) have been widely applied in tackling combinatorial optimization problems. However, existing methods still suffer from limited accuracy when addressing that on complex graphs and exhibit poor scalability, since full training requires loading the whole adjacent matrix and all embeddings at a time, the it may results in out of memory of a single machine. This limitation significantly restricts their applicability to large-scale scenarios. To address these challenges, we propose a distributed GNN-based training framework for combinatorial optimization. In details, firstly, large graph is partition into several small subgraphs. Then the individual subgraphs are full trained, providing a foundation for efficient local optimization. Finally, reinforcement learning (RL) are employed to take actions according to GNN output, to make sure the restrictions between cross nodes can be learned. Extensive experiments are conducted on both real large-scale social network datasets (e.g., Facebook, Youtube) and synthetically generated high-complexity graphs, which demonstrate that our framework outperforms state-of-the-art approaches in both solution quality and computational efficiency. Moreover, the experiments on large graph instances also validate the scalability of the model.
- Abstract(参考訳): 近年,グラフニューラルネットワーク (GNN) は組合せ最適化問題に広く応用されている。
しかし、既存の手法は、複雑なグラフでそれに対応する場合の精度が限られており、スケーラビリティが低い。完全なトレーニングでは、隣接するマトリックスとすべての埋め込みを一度にロードする必要があるため、単一のマシンのメモリが切れてしまう可能性がある。
この制限は、大規模なシナリオに適用性を大幅に制限する。
これらの課題に対処するために、組合せ最適化のための分散GNNベースのトレーニングフレームワークを提案する。
詳しくは、まず大きなグラフをいくつかの小さな部分グラフに分割する。
次に、各サブグラフはフルトレーニングされ、効率的な局所最適化の基礎を提供する。
最後に、強化学習(RL)を用いてGNN出力に従って動作し、ノード間の制限を確実に学習できるようにする。
実大規模ソーシャルネットワークデータセット(例えばFacebookやYoutube)と合成合成された高複雑性グラフの両方で大規模な実験を行い、我々のフレームワークは、ソリューションの品質と計算効率の両方において最先端のアプローチよりも優れていることを示した。
さらに、大規模なグラフインスタンスの実験では、モデルのスケーラビリティも検証されている。
関連論文リスト
- Lighter-X: An Efficient and Plug-and-play Strategy for Graph-based Recommendation through Decoupled Propagation [49.865020394064096]
我々は,既存のGNNベースのレコメンデータアーキテクチャとシームレスに統合可能な,効率的かつモジュール化されたフレームワークである textbfLighter-X を提案する。
提案手法は,基本モデルの理論的保証と経験的性能を保ちながら,パラメータサイズと計算複雑性を大幅に低減する。
実験の結果、Lighter-Xはパラメータが大幅に少ないベースラインモデルに匹敵するパフォーマンスを実現している。
論文 参考訳(メタデータ) (2025-10-11T08:33:08Z) - ScaleGNN: Towards Scalable Graph Neural Networks via Adaptive High-order Neighboring Feature Fusion [73.85920403511706]
スケーラブルで効果的なグラフ学習のためのマルチホップノード機能を適応的に融合する新しいフレームワークであるScaleGNNを提案する。
予測精度と計算効率の両面で,ScaleGNNは最先端のGNNよりも一貫して優れていることを示す。
論文 参考訳(メタデータ) (2025-04-22T14:05:11Z) - Towards Efficient Training of Graph Neural Networks: A Multiscale Approach [19.548512384514556]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから学習し、さまざまなドメインにわたるアプリケーションを見つけるための強力なツールになっている。
グラフのサイズと接続性の増加に伴い、標準のGNNトレーニング手法は、計算とメモリに大きな課題に直面している。
GNNの効率的なマルチスケールトレーニングのための新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-25T13:52:26Z) - Brain-inspired Chaotic Graph Backpropagation for Large-scale Combinatorial Optimization [3.97492577026225]
教師なし学習を伴うグラフニューラルネットワーク(GNN)は、効率的な時間複雑性で大規模最適化問題(COP)を解決することができる。
しかし、現在の主流のバックプロパゲーションベースのトレーニングアルゴリズムは、ローカルなミニマに陥りがちである。
カオスグラフバックプロパゲーション(CGBP)というカオス学習アルゴリズムを導入し,カオスだけではなく,高い効率でトレーニングを行う。
論文 参考訳(メタデータ) (2024-12-13T05:00:57Z) - GDSG: Graph Diffusion-based Solution Generator for Optimization Problems in MEC Networks [109.17835015018532]
グラフ拡散型ソリューション生成(GDSG)法を提案する。
このアプローチは、おそらく最適な解に収束しながら、最適以下のデータセットを扱うように設計されている。
グラフニューラルネットワーク(GNN)を用いたマルチタスク拡散モデルとしてGDSGを構築し,高品質な解の分布を求める。
論文 参考訳(メタデータ) (2024-12-11T11:13:43Z) - MassiveGNN: Efficient Training via Prefetching for Massively Connected Distributed Graphs [11.026326555186333]
本稿では,現在最先端のAmazon DistDGL分散GNNフレームワーク上に,パラメータ化された連続プリフェッチと消去方式を提案する。
NERSC(National Energy Research Scientific Computing Center)のPerlmutterスーパーコンピュータでは、エンドツーエンドのトレーニング性能が15~40%向上している。
論文 参考訳(メタデータ) (2024-10-30T05:10:38Z) - Multi-Level GNN Preconditioner for Solving Large Scale Problems [0.0]
グラフニューラルネットワーク(GNN)はメッシュのような非構造化データから学ぶのに最適だが、小さな問題に制限されることが多い。
本稿では,GNNモデルを多レベルドメイン分解フレームワークに統合した新しいプレコンディショナーを提案する。
提案したGNNベースのプレコンディショナーは、Krylov法の効率を高めるために使用され、任意の精度の要求レベルに収束できるハイブリッド・ソルバとなる。
論文 参考訳(メタデータ) (2024-02-13T08:50:14Z) - A Comprehensive Study on Large-Scale Graph Training: Benchmarking and
Rethinking [124.21408098724551]
グラフニューラルネットワーク(GNN)の大規模グラフトレーニングは、非常に難しい問題である
本稿では,既存の問題に対処するため,EnGCNという新たなアンサンブルトレーニング手法を提案する。
提案手法は,大規模データセット上でのSOTA(State-of-the-art)の性能向上を実現している。
論文 参考訳(メタデータ) (2022-10-14T03:43:05Z) - Comprehensive Graph Gradual Pruning for Sparse Training in Graph Neural
Networks [52.566735716983956]
本稿では,CGPと呼ばれるグラフの段階的プルーニングフレームワークを動的にGNNに提案する。
LTHに基づく手法とは異なり、提案手法では再学習を必要とせず、計算コストを大幅に削減する。
提案手法は,既存の手法の精度を一致させたり,あるいは超えたりしながら,トレーニングと推論の効率を大幅に向上させる。
論文 参考訳(メタデータ) (2022-07-18T14:23:31Z) - Graph Ordering: Towards the Optimal by Learning [69.72656588714155]
グラフ表現学習は、ノード分類、予測、コミュニティ検出など、多くのグラフベースのアプリケーションで顕著な成功を収めている。
しかし,グラフ圧縮やエッジ分割などのグラフアプリケーションでは,グラフ表現学習タスクに還元することは極めて困難である。
本稿では,このようなアプリケーションの背後にあるグラフ順序付け問題に対して,新しい学習手法を用いて対処することを提案する。
論文 参考訳(メタデータ) (2020-01-18T09:14:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。