論文の概要: Graph Neural Networks are Heuristics
- arxiv url: http://arxiv.org/abs/2601.13465v1
- Date: Mon, 19 Jan 2026 23:40:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-21 22:47:23.100476
- Title: Graph Neural Networks are Heuristics
- Title(参考訳): グラフニューラルネットワークはヒューリスティックである
- Authors: Yimeng Min, Carla P. Gomes,
- Abstract要約: 我々は,グローバル構造を帰納バイアスとして符号化することで,非自己回帰モデルが探索,監督,シーケンシャルな意思決定なしに解を生成することができることを示す。
その結果、グラフニューラルネットワークはグローバルな構造を内部化せず、明確な探索が有効であることを証明した。
- 参考スコア(独自算出の注目度): 22.51828421737954
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We demonstrate that a single training trajectory can transform a graph neural network into an unsupervised heuristic for combinatorial optimization. Focusing on the Travelling Salesman Problem, we show that encoding global structural constraints as an inductive bias enables a non-autoregressive model to generate solutions via direct forward passes, without search, supervision, or sequential decision-making. At inference time, dropout and snapshot ensembling allow a single model to act as an implicit ensemble, reducing optimality gaps through increased solution diversity. Our results establish that graph neural networks do not require supervised training nor explicit search to be effective. Instead, they can internalize global combinatorial structure and function as strong, learned heuristics. This reframes the role of learning in combinatorial optimization: from augmenting classical algorithms to directly instantiating new heuristics.
- Abstract(参考訳): 本研究では,1つの学習軌道が,グラフニューラルネットワークを教師なしヒューリスティックに変換することで,組合せ最適化を実現することを実証する。
トラベリングセールスマン問題に着目し,グローバルな構造制約を帰納バイアスとして符号化することで,非自己回帰モデルが探索,監督,シーケンシャルな意思決定を伴わず,直接フォワードパスを介してソリューションを生成できることを示す。
推論時間では、ドロップアウトとスナップショットのアンサンブルにより、単一のモデルが暗黙のアンサンブルとして機能し、ソリューションの多様性の向上による最適性ギャップを低減することができる。
この結果から,グラフニューラルネットワークでは教師付きトレーニングや明示的な探索が不要であることが確認された。
代わりに、グローバルな組合せ構造を内部化し、強く学習されたヒューリスティックとして機能することができる。
これは、古典的アルゴリズムの強化から、新しいヒューリスティックのインスタンス化に至るまで、組合せ最適化における学習の役割を再定義する。
関連論文リスト
- Structure As Search: Unsupervised Permutation Learning for Combinatorial Optimization [22.51828421737954]
本稿では,トラベリングセールスマン問題に対する非自己回帰的枠組みを提案する。
ハミルトンサイクルに類似性変換を適用することにより、モデルは連続緩和を通じて置換を近似することを学ぶ。
論文 参考訳(メタデータ) (2025-07-05T21:17:38Z) - Assessing and Enhancing Graph Neural Networks for Combinatorial Optimization: Novel Approaches and Application in Maximum Independent Set Problems [0.0]
Graph Neural Networks (GNNs)は、コンビネーション最適化(CO)問題の解決における研究者の約束を示す。
本研究では,最大独立集合(MIS)問題の解法におけるGNNの有効性について検討した。
論文 参考訳(メタデータ) (2024-11-06T09:12:31Z) - Efficient and Flexible Neural Network Training through Layer-wise Feedback Propagation [49.44309457870649]
レイヤワイドフィードバックフィードバック(LFP)は、ニューラルネットワークのような予測器のための新しいトレーニング原則である。
LFPはそれぞれの貢献に基づいて個々のニューロンに報酬を分解する。
提案手法は,ネットワークの有用な部分と有害な部分の弱体化を両立させる手法である。
論文 参考訳(メタデータ) (2023-08-23T10:48:28Z) - Stochastic Unrolled Federated Learning [85.6993263983062]
本稿では,UnRolled Federated Learning (SURF)を導入する。
提案手法は,この拡張における2つの課題,すなわち,非学習者へのデータセット全体の供給の必要性と,フェデレート学習の分散的性質に対処する。
論文 参考訳(メタデータ) (2023-05-24T17:26:22Z) - Learning Branching Heuristics from Graph Neural Networks [1.4660170768702356]
まず,確率論的手法を用いて設計した新しいグラフニューラルネットワーク(GNN)モデルを提案する。
我々のアプローチは、AIで使用される古典的なバックトラッキングアルゴリズムの強化にGNNを適用する新しい方法を導入する。
論文 参考訳(メタデータ) (2022-11-26T00:01:01Z) - A Differentiable Approach to Combinatorial Optimization using Dataless
Neural Networks [20.170140039052455]
我々は、ソリューションを生成するニューラルネットワークのトレーニングにデータを必要としないという、根本的に異なるアプローチを提案する。
特に、最適化問題をニューラルネットワークに還元し、データレストレーニングスキームを用いて、それらのパラメータが関心の構造をもたらすように、ネットワークのパラメータを洗練する。
論文 参考訳(メタデータ) (2022-03-15T19:21:31Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Recurrent Graph Neural Network Algorithm for Unsupervised Network
Community Detection [0.0]
本稿では,モジュール性最適化による非教師付きネットワークコミュニティ検出のための再帰グラフニューラルネットワークアルゴリズムの新しい変種を提案する。
新しいアルゴリズムのパフォーマンスは、人気があり高速なLouvain法と、最近著者が提案したより効率的だが遅いComboアルゴリズムと比較される。
論文 参考訳(メタデータ) (2021-03-03T16:50:50Z) - Dynamic Hierarchical Mimicking Towards Consistent Optimization
Objectives [73.15276998621582]
一般化能力を高めたCNN訓練を推進するための汎用的特徴学習機構を提案する。
DSNに部分的にインスパイアされた私たちは、ニューラルネットワークの中間層から微妙に設計されたサイドブランチをフォークしました。
カテゴリ認識タスクとインスタンス認識タスクの両方の実験により,提案手法の大幅な改善が示された。
論文 参考訳(メタデータ) (2020-03-24T09:56:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。