論文の概要: Purity Law for Generalizable Neural TSP Solvers
- arxiv url: http://arxiv.org/abs/2505.04558v1
- Date: Wed, 07 May 2025 16:46:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-08 19:07:36.153065
- Title: Purity Law for Generalizable Neural TSP Solvers
- Title(参考訳): 一般化可能なニューラルTSP解の純度法則
- Authors: Wenzhao Liu, Haoran Li, Congying Han, Zicheng Zhang, Anqi Li, Tiande Guo,
- Abstract要約: 本稿では,PuLaとニューラルソリューションの特性を明示的に整合させ,一般化を促進する新たなトレーニングパラダイムであるPurity Policy Optimization(PUPO)を提案する。
実験では、PUPOは一般的なニューラルソルバとシームレスに統合することができ、推論中に追加の計算オーバーヘッドを発生させることなく、その一般化性能を著しく向上させることができる。
- 参考スコア(独自算出の注目度): 13.860078287399698
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Achieving generalization in neural approaches across different scales and distributions remains a significant challenge for the Traveling Salesman Problem~(TSP). A key obstacle is that neural networks often fail to learn robust principles for identifying universal patterns and deriving optimal solutions from diverse instances. In this paper, we first uncover Purity Law (PuLa), a fundamental structural principle for optimal TSP solutions, defining that edge prevalence grows exponentially with the sparsity of surrounding vertices. Statistically validated across diverse instances, PuLa reveals a consistent bias toward local sparsity in global optima. Building on this insight, we propose Purity Policy Optimization~(PUPO), a novel training paradigm that explicitly aligns characteristics of neural solutions with PuLa during the solution construction process to enhance generalization. Extensive experiments demonstrate that PUPO can be seamlessly integrated with popular neural solvers, significantly enhancing their generalization performance without incurring additional computational overhead during inference.
- Abstract(参考訳): 異なるスケールと分布のニューラルアプローチの一般化を達成することは、トラベリングセールスマン問題~(TSP)にとって重要な課題である。
ニューラルネットワークは、普遍的なパターンを特定し、多様なインスタンスから最適なソリューションを導き出すための堅牢な原則を学ばないことが多い。
本稿では, 最適 TSP 解の基本原理である純度法 (PuLa) を初めて明らかにし, 周辺頂点の間隔とともに, エッジ精度が指数関数的に増加することを定義する。
様々なインスタンスで統計的に検証されたPuLaは、グローバルオプティマにおける局所的空間性に対する一貫したバイアスを明らかにする。
この知見に基づいて,PuLaとニューラルソリューションの特性を明確に整合させ,一般化を促進する新たなトレーニングパラダイムであるPurity Policy Optimization~(PUPO)を提案する。
広汎な実験により、PUPOは一般的なニューラルソルバとシームレスに統合され、推論中にさらなる計算オーバーヘッドを発生させることなく、その一般化性能が大幅に向上することを示した。
関連論文リスト
- Understanding Inverse Reinforcement Learning under Overparameterization: Non-Asymptotic Analysis and Global Optimality [52.906438147288256]
我々のアルゴリズムは,特定のニューラルネットワーク構造の下で,最適報酬とポリシーを識別できることが示される。
これは、国際的最適性を確実に達成する非漸近収束保証を持つ最初のIRLアルゴリズムである。
論文 参考訳(メタデータ) (2025-03-22T21:16:08Z) - Boosting Generalization in Diffusion-Based Neural Combinatorial Solver via Energy-guided Sampling [27.898573891403075]
拡散に基づくニューラルネットワーク最適化(NCO)は、解生成のための離散拡散モデルを学習し、手作りのドメイン知識を排除し、NP完全(NPC)問題の解決に有効であることを示した。
既存のNCO手法は、クロススケールおよびクロスプロブレムの一般化において課題に直面し、従来の解法と比較して高いトレーニングコストがかかる。
我々は,拡散型NCOソルバのクロススケールおよびクロスプロブレムの一般化能力を,追加の訓練を必要とせずに向上させる,一般エネルギー誘導サンプリングフレームワークを提案する。
論文 参考訳(メタデータ) (2025-02-15T08:04:00Z) - Learning Expressive Priors for Generalization and Uncertainty Estimation
in Neural Networks [77.89179552509887]
本稿では,ディープニューラルネットワークにおける一般化と不確実性推定を推し進める新しい事前学習手法を提案する。
キーとなる考え方は、ニューラルネットワークのスケーラブルで構造化された後部を、一般化を保証する情報的事前として活用することである。
本研究では,不確実性推定と一般化における本手法の有効性を徹底的に示す。
論文 参考訳(メタデータ) (2023-07-15T09:24:33Z) - TANGOS: Regularizing Tabular Neural Networks through Gradient
Orthogonalization and Specialization [69.80141512683254]
TANGOS(Tbular Neural Gradient Orthogonalization and gradient)を紹介する。
TANGOSは、潜在ユニット属性上に構築された表の設定を正規化するための新しいフレームワークである。
提案手法は,他の一般的な正規化手法よりも優れ,サンプル外一般化性能の向上につながることを実証する。
論文 参考訳(メタデータ) (2023-03-09T18:57:13Z) - Finite-Time Analysis of Entropy-Regularized Neural Natural Actor-Critic
Algorithm [29.978816372127085]
ニューラルネットワーク近似を用いたNatural actor-critic (NAC) の有限時間解析を行った。
ニューラルネットワーク,正規化,最適化技術の役割を特定し,優れた性能を実現する。
論文 参考訳(メタデータ) (2022-06-02T02:13:29Z) - Path Regularization: A Convexity and Sparsity Inducing Regularization
for Parallel ReLU Networks [75.33431791218302]
本稿では,ディープニューラルネットワークのトレーニング問題について検討し,最適化環境に隠された凸性を明らかにするための解析的アプローチを提案する。
我々は、標準のディープ・ネットワークとResNetを特別なケースとして含む、ディープ・パラレルなReLUネットワークアーキテクチャについて検討する。
論文 参考訳(メタデータ) (2021-10-18T18:00:36Z) - Representation Based Complexity Measures for Predicting Generalization
in Deep Learning [0.0]
ディープニューラルネットワークは、非常に過度にパラメータ化されているにもかかわらず、一般化することができる。
近年の研究では、様々な観点からこの現象を検証している。
内部表現の質の観点から一般化の解釈を提供する。
論文 参考訳(メタデータ) (2020-12-04T18:53:44Z) - Generalization bound of globally optimal non-convex neural network
training: Transportation map estimation by infinite dimensional Langevin
dynamics [50.83356836818667]
本稿では,ディープラーニングの最適化を一般化誤差と関連づけて解析する理論フレームワークを提案する。
ニューラルネットワーク最適化分析のための平均場理論やニューラル・タンジェント・カーネル理論のような既存のフレームワークは、そのグローバル収束を示すために、ネットワークの無限幅の限界を取る必要がある。
論文 参考訳(メタデータ) (2020-07-11T18:19:50Z) - On Sparsity in Overparametrised Shallow ReLU Networks [42.33056643582297]
無限に広い状態であっても、限られた数のニューロンしか必要としない解を捉えるための異なる正規化戦略の能力について検討する。
オーバーパラメトリゼーションの量に関係なく、両方のスキームは、有限個のニューロンしか持たない関数によって最小化される。
論文 参考訳(メタデータ) (2020-06-18T01:35:26Z) - Neural Proximal/Trust Region Policy Optimization Attains Globally
Optimal Policy [119.12515258771302]
オーバーパラメトリゼーションを備えたPPOOの変種が,グローバルな最適ネットワークに収束することを示す。
我々の分析の鍵は、1次元の単調性の概念の下で無限勾配の反復であり、そこでは勾配はネットワークによって瞬く。
論文 参考訳(メタデータ) (2019-06-25T03:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。