論文の概要: Probing Neural TSP Representations for Prescriptive Decision Support
- arxiv url: http://arxiv.org/abs/2602.07216v1
- Date: Fri, 06 Feb 2026 21:53:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-10 20:26:24.512663
- Title: Probing Neural TSP Representations for Prescriptive Decision Support
- Title(参考訳): 規範的決定支援のためのニューラルネットワークによるTSP表現の提案
- Authors: Reuben Narad, Léonard Boussioux, Michael Wagner,
- Abstract要約: 我々は、旅行セールスパーソン問題(T)のようなNPhard問題を解決するために神経政策を訓練する。
我々は、優れたツアーを制作する以外に、訓練されたTSPソルバが、他の最適化関連目的へ移行する内部表現を学習するかどうかを問う。
また,NCOソルバをトレーニングすることで,より強力なNCOソルバをトレーニングすることで,より有用なエンコーダが得られることを示す。
- 参考スコア(独自算出の注目度): 2.0873708442027565
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The field of neural combinatorial optimization (NCO) trains neural policies to solve NP-hard problems such as the traveling salesperson problem (TSP). We ask whether, beyond producing good tours, a trained TSP solver learns internal representations that transfer to other optimization-relevant objectives, in the spirit of transfer learning from other domains. We train several attention-based TSP policies, collect their internal activations, and train probes on node/edge embeddings for two NP-hard prescriptive downstream tasks inspired by real-world logistics scenarios: node-removal sensitivity (identifying the most impactful node to remove) and edge-forbid sensitivity (identifying the most critical edge to retain). On a Euclidean TSP100-trained model, probes for both tasks are competitive with existing baselines. Ensembling probe signals with geometric features outperforms the strongest baselines: 65\% top-1 accuracy (vs. 58\% baseline) for the best-node-removal task, and 73\% top-1 accuracy (vs. 67\% baseline) for the worst-edge identification task. To our knowledge, we are the first to study neural TSP solvers as transferable encoders for prescriptive what-if decision-support objectives beyond tour construction. Finally, we show that transfer accuracy increases with solver quality across training and model scale, suggesting that training stronger NCO solvers also yields more useful encoders for downstream objectives. Our code is available at: github.com/ReubenNarad/tsp_prescriptive_probe
- Abstract(参考訳): ニューラルコンビナトリ最適化(NCO)の分野は、トラベルセールスパーソン問題(TSP)のようなNPハード問題を解決するために、ニューラルポリシーを訓練する。
我々は、優れたツアーを制作する以外に、訓練されたTSPソルバが、他のドメインからの移行学習の精神において、他の最適化関連目標に伝達する内部表現を学習するかどうかを問う。
実世界のロジスティクスシナリオにインスパイアされた2つのNPハード規範的なダウンストリームタスクに対して、注意に基づくTSPポリシーをトレーニングし、内部のアクティベーションを収集し、ノード/エッジの埋め込みをトレーニングする。
ユークリッドのTSP100訓練モデルでは、両方のタスクのプローブは既存のベースラインと競合する。
幾何学的特徴を持つプローブ信号の組み立ては、65 % のトップ-1 の精度 (vs) で最強のベースラインを上回ります。
58 %のベースライン)、トップ1 の精度 73 % (vs。
67 %のベースライン)。
我々の知る限り、我々は、ツアー構築を超えて、何に対して決定を支持するかを規範的に記述するトランスファー可能なエンコーダとして、神経性TSPソルバを初めて研究している。
最後に,より強力なNCOソルバのトレーニングにより,下流目標に対してより有用なエンコーダが得られることを示す。
私たちのコードは、github.com/ReubenNarad/tsp_prescriptive_probeで利用可能です。
関連論文リスト
- S$^2$NN: Sub-bit Spiking Neural Networks [53.08060832135342]
スパイキングニューラルネットワーク(SNN)は、マシンインテリジェンスにエネルギー効率のよいパラダイムを提供する。
最近のバイナリSNNの進歩にもかかわらず、大規模ネットワークではストレージと計算の要求が相当に大きい。
1ビット未満の重みを表すサブビットスパイキングニューラルネットワーク(S$2$NNs)を提案する。
論文 参考訳(メタデータ) (2025-09-29T04:17:44Z) - PICore: Physics-Informed Unsupervised Coreset Selection for Data Efficient Neural Operator Training [22.740738769143604]
ニューラル演算子を訓練するための教師なしコアセット選択フレームワークであるPICoreを提案する。
PICoreは、PDEソリューションへのアクセスを必要とせずに、最も有益なトレーニングサンプルを特定する。
PICoreは、教師付きコアセット選択法と比較してトレーニング効率を最大78%向上させる。
論文 参考訳(メタデータ) (2025-07-23T02:32:44Z) - LinSATNet: The Positive Linear Satisfiability Neural Networks [116.65291739666303]
本稿では,ニューラルネットワークに人気の高い正の線形満足度を導入する方法について検討する。
本稿では,古典的なシンクホーンアルゴリズムを拡張し,複数の辺分布の集合を共同で符号化する,最初の微分可能満足層を提案する。
論文 参考訳(メタデータ) (2024-07-18T22:05:21Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Solve routing problems with a residual edge-graph attention neural
network [10.42872026679616]
本稿では,NP-ハード最適化問題を解決するために,エンドツーエンドの深層強化学習フレームワークを提案する。
提案するフレームワークは、ニューラルネットワークモデルとトレーニングアルゴリズムの観点から、リテラシーのモデルを改善することを目指している。
具体的には、平均最適性ギャップは、100ノードのTSPで4.53%(ベスト citeR22として報告)から3.67%(ベスト citeR22で報告)、100ノードのCVRPで7.34%(ベスト citeR22で報告)から6.68%に縮小される。
論文 参考訳(メタデータ) (2021-05-06T14:47:47Z) - Learning Neural Network Subspaces [74.44457651546728]
近年の観測は,ニューラルネットワーク最適化の展望の理解を深めている。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
1つのモデルのトレーニングと同じ計算コストで、高精度ニューラルネットワークの線、曲線、単純軸を学習します。
論文 参考訳(メタデータ) (2021-02-20T23:26:58Z) - Revisiting Initialization of Neural Networks [72.24615341588846]
ヘッセン行列のノルムを近似し, 制御することにより, 層間における重みのグローバルな曲率を厳密に推定する。
Word2Vec と MNIST/CIFAR 画像分類タスクの実験により,Hessian ノルムの追跡が診断ツールとして有用であることが確認された。
論文 参考訳(メタデータ) (2020-04-20T18:12:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。