論文の概要: Unsupervised Training for Neural TSP Solver
- arxiv url: http://arxiv.org/abs/2207.13667v1
- Date: Wed, 27 Jul 2022 17:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-28 13:46:05.807454
- Title: Unsupervised Training for Neural TSP Solver
- Title(参考訳): ニューラルTSPソルバーの教師なしトレーニング
- Authors: El\=iza Gaile, Andis Draguns, Em\=ils Ozoli\c{n}\v{s}, and K\=arlis
Freivalds
- Abstract要約: 本稿では,トラベリングセールスマン問題を解決するための教師なし学習手法を提案する。
我々は、TSPの整数線型プログラムを緩和して、正しいインスタンスラベルを必要としない損失関数を構築する。
私たちのアプローチは、強化学習よりも安定しており、トレーニングも簡単です。
- 参考スコア(独自算出の注目度): 2.9398911304923447
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There has been a growing number of machine learning methods for approximately
solving the travelling salesman problem. However, these methods often require
solved instances for training or use complex reinforcement learning approaches
that need a large amount of tuning. To avoid these problems, we introduce a
novel unsupervised learning approach. We use a relaxation of an integer linear
program for TSP to construct a loss function that does not require correct
instance labels. With variable discretization, its minimum coincides with the
optimal or near-optimal solution. Furthermore, this loss function is
differentiable and thus can be used to train neural networks directly. We use
our loss function with a Graph Neural Network and design controlled experiments
on both Euclidean and asymmetric TSP. Our approach has the advantage over
supervised learning of not requiring large labelled datasets. In addition, the
performance of our approach surpasses reinforcement learning for asymmetric TSP
and is comparable to reinforcement learning for Euclidean instances. Our
approach is also more stable and easier to train than reinforcement learning.
- Abstract(参考訳): トラベルセールスマン問題をほぼ解決するための機械学習手法が増えている。
しかし、これらの手法は、多くのチューニングを必要とする複雑な強化学習アプローチをトレーニングや使用するために解決されたインスタンスを必要とすることが多い。
これらの問題を回避するために,新しい教師なし学習手法を提案する。
我々は、tsp の整数線形プログラムの緩和を用いて、正しいインスタンスラベルを必要としない損失関数を構築する。
変数の離散化では、最小限は最適解または準最適解と一致する。
さらに、この損失関数は微分可能であり、ニューラルネットワークを直接トレーニングするために使用できる。
グラフニューラルネットワークを用いた損失関数を用いて,ユークリッドおよび非対称tspにおける制御実験をデザインする。
我々のアプローチは、大きなラベル付きデータセットを必要としない教師あり学習よりも有利である。
さらに,本手法は非対称TSPの強化学習を超越し,ユークリッドインスタンスの強化学習に匹敵する性能を示した。
私たちのアプローチは強化学習よりも安定的で、トレーニングが容易です。
関連論文リスト
- Optimization Proxies using Limited Labeled Data and Training Time -- A Semi-Supervised Bayesian Neural Network Approach [2.943640991628177]
制約のある最適化問題は、在庫管理電力グリッドのような様々なエンジニアリングシステムで発生する。
本研究では,ベイジアンネットワーク(BNN)を用いて,制限されたデータと制限されたモデル時間の下での制約付き最適化問題の解法を提案する。
提案手法は,従来のBNNおよびディープニューラルネットワーク(DNN)アーキテクチャよりも優れていることを示す。
論文 参考訳(メタデータ) (2024-10-04T02:10:20Z) - Training Artificial Neural Networks by Coordinate Search Algorithm [0.20971479389679332]
本稿では、ニューラルネットワークのトレーニングのための勾配自由座標探索(CS)アルゴリズムの効率的なバージョンを提案する。
提案アルゴリズムは、微分不可能なアクティベーション関数で使用することができ、多目的/マルチロス問題に適合する。
ANNの重みに対する最適値を求めることは、大規模な最適化問題である。
論文 参考訳(メタデータ) (2024-02-20T01:47:25Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Decouple Graph Neural Networks: Train Multiple Simple GNNs Simultaneously Instead of One [60.5818387068983]
グラフニューラルネットワーク(GNN)は、深刻な非効率性に悩まされている。
我々は,より効率的なトレーニングを行うために,多層GNNを複数の単純なモジュールとして分離することを提案する。
提案するフレームワークは,合理的な性能で高い効率性を示す。
論文 参考訳(メタデータ) (2023-04-20T07:21:32Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Unsupervised Optimal Power Flow Using Graph Neural Networks [172.33624307594158]
グラフニューラルネットワークを用いて、要求された電力と対応するアロケーションとの間の非線形パラメトリゼーションを学習する。
シミュレーションを通して、この教師なし学習コンテキストにおけるGNNの使用は、標準解法に匹敵するソリューションにつながることを示す。
論文 参考訳(メタデータ) (2022-10-17T17:30:09Z) - Travel the Same Path: A Novel TSP Solving Strategy [0.0]
我々は、必要に応じて適切な選択を行う決定論的アルゴリズムを支援する模倣学習フレームワークについて検討する。
我々は、模倣学習フレームワークの下で訓練されたグラフニューラルネットワークの強力な一般化能力を示す。
論文 参考訳(メタデータ) (2022-10-12T03:56:37Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Simple Stochastic and Online Gradient DescentAlgorithms for Pairwise
Learning [65.54757265434465]
ペアワイズ学習(Pairwise learning)とは、損失関数がペアインスタンスに依存するタスクをいう。
オンライン降下(OGD)は、ペアワイズ学習でストリーミングデータを処理する一般的なアプローチである。
本稿では,ペアワイズ学習のための手法について,シンプルでオンラインな下降を提案する。
論文 参考訳(メタデータ) (2021-11-23T18:10:48Z) - Deep learning for inverse problems with unknown operator [0.0]
フォワード演算子$T$が未知の逆問題では、関数$f_i$とノイズの多いイメージ$Tf_i$からなるトレーニングデータにアクセスできます。
本稿では,データに最小限の仮定を必要とする新しい手法を提案し,学習点数と雑音レベルに依存する再現率を示す。
論文 参考訳(メタデータ) (2021-08-05T17:21:12Z) - Learning to Sparsify Travelling Salesman Problem Instances [0.5985204759362747]
プルーニングマシンラーニングを前処理のステップとして使用し、旅行セールスマンの問題をスパーシャライズするために正確なプログラミングアプローチを行います。
私たちの学習アプローチは、非常に少ないトレーニングデータを必要とし、数学的分析に適応可能です。
論文 参考訳(メタデータ) (2021-04-19T14:35:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。