論文の概要: Machine Learning Constructives and Local Searches for the Travelling
Salesman Problem
- arxiv url: http://arxiv.org/abs/2108.00938v1
- Date: Mon, 2 Aug 2021 14:34:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-03 20:04:37.979058
- Title: Machine Learning Constructives and Local Searches for the Travelling
Salesman Problem
- Title(参考訳): 旅行セールスマン問題における機械学習構成と局所探索
- Authors: Tommaso Vitali, Umberto Junior Mele, Luca Maria Gambardella, Roberto
Montemanni
- Abstract要約: 本稿では,従来のディープラーニングモデルの計算量の改善について述べる。
ローカル検索のフェーズを追加する可能性を探り、パフォーマンスをさらに向上する。
- 参考スコア(独自算出の注目度): 7.656272344163667
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: The ML-Constructive heuristic is a recently presented method and the first
hybrid method capable of scaling up to real scale traveling salesman problems.
It combines machine learning techniques and classic optimization techniques. In
this paper we present improvements to the computational weight of the original
deep learning model. In addition, as simpler models reduce the execution time,
the possibility of adding a local-search phase is explored to further improve
performance. Experimental results corroborate the quality of the proposed
improvements.
- Abstract(参考訳): ML-Constructive Heuristic(ML-コンストラクティブ・ヒューリスティック)は,現実の旅行セールスマン問題にスケールアップ可能な,最初のハイブリッド手法である。
機械学習技術と古典的な最適化技術を組み合わせている。
本稿では,従来のディープラーニングモデルの計算量の改善について述べる。
さらに,より単純なモデルにより実行時間を短縮し,局所探索フェーズを追加することにより,さらなる性能向上が期待できる。
実験の結果,提案する改良の質が一致した。
関連論文リスト
- Unlearning as multi-task optimization: A normalized gradient difference approach with an adaptive learning rate [105.86576388991713]
正規化勾配差(NGDiff)アルゴリズムを導入し、目的間のトレードオフをよりよく制御できるようにする。
本研究では,TOFUおよびMUSEデータセットにおける最先端の未学習手法において,NGDiffの優れた性能を実証的に実証し,理論的解析を行った。
論文 参考訳(メタデータ) (2024-10-29T14:41:44Z) - Large Language Models as Surrogate Models in Evolutionary Algorithms: A Preliminary Study [5.6787965501364335]
サロゲートアシスト選択は、高価な最適化問題を解決する進化アルゴリズムの中核的なステップである。
伝統的に、これは従来の機械学習手法に依存しており、過去の評価を利用して新しいソリューションの性能を予測する。
本研究では,LLM推論機能に基づいた新しいサロゲートモデルを提案する。
論文 参考訳(メタデータ) (2024-06-15T15:54:00Z) - Continual Learning with Weight Interpolation [4.689826327213979]
継続的な学習には、モデルが以前のタスクからの知識を維持しながら、新しいタスクに適応する必要がある。
本稿では,重み強化手法を用いた継続学習手法を提案する。
論文 参考訳(メタデータ) (2024-04-05T10:25:40Z) - PETScML: Second-order solvers for training regression problems in Scientific Machine Learning [0.22499166814992438]
近年、分析のためのデータ駆動ツールとして、科学機械学習の出現を目撃している。
我々は、ディープラーニングソフトウェアと従来の機械学習技術とのギャップを埋めるために、Portable and Extensible Toolkit for Scientific計算上に構築されたソフトウェアを紹介します。
論文 参考訳(メタデータ) (2024-03-18T18:59:42Z) - Design Space Exploration of Approximate Computing Techniques with a
Reinforcement Learning Approach [49.42371633618761]
精度劣化と消費電力と計算時間短縮のバランスをとるアプリケーションの近似バージョンを見つけるためのRLベースの戦略を提案する。
実験結果から,いくつかのベンチマークにおいて,精度劣化と消費電力減少と計算時間との良好なトレードオフが示された。
論文 参考訳(メタデータ) (2023-12-29T09:10:40Z) - Adaptive Optimization Algorithms for Machine Learning [0.0]
機械学習は、データ駆動の世界において重要な役割を担います。
この論文は、新しい洞察をもたらし、収束保証を改善した新しいアルゴリズムを導入し、人気のある実用的なアルゴリズムの分析を改善する。
論文 参考訳(メタデータ) (2023-11-16T21:22:47Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - When to Update Your Model: Constrained Model-based Reinforcement
Learning [50.74369835934703]
モデルベースRL(MBRL)の非遅延性能保証のための新規で一般的な理論スキームを提案する。
続いて導いた境界は、モデルシフトとパフォーマンス改善の関係を明らかにします。
さらなる例では、動的に変化する探索からの学習モデルが、最終的なリターンの恩恵をもたらすことが示されている。
論文 参考訳(メタデータ) (2022-10-15T17:57:43Z) - Large Scale Mask Optimization Via Convolutional Fourier Neural Operator
and Litho-Guided Self Training [54.16367467777526]
マスクタスクを効率的に学習できる畳み込みニューラルネットワーク(CFCF)を提案する。
機械学習ベースのフレームワークが初めて、最先端の数値マスクデータセットを上回った。
論文 参考訳(メタデータ) (2022-07-08T16:39:31Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - PrIU: A Provenance-Based Approach for Incrementally Updating Regression
Models [9.496524884855559]
本稿では,予測精度を犠牲にすることなく,モデルパラメータを漸進的に更新する手法PrIUを提案する。
漸進的に更新されたモデルパラメータの正しさと収束性を証明し、実験的に検証する。
実験結果から, PrIU-optはスクラッチからモデルを再トレーニングするのに対して, 非常に類似したモデルを得るよりも, 最大2桁のスピードアップを達成できることがわかった。
論文 参考訳(メタデータ) (2020-02-26T21:04:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。