論文の概要: Neural Simulated Annealing
- arxiv url: http://arxiv.org/abs/2203.02201v1
- Date: Fri, 4 Mar 2022 09:19:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-07 20:13:14.705239
- Title: Neural Simulated Annealing
- Title(参考訳): ニューラルシミュレートアニーリング
- Authors: Alvaro H.C. Correia, Daniel E. Worrall, Roberto Bondesan
- Abstract要約: 学習された提案分布を持つニューラルSAは、小さな同変ニューラルネットワークによってパラメータ化され、多くの問題においてSAベースラインを上回っていることを示す。
また、Neural SAは、トレーニング中に見られる問題よりもはるかに大きな問題に一般化すると同時に、ソリューションの品質と壁時計時間の観点から、一般的なオフザシェルフソルバやその他の機械学習手法に匹敵するパフォーマンスを実現していることも示しています。
- 参考スコア(独自算出の注目度): 18.88562301761999
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Simulated annealing (SA) is a stochastic global optimisation technique
applicable to a wide range of discrete and continuous variable problems.
Despite its simplicity, the development of an effective SA optimiser for a
given problem hinges on a handful of carefully handpicked components; namely,
neighbour proposal distribution and temperature annealing schedule. In this
work, we view SA from a reinforcement learning perspective and frame the
proposal distribution as a policy, which can be optimised for higher solution
quality given a fixed computational budget. We demonstrate that this Neural SA
with such a learnt proposal distribution, parametrised by small equivariant
neural networks, outperforms SA baselines on a number of problems: Rosenbrock's
function, the Knapsack problem, the Bin Packing problem, and the Travelling
Salesperson problem. We also show that Neural SA scales well to large problems
- generalising to significantly larger problems than the ones seen during
training - while achieving comparable performance to popular off-the-shelf
solvers and other machine learning methods in terms of solution quality and
wall-clock time.
- Abstract(参考訳): Simulated annealing (SA) は、様々な離散変数および連続変数問題に適用可能な確率的大域最適化手法である。
その単純さにもかかわらず、ある問題に対する効果的なsaオプティマイザーの開発は、いくつかの慎重に選択されたコンポーネント、すなわち近隣の提案分布と温度アニーリングスケジュールにかかっている。
本研究では,強化学習の観点からsaを考察し,固定的な計算予算を考慮すれば,より高い解質に最適化可能な方針として提案分布の枠組みを提案する。
このような学習可能なプロポーザル分布を持つニューラルネットワークsaは,小さな等価ニューラルネットワークによってモデル化され,ローゼンブロック関数,ナップサック問題,ビンパッキング問題,トラベルセールスパーソン問題などの問題に対するsaベースラインを上回っている。
また、Neural SAは、トレーニング中に見られる問題よりもはるかに大きな問題に一般化すると同時に、ソリューションの品質と壁時計時間の観点から、一般的なオフザシェルフソルバやその他の機械学習手法に匹敵するパフォーマンスを実現しています。
関連論文リスト
- Optimization by Parallel Quasi-Quantum Annealing with Gradient-Based Sampling [0.0]
本研究では、連続緩和による勾配に基づく更新と準量子アナリング(QQA)を組み合わせた別のアプローチを提案する。
数値実験により,本手法はiSCOと学習型解法に匹敵する性能を有する汎用解法であることが示された。
論文 参考訳(メタデータ) (2024-09-02T12:55:27Z) - Self-Labeling the Job Shop Scheduling Problem [15.723699332053558]
生成モデルは複数の解をサンプリングし、問題の目的に応じて最良の解を擬似ラベルとして使用することにより訓練可能であることを示す。
旅行セールスマン問題に適用することで,様々なパラメータに対するSLIMのロバスト性とその一般性を証明する。
論文 参考訳(メタデータ) (2024-01-22T11:08:36Z) - Multi-objective Quantum Annealing approach for solving flexible job shop
scheduling in manufacturing [0.0]
本稿では、フレキシブルジョブショップスケジューリング問題に対処するため、量子アニーリングに基づく問題解決アルゴリズム(QASA)を提案する。
ベンチマーク問題の実験では、タブ検索、シミュレートされたアニーリング、量子アニーリングを組み合わせたQASAが、古典的解法アルゴリズム(CSA)のソリューション品質を上回っている。
論文 参考訳(メタデータ) (2023-11-16T07:45:57Z) - Zero-Shot Sharpness-Aware Quantization for Pre-trained Language Models [88.80146574509195]
量子化は、メモリオーバーヘッドを減らし、推論を加速するための有望なアプローチである。
種々のPLMのゼロショット量子化のための新しい量子化(ZSAQ)フレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-20T07:09:56Z) - Optimizing Solution-Samplers for Combinatorial Problems: The Landscape
of Policy-Gradient Methods [52.0617030129699]
本稿では,DeepMatching NetworksとReinforcement Learningメソッドの有効性を解析するための新しい理論フレームワークを提案する。
我々の主な貢献は、Max- and Min-Cut、Max-$k$-Bipartite-Bi、Maximum-Weight-Bipartite-Bi、Traveing Salesman Problemを含む幅広い問題である。
本分析の副産物として,バニラ降下による新たな正則化プロセスを導入し,失効する段階的な問題に対処し,悪い静止点から逃れる上で有効であることを示す理論的および実験的証拠を提供する。
論文 参考訳(メタデータ) (2023-10-08T23:39:38Z) - Stochastic Approximation Beyond Gradient for Signal Processing and
Machine Learning [40.636276521022474]
近似(英: Approximation、SA)は、初期から信号処理に大きな影響を与えてきた古典的なアルゴリズムである。
本稿では,SAの非確率的・漸進的な視点を信号処理と機械学習のオーディエンスに紹介する。
我々は、様々な穏やかな条件を満たすリャプノフ関数のクラスに基づいて分析フレームワークを構築した。
論文 参考訳(メタデータ) (2023-02-22T05:00:51Z) - Learning to Optimize Permutation Flow Shop Scheduling via Graph-based
Imitation Learning [70.65666982566655]
置換フローショップスケジューリング(PFSS)は製造業で広く使われている。
我々は,より安定かつ正確に収束を加速する専門家主導の模倣学習を通じてモデルを訓練することを提案する。
我々のモデルのネットワークパラメータはわずか37%に減少し、エキスパートソリューションに対する我々のモデルの解のギャップは平均6.8%から1.3%に減少する。
論文 参考訳(メタデータ) (2022-10-31T09:46:26Z) - Supplementing Recurrent Neural Networks with Annealing to Solve
Combinatorial Optimization Problems [2.3642391095636484]
本稿では,実世界の最適化問題に対するアプローチとして,変分古典アニール (VCA) を用いる可能性を示す。
以上の結果から, VCA は相対誤差の点で, 平均1桁以上の限界でアニーリング (SA) を平均的に上回ることがわかった。
ベストケースシナリオでは、SAが最適解を見つけられなかった場合、VCAは優れた代替手段として機能する、と結論付けます。
論文 参考訳(メタデータ) (2022-07-17T14:33:17Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Stein Variational Model Predictive Control [130.60527864489168]
不確実性の下での意思決定は、現実の自律システムにとって極めて重要である。
モデル予測制御 (MPC) 法は, 複雑な分布を扱う場合, 適用範囲が限られている。
この枠組みが、挑戦的で非最適な制御問題における計画の成功に繋がることを示す。
論文 参考訳(メタデータ) (2020-11-15T22:36:59Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。