論文の概要: Learning to Schedule Heuristics for the Simultaneous Stochastic
Optimization of Mining Complexes
- arxiv url: http://arxiv.org/abs/2202.12866v1
- Date: Fri, 25 Feb 2022 18:20:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-28 14:32:34.737347
- Title: Learning to Schedule Heuristics for the Simultaneous Stochastic
Optimization of Mining Complexes
- Title(参考訳): マイニングコンプレックスの同時確率最適化のためのスケジュールヒューリスティックスの学習
- Authors: Yassine Yaakoubi, Roussos Dimitrakopoulos
- Abstract要約: 提案したL2P(Learning-to-perturb)ハイパーヒューリスティックは,マルチ隣り合うシミュレートアニールアルゴリズムである。
L2Pは、効率、堅牢性、一般化能力に重点を置いて、いくつかの実世界の鉱業施設で試験されている。
その結果,反復回数を30~50%削減し,計算時間を30~45%削減した。
- 参考スコア(独自算出の注目度): 2.538209532048867
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The simultaneous stochastic optimization of mining complexes (SSOMC) is a
large-scale stochastic combinatorial optimization problem that simultaneously
manages the extraction of materials from multiple mines and their processing
using interconnected facilities to generate a set of final products, while
taking into account material supply (geological) uncertainty to manage the
associated risk. Although simulated annealing has been shown to outperform
comparing methods for solving the SSOMC, early performance might dominate
recent performance in that a combination of the heuristics' performance is used
to determine which perturbations to apply. This work proposes a data-driven
framework for heuristic scheduling in a fully self-managed hyper-heuristic to
solve the SSOMC. The proposed learn-to-perturb (L2P) hyper-heuristic is a
multi-neighborhood simulated annealing algorithm. The L2P selects the heuristic
(perturbation) to be applied in a self-adaptive manner using reinforcement
learning to efficiently explore which local search is best suited for a
particular search point. Several state-of-the-art agents have been incorporated
into L2P to better adapt the search and guide it towards better solutions. By
learning from data describing the performance of the heuristics, a
problem-specific ordering of heuristics that collectively finds better
solutions faster is obtained. L2P is tested on several real-world mining
complexes, with an emphasis on efficiency, robustness, and generalization
capacity. Results show a reduction in the number of iterations by 30-50% and in
the computational time by 30-45%.
- Abstract(参考訳): マイニングコンプレックス(SSOMC)の同時確率最適化は大規模な確率的組合せ最適化問題であり、複数の鉱山から物質を抽出し、その処理を相互接続した設備を用いて最終生成物を生成すると同時に、物質供給(地質)の不確実性を考慮し、関連するリスクを管理する。
シミュレーションアニーリングはSSOMCの解法を比較する方法よりも優れていることが示されているが、初期の性能は、ヒューリスティックスの性能の組み合わせが適用すべき摂動を決定するために使用されるという最近の性能よりも優れている可能性がある。
本研究では、SSOMCを解くために、完全自己管理型ハイパーヒューリスティックのヒューリスティックスケジューリングのためのデータ駆動型フレームワークを提案する。
提案したL2P(Learning-to-perturb)ハイパーヒューリスティックは,マルチ近隣シミュレーションアニールアルゴリズムである。
L2Pは、強化学習を用いて自己適応的に適用すべきヒューリスティック(摂動)を選択し、特定の探索点に適した局所探索を効率的に探索する。
いくつかの最先端エージェントがL2Pに組み込まれ、検索をより良く適応させ、より良いソリューションへと導く。
ヒューリスティックスの性能を記述するデータから学習することにより、より高速な解を求めるヒューリスティックスの問題固有の順序を求めることができる。
l2pは、効率、堅牢性、一般化能力を重視した、いくつかの実世界の鉱業複合体でテストされている。
その結果,反復回数を30~50%削減し,計算時間を30~45%削減した。
関連論文リスト
- A Learned Proximal Alternating Minimization Algorithm and Its Induced Network for a Class of Two-block Nonconvex and Nonsmooth Optimization [4.975853671529418]
本研究では,学習可能な2ブロック非平滑問題の解法として,一般学習型交互最小化アルゴリズムLPAMを提案する。
提案するLPAM-netはパラメータ効率が高く,いくつかの最先端手法と比較して良好な性能を示す。
論文 参考訳(メタデータ) (2024-11-10T02:02:32Z) - LLaMA-Berry: Pairwise Optimization for O1-like Olympiad-Level Mathematical Reasoning [56.273799410256075]
このフレームワークはMonte Carlo Tree Search (MCTS)と反復的なSelf-Refineを組み合わせて推論パスを最適化する。
このフレームワークは、一般的なベンチマークと高度なベンチマークでテストされており、探索効率と問題解決能力の点で優れた性能を示している。
論文 参考訳(メタデータ) (2024-10-03T18:12:29Z) - Sample-Efficient Multi-Agent RL: An Optimization Perspective [103.35353196535544]
一般関数近似に基づく汎用マルコフゲーム(MG)のためのマルチエージェント強化学習(MARL)について検討した。
汎用MGに対するマルチエージェントデカップリング係数(MADC)と呼ばれる新しい複雑性尺度を導入する。
我々のアルゴリズムは既存の研究に匹敵するサブリニアな後悔を与えることを示す。
論文 参考訳(メタデータ) (2023-10-10T01:39:04Z) - Federated Conditional Stochastic Optimization [110.513884892319]
条件付き最適化は、不変学習タスク、AUPRC、AMLなど、幅広い機械学習タスクで見られる。
本稿では,分散フェデレーション学習のためのアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-10-04T01:47:37Z) - Maximize to Explore: One Objective Function Fusing Estimation, Planning,
and Exploration [87.53543137162488]
我々はtextttMEX というオンライン強化学習(オンラインRL)フレームワークを提案する。
textttMEXは、自動的に探索エクスプロイトのバランスをとりながら、見積もりと計画コンポーネントを統合する。
様々な MuJoCo 環境では,ベースラインを安定的なマージンで上回り,十分な報酬を得られる。
論文 参考訳(メタデータ) (2023-05-29T17:25:26Z) - Optimal and Efficient Algorithms for General Mixable Losses against
Switching Oracles [0.0]
動的環境における混合損失関数のオンライン最適化について検討する。
我々の結果は、個々のシーケンス方式で強い決定論的意味を持つことが保証されている。
論文 参考訳(メタデータ) (2021-08-13T21:48:55Z) - A Two-stage Framework and Reinforcement Learning-based Optimization
Algorithms for Complex Scheduling Problems [54.61091936472494]
本稿では、強化学習(RL)と従来の運用研究(OR)アルゴリズムを組み合わせた2段階のフレームワークを開発する。
スケジューリング問題は,有限マルコフ決定過程 (MDP) と混合整数計画過程 (mixed-integer programming process) の2段階で解決される。
その結果,本アルゴリズムは,アジャイルな地球観測衛星スケジューリング問題に対して,安定かつ効率的に十分なスケジューリング計画を得ることができた。
論文 参考訳(メタデータ) (2021-03-10T03:16:12Z) - Combining Deep Learning and Optimization for Security-Constrained
Optimal Power Flow [94.24763814458686]
セキュリティに制約のある最適電力フロー(SCOPF)は、電力システムの基本である。
SCOPF問題におけるAPRのモデル化は、複雑な大規模混合整数プログラムをもたらす。
本稿では,ディープラーニングとロバスト最適化を組み合わせた新しい手法を提案する。
論文 参考訳(メタデータ) (2020-07-14T12:38:21Z) - Anytime Behavior of Inexact TSP Solvers and Perspectives for Automated
Algorithm Selection [0.0]
トラベリング・サレスパーソン・プロブレム(TSP)は、最もよく知られたNPハード最適化問題の1つである。
我々は、不正確なTSPソルバの任意の動作に対処することで、既存のベンチマーク研究を拡張した。
その結果、解法の性能ランキングは、集中した近似品質に大きく依存していることが判明した。
論文 参考訳(メタデータ) (2020-05-27T11:36:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。