論文の概要: Learning for Robust Combinatorial Optimization: Algorithm and
Application
- arxiv url: http://arxiv.org/abs/2112.10377v1
- Date: Mon, 20 Dec 2021 07:58:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-21 18:54:25.926700
- Title: Learning for Robust Combinatorial Optimization: Algorithm and
Application
- Title(参考訳): Robust Combinatorial Optimizationの学習:アルゴリズムと応用
- Authors: Zhihui Shao and Jianyi Yang and Cong Shen and Shaolei Ren
- Abstract要約: 最適化学習(L2O)は、ニューラルネットワークの強い予測力を活用することにより、最適化問題を解決するための有望なアプローチとして登場した。
本稿では,不確実な状況下で頑健な解を迅速に出力するLRCOという新しい学習ベース最適化を提案する。
その結果、LRCOは、非常に少ない複雑さで、最悪のケースコストとランタイムを大幅に削減できることがわかった。
- 参考スコア(独自算出の注目度): 26.990988571097827
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning to optimize (L2O) has recently emerged as a promising approach to
solving optimization problems by exploiting the strong prediction power of
neural networks and offering lower runtime complexity than conventional
solvers. While L2O has been applied to various problems, a crucial yet
challenging class of problems -- robust combinatorial optimization in the form
of minimax optimization -- have largely remained under-explored. In addition to
the exponentially large decision space, a key challenge for robust
combinatorial optimization lies in the inner optimization problem, which is
typically non-convex and entangled with outer optimization. In this paper, we
study robust combinatorial optimization and propose a novel learning-based
optimizer, called LRCO (Learning for Robust Combinatorial Optimization), which
quickly outputs a robust solution in the presence of uncertain context. LRCO
leverages a pair of learning-based optimizers -- one for the minimizer and the
other for the maximizer -- that use their respective objective functions as
losses and can be trained without the need of labels for training problem
instances. To evaluate the performance of LRCO, we perform simulations for the
task offloading problem in vehicular edge computing. Our results highlight that
LRCO can greatly reduce the worst-case cost and improve robustness, while
having a very low runtime complexity.
- Abstract(参考訳): learning to optimize (l2o)は、ニューラルネットワークの強力な予測力を利用して、従来の解法よりもランタイムの複雑さを低くすることで最適化問題を解決する、有望なアプローチとして最近登場した。
L2Oは様々な問題に適用されてきたが、極小最適化という形で頑健な組合せ最適化という、決定的かつ挑戦的な問題のクラスは、ほとんど未解決のままである。
指数関数的に大きい決定空間に加えて、ロバストな組合せ最適化の重要な課題は内的最適化問題であり、これは通常非凸であり外的最適化と絡み合っている。
本稿では, 頑健な組合せ最適化について検討し, LRCO (Learning for Robust Combinatorial Optimization) と呼ばれる新しい学習型最適化手法を提案する。
LRCOは2つの学習ベースのオプティマイザ(最小化用と最大化用)を活用し、それぞれの目的関数を損失として使用し、問題インスタンスをトレーニングするラベルを必要とせずにトレーニングすることができる。
LRCOの性能を評価するため,車両エッジコンピューティングにおけるタスクオフロード問題のシミュレーションを行う。
その結果,LRCOはランタイムの複雑さを極めて低くしながら,最悪のケースコストを大幅に削減し,堅牢性を向上させることができることがわかった。
関連論文リスト
- Self-Supervised Learning of Iterative Solvers for Constrained Optimization [0.0]
制約付き最適化のための学習型反復解法を提案する。
解法を特定のパラメトリック最適化問題にカスタマイズすることで、非常に高速で正確な解を得ることができる。
最適性のKarush-Kuhn-Tucker条件に基づく新しい損失関数を導入し、両ニューラルネットワークの完全な自己教師付きトレーニングを可能にする。
論文 参考訳(メタデータ) (2024-09-12T14:17:23Z) - Iterative or Innovative? A Problem-Oriented Perspective for Code Optimization [81.88668100203913]
大規模言語モデル(LLM)は、幅広いプログラミングタスクを解く上で強力な能力を示している。
本稿では,パフォーマンス向上に着目したコード最適化について検討する。
論文 参考訳(メタデータ) (2024-06-17T16:10:10Z) - Landscape Surrogate: Learning Decision Losses for Mathematical
Optimization Under Partial Information [48.784330281177446]
学習統合最適化の最近の研究は、最適化が部分的にのみ観察される場合や、専門家のチューニングなしに汎用性が不十分な環境では有望であることを示している。
本稿では,$fcirc mathbfg$の代替として,スムーズで学習可能なランドスケープサロゲートを提案する。
このサロゲートはニューラルネットワークによって学習可能で、$mathbfg$ソルバよりも高速に計算でき、トレーニング中に密度が高く滑らかな勾配を提供し、目に見えない最適化問題に一般化でき、交互最適化によって効率的に学習される。
論文 参考訳(メタデータ) (2023-07-18T04:29:16Z) - Approaching Globally Optimal Energy Efficiency in Interference Networks
via Machine Learning [22.926877147296594]
本研究は,マルチセル無線ネットワークにおけるエネルギー効率(EE)を最適化する機械学習手法を提案する。
その結果,この手法は分岐計算テストにより最適値に近いEEを達成できることが判明した。
論文 参考訳(メタデータ) (2022-11-25T08:36:34Z) - Learning Adaptive Evolutionary Computation for Solving Multi-Objective
Optimization Problems [3.3266268089678257]
本稿では, 深層強化学習(DRL)を用いた適応パラメータ制御とMOEAを統合したフレームワークを提案する。
DRLポリシは、最適化中のソリューションに対する突然変異の強度と確率を決定する値を適応的に設定するように訓練されている。
学習されたポリシーは転送可能であることを示す。つまり、単純なベンチマーク問題で訓練されたポリシーは、複雑な倉庫最適化問題を解決するために直接適用可能である。
論文 参考訳(メタデータ) (2022-11-01T22:08:34Z) - Teaching Networks to Solve Optimization Problems [13.803078209630444]
反復解法をトレーニング可能なパラメトリック集合関数に置き換えることを提案する。
このようなパラメトリックな(集合)関数を学習することで、様々な古典的最適化問題を解くことができることを示す。
論文 参考訳(メタデータ) (2022-02-08T19:13:13Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Learning to Optimize Under Constraints with Unsupervised Deep Neural
Networks [0.0]
機械学習(ML)手法を提案し,汎用的制約付き連続最適化問題の解法を学習する。
本稿では,制約付き最適化問題をリアルタイムに解くための教師なしディープラーニング(DL)ソリューションを提案する。
論文 参考訳(メタデータ) (2021-01-04T02:58:37Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Self-Directed Online Machine Learning for Topology Optimization [58.920693413667216]
自己指向型オンライン学習最適化は、ディープニューラルネットワーク(DNN)と有限要素法(FEM)計算を統合している。
本アルゴリズムは, コンプライアンスの最小化, 流体構造最適化, 伝熱促進, トラス最適化の4種類の問題によって検証された。
その結果, 直接使用法と比較して計算時間を2~5桁削減し, 実験で検証した全ての最先端アルゴリズムより優れていた。
論文 参考訳(メタデータ) (2020-02-04T20:00:28Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。