論文の概要: Learning Hard Optimization Problems: A Data Generation Perspective
- arxiv url: http://arxiv.org/abs/2106.02601v1
- Date: Fri, 4 Jun 2021 17:03:44 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-07 14:49:30.929489
- Title: Learning Hard Optimization Problems: A Data Generation Perspective
- Title(参考訳): ハード最適化問題の学習:データ生成の視点から
- Authors: James Kotary, Ferdinando Fioretto, Pascal Van Hentenryck
- Abstract要約: 本稿では,トレーニングデータのボラティリティと,それを近似する能力について述べる。
そこで本研究では,教師付きタスクに対処可能な最適化問題に対して,(実際にあるいは近似的に)解を生成(生成)する方法を提案する。
- 参考スコア(独自算出の注目度): 44.4747903763245
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimization problems are ubiquitous in our societies and are present in
almost every segment of the economy. Most of these optimization problems are
NP-hard and computationally demanding, often requiring approximate solutions
for large-scale instances. Machine learning frameworks that learn to
approximate solutions to such hard optimization problems are a potentially
promising avenue to address these difficulties, particularly when many closely
related problem instances must be solved repeatedly. Supervised learning
frameworks can train a model using the outputs of pre-solved instances.
However, when the outputs are themselves approximations, when the optimization
problem has symmetric solutions, and/or when the solver uses randomization,
solutions to closely related instances may exhibit large differences and the
learning task can become inherently more difficult. This paper demonstrates
this critical challenge, connects the volatility of the training data to the
ability of a model to approximate it, and proposes a method for producing
(exact or approximate) solutions to optimization problems that are more
amenable to supervised learning tasks. The effectiveness of the method is
tested on hard non-linear nonconvex and discrete combinatorial problems.
- Abstract(参考訳): 最適化問題は我々の社会では至るところに存在し、経済のほぼすべての部分に存在している。
これらの最適化問題のほとんどはnpハードで計算の要求があり、大規模インスタンスの近似解を必要とすることが多い。
このような厳密な最適化問題に対するソリューションの近似を学習する機械学習フレームワークは、これらの困難に対処するための、潜在的に有望な方法である。
教師付き学習フレームワークは、事前解決されたインスタンスのアウトプットを使用してモデルをトレーニングすることができる。
しかし、出力がそれ自体近似であるとき、最適化問題が対称解を持つとき、あるいは解法がランダム化を使用するとき、密接な関連のあるインスタンスに対する解は大きな差を示し、学習タスクは本質的により困難になる可能性がある。
本稿では,この課題を実証し,学習データのボラティリティとモデルを近似する能力とを結びつけ,教師あり学習タスクに適した最適化問題に対して(実か近似か)解を生成する手法を提案する。
本手法の有効性は, 硬質非線形非凸および離散組合せ問題に対して検証した。
関連論文リスト
- Decomposition of Difficulties in Complex Optimization Problems Using a Bilevel Approach [0.30723404270319693]
実際の最適化問題には、特定の最適化方法に依存する場合、しばしば難解な様々な困難が含まれている。
複雑な最適化問題に対して2つのアプローチを同時に適用できる分解戦略を提案する。
論文 参考訳(メタデータ) (2024-07-03T18:59:17Z) - Looking Ahead to Avoid Being Late: Solving Hard-Constrained Traveling
Salesman Problem [36.88003015541172]
そこで本稿では,TSP と Time Windows (TSPTW) の正当性を改善するために,ルックアヘッド情報を用いた新しい学習手法を提案する。
多様なデータセットに関する包括的な実験により、MUSLAは既存のベースラインを上回り、一般化可能性を示す。
論文 参考訳(メタデータ) (2024-03-08T13:49:21Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Backpropagation of Unrolled Solvers with Folded Optimization [55.04219793298687]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
1つの典型的な戦略はアルゴリズムのアンローリングであり、これは反復解法の操作による自動微分に依存している。
本稿では,非ロール最適化の後方通過に関する理論的知見を提供し,効率よく解けるバックプロパゲーション解析モデルを生成するシステムに繋がる。
論文 参考訳(メタデータ) (2023-01-28T01:50:42Z) - A Framework for Inherently Interpretable Optimization Models [0.0]
何十年も前に難解だった大規模な問題の解決は、今や日常的な課題である。
1つの大きな障壁は、最適化ソフトウェアがブラックボックスとして認識できることである。
本稿では、本質的に理解しやすい説明規則を持つ解を導出する最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-26T10:32:00Z) - Learning Proximal Operators to Discover Multiple Optima [66.98045013486794]
非家族問題における近位演算子を学習するためのエンドツーエンド手法を提案する。
本手法は,弱い目的と穏やかな条件下では,世界規模で収束することを示す。
論文 参考訳(メタデータ) (2022-01-28T05:53:28Z) - Contrastive Losses and Solution Caching for Predict-and-Optimize [19.31153168397003]
ノイズコントラスト法を用いて、サロゲート損失関数の族を動機付ける。
すべての予測と最適化アプローチのボトルネックに対処する。
非常に遅い成長率でさえ、最先端の手法の質に合わせるのに十分であることを示す。
論文 参考訳(メタデータ) (2020-11-10T19:09:12Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Optimizing Wireless Systems Using Unsupervised and
Reinforced-Unsupervised Deep Learning [96.01176486957226]
無線ネットワークにおけるリソース割り当てとトランシーバーは、通常最適化問題の解決によって設計される。
本稿では,変数最適化と関数最適化の両問題を解くための教師なし・教師なし学習フレームワークを紹介する。
論文 参考訳(メタデータ) (2020-01-03T11:01:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。