論文の概要: Good and Bad Optimization Models: Insights from Rockafellians
- arxiv url: http://arxiv.org/abs/2105.06073v1
- Date: Thu, 13 May 2021 04:31:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-14 13:48:32.229562
- Title: Good and Bad Optimization Models: Insights from Rockafellians
- Title(参考訳): 善と悪の最適化モデル:rockafelliansからの洞察
- Authors: Johannes O. Royset
- Abstract要約: このチュートリアルでは、この幅広い視点から得られる機会と洞察について説明します。
このチュートリアルでは、この幅広い視点から得られる機会と洞察について説明します。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A basic requirement for a mathematical model is often that its solution
(output) shouldn't change much if the model's parameters (input) are perturbed.
This is important because the exact values of parameters may not be known and
one would like to avoid being mislead by an output obtained using incorrect
values. Thus, it's rarely enough to address an application by formulating a
model, solving the resulting optimization problem and presenting the solution
as the answer. One would need to confirm that the model is suitable, i.e.,
"good," and this can, at least in part, be achieved by considering a family of
optimization problems constructed by perturbing parameters of concern. The
resulting sensitivity analysis uncovers troubling situations with unstable
solutions, which we referred to as "bad" models, and indicates better model
formulations. Embedding an actual problem of interest within a family of
problems is also a primary path to optimality conditions as well as
computationally attractive, alternative problems, which under ideal
circumstances, and when properly tuned, may even furnish the minimum value of
the actual problem. The tuning of these alternative problems turns out to be
intimately tied to finding multipliers in optimality conditions and thus
emerges as a main component of several optimization algorithms. In fact, the
tuning amounts to solving certain dual optimization problems. In this tutorial,
we'll discuss the opportunities and insights afforded by this broad
perspective.
- Abstract(参考訳): 数学的モデルの基本的な要件は、モデルのパラメータ(入力)が摂動している場合、その解(出力)があまり変化しないことである。
これは、パラメータの正確な値は分かっておらず、間違った値を使って得られた出力によって誤解されるのを避けるために重要である。
したがって、モデルを定式化し、結果の最適化問題を解決し、ソリューションを答えとして提示することで、アプリケーションに取り組むのに十分なことはめったにない。
モデルが適切であること、すなわち「良い」であることを確認する必要があり、少なくとも部分的には、関心のあるパラメータを摂動させることで構築された最適化問題のファミリーを考えることで達成できる。
その結果得られた感度分析により,不安定解が問題となる状況が明らかになり,より優れたモデル定式化が示された。
問題の族に実際の関心の問題を埋め込むことは、最適条件への主要な経路であり、また計算的に魅力的な代替問題であり、理想的な状況下で、適切に調整された場合には、実際の問題の最小値さえも与える。
これらの代替問題のチューニングは最適条件における乗算器の発見と密接に結びついており、いくつかの最適化アルゴリズムの主成分として現れる。
実際、チューニングは特定の双対最適化問題の解法に等しい。
このチュートリアルでは、この幅広い視点で得られる機会と洞察について論じる。
関連論文リスト
- Learning Joint Models of Prediction and Optimization [56.04498536842065]
Predict-Then-Thenフレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
本稿では,共同予測モデルを用いて観測可能特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2024-09-07T19:52:14Z) - Robust personalized pricing under uncertainty of purchase probabilities [2.9061423802698565]
予測された購入確率の不確実性を考慮したパーソナライズ価格のロバストな最適化モデルを提案する。
また、線形探索と組み合わせたラグランジアン分解アルゴリズムを開発し、大規模最適化問題に対する高品質な解を効率的に見つける。
論文 参考訳(メタデータ) (2024-07-22T02:36:19Z) - BO4IO: A Bayesian optimization approach to inverse optimization with uncertainty quantification [5.031974232392534]
この研究はデータ駆動逆最適化(IO)に対処する。
目的は最適化モデルにおける未知のパラメータを、最適あるいは準最適と仮定できる観測された決定から推定することである。
論文 参考訳(メタデータ) (2024-05-28T06:52:17Z) - Predict-Then-Optimize by Proxy: Learning Joint Models of Prediction and
Optimization [59.386153202037086]
Predict-Then-フレームワークは、機械学習モデルを使用して、最適化問題の未知のパラメータを、解決前の機能から予測する。
このアプローチは非効率であり、最適化ステップを通じてバックプロパゲーションのための手作りの、問題固有のルールを必要とする。
本稿では,予測モデルを用いて観測可能な特徴から最適解を直接学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-22T01:32:06Z) - Efficient Learning of Decision-Making Models: A Penalty Block Coordinate
Descent Algorithm for Data-Driven Inverse Optimization [12.610576072466895]
我々は、意思決定プロセスを明らかにするために、事前の意思決定データを使用する逆問題を考える。
この統計的学習問題は、データ駆動逆最適化と呼ばれる。
そこで本稿では,大規模問題を解くために,効率的なブロック座標降下に基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-27T12:52:56Z) - Modeling the Second Player in Distributionally Robust Optimization [90.25995710696425]
我々は、最悪のケース分布を特徴付けるために神経生成モデルを使うことを議論する。
このアプローチは多くの実装と最適化の課題をもたらします。
提案されたアプローチは、同等のベースラインよりも堅牢なモデルを生み出す。
論文 参考訳(メタデータ) (2021-03-18T14:26:26Z) - Offline Model-Based Optimization via Normalized Maximum Likelihood
Estimation [101.22379613810881]
データ駆動最適化の問題を検討し、一定の点セットでクエリのみを与えられた関数を最大化する必要がある。
この問題は、関数評価が複雑で高価なプロセスである多くの領域に現れる。
我々は,提案手法を高容量ニューラルネットワークモデルに拡張可能なトラクタブル近似を提案する。
論文 参考訳(メタデータ) (2021-02-16T06:04:27Z) - Automatically Learning Compact Quality-aware Surrogates for Optimization
Problems [55.94450542785096]
未知パラメータで最適化問題を解くには、未知パラメータの値を予測し、これらの値を用いて問題を解くための予測モデルを学ぶ必要がある。
最近の研究によると、複雑なトレーニングモデルパイプラインのレイヤーとして最適化の問題を含めると、観測されていない意思決定の繰り返しを予測することになる。
我々は,大規模最適化問題の低次元サロゲートモデルを学習することにより,解の質を向上させることができることを示す。
論文 参考訳(メタデータ) (2020-06-18T19:11:54Z) - Bilevel Optimization for Differentially Private Optimization in Energy
Systems [53.806512366696275]
本稿では,入力に敏感な制約付き最適化問題に対して,差分プライバシーを適用する方法について検討する。
本稿は, 自然仮定の下では, 大規模非線形最適化問題に対して, 双レベルモデルを効率的に解けることを示す。
論文 参考訳(メタデータ) (2020-01-26T20:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。