論文の概要: Expert-Calibrated Learning for Online Optimization with Switching Costs
- arxiv url: http://arxiv.org/abs/2204.08572v1
- Date: Mon, 18 Apr 2022 21:54:33 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 15:10:05.815553
- Title: Expert-Calibrated Learning for Online Optimization with Switching Costs
- Title(参考訳): 切り替えコストを考慮したオンライン最適化のためのエキスパート校正学習
- Authors: Pengfei Li and Jianyi Yang and Shaolei Ren
- Abstract要約: スイッチングコストによるオンライン凸最適化について検討する。
機械学習(ML)ベースのパワーを取り入れることで、MLに強化されたオンラインアルゴリズムが最先端として現れている。
本稿では,エキスパートキャリブレータを明示的に考慮し,MLに基づくアルゴリズムを訓練するEC-L2Oを提案する。
- 参考スコア(独自算出の注目度): 28.737193318136725
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study online convex optimization with switching costs, a practically
important but also extremely challenging problem due to the lack of complete
offline information. By tapping into the power of machine learning (ML) based
optimizers, ML-augmented online algorithms (also referred to as expert
calibration in this paper) have been emerging as state of the art, with
provable worst-case performance guarantees. Nonetheless, by using the standard
practice of training an ML model as a standalone optimizer and plugging it into
an ML-augmented algorithm, the average cost performance can be even worse than
purely using ML predictions. In order to address the "how to learn" challenge,
we propose EC-L2O (expert-calibrated learning to optimize), which trains an
ML-based optimizer by explicitly taking into account the downstream expert
calibrator. To accomplish this, we propose a new differentiable expert
calibrator that generalizes regularized online balanced descent and offers a
provably better competitive ratio than pure ML predictions when the prediction
error is large. For training, our loss function is a weighted sum of two
different losses -- one minimizing the average ML prediction error for better
robustness, and the other one minimizing the post-calibration average cost. We
also provide theoretical analysis for EC-L2O, highlighting that expert
calibration can be even beneficial for the average cost performance and that
the high-percentile tail ratio of the cost achieved by EC-L2O to that of the
offline optimal oracle (i.e., tail cost ratio) can be bounded. Finally, we test
EC-L2O by running simulations for sustainable datacenter demand response. Our
results demonstrate that EC-L2O can empirically achieve a lower average cost as
well as a lower competitive ratio than the existing baseline algorithms.
- Abstract(参考訳): オンライン凸最適化をスイッチングコストで検討し、オフライン情報の完全欠如により、事実上重要な問題であるが非常に難しい問題である。
機械学習(ML)ベースのオプティマイザのパワーを取り入れることで、ML強化オンラインアルゴリズム(この論文ではエキスパートキャリブレーションとも呼ばれる)が最先端のパフォーマンス保証を備えた最先端技術として浮上している。
それでも、MLモデルをスタンドアロンのオプティマイザとしてトレーニングし、それをML拡張アルゴリズムにプラグインする標準的なプラクティスを使用することで、ML予測を純粋に使用するよりもコストパフォーマンスがさらに悪くなります。
学習方法」の課題に対処するために,下流の専門家カリブレータを明示的に考慮してmlベースのオプティマイザを訓練するec-l2o(expert-calibrated learning to optimize)を提案する。
そこで本研究では,正規化オンラインバランスド降下を一般化し,予測誤差が大きい場合の純粋なml予測よりも高い競合率を提供する,新たな微分可能エキスパートキャリブレータを提案する。
トレーニングでは、損失関数は2つの異なる損失の重み付けされた総和であり、1つは平均ML予測誤差を最小化し、もう1つはキャリブレーション後の平均コストを最小化する。
また、EC-L2Oの理論分析を行い、エキスパートキャリブレーションが平均コスト性能にさらに有益であること、EC-L2Oが達成したコストとオフライン最適オラクル(テールコスト比)のコストの高パーセントテール比を有界化できることを強調した。
最後に、持続可能なデータセンター需要応答のためのシミュレーションを実行することでEC-L2Oをテストする。
以上の結果から,EC-L2Oは既存のベースラインアルゴリズムよりも低い平均コストと低い競合率を実証的に達成できることが示された。
関連論文リスト
- Scaling Laws for Predicting Downstream Performance in LLMs [75.28559015477137]
この研究は、性能評価のためのより効率的な指標として、事前学習損失に焦点を当てている。
我々は、データソース間のFLOPに基づいて、ドメイン固有の事前学習損失を予測するために、電力法解析関数を拡張した。
我々は2層ニューラルネットワークを用いて、複数のドメイン固有の損失と下流性能の非線形関係をモデル化する。
論文 参考訳(メタデータ) (2024-10-11T04:57:48Z) - Pricing American Options using Machine Learning Algorithms [0.0]
本研究は,モンテカルロシミュレーションを用いて,機械学習アルゴリズムのアメリカ人オプションの価格設定への応用について検討する。
Black-Scholes-Mertonフレームワークのような伝統的なモデルは、しばしばアメリカの選択肢の複雑さに適切に対処できない。
モンテカルロ法とLast Square Methodを併用して機械学習を行った。
論文 参考訳(メタデータ) (2024-09-05T02:52:11Z) - Decision Focused Causal Learning for Direct Counterfactual Marketing Optimization [21.304040539486184]
決定集中学習(DFL)は機械学習(ML)と最適化をエンドツーエンドフレームワークに統合する。
しかし、DFLをマーケティングに展開するのは、複数の技術的課題のために簡単ではない。
本稿では,直接対物マーケティングのための意思決定型因果学習フレームワーク(DFCL)を提案する。
論文 参考訳(メタデータ) (2024-07-18T16:39:44Z) - Learning-augmented Online Minimization of Age of Information and
Transmission Costs [24.873041306990288]
我々は,送信コストと安定化コストの合計を最小化し,最悪の性能保証を実現するために,オンラインアルゴリズムを開発した。
オンラインアルゴリズムは堅牢だが、概して保守的であり、典型的なシナリオでは平均的なパフォーマンスが劣っている。
学習強化アルゴリズムは一貫性と堅牢性の両方を達成することを示す。
論文 参考訳(メタデータ) (2024-03-05T01:06:25Z) - Robust Learning for Smoothed Online Convex Optimization with Feedback
Delay [43.85262428603507]
我々は、新しい機械学習(ML)拡張オンラインアルゴリズム、Robustness-Constrained Learning(RCL)を提案する。
RCLは信頼できないML予測と、制約付きプロジェクションを通じて信頼された専門家のオンラインアルゴリズムを組み合わせることで、ML予測を堅牢化する。
RCLは、マルチステップ切替コストとフィードバック遅延の場合に、証明可能な堅牢性を保証する最初のML拡張アルゴリズムである。
論文 参考訳(メタデータ) (2023-10-31T00:22:55Z) - Robustified Learning for Online Optimization with Memory Costs [28.737193318136725]
本稿では,高い平均性能とロバスト性を両立する,新しいエキスパート・ロバスト学習(ERL)手法を提案する。
任意の$lambdageq1$に対して、ERLはエキスパートアルゴリズムに対して$lambda$-competitive、最適なオフラインアルゴリズムに対して$lambdacdot C$-competitiveを達成することができる。
論文 参考訳(メタデータ) (2023-05-01T06:12:01Z) - M-L2O: Towards Generalizable Learning-to-Optimize by Test-Time Fast
Self-Adaptation [145.7321032755538]
L2O(Learning to Optimize)は、複雑なタスクの最適化手順を著しく加速させるため、注目を集めている。
本稿では, アウト・オブ・ディストリビューションタスクへの高速なテスト時間自己適応を実現するL2Oをメタトレーニングすることで, このオープンな課題に対する潜在的な解決策を検討する。
論文 参考訳(メタデータ) (2023-02-28T19:23:20Z) - Learning to Generalize Provably in Learning to Optimize [185.71326306329678]
最適化学習(L2O)は、データ駆動アプローチによる最適化設計を自動化することで、人気が高まっている。
現在のL2O法は、少なくとも2回は一般化性能の低下に悩まされることが多い。
我々はこの2つのメトリクスを平坦性を考慮した正規化器としてL2Oフレームワークに組み込むことを提案する。
論文 参考訳(メタデータ) (2023-02-22T01:17:31Z) - Learning to Optimize: A Primer and A Benchmark [94.29436694770953]
最適化への学習(L2O)は、機械学習を活用して最適化方法を開発する新しいアプローチです。
この記事では、継続的最適化のためのL2Oの総合的な調査とベンチマークを行う。
論文 参考訳(メタデータ) (2021-03-23T20:46:20Z) - Optimization-driven Machine Learning for Intelligent Reflecting Surfaces
Assisted Wireless Networks [82.33619654835348]
インテリジェントサーフェス(IRS)は、個々の散乱素子の位相シフトを制御して無線チャネルを再形成するために用いられる。
散乱素子の規模が大きいため、受動ビームフォーミングは一般に高い計算複雑性によって挑戦される。
本稿では、IRS支援無線ネットワークの性能向上のための機械学習(ML)アプローチに焦点を当てる。
論文 参考訳(メタデータ) (2020-08-29T08:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。