論文の概要: Universal Online Optimization in Dynamic Environments via Uniclass
Prediction
- arxiv url: http://arxiv.org/abs/2302.06066v1
- Date: Mon, 13 Feb 2023 03:00:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-14 16:53:06.745442
- Title: Universal Online Optimization in Dynamic Environments via Uniclass
Prediction
- Title(参考訳): 単クラス予測による動的環境のユニバーサルオンライン最適化
- Authors: Arnold Salas
- Abstract要約: 動的環境におけるユニバーサルオンライン最適化のための新しい直感的なフレームワークを提案する。
私たちの戦略は、専門家のセットと付随するメタアルゴリズムの構築に依存していません。
これは、一般凸コスト関数に対しても、最先端の動的後悔保証を伴う普遍的アプローチを提案する最初の論文である。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, several universal methods have been proposed for online convex
optimization which can handle convex, strongly convex and exponentially concave
cost functions simultaneously. However, most of these algorithms have been
designed with static regret minimization in mind, but this notion of regret may
not be suitable for changing environments. To address this shortcoming, we
propose a novel and intuitive framework for universal online optimization in
dynamic environments. Unlike existing universal algorithms, our strategy does
not rely on the construction of a set of experts and an accompanying
meta-algorithm. Instead, we show that the problem of dynamic online
optimization can be reduced to a uniclass prediction problem. By leaving the
choice of uniclass loss function in the user's hands, they are able to control
and optimize dynamic regret bounds, which in turn carry over into the original
problem. To the best of our knowledge, this is the first paper proposing a
universal approach with state-of-the-art dynamic regret guarantees even for
general convex cost functions.
- Abstract(参考訳): 近年,コンベックス,強凸,指数的にコスト関数を同時に扱えるオンライン凸最適化法がいくつか提案されている。
しかしながら、これらのアルゴリズムの多くは静的な後悔の最小化を念頭に設計されているが、この後悔の概念は環境の変化に適していないかもしれない。
この欠点に対処するため、動的環境におけるユニバーサルオンライン最適化のための新しい直感的なフレームワークを提案する。
既存の普遍的アルゴリズムとは異なり、我々の戦略は専門家の集合と付随するメタアルゴリズムの構築に依存しない。
代わりに、動的なオンライン最適化の問題は一クラス予測問題に還元できることを示した。
ユーザの手に一級損失関数の選択を残すことで、動的後悔境界の制御と最適化が可能となり、結果として元の問題へと引き継がれる。
我々の知る限りでは、一般的な凸コスト関数に対しても、最先端の動的後悔保証を伴う普遍的アプローチを提案する最初の論文である。
関連論文リスト
- Analyzing and Enhancing the Backward-Pass Convergence of Unrolled
Optimization [50.38518771642365]
ディープネットワークにおけるコンポーネントとしての制約付き最適化モデルの統合は、多くの専門的な学習タスクに有望な進歩をもたらした。
この設定における中心的な課題は最適化問題の解によるバックプロパゲーションであり、しばしば閉形式を欠いている。
本稿では, 非線形最適化の後方通過に関する理論的知見を提供し, 特定の反復法による線形システムの解と等価であることを示す。
Folded Optimizationと呼ばれるシステムが提案され、非ローリングなソルバ実装からより効率的なバックプロパゲーションルールを構築する。
論文 参考訳(メタデータ) (2023-12-28T23:15:18Z) - Introduction to Online Nonstochastic Control [34.77535508151501]
オンラインの非確率制御では、コスト関数と仮定された力学モデルからの摂動の両方が敵によって選択される。
目標は、ベンチマーククラスの政策から見て、最高の政策に対して低い後悔を得ることだ。
論文 参考訳(メタデータ) (2022-11-17T16:12:45Z) - Adaptivity and Non-stationarity: Problem-dependent Dynamic Regret for Online Convex Optimization [70.4342220499858]
本稿では,スムーズさを生かし,問題依存量による動的後悔のT$への依存を補う新しいオンラインアルゴリズムを提案する。
この結果が本質的な難易度に適応しているのは, 既往の結果よりも厳密であり, 最悪の場合, 同一レートの保護が可能であるからである。
論文 参考訳(メタデータ) (2021-12-29T02:42:59Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - SUPER-ADAM: Faster and Universal Framework of Adaptive Gradients [99.13839450032408]
一般的な問題を解決するための適応アルゴリズムのための普遍的な枠組みを設計することが望まれる。
特に,本フレームワークは,非収束的設定支援の下で適応的手法を提供する。
論文 参考訳(メタデータ) (2021-06-15T15:16:28Z) - Universal Online Convex Optimization Meets Second-order Bounds [74.0120666722487]
ユニバーサルオンライン凸最適化のための簡単な戦略を提案する。
主要なアイデアは、オリジナルのオンライン機能を処理するための専門家のセットを構築し、線形化された損失に対してメタアルゴリズムをデプロイすることである。
このようにして、私たちはブラックボックスの専門家として、既成のオンライン問題解決者をプラグインして、問題依存の後悔の限界を提供することができます。
論文 参考訳(メタデータ) (2021-05-08T11:43:49Z) - An Online Prediction Approach Based on Incremental Support Vector
Machine for Dynamic Multiobjective Optimization [19.336520152294213]
インクリメンタルサポートベクトルマシン(ISVM)に基づく新しい予測アルゴリズムを提案する。
動的多目的最適化問題(DMOP)の解決をオンライン学習プロセスとして扱う。
提案アルゴリズムは動的多目的最適化問題に効果的に取り組むことができる。
論文 参考訳(メタデータ) (2021-02-24T08:51:23Z) - FISAR: Forward Invariant Safe Reinforcement Learning with a Deep Neural
Network-Based Optimize [44.65622657676026]
Lyapunov関数として制約を取り、ポリシーパラメータの更新ダイナミクスに新たな線形制約を課す。
新しい保証可能な制約が元のポリシーパラメータの代わりに動的に更新されるため、古典的な最適化アルゴリズムはもはや適用されない。
論文 参考訳(メタデータ) (2020-06-19T21:58:42Z) - Minimizing Dynamic Regret and Adaptive Regret Simultaneously [60.17824125301273]
動的後悔と適応的後悔を同時に最小化できる新しいオンラインアルゴリズムを提案する。
我々の理論的保証は、あるアルゴリズムが任意の間隔で動的後悔を最小化できるという意味でさらに強い。
論文 参考訳(メタデータ) (2020-02-06T03:32:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。