論文の概要: Online Dynamic Submodular Optimization
- arxiv url: http://arxiv.org/abs/2306.10835v1
- Date: Mon, 19 Jun 2023 10:37:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:06:03.658526
- Title: Online Dynamic Submodular Optimization
- Title(参考訳): オンライン動的サブモジュラー最適化
- Authors: Antoine Lesage-Landry and Julien Pallage
- Abstract要約: オンラインバイナリ最適化のための証明可能な性能を持つ新しいアルゴリズムを提案する。
目的関数が部分モジュラーな問題の部分集合を考える。
2つのパワーシステムアプリケーションでアルゴリズムを数値的にテストする。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose new algorithms with provable performance for online binary
optimization subject to general constraints and in dynamic settings. We
consider the subset of problems in which the objective function is submodular.
We propose the online submodular greedy algorithm (OSGA) which solves to
optimality an approximation of the previous round's loss function to avoid the
NP-hardness of the original problem. We extend OSGA to a generic approximation
function. We show that OSGA has a dynamic regret bound similar to the tightest
bounds in online convex optimization. For instances where no approximation
exists or a computationally simpler implementation is desired, we design the
online submodular projected gradient descent (OSPGD) by leveraging the Lov\'asz
extension. We obtain a regret bound that is akin to the conventional online
gradient descent (OGD). Finally, we numerically test our algorithms in two
power system applications: fast-timescale demand response and real-time
distribution network reconfiguration.
- Abstract(参考訳): 一般的な制約と動的設定を主とするオンラインバイナリ最適化のための性能を証明可能な新しいアルゴリズムを提案する。
対象関数が部分モジュラーである問題の部分集合を考える。
本稿では,前ラウンドの損失関数の近似を最適に解き,元の問題のNP硬さを回避するオンラインサブモジュラーグリードアルゴリズム(OSGA)を提案する。
我々はOSGAを一般的な近似関数に拡張する。
我々は,OSGAがオンライン凸最適化において最も厳密な境界に類似した動的後悔境界を有することを示す。
近似が存在しない場合や計算学的に単純な実装が望まれる場合、Lov\'asz拡張を利用してオンラインのサブモジュラー射影勾配勾配(OSPGD)を設計する。
我々は,従来のオンライン勾配降下法(ogd)に類似した後悔境界を求める。
最後に、我々のアルゴリズムを高速な需要応答とリアルタイム分散ネットワーク再構成の2つのパワーシステムアプリケーションで数値的にテストする。
関連論文リスト
- Gradient-Variation Online Learning under Generalized Smoothness [56.38427425920781]
勾配変分オンライン学習は、オンライン関数の勾配の変化とともにスケールする後悔の保証を達成することを目的としている。
ニューラルネットワーク最適化における最近の取り組みは、一般化された滑らかさ条件を示唆し、滑らかさは勾配ノルムと相関する。
ゲームにおける高速収束と拡張逆最適化への応用について述べる。
論文 参考訳(メタデータ) (2024-08-17T02:22:08Z) - Adaptive and Optimal Second-order Optimistic Methods for Minimax Optimization [32.939120407900035]
私たちのアルゴリズムは、イテレーション毎に1つの線形システムだけを解決する必要のある、単純な更新ルールを備えています。
また,提案アルゴリズムの実用性能を,既存の2次アルゴリズムと比較して評価した。
論文 参考訳(メタデータ) (2024-06-04T06:56:41Z) - From Linear to Linearizable Optimization: A Novel Framework with Applications to Stationary and Non-stationary DR-submodular Optimization [33.38582292895673]
本稿では,モノトーン非線型やDR-サブモジュラリティなど,様々な環境での凹凸とDR-サブモジュラリティの概念を紹介する。
一般的なメタアルゴリズムは、線形/四進関数を上線形/四進関数を最適化するものに変換する。
論文 参考訳(メタデータ) (2024-04-27T06:19:30Z) - Ordering for Non-Replacement SGD [7.11967773739707]
我々は,アルゴリズムの非置換形式に対する収束率を改善する順序付けを求める。
我々は,強い凸関数と凸関数のステップサイズを一定かつ小さくするための最適順序付けを開発する。
さらに、注文とミニバッチを組み合わせることで、より複雑なニューラルネットワークにも適用できます。
論文 参考訳(メタデータ) (2023-06-28T00:46:58Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Adaptivity and Non-stationarity: Problem-dependent Dynamic Regret for Online Convex Optimization [70.4342220499858]
本稿では,スムーズさを生かし,問題依存量による動的後悔のT$への依存を補う新しいオンラインアルゴリズムを提案する。
この結果が本質的な難易度に適応しているのは, 既往の結果よりも厳密であり, 最悪の場合, 同一レートの保護が可能であるからである。
論文 参考訳(メタデータ) (2021-12-29T02:42:59Z) - Lower Bounds and Optimal Algorithms for Smooth and Strongly Convex
Decentralized Optimization Over Time-Varying Networks [79.16773494166644]
通信ネットワークのノード間を分散的に保存するスムーズで強い凸関数の和を最小化するタスクについて検討する。
我々は、これらの下位境界を達成するための2つの最適アルゴリズムを設計する。
我々は,既存の最先端手法と実験的な比較を行うことにより,これらのアルゴリズムの理論的効率を裏付ける。
論文 参考訳(メタデータ) (2021-06-08T15:54:44Z) - A Dynamical View on Optimization Algorithms of Overparameterized Neural
Networks [23.038631072178735]
我々は、一般的に使用される最適化アルゴリズムの幅広いクラスについて考察する。
その結果、ニューラルネットワークの収束挙動を利用することができる。
このアプローチは他の最適化アルゴリズムやネットワーク理論にも拡張できると考えています。
論文 参考訳(メタデータ) (2020-10-25T17:10:22Z) - GTAdam: Gradient Tracking with Adaptive Momentum for Distributed Online
Optimization [4.103281325880475]
本稿では、中央コーディネータを使わずに、局所的な計算と通信によって、オンライン最適化問題を分散的に解決することを目的とした、計算機エージェントのネットワークを扱う。
本稿では,適応運動量推定法(GTAdam)を用いた勾配追従法と,勾配の1次および2次運動量推定法を組み合わせた勾配追従法を提案する。
マルチエージェント学習によるこれらの数値実験では、GTAdamは最先端の分散最適化手法よりも優れている。
論文 参考訳(メタデータ) (2020-09-03T15:20:21Z) - Convergence of adaptive algorithms for weakly convex constrained
optimization [59.36386973876765]
モローエンベロープの勾配のノルムに対して$mathcaltilde O(t-1/4)$収束率を証明する。
我々の分析では、最小バッチサイズが1ドル、定数が1位と2位のモーメントパラメータが1ドル、そしておそらくスムーズな最適化ドメインで機能する。
論文 参考訳(メタデータ) (2020-06-11T17:43:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。