論文の概要: An Efficient Interior-Point Method for Online Convex Optimization
- arxiv url: http://arxiv.org/abs/2307.11668v1
- Date: Fri, 21 Jul 2023 16:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-24 11:52:35.469857
- Title: An Efficient Interior-Point Method for Online Convex Optimization
- Title(参考訳): オンライン凸最適化のための効率的な内部点法
- Authors: Elad Hazan and Nimrod Megiddo
- Abstract要約: アルゴリズムは適応的であり、後悔のバウンドは1,ldots,T$だけでなく、すべてのサブインターバル$s,s+1,ldots,t$に対しても保持される。
アルゴリズムの実行時間は、新しいインテリアポイントアルゴリズムと一致し、後悔の最小化を行う。
- 参考スコア(独自算出の注目度): 31.771131314017385
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new algorithm for regret minimization in online convex optimization is
described. The regret of the algorithm after $T$ time periods is $O(\sqrt{T
\log T})$ - which is the minimum possible up to a logarithmic term. In
addition, the new algorithm is adaptive, in the sense that the regret bounds
hold not only for the time periods $1,\ldots,T$ but also for every sub-interval
$s,s+1,\ldots,t$. The running time of the algorithm matches that of newly
introduced interior point algorithms for regret minimization: in
$n$-dimensional space, during each iteration the new algorithm essentially
solves a system of linear equations of order $n$, rather than solving some
constrained convex optimization problem in $n$ dimensions and possibly many
constraints.
- Abstract(参考訳): オンライン凸最適化における後悔の最小化のための新しいアルゴリズムについて述べる。
T$時間後のアルゴリズムの後悔は$O(\sqrt{T \log T})$-であり、対数項まで最小限である。
さらに、新しいアルゴリズムは適応的であり、後悔の限度が1,\ldots,t$の期間だけでなく、各サブインターバル$s,s+1,\ldots,t$の時間も保持する。
アルゴリズムの実行時間は、新しく導入された内部点アルゴリズムの最小化と一致する:$n$次元空間において、新しいアルゴリズムは本質的に$n$の線形方程式のシステムを、$n$次元の制約付き凸最適化問題を解くのではなく、$n$次元で解く。
関連論文リスト
- Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - Efficient Algorithms for Generalized Linear Bandits with Heavy-tailed
Rewards [40.99322897009357]
トランケーションと平均中央値に基づく2つの新しいアルゴリズムを提案する。
我々のトラニケーションベースのアルゴリズムは、既存のトラニケーションベースのアプローチと区別して、オンライン学習をサポートする。
我々のアルゴリズムは,$epsilon=1$の既存アルゴリズムと比較して,対数係数による後悔境界を改善する。
論文 参考訳(メタデータ) (2023-10-28T13:01:10Z) - Nearly Optimal Algorithms with Sublinear Computational Complexity for
Online Kernel Regression [13.510889339096117]
後悔と計算コストのトレードオフは、オンラインカーネル回帰の根本的な問題である。
AOGD-ALDとNONS-ALDの2つの新しいアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-14T07:39:09Z) - Counterfactual Optimism: Rate Optimal Regret for Stochastic Contextual
MDPs [48.98020692698762]
我々は, UC$3$RL アルゴリズムを用いて, 残酷な文脈的 MDP (CMDPs) を提案する。
我々のアルゴリズムは効率的な(効率的なオフライン回帰オラクルを仮定すると)、$widetildeO(H3 sqrtT |S| |A|(log (|mathcalF|/delta) + log (|mathcalP|/delta) )$ regret guarantee。
論文 参考訳(メタデータ) (2022-11-27T20:38:47Z) - Logarithmic Regret from Sublinear Hints [76.87432703516942]
自然クエリモデルにより,アルゴリズムが$O(log T)$ regretsを$O(sqrtT)$ hintsで得ることを示す。
また、$o(sqrtT)$ hintsは$Omega(sqrtT)$ regretより保証できないことも示しています。
論文 参考訳(メタデータ) (2021-11-09T16:50:18Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z) - Private Stochastic Convex Optimization: Optimal Rates in Linear Time [74.47681868973598]
本研究では,凸損失関数の分布から得られた個体群損失を最小化する問題について検討する。
Bassilyらによる最近の研究は、$n$のサンプルを与えられた過剰な人口損失の最適境界を確立している。
本稿では,余剰損失に対する最適境界を達成するとともに,$O(minn, n2/d)$グラデーション計算を用いて凸最適化アルゴリズムを導出する2つの新しい手法について述べる。
論文 参考訳(メタデータ) (2020-05-10T19:52:03Z) - Second-order Conditional Gradient Sliding [79.66739383117232]
本稿では,emphSecond-Order Conditional Gradient Sliding (SOCGS)アルゴリズムを提案する。
SOCGSアルゴリズムは、有限個の線形収束反復の後、原始ギャップに二次的に収束する。
実現可能な領域が線形最適化オラクルを通してのみ効率的にアクセスできる場合に有用である。
論文 参考訳(メタデータ) (2020-02-20T17:52:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。