論文の概要: Dueling Optimization with a Monotone Adversary
- arxiv url: http://arxiv.org/abs/2311.11185v1
- Date: Sat, 18 Nov 2023 23:55:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-22 06:54:17.073798
- Title: Dueling Optimization with a Monotone Adversary
- Title(参考訳): 単調逆数によるデュエル最適化
- Authors: Avrim Blum, Meghal Gupta, Gene Li, Naren Sarayu Manoj, Aadirupa Saha,
Yuanyuan Yang
- Abstract要約: 凸最適化の一般化である単調逆数を用いたデュエル最適化の問題点について検討する。
目的は、最小値$mathbfx*$の関数$fcolon XをmathbbRdに変換するために、オンラインアルゴリズムを設計することである。
- 参考スコア(独自算出の注目度): 35.850072415395395
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce and study the problem of dueling optimization with a monotone
adversary, which is a generalization of (noiseless) dueling convex
optimization. The goal is to design an online algorithm to find a minimizer
$\mathbf{x}^{*}$ for a function $f\colon X \to \mathbb{R}$, where $X \subseteq
\mathbb{R}^d$. In each round, the algorithm submits a pair of guesses, i.e.,
$\mathbf{x}^{(1)}$ and $\mathbf{x}^{(2)}$, and the adversary responds with any
point in the space that is at least as good as both guesses. The cost of each
query is the suboptimality of the worse of the two guesses; i.e., ${\max}
\left( f(\mathbf{x}^{(1)}), f(\mathbf{x}^{(2)}) \right) - f(\mathbf{x}^{*})$.
The goal is to minimize the number of iterations required to find an
$\varepsilon$-optimal point and to minimize the total cost (regret) of the
guesses over many rounds. Our main result is an efficient randomized algorithm
for several natural choices of the function $f$ and set $X$ that incurs cost
$O(d)$ and iteration complexity $O(d\log(1/\varepsilon)^2)$. Moreover, our
dependence on $d$ is asymptotically optimal, as we show examples in which any
randomized algorithm for this problem must incur $\Omega(d)$ cost and iteration
complexity.
- Abstract(参考訳): 本稿では,(ノイズのない)デュエルリング凸最適化の一般化である単調逆数を用いたデュエル最適化の問題を紹介し,検討する。
目的は、関数 $f\colon X \to \mathbb{R}$, $X \subseteq \mathbb{R}^d$ に対して、最小値 $\mathbf{x}^{*}$ を求めるオンラインアルゴリズムを設計することである。
各ラウンドにおいて、アルゴリズムは1対の推測、すなわち$\mathbf{x}^{(1)}$ と$\mathbf{x}^{(2)}$を提出し、敵は少なくともどちらの推測よりも良い空間内の任意の点に応答する。
それぞれのクエリのコストは、2つの予想のより悪い部分最適性、すなわち${\max} \left(f(\mathbf{x}^{(1)}), f(\mathbf{x}^{(2)}) \right) - f(\mathbf{x}^{*})$である。
目標は、$\varepsilon$-optimal pointを見つけるのに必要なイテレーション数を最小化し、多くのラウンドで推測の総コスト(regret)を最小化することである。
主な結果は、関数 $f$ の自然選択に対する効率的なランダム化アルゴリズムであり、コスト $o(d)$ と反復複雑性 $o(d\log(1/\varepsilon)^2)$ を発生させる$x$ を設定します。
さらに、この問題に対する任意のランダム化アルゴリズムが$\Omega(d)$コストと反復複雑性を発生させる必要がある例を示すように、$d$への依存は漸近的に最適である。
関連論文リスト
- Efficient Continual Finite-Sum Minimization [52.5238287567572]
連続有限サム最小化(continuous finite-sum minimization)と呼ばれる有限サム最小化の鍵となるツイストを提案する。
我々のアプローチは$mathcalO(n/epsilon)$ FOs that $mathrmStochasticGradientDescent$で大幅に改善されます。
また、$mathcalOleft(n/epsilonalpharight)$ complexity gradient for $alpha 1/4$という自然な一階法は存在しないことを証明し、この方法の第一階法がほぼ密であることを示す。
論文 参考訳(メタデータ) (2024-06-07T08:26:31Z) - Partially Unitary Learning [0.0]
ヒルベルト空間の最適写像 $IN$ of $left|psirightrangle$ と $OUT$ of $left|phirightrangle$ が提示される。
この最適化問題の大域的な最大値を求める反復アルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-05-16T17:13:55Z) - Sample-Efficient Linear Regression with Self-Selection Bias [7.605563562103568]
未知のインデックス設定における自己選択バイアスを伴う線形回帰の問題を考察する。
我々は,$mathbfw_1,ldots,mathbfw_kinを復元する,新しい,ほぼ最適なサンプル効率($k$)アルゴリズムを提案する。
このアルゴリズムは雑音の仮定をかなり緩めることに成功し、従って関連する最大線形回帰の設定にも成功している。
論文 参考訳(メタデータ) (2024-02-22T02:20:24Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Memory-Query Tradeoffs for Randomized Convex Optimization [16.225462097812766]
単位球上の$d$-dimensional, $1$-Lipschitz convex関数を最小化するランダム化1次アルゴリズムは、メモリビットの$Omega(d2-delta)か、$Omega(d1+delta/6-o(1))の$クエリを使わなければならない。
論文 参考訳(メタデータ) (2023-06-21T19:48:58Z) - Fast $(1+\varepsilon)$-Approximation Algorithms for Binary Matrix
Factorization [54.29685789885059]
本稿では, 2次行列分解(BMF)問題に対する効率的な$(1+varepsilon)$-approximationアルゴリズムを提案する。
目標は、低ランク因子の積として$mathbfA$を近似することである。
我々の手法はBMF問題の他の一般的な変種に一般化する。
論文 参考訳(メタデータ) (2023-06-02T18:55:27Z) - Sharper Rates for Separable Minimax and Finite Sum Optimization via
Primal-Dual Extragradient Methods [39.87865197769047]
分離可能なミニマックス最適化問題 $min_x max_y f(x) - g(y) + h(x, y)$, where $f$ and $g$ have smoothness and strong convexity parameters $(Lx, mux)$, $(Ly, muy)$, and $h$ is convex-concave with a $(Lambdaxx, Lambdaxy, Lambdayymuyright)$。
論文 参考訳(メタデータ) (2022-02-09T18:57:47Z) - Optimal Regret Algorithm for Pseudo-1d Bandit Convex Optimization [51.23789922123412]
我々は,バンディットフィードバックを用いてオンライン学習を学習する。
learnerは、コスト/リワード関数が"pseudo-1d"構造を許可するゼロ次オラクルのみにアクセスできる。
我々は、$T$がラウンドの数である任意のアルゴリズムの後悔のために$min(sqrtdT、T3/4)$の下限を示しています。
ランダム化オンライングラデーション下降とカーネル化指数重み法を組み合わせた新しいアルゴリズムsbcalgを提案し,疑似-1d構造を効果的に活用する。
論文 参考訳(メタデータ) (2021-02-15T08:16:51Z) - Streaming Complexity of SVMs [110.63976030971106]
本稿では,ストリーミングモデルにおけるバイアス正規化SVM問題を解く際の空間複雑性について検討する。
両方の問題に対して、$frac1lambdaepsilon$の次元に対して、$frac1lambdaepsilon$よりも空間的に小さいストリーミングアルゴリズムを得ることができることを示す。
論文 参考訳(メタデータ) (2020-07-07T17:10:00Z) - Maximizing Determinants under Matroid Constraints [69.25768526213689]
我々は、$det(sum_i in Sv_i v_i v_itop)$が最大になるような基底を$S$$$$M$とする問題を研究する。
この問題は、実験的なデザイン、商品の公平な割り当て、ネットワーク設計、機械学習など、さまざまな分野に現れている。
論文 参考訳(メタデータ) (2020-04-16T19:16:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。