論文の概要: Data-Driven Minimax Optimization with Expectation Constraints
- arxiv url: http://arxiv.org/abs/2202.07868v1
- Date: Wed, 16 Feb 2022 05:23:27 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-17 15:55:10.367093
- Title: Data-Driven Minimax Optimization with Expectation Constraints
- Title(参考訳): 期待制約を伴うデータ駆動ミニマックス最適化
- Authors: Shuoguang Yang, Xudong Li, Guanghui Lan
- Abstract要約: 本稿では,最小値予測制約問題に対処するために,効率的な原始双対アルゴリズムのクラスを提案する。
我々のアルゴリズムは$mathcalO(frac1sqrtN)$の最適速度で収束することを示す。
- 参考スコア(独自算出の注目度): 9.373649142701803
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Attention to data-driven optimization approaches, including the well-known
stochastic gradient descent method, has grown significantly over recent
decades, but data-driven constraints have rarely been studied, because of the
computational challenges of projections onto the feasible set defined by these
hard constraints. In this paper, we focus on the non-smooth convex-concave
stochastic minimax regime and formulate the data-driven constraints as
expectation constraints. The minimax expectation constrained problem subsumes a
broad class of real-world applications, including two-player zero-sum game and
data-driven robust optimization. We propose a class of efficient primal-dual
algorithms to tackle the minimax expectation-constrained problem, and show that
our algorithms converge at the optimal rate of
$\mathcal{O}(\frac{1}{\sqrt{N}})$. We demonstrate the practical efficiency of
our algorithms by conducting numerical experiments on large-scale real-world
applications.
- Abstract(参考訳): 有名な確率的勾配降下法を含むデータ駆動型最適化手法への注目は近年大きくなっているが、データ駆動型制約は、これらのハード制約によって定義される実現可能な集合への射影の計算上の課題のために、ほとんど研究されていない。
本稿では,非スムース凸凸確率的ミニマックスレジームに着目し,データ駆動制約を期待制約として定式化する。
ミニマックス予想問題(minimax expectation constrained problem)は、2プレイヤーゼロサムゲームやデータ駆動ロバスト最適化など、現実世界の幅広い応用を仮定する。
我々は,ミニマックス期待制約問題に取り組むための効率的な原始双対アルゴリズムのクラスを提案し,そのアルゴリズムが$\mathcal{o}(\frac{1}{\sqrt{n}})$の最適速度で収束することを示す。
大規模実世界応用における数値実験を行い,本アルゴリズムの実用性を示す。
関連論文リスト
- Low-Rank Extragradient Methods for Scalable Semidefinite Optimization [0.0]
この問題が低ランクの解を許容する高次元かつ高可算な設定に焦点をあてる。
これらの条件下では、よく知られた過次法が制約付き最適化問題の解に収束することを示す理論的結果がいくつか提示される。
論文 参考訳(メタデータ) (2024-02-14T10:48:00Z) - Can Decentralized Stochastic Minimax Optimization Algorithms Converge
Linearly for Finite-Sum Nonconvex-Nonconcave Problems? [56.62372517641597]
分散化されたミニマックス最適化は、幅広い機械学習に応用されているため、ここ数年で活発に研究されている。
本稿では,非コンカブ問題に対する2つの新しい分散化ミニマックス最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-04-24T02:19:39Z) - Accelerated First-Order Optimization under Nonlinear Constraints [73.2273449996098]
我々は、制約付き最適化のための一階アルゴリズムと非滑らかなシステムの間で、新しい一階アルゴリズムのクラスを設計する。
これらのアルゴリズムの重要な性質は、制約がスパース変数の代わりに速度で表されることである。
論文 参考訳(メタデータ) (2023-02-01T08:50:48Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Zeroth-Order Methods for Convex-Concave Minmax Problems: Applications to
Decision-Dependent Risk Minimization [12.742028139557384]
有限和構造を持つ凸凹最小値問題の解法として,無作為なリシャッフィングを基本とした最適勾配Descent-Ascentアルゴリズムを提案する。
このアルゴリズムは凸最小化問題に対するゼロ階アルゴリズムと同じ収束率を持つことを示す。
論文 参考訳(メタデータ) (2021-06-16T18:49:59Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - An Asymptotically Optimal Primal-Dual Incremental Algorithm for
Contextual Linear Bandits [129.1029690825929]
複数の次元に沿った最先端技術を改善する新しいアルゴリズムを提案する。
非文脈線形帯域の特別な場合において、学習地平線に対して最小限の最適性を確立する。
論文 参考訳(メタデータ) (2020-10-23T09:12:47Z) - A Feasible Level Proximal Point Method for Nonconvex Sparse Constrained
Optimization [25.73397307080647]
本稿では,汎用凸あるいは非汎用機械目標の新しいモデルを提案する。
本稿では,各サブプロブレムの点レベルを徐々に緩和した制約を解くアルゴリズムを提案する。
我々は,新しい数値スケール問題の有効性を実証する。
論文 参考訳(メタデータ) (2020-10-23T05:24:05Z) - Fast Objective & Duality Gap Convergence for Non-Convex Strongly-Concave
Min-Max Problems with PL Condition [52.08417569774822]
本稿では,深層学習(深層AUC)により注目度が高まっている,円滑な非凹部min-max問題の解法に焦点をあてる。
論文 参考訳(メタデータ) (2020-06-12T00:32:21Z) - Nonconvex sparse regularization for deep neural networks and its
optimality [1.9798034349981162]
ディープニューラルネットワーク(DNN)推定器は、回帰と分類問題に対して最適な収束率を得ることができる。
スパースDNNに対する新たなペナル化推定法を提案する。
スパースペンタライズされた推定器は、様々な非パラメトリック回帰問題に対する最小収束率を適応的に達成できることを示す。
論文 参考訳(メタデータ) (2020-03-26T07:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。