論文の概要: Coordinate Linear Variance Reduction for Generalized Linear Programming
- arxiv url: http://arxiv.org/abs/2111.01842v1
- Date: Tue, 2 Nov 2021 18:57:23 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-04 14:05:15.459830
- Title: Coordinate Linear Variance Reduction for Generalized Linear Programming
- Title(参考訳): 一般化線形計画法における座標線形分散低減
- Authors: Chaobing Song, Cheuk Yin Lin, Stephen J. Wright, Jelena Diakonikolas
- Abstract要約: 本研究では,大規模環境下での一般化線形プログラム(GLP)のクラスについて検討する。
この問題における線形構造は、効率的でスケーラブルな1次アルゴリズムの設計に利用できることを示す。
- 参考スコア(独自算出の注目度): 20.961554620163444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study a class of generalized linear programs (GLP) in a large-scale
setting, which includes possibly simple nonsmooth convex regularizer and simple
convex set constraints. By reformulating GLP as an equivalent convex-concave
min-max problem, we show that the linear structure in the problem can be used
to design an efficient, scalable first-order algorithm, to which we give the
name \emph{Coordinate Linear Variance Reduction} (\textsc{clvr}; pronounced
``clever''). \textsc{clvr} is an incremental coordinate method with implicit
variance reduction that outputs an \emph{affine combination} of the dual
variable iterates. \textsc{clvr} yields improved complexity results for (GLP)
that depend on the max row norm of the linear constraint matrix in (GLP) rather
than the spectral norm. When the regularization terms and constraints are
separable, \textsc{clvr} admits an efficient lazy update strategy that makes
its complexity bounds scale with the number of nonzero elements of the linear
constraint matrix in (GLP) rather than the matrix dimensions. We show that
Distributionally Robust Optimization (DRO) problems with ambiguity sets based
on both $f$-divergence and Wasserstein metrics can be reformulated as (GLPs) by
introducing sparsely connected auxiliary variables. We complement our
theoretical guarantees with numerical experiments that verify our algorithm's
practical effectiveness, both in terms of wall-clock time and number of data
passes.
- Abstract(参考訳): 一般化線形プログラム (GLP) のクラスを大規模に検討し, 単純な非平滑凸正規化器と単純な凸集合制約を含む。
GLP を等価凸凹 min-max 問題として再構成することにより、その問題の線形構造を用いて効率よくスケーラブルな1次アルゴリズムを設計できることを示し、このアルゴリズムは 'emph{Coordinate Linear Variance Reduction} (\textsc{clvr}, 発音「clever''」) という名前を与える。
\textsc{clvr} は暗黙の分散還元を持つ増分座標法であり、双対変数反復の \emph{affine combination} を出力する。
\textsc{clvr} はスペクトルノルムではなく、線形制約行列(GLP)の最大行ノルムに依存する(GLP)に対して、より複雑な結果をもたらす。
正規化項と制約が分離可能であるとき、 \textsc{clvr} は、その複雑性を行列次元ではなく (GLP) における線形制約行列の 0 個の非零要素の数に制限する効率的な遅延更新戦略を認める。
分散ロバスト最適化(DRO)問題と,$f$-divergence と Wasserstein の両測度に基づいて,疎結合な共役変数を導入することで,(GLP) として再構成可能であることを示す。
理論的保証は、ウォールクロック時間とデータパス数の両方において、アルゴリズムの実用性を検証する数値実験で補う。
関連論文リスト
- Recovering Simultaneously Structured Data via Non-Convex Iteratively
Reweighted Least Squares [0.8702432681310401]
線形観測から多種多様低次元構造に固執するデータを復元する新しいアルゴリズムを提案する。
IRLS法は,低/複合状態の計測に好適であることを示す。
論文 参考訳(メタデータ) (2023-06-08T06:35:47Z) - Constrained Optimization via Exact Augmented Lagrangian and Randomized
Iterative Sketching [55.28394191394675]
等式制約付き非線形非IBS最適化問題に対する適応的不正確なニュートン法を開発した。
ベンチマーク非線形問題,LVMのデータによる制約付きロジスティック回帰,PDE制約問題において,本手法の優れた性能を示す。
論文 参考訳(メタデータ) (2023-05-28T06:33:37Z) - An inexact LPA for DC composite optimization and application to matrix completions with outliers [5.746154410100363]
本稿では,複合最適化問題のクラスについて述べる。
合成構造を利用することで、ポテンシャル関数が反復列において1/2$のKL特性を持つ条件を与える。
論文 参考訳(メタデータ) (2023-03-29T16:15:34Z) - High-Dimensional Sparse Bayesian Learning without Covariance Matrices [66.60078365202867]
共分散行列の明示的な構成を避ける新しい推論手法を提案する。
本手法では, 数値線形代数と共役勾配アルゴリズムの対角線推定結果とを結合する。
いくつかのシミュレーションにおいて,本手法は計算時間とメモリにおける既存手法よりも拡張性が高い。
論文 参考訳(メタデータ) (2022-02-25T16:35:26Z) - Unfolding Projection-free SDP Relaxation of Binary Graph Classifier via
GDPA Linearization [59.87663954467815]
アルゴリズムの展開は、モデルベースのアルゴリズムの各イテレーションをニューラルネットワーク層として実装することにより、解釈可能で類似のニューラルネットワークアーキテクチャを生成する。
本稿では、Gershgorin disc perfect alignment (GDPA)と呼ばれる最近の線形代数定理を利用して、二進グラフの半定値プログラミング緩和(SDR)のためのプロジェクションフリーアルゴリズムをアンロールする。
実験結果から,我々の未学習ネットワークは純粋モデルベースグラフ分類器よりも優れ,純粋データ駆動ネットワークに匹敵する性能を示したが,パラメータははるかに少なかった。
論文 参考訳(メタデータ) (2021-09-10T07:01:15Z) - Smooth Bilevel Programming for Sparse Regularization [5.177947445379688]
反復再重み付き最小二乗法(IRLS)は、機械学習における空間的回帰問題を解くための一般的な手法である。
両レベルスキームが組み合わさって、IRLSの驚くほど再パラメータ化が、いかにスパーシティの上位化を実現するかを示す。
論文 参考訳(メタデータ) (2021-06-02T19:18:22Z) - Hybrid Trilinear and Bilinear Programming for Aligning Partially
Overlapping Point Sets [85.71360365315128]
多くの応用において、部分重なり合う点集合が対応するRPMアルゴリズムに不変であるようなアルゴリズムが必要である。
まず、目的が立方体有界関数であることを示し、次に、三線型および双線型単相変換の凸エンベロープを用いて、その下界を導出する。
次に、変換変数上の分岐のみを効率よく実行するブランチ・アンド・バウンド(BnB)アルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-01-19T04:24:23Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。