論文の概要: Stochastic Optimization for Regularized Wasserstein Estimators
- arxiv url: http://arxiv.org/abs/2002.08695v1
- Date: Thu, 20 Feb 2020 12:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-30 07:26:55.004107
- Title: Stochastic Optimization for Regularized Wasserstein Estimators
- Title(参考訳): 正規化ワッサースタイン推定器の確率最適化
- Authors: Marin Ballu, Quentin Berthet, Francis Bach
- Abstract要約: ワッサーシュタイン推定器勾配の正規化版を、自然次元のサブ線形なステップ毎の時間で解くアルゴリズムを導入する。
このアルゴリズムは他のタスクにも拡張可能であることを示し、その中にはWasserstein Barycentersの推定も含まれる。
- 参考スコア(独自算出の注目度): 10.194798773447879
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Optimal transport is a foundational problem in optimization, that allows to
compare probability distributions while taking into account geometric aspects.
Its optimal objective value, the Wasserstein distance, provides an important
loss between distributions that has been used in many applications throughout
machine learning and statistics. Recent algorithmic progress on this problem
and its regularized versions have made these tools increasingly popular.
However, existing techniques require solving an optimization problem to obtain
a single gradient of the loss, thus slowing down first-order methods to
minimize the sum of losses, that require many such gradient computations. In
this work, we introduce an algorithm to solve a regularized version of this
problem of Wasserstein estimators, with a time per step which is sublinear in
the natural dimensions of the problem. We introduce a dual formulation, and
optimize it with stochastic gradient steps that can be computed directly from
samples, without solving additional optimization problems at each step. Doing
so, the estimation and computation tasks are performed jointly. We show that
this algorithm can be extended to other tasks, including estimation of
Wasserstein barycenters. We provide theoretical guarantees and illustrate the
performance of our algorithm with experiments on synthetic data.
- Abstract(参考訳): 最適輸送は最適化の基本的な問題であり、幾何学的側面を考慮して確率分布を比較することができる。
その最適目的値であるワッサーシュタイン距離は、機械学習と統計学を通じて多くのアプリケーションで使われている分布間で重要な損失をもたらす。
この問題のアルゴリズム的進歩とその正規化バージョンは、これらのツールをますます人気を高めている。
しかし、既存の手法では損失の1つの勾配を求めるために最適化問題を解く必要があり、これにより損失の和を最小化するために一階法を遅くする。
本研究では,問題の自然次元において部分線型であるステップ毎の時間とともに,この問題の正規化バージョンを解くアルゴリズムを提案する。
二重定式化を導入し、各ステップで追加の最適化問題を解くことなく、サンプルから直接計算できる確率勾配ステップで最適化する。
これにより、推定処理と計算処理を共同で行う。
このアルゴリズムがwasserstein barycentersの推定を含む他のタスクにも拡張可能であることを示す。
理論的な保証を提供し、合成データの実験によりアルゴリズムの性能を実証する。
関連論文リスト
- Fast Screening Rules for Optimal Design via Quadratic Lasso
Reformulation [0.135975510645475]
本研究は, 安全スクリーニングのルールを導出し, インテリジェンスサンプルを廃棄する。
新しいテストは、特に高次元のパラメータ空間に関わる問題に対して、より高速に計算できる。
本稿では,ラッソ法の正規化経路を計算するホモトピーアルゴリズムを,正方形 $ell_$-penalty に対して再パラメータ化する方法を示す。
論文 参考訳(メタデータ) (2023-10-13T08:10:46Z) - Accelerating Cutting-Plane Algorithms via Reinforcement Learning
Surrogates [49.84541884653309]
凸離散最適化問題に対する現在の標準的なアプローチは、カットプレーンアルゴリズムを使うことである。
多くの汎用カット生成アルゴリズムが存在するにもかかわらず、大規模な離散最適化問題は、難易度に悩まされ続けている。
そこで本研究では,強化学習による切削平面アルゴリズムの高速化手法を提案する。
論文 参考訳(メタデータ) (2023-07-17T20:11:56Z) - A framework for bilevel optimization that enables stochastic and global
variance reduction algorithms [17.12280360174073]
双レベル最適化は、他の関数のarg最小値を含む値関数を最小化する問題である。
本稿では, 内部問題の解, 線形系の解, 主変数を同時に発展させる新しい枠組みを提案する。
我々のフレームワークにおけるSAGAアルゴリズムの適応であるSABAは$O(frac1T)$収束率を持ち、Polyak-Lojasciewicz仮定の下で線形収束を達成することを示した。
論文 参考訳(メタデータ) (2022-01-31T18:17:25Z) - Amortized Implicit Differentiation for Stochastic Bilevel Optimization [53.12363770169761]
決定論的条件と決定論的条件の両方において、二段階最適化問題を解決するアルゴリズムのクラスについて検討する。
厳密な勾配の推定を補正するために、ウォームスタート戦略を利用する。
このフレームワークを用いることで、これらのアルゴリズムは勾配の偏りのない推定値にアクセス可能な手法の計算複雑性と一致することを示す。
論文 参考訳(メタデータ) (2021-11-29T15:10:09Z) - Outlier-Robust Sparse Estimation via Non-Convex Optimization [73.18654719887205]
空間的制約が存在する場合の高次元統計量と非破壊的最適化の関連について検討する。
これらの問題に対する新規で簡単な最適化法を開発した。
結論として、効率よくステーションに収束する一階法は、これらのタスクに対して効率的なアルゴリズムを導出する。
論文 参考訳(メタデータ) (2021-09-23T17:38:24Z) - Divide and Learn: A Divide and Conquer Approach for Predict+Optimize [50.03608569227359]
予測+最適化問題は、予測係数を使用する最適化プロブレムと、確率係数の機械学習を組み合わせる。
本稿では, 予測係数を1次線形関数として, 最適化問題の損失を直接表現する方法を示す。
本稿では,この制約を伴わずに最適化問題に対処し,最適化損失を用いてその係数を予測する新しい分割アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-12-04T00:26:56Z) - Learning to solve TV regularized problems with unrolled algorithms [18.241062505073234]
トータル・バージョニング(Total Variation、TV)は、一方向定値信号を促進する一般的な正規化戦略である。
そこで我々は,2つのアプローチを開発し,そのメリットと限界を記述し,反復的な手順よりも実際に改善できる体制について議論する。
論文 参考訳(メタデータ) (2020-10-19T14:19:02Z) - Single-Timescale Stochastic Nonconvex-Concave Optimization for Smooth
Nonlinear TD Learning [145.54544979467872]
本稿では,各ステップごとに1つのデータポイントしか必要としない2つの単一スケールシングルループアルゴリズムを提案する。
本研究の結果は, 同時一次および二重側収束の形で表される。
論文 参考訳(メタデータ) (2020-08-23T20:36:49Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z) - Effective Dimension Adaptive Sketching Methods for Faster Regularized
Least-Squares Optimization [56.05635751529922]
スケッチに基づくL2正規化最小二乗問題の解法を提案する。
我々は、最も人気のあるランダム埋め込みの2つ、すなわちガウス埋め込みとサブサンプリングランダム化アダマール変換(SRHT)を考える。
論文 参考訳(メタデータ) (2020-06-10T15:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。