論文の概要: l1-Norm Minimization with Regula Falsi Type Root Finding Methods
- arxiv url: http://arxiv.org/abs/2105.00244v1
- Date: Sat, 1 May 2021 13:24:38 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-05 07:48:39.317696
- Title: l1-Norm Minimization with Regula Falsi Type Root Finding Methods
- Title(参考訳): レギュラファルシ型ルート探索法によるl1-Norm最小化
- Authors: Metin Vural, Aleksandr Y. Aravkin, and S{\l}awomir Stan'czak
- Abstract要約: Regula Falsiルートフィンディング技術を使用して、非可能性に対する効率的なアプローチを開発します。
実用的性能は l1 正規化クラス t を用いて示される。
- 参考スコア(独自算出の注目度): 81.55197998207593
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sparse level-set formulations allow practitioners to find the minimum 1-norm
solution subject to likelihood constraints. Prior art requires this constraint
to be convex. In this letter, we develop an efficient approach for nonconvex
likelihoods, using Regula Falsi root-finding techniques to solve the level-set
formulation. Regula Falsi methods are simple, derivative-free, and efficient,
and the approach provably extends level-set methods to the broader class of
nonconvex inverse problems. Practical performance is illustrated using
l1-regularized Student's t inversion, which is a nonconvex approach used to
develop outlier-robust formulations.
- Abstract(参考訳): スパースレベルセットの定式化により、実践者は確率制約を受ける最小1ノルム解を見つけることができる。
先行技術は、この制約が凸であることを要求する。
そこで本論文では,Regula Falsiルートフィニング技術を用いて,非凸確率に対する効率的なアプローチを開発し,レベルセットの定式化を解く。
regula falsi法は単純でデリバティブフリーで効率的であり、このアプローチはレベルセット法を非凸逆問題のより広いクラスに拡張できる。
実演は、非凸アプローチであるl1正規化学生のt反転を用いて示される。
関連論文リスト
- Gradient-Free Method for Heavily Constrained Nonconvex Optimization [43.941106371683766]
ゼロ階数(ZO)法は,制約の明示的表現が困難あるいは実現不可能な最適化問題を解くための強力な手法であることが示されている。
本稿では,運動量適応的なステップサイズを持つ2次勾配ゼロ階法(DS)を提案する。
論文 参考訳(メタデータ) (2024-08-31T13:46:54Z) - Learning Constrained Optimization with Deep Augmented Lagrangian Methods [54.22290715244502]
機械学習(ML)モデルは、制約付き最適化ソルバをエミュレートするために訓練される。
本稿では,MLモデルを用いて2つの解推定を直接予測する手法を提案する。
これにより、双対目的が損失関数であるエンドツーエンドのトレーニングスキームと、双対上昇法をエミュレートした原始的実現可能性への解推定を可能にする。
論文 参考訳(メタデータ) (2024-03-06T04:43:22Z) - Riemannian stochastic optimization methods avoid strict saddle points [68.80251170757647]
研究中のポリシーは、確率 1 の厳密なサドル点/部分多様体を避けていることを示す。
この結果は、アルゴリズムの極限状態が局所最小値にしかならないことを示すため、重要な正当性チェックを提供する。
論文 参考訳(メタデータ) (2023-11-04T11:12:24Z) - Infeasible Deterministic, Stochastic, and Variance-Reduction Algorithms for Optimization under Orthogonality Constraints [9.301728976515255]
本稿では,着陸アルゴリズムの実用化と理論的展開について述べる。
まず、この方法はスティーフェル多様体に拡張される。
また、コスト関数が多くの関数の平均である場合の分散還元アルゴリズムについても検討する。
論文 参考訳(メタデータ) (2023-03-29T07:36:54Z) - A conditional gradient homotopy method with applications to Semidefinite
Programming [1.6369790794838281]
ホモトピーに基づく条件勾配法による凸最適化問題の解法。
我々の理論的複雑さは、最先端のSDPに直面すると競合し、安価なプロジェクションフリーの決定的な利点がある。
論文 参考訳(メタデータ) (2022-07-07T05:48:27Z) - On Constraints in First-Order Optimization: A View from Non-Smooth
Dynamical Systems [99.59934203759754]
本稿では,スムーズな制約付き最適化のための一階法について紹介する。
提案手法の2つの特徴は、実現可能な集合全体の投影や最適化が避けられることである。
結果として得られるアルゴリズムの手順は、制約が非線形であっても簡単に実装できる。
論文 参考訳(メタデータ) (2021-07-17T11:45:13Z) - Regret minimization in stochastic non-convex learning via a
proximal-gradient approach [80.59047515124198]
機械学習やオペレーションの応用によって動機づけられた私たちは、オンラインで制約された問題を最小化するために、一階のオラクルフィードバックを後悔しています。
我々は、近位複雑性低減技術を保証する新しいプロキシグレードを開発する。
論文 参考訳(メタデータ) (2020-10-13T09:22:21Z) - Conditional gradient methods for stochastically constrained convex
minimization [54.53786593679331]
構造凸最適化問題に対する条件勾配に基づく2つの新しい解法を提案する。
私たちのフレームワークの最も重要な特徴は、各イテレーションで制約のサブセットだけが処理されることです。
提案アルゴリズムは, 条件勾配のステップとともに, 分散の低減と平滑化に頼り, 厳密な収束保証を伴っている。
論文 参考訳(メタデータ) (2020-07-07T21:26:35Z) - Handling the Positive-Definite Constraint in the Bayesian Learning Rule [33.87717973872535]
ベイズ学習規則 (Bayes learning rule) は自然段階的な変分推論法である。
変動パラメータがオープンな制約セットにある場合、ルールは制約を満たすことができず、アルゴリズムを遅くする線探索を必要とする。
我々の研究は、パラメータ空間における正定値制約の存在下での規則の適用を容易にする。
論文 参考訳(メタデータ) (2020-02-24T03:29:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。