論文の概要: Finding the Sparsest Vectors in a Subspace: Theory, Algorithms, and
Applications
- arxiv url: http://arxiv.org/abs/2001.06970v1
- Date: Mon, 20 Jan 2020 04:48:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-08 05:22:31.846500
- Title: Finding the Sparsest Vectors in a Subspace: Theory, Algorithms, and
Applications
- Title(参考訳): 部分空間における最もスパースなベクトルの探索:理論、アルゴリズム、および応用
- Authors: Qing Qu, Zhihui Zhu, Xiao Li, Manolis C. Tsakiris, John Wright, and
Ren\'e Vidal
- Abstract要約: 低次元部分空間におけるスパースベクトル(方向)を求める問題はスパース回復問題の同種変種と見なすことができる。
低次元部分空間におけるスパースベクトル(方向)を求める問題はスパース回復問題の同種変種と見なすことができる。
- 参考スコア(独自算出の注目度): 34.269044536641665
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The problem of finding the sparsest vector (direction) in a low dimensional
subspace can be considered as a homogeneous variant of the sparse recovery
problem, which finds applications in robust subspace recovery, dictionary
learning, sparse blind deconvolution, and many other problems in signal
processing and machine learning. However, in contrast to the classical sparse
recovery problem, the most natural formulation for finding the sparsest vector
in a subspace is usually nonconvex. In this paper, we overview recent advances
on global nonconvex optimization theory for solving this problem, ranging from
geometric analysis of its optimization landscapes, to efficient optimization
algorithms for solving the associated nonconvex optimization problem, to
applications in machine intelligence, representation learning, and imaging
sciences. Finally, we conclude this review by pointing out several interesting
open problems for future research.
- Abstract(参考訳): 低次元部分空間におけるスパースベクトル(方向)を見つける問題はスパースリカバリ問題の均一な変種と見なすことができ、これはロバストな部分空間回復、辞書学習、スパースブラインドデコンボリューション、その他の信号処理や機械学習における多くの問題に応用されている。
しかし、古典的なスパース回復問題とは対照的に、部分空間において最もスパースベクトルを見つけるための最も自然な定式化は通常非凸である。
本稿では,この問題を解決するための大域的非凸最適化理論の最近の進歩を概説する。最適化ランドスケープの幾何学的解析から,関連する非凸最適化問題を解くための効率的な最適化アルゴリズム,マシンインテリジェンス,表現学習,画像科学の応用などである。
最後に、今後の研究における興味深いオープンな問題をいくつか挙げて、このレビューを締めくくる。
関連論文リスト
- On Probabilistic Embeddings in Optimal Dimension Reduction [1.2085509610251701]
次元減少アルゴリズムは多くのデータサイエンスパイプラインの重要な部分である。
広く利用されているにもかかわらず、多くの非線形次元還元アルゴリズムは理論的観点からは理解されていない。
論文 参考訳(メタデータ) (2024-08-05T12:46:21Z) - A Guide to Stochastic Optimisation for Large-Scale Inverse Problems [4.926711494319977]
最適化アルゴリズムは、大量のデータを持つ機械学習のデファクトスタンダードです。
我々は、逆問題の観点から、最適化における最先端の総合的な説明を提供する。
私たちは、機械学習で一般的に遭遇しない、ユニークな最適化の課題に焦点を合わせています。
論文 参考訳(メタデータ) (2024-06-10T15:02:30Z) - Linearization Algorithms for Fully Composite Optimization [61.20539085730636]
本稿では,完全合成最適化問題を凸コンパクト集合で解くための一階アルゴリズムについて検討する。
微分可能および非微分可能を別々に扱い、滑らかな部分のみを線形化することで目的の構造を利用する。
論文 参考訳(メタデータ) (2023-02-24T18:41:48Z) - On a class of geodesically convex optimization problems solved via
Euclidean MM methods [50.428784381385164]
ユークリッド凸化関数の違いは、統計学と機械学習の異なるタイプの問題の違いとして記述できることを示す。
最終的に、より広い範囲、より広い範囲の作業を支援するのです。
論文 参考訳(メタデータ) (2022-06-22T23:57:40Z) - Noisy Low-rank Matrix Optimization: Geometry of Local Minima and
Convergence Rate [14.191310794366075]
本稿では,機械学習における多種多様な応用を見出した低ランク行列最適化について述べる。
雑音モデルが任意である一般目的関数に対するランダムな汚職に対処できるフレームワークを開発する。
RIP定数が1/3$以上である場合、地平線付近の局所領域における問題の急激な局所最小値の幾何学を特徴付ける。
論文 参考訳(メタデータ) (2022-03-08T07:44:47Z) - Analysis of Truncated Orthogonal Iteration for Sparse Eigenvector
Problems [78.95866278697777]
本研究では,多元的固有ベクトルを分散制約で同時に計算するTruncated Orthogonal Iterationの2つの変種を提案する。
次に,我々のアルゴリズムを適用して,幅広いテストデータセットに対するスパース原理成分分析問題を解く。
論文 参考訳(メタデータ) (2021-03-24T23:11:32Z) - Why Do Local Methods Solve Nonconvex Problems? [54.284687261929115]
非使用最適化は、現代の機械学習においてユビキタスである。
機械学習問題の場合、厳格に定式化します。
我々はこの現象の統一的な説明を仮定する。
論文 参考訳(メタデータ) (2021-03-24T19:34:11Z) - Recent Theoretical Advances in Non-Convex Optimization [56.88981258425256]
近年、深層ネットワークにおける非最適化アルゴリズムの解析やデータ問題への関心が高まっており、非最適化のための理論的最適化アルゴリズムの最近の結果の概要を概説する。
論文 参考訳(メタデータ) (2020-12-11T08:28:51Z) - Efficient Methods for Structured Nonconvex-Nonconcave Min-Max
Optimization [98.0595480384208]
定常点に収束する一般化外空間を提案する。
このアルゴリズムは一般の$p$ノルド空間だけでなく、一般の$p$次元ベクトル空間にも適用される。
論文 参考訳(メタデータ) (2020-10-31T21:35:42Z) - On Distributed Non-convex Optimization: Projected Subgradient Method For
Weakly Convex Problems in Networks [13.385373310554327]
Moreau subgradient 法は、機械学習における線形シャープネス問題を収束させる。
理論的保証を伴う下位段階法の分散実装を提案する。
論文 参考訳(メタデータ) (2020-04-28T01:01:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。