論文の概要: Support Exploration Algorithm for Sparse Support Recovery
- arxiv url: http://arxiv.org/abs/2301.13584v1
- Date: Tue, 31 Jan 2023 12:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:38:37.558640
- Title: Support Exploration Algorithm for Sparse Support Recovery
- Title(参考訳): スパース支持回復のための支援探索アルゴリズム
- Authors: Mimoun Mohamed (LIS, I2M), Fran\c{c}ois Malgouyres (IMT), Valentin
Emiya (QARMA), Caroline Chaux (IPAL)
- Abstract要約: 本稿では,SEA(Support Exploration Algorithm)と呼ばれる空間性を促進する新しいアルゴリズムを導入し,回復/モデル選択の問題の文脈で解析する。
SEAはスパース探索ベクトルを使用し、スパースサポートを選択するために入力空間内で進化させる。
実験により、SEAは任意のアルゴリズムの結果を効率的に改善できることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new algorithm promoting sparsity called {\it Support
Exploration Algorithm (SEA)} and analyze it in the context of support
recovery/model selection problems.The algorithm can be interpreted as an
instance of the {\it straight-through estimator (STE)} applied to the
resolution of a sparse linear inverse problem. SEA uses a non-sparse
exploratory vector and makes it evolve in the input space to select the sparse
support. We put to evidence an oracle update rule for the exploratory vector
and consider the STE update. The theoretical analysis establishes general
sufficient conditions of support recovery. The general conditions are
specialized to the case where the matrix $A$ performing the linear measurements
satisfies the {\it Restricted Isometry Property (RIP)}.Experiments show that
SEA can efficiently improve the results of any algorithm. Because of its
exploratory nature, SEA also performs remarkably well when the columns of $A$
are strongly coherent.
- Abstract(参考訳): このアルゴリズムは, スパース線形逆問題の解法に適用した「ste」("it straight-through estimator")の例として解釈できる。
SEAはスパース探索ベクトルを使用し、スパースサポートを選択するために入力空間内で進化させる。
私たちはexploratory vectorのoracle updateルールを証明し、ste updateを検討します。
理論解析は、支持回復の一般的な十分な条件を確立する。
一般的な条件は、線形測定を行う行列$A$が {\displaystyle {\it Restricted Isometry Property (RIP)} を満たす場合に特化される。
実験により、seaは任意のアルゴリズムの結果を効率的に改善できることが示されている。
探索的な性質のため、SEA は$A$ の列が強いコヒーレントであるときにも非常によく機能する。
関連論文リスト
- Improved Regret for Efficient Online Reinforcement Learning with Linear
Function Approximation [69.0695698566235]
線形関数近似による強化学習と,コスト関数の逆変化について検討した。
本稿では,未知のダイナミクスと帯域幅フィードバックの一般設定に挑戦する,計算効率のよいポリシ最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-01-30T17:26:39Z) - Globally Convergent Policy Search over Dynamic Filters for Output
Estimation [64.90951294952094]
我々は,大域的に最適な$textitdynamic$ filterに収束する最初の直接ポリシー探索アルゴリズム凸を導入する。
我々は、情報化が前述の優越性を克服していることを示す。
論文 参考訳(メタデータ) (2022-02-23T18:06:20Z) - Entrywise Recovery Guarantees for Sparse PCA via Sparsistent Algorithms [9.112172220055431]
一般的な高次元のガウス設計の下で、スパースPCAに対して入出力$ell_2,infty$boundsを提供する。
提案手法は,確率の高い正しいサポートを選択するアルゴリズムであり,スパーシスタントなアルゴリズムである。
論文 参考訳(メタデータ) (2022-02-08T18:50:35Z) - A Data-Driven Line Search Rule for Support Recovery in High-dimensional
Data Analysis [5.180648702293017]
適切なステップサイズを適応的に決定する新しい,効率的なデータ駆動行探索法を提案する。
線形回帰問題とロジスティック回帰問題における最先端アルゴリズムとの比較は,提案アルゴリズムの安定性,有効性,優越性を示す。
論文 参考訳(メタデータ) (2021-11-21T12:18:18Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - Randomized Exploration for Reinforcement Learning with General Value
Function Approximation [122.70803181751135]
本稿では,ランダム化最小二乗値反復(RLSVI)アルゴリズムに着想を得たモデルレス強化学習アルゴリズムを提案する。
提案アルゴリズムは,スカラーノイズを用いたトレーニングデータを簡易に摂動させることにより,探索を促進する。
我々はこの理論を、既知の困難な探査課題にまたがる実証的な評価で補完する。
論文 参考訳(メタデータ) (2021-06-15T02:23:07Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Error-Correction for Sparse Support Recovery Algorithms [17.13291434132985]
LiREはノイズレス測定のためのシンプルなエラー補正モジュールです。
orthogonal Matching Pursuitのサブリニアを$m$のエラー数で修正することができる。
実験によると、LiREは完全なサポート回復に必要な測定値を大幅に削減します。
論文 参考訳(メタデータ) (2021-03-05T17:05:19Z) - Streaming k-PCA: Efficient guarantees for Oja's algorithm, beyond
rank-one updates [14.728207711693406]
Ojaの$k$-PCAストリーミングアルゴリズムは、最適なオフラインアルゴリズムとほぼ一致する性能を達成する。
我々はOjaのアルゴリズムが期待値のトップ$k$固有ベクトルの部分空間への正確な近似を得ることができることを示す。
論文 参考訳(メタデータ) (2021-02-06T19:21:24Z) - Linear-Sample Learning of Low-Rank Distributions [56.59844655107251]
ktimes k$, rank-r$, matrices to normalized $L_1$ distance requires $Omega(frackrepsilon2)$ sample。
我々は、$cal O(frackrepsilon2log2fracepsilon)$ sample, a number linear in the high dimension, and almost linear in the matrices, usually low, rank proofs.というアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-09-30T19:10:32Z) - Provably Convergent Working Set Algorithm for Non-Convex Regularized
Regression [0.0]
本稿では、収束保証付き非正則正規化器のためのワーキングセットアルゴリズムを提案する。
その結果,ブロックコーディネートや勾配ソルバの完全解法と比較して高い利得を示した。
論文 参考訳(メタデータ) (2020-06-24T07:40:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。