論文の概要: Support Exploration Algorithm for Sparse Support Recovery
- arxiv url: http://arxiv.org/abs/2301.13584v1
- Date: Tue, 31 Jan 2023 12:31:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-01 16:38:37.558640
- Title: Support Exploration Algorithm for Sparse Support Recovery
- Title(参考訳): スパース支持回復のための支援探索アルゴリズム
- Authors: Mimoun Mohamed (LIS, I2M), Fran\c{c}ois Malgouyres (IMT), Valentin
Emiya (QARMA), Caroline Chaux (IPAL)
- Abstract要約: 本稿では,SEA(Support Exploration Algorithm)と呼ばれる空間性を促進する新しいアルゴリズムを導入し,回復/モデル選択の問題の文脈で解析する。
SEAはスパース探索ベクトルを使用し、スパースサポートを選択するために入力空間内で進化させる。
実験により、SEAは任意のアルゴリズムの結果を効率的に改善できることが示された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce a new algorithm promoting sparsity called {\it Support
Exploration Algorithm (SEA)} and analyze it in the context of support
recovery/model selection problems.The algorithm can be interpreted as an
instance of the {\it straight-through estimator (STE)} applied to the
resolution of a sparse linear inverse problem. SEA uses a non-sparse
exploratory vector and makes it evolve in the input space to select the sparse
support. We put to evidence an oracle update rule for the exploratory vector
and consider the STE update. The theoretical analysis establishes general
sufficient conditions of support recovery. The general conditions are
specialized to the case where the matrix $A$ performing the linear measurements
satisfies the {\it Restricted Isometry Property (RIP)}.Experiments show that
SEA can efficiently improve the results of any algorithm. Because of its
exploratory nature, SEA also performs remarkably well when the columns of $A$
are strongly coherent.
- Abstract(参考訳): このアルゴリズムは, スパース線形逆問題の解法に適用した「ste」("it straight-through estimator")の例として解釈できる。
SEAはスパース探索ベクトルを使用し、スパースサポートを選択するために入力空間内で進化させる。
私たちはexploratory vectorのoracle updateルールを証明し、ste updateを検討します。
理論解析は、支持回復の一般的な十分な条件を確立する。
一般的な条件は、線形測定を行う行列$A$が {\displaystyle {\it Restricted Isometry Property (RIP)} を満たす場合に特化される。
実験により、seaは任意のアルゴリズムの結果を効率的に改善できることが示されている。
探索的な性質のため、SEA は$A$ の列が強いコヒーレントであるときにも非常によく機能する。
関連論文リスト
- High-dimensional Contextual Bandit Problem without Sparsity [8.782204980889077]
本稿では,この問題に対処し,その性能を検証するための探索列コミット(EtC)アルゴリズムを提案する。
我々は、ETCアルゴリズムの最適レートを$T$で導出し、探索とエクスプロイトのバランスをとることで、このレートを実現できることを示す。
本稿では,最適バランスを適応的に求める適応探索定理 (AEtC) アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-19T15:29:32Z) - Optimal Sparse Recovery with Decision Stumps [7.24496247221802]
木に基づく手法は,多種多様な条件下で,強力な特徴選択特性が得られることを示す。
また,本分析の副産物として,アクティブ機能数$s$が不明な場合でも,回復を確実に保証できることを示す。
論文 参考訳(メタデータ) (2023-03-08T00:43:06Z) - Average case analysis of Lasso under ultra-sparse conditions [4.568911586155097]
回帰器の数が大きくなると、線形モデルに対する最小絶対収縮・選択演算子(Lasso)の性能を解析する。
完全サポート回復のための得られた境界は、以前の文献で与えられたものを一般化したものである。
論文 参考訳(メタデータ) (2023-02-25T14:50:32Z) - Multi-task Learning of Order-Consistent Causal Graphs [59.9575145128345]
我々は、$K関連ガウス非巡回グラフ(DAG)の発見問題を考える。
マルチタスク学習環境下では, 線形構造方程式モデルを学習するためのMLE ($l_1/l$-regularized maximum chance estimator) を提案する。
理論的には、関係するタスクにまたがるデータを活用することで、因果順序を復元する際のサンプルの複雑さをより高めることができることを示す。
論文 参考訳(メタデータ) (2021-11-03T22:10:18Z) - A general sample complexity analysis of vanilla policy gradient [101.16957584135767]
政策勾配(PG)は、最も一般的な強化学習(RL)問題の1つである。
PG軌道の「バニラ」理論的理解は、RL問題を解く最も一般的な方法の1つである。
論文 参考訳(メタデータ) (2021-07-23T19:38:17Z) - A Precise Performance Analysis of Support Vector Regression [105.94855998235232]
我々は,n$の線形測定に応用したハードおよびソフトサポートベクター回帰法について検討した。
得られた結果は、ハードおよびソフトサポートベクトル回帰アルゴリズムの設計に介入するパラメータを最適に調整するために使用される。
論文 参考訳(メタデータ) (2021-05-21T14:26:28Z) - Globally-convergent Iteratively Reweighted Least Squares for Robust
Regression Problems [15.823258699608994]
我々は、ロバスト回帰問題に対するIRLS(暫定的に重み付けされた最小二乗)に対する最初のグローバルモデル回復結果を提供する。
我々は、保証されたグローバルリカバリを提供するだけでなく、実際にロバストレグレッションのための最先端のアルゴリズムよりも優れている基本IRLSルーチンの拡張を提案する。
論文 参考訳(メタデータ) (2020-06-25T07:16:13Z) - Robust Compressed Sensing using Generative Models [98.64228459705859]
本稿では,Median-of-Means (MOM) にヒントを得たアルゴリズムを提案する。
我々のアルゴリズムは、外れ値が存在する場合でも、重み付きデータの回復を保証する。
論文 参考訳(メタデータ) (2020-06-16T19:07:41Z) - On the Convergence Rate of Projected Gradient Descent for a
Back-Projection based Objective [58.33065918353532]
我々は、最小二乗(LS)の代替として、バックプロジェクションに基づく忠実度項を考える。
LS項ではなくBP項を用いることで最適化アルゴリズムの繰り返しを少なくすることを示す。
論文 参考訳(メタデータ) (2020-05-03T00:58:23Z) - Distributional Robustness and Regularization in Reinforcement Learning [62.23012916708608]
経験値関数の新しい正規化器を導入し、ワッサーシュタイン分布のロバストな値関数を下限とすることを示す。
強化学習における$textitexternalな不確実性に対処するための実用的なツールとして正規化を使用することを提案する。
論文 参考訳(メタデータ) (2020-03-05T19:56:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。