論文の概要: Non-Convex Compressed Sensing with Training Data

• arxiv url: http://arxiv.org/abs/2101.08310v1
• Date: Wed, 20 Jan 2021 20:30:59 GMT
• ステータス: 処理完了
• システム内更新日: 2021-03-22 01:14:20.076116
• Title: Non-Convex Compressed Sensing with Training Data
• Title（参考訳）: トレーニングデータを用いた非凸圧縮センシング
• Authors: G. Welper
• Abstract要約: 我々は、行列$A$上の比較的少数の仮定を持つ1層の線形ニューラルネットワークの範囲において高い確率で元の問題$Ax = b$の解決策を見つける。 本稿では、適切な初期値の代わりに、圧縮センシング問題に関連する追加のトレーニング問題 $Ax = B_l$, $l=1, dots, p$ が提供される代替案を検討する。
• 参考スコア（独自算出の注目度）: 0.0
• Abstract: Efficient algorithms for the sparse solution of under-determined linear systems $Ax = b$ are known for matrices $A$ satisfying suitable assumptions like the restricted isometry property (RIP). Without such assumptions little is known and without any assumptions on $A$ the problem is $NP$-hard. A common approach is to replace $\ell_1$ by $\ell_p$ minimization for $0 < p < 1$, which is no longer convex and typically requires some form of local initial values for provably convergent algorithms. In this paper, we consider an alternative, where instead of suitable initial values we are provided with extra training problems $Ax = B_l$, $l=1, \dots, p$ that are related to our compressed sensing problem. They allow us to find the solution of the original problem $Ax = b$ with high probability in the range of a one layer linear neural network with comparatively few assumptions on the matrix $A$.
• Abstract（参考訳）: 未決定線型系のスパース解に対する効率的なアルゴリズムは、制限等尺性(RIP)のような適切な仮定を満たす行列に対して$Ax = b$ が知られている。 そのような仮定がなければほとんど知られておらず、$A$の仮定がなければ、問題は$NP$-hardである。 一般的なアプローチは、$\ell_1$を$\ell_p$ minimizationを$0 < p < 1$に置き換えることである。 そこで本研究では,初期値に代えて,圧縮センシング問題に関連する追加のトレーニング問題として$Ax = B_l$, $l=1, \dots, p$が提供される。 これにより、元の問題である$Ax = b$の解を1層線形ニューラルネットワークの範囲内で高い確率で見つけることができ、行列$A$に対する仮定は比較的少ない。