論文の概要: Just Least Squares: Binary Compressive Sampling with Low Generative
Intrinsic Dimension
- arxiv url: http://arxiv.org/abs/2111.14486v1
- Date: Mon, 29 Nov 2021 12:06:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-01 00:09:02.997810
- Title: Just Least Squares: Binary Compressive Sampling with Low Generative
Intrinsic Dimension
- Title(参考訳): 極小正方形:低生成性内在次元の2成分圧縮サンプリング
- Authors: Yuling Jiao, Dingwei Li, Min Liu, Xiangliang Lu and Yuanyuan Yang
- Abstract要約: 雑音や符号フリップによって劣化した$m$のバイナリ測定から$n$の次元信号を復元することを検討する。
二乗測定モデルは非常に非線形であるが、最小二乗復号器を提案する。
- 参考スコア(独自算出の注目度): 12.67951378791069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper, we consider recovering $n$ dimensional signals from $m$ binary
measurements corrupted by noises and sign flips under the assumption that the
target signals have low generative intrinsic dimension, i.e., the target
signals can be approximately generated via an $L$-Lipschitz generator $G:
\mathbb{R}^k\rightarrow\mathbb{R}^{n}, k\ll n$. Although the binary
measurements model is highly nonlinear, we propose a least square decoder and
prove that, up to a constant $c$, with high probability, the least square
decoder achieves a sharp estimation error $\mathcal{O} (\sqrt{\frac{k\log
(Ln)}{m}})$ as long as $m\geq \mathcal{O}( k\log (Ln))$. Extensive numerical
simulations and comparisons with state-of-the-art methods demonstrated the
least square decoder is robust to noise and sign flips, as indicated by our
theory. By constructing a ReLU network with properly chosen depth and width, we
verify the (approximately) deep generative prior, which is of independent
interest.
- Abstract(参考訳): 本稿では、雑音や符号フリップによって劣化した$m$2次測定値からの$n$次元信号の復元を、ターゲット信号が生成固有次元が低いという仮定の下で検討し、ターゲット信号は、$L$-Lipschitz 生成器 $G: \mathbb{R}^k\rightarrow\mathbb{R}^{n}, k\ll n$ でほぼ生成可能である。
二項計測モデルは高度に非線形であるが、最小二乗デコーダを提案すれば、定数 $c$ まで、高い確率で最小二乗デコーダは、$m\geq \mathcal{o}(k\log (ln))$ であるような鋭利な推定誤差 $\mathcal{o} (\sqrt{\frac{k\log (ln)}{m}})$ を達成することを証明できる。
数値シミュレーションと最先端法との比較により,最小二乗デコーダは雑音や符号のフリップに頑健であることが証明された。
適切に選択された深さと幅を持つReLUネットワークを構築することにより、独立した関心を持つ(およそ)深層生成先行を検証できる。
関連論文リスト
- New advances in universal approximation with neural networks of minimal width [4.424170214926035]
リークReLUアクティベーションを持つオートエンコーダは$Lp$関数の普遍近似器であることを示す。
我々は,滑らかな可逆ニューラルネットワークが$Lp(mathbbRd,mathbbRd)$をコンパクト化できることを示す。
論文 参考訳(メタデータ) (2024-11-13T16:17:16Z) - Model-adapted Fourier sampling for generative compressed sensing [7.130302992490975]
測定行列が一意行列からランダムにサブサンプリングされたとき, 生成的圧縮センシングについて検討した。
我々は,textitO(kd| boldsymbolalpha|_22)$の測定精度を改良したモデル適応サンプリング戦略を構築した。
論文 参考訳(メタデータ) (2023-10-08T03:13:16Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - Solving Quadratic Systems with Full-Rank Matrices Using Sparse or Generative Priors [33.0212223058894]
二次系$y_i=boldsymbol xtopboldsymbol A_iboldsymbol x, i=1,ldots,m$とフルランク行列$boldsymbol A_i$からの信号を回復する問題は、未割り当て距離幾何学やサブ波長イメージングなどの応用で頻繁に発生する。
本稿では、$mll n$ が $boldsymbol x$ の事前知識を取り入れた高次元の場合について述べる。
論文 参考訳(メタデータ) (2023-09-16T16:00:07Z) - Effective Minkowski Dimension of Deep Nonparametric Regression: Function
Approximation and Statistical Theories [70.90012822736988]
ディープ非パラメトリック回帰に関する既存の理論は、入力データが低次元多様体上にある場合、ディープニューラルネットワークは本質的なデータ構造に適応できることを示した。
本稿では,$mathcalS$で表される$mathbbRd$のサブセットに入力データが集中するという緩和された仮定を導入する。
論文 参考訳(メタデータ) (2023-06-26T17:13:31Z) - Neural Networks Efficiently Learn Low-Dimensional Representations with
SGD [22.703825902761405]
SGDで訓練されたReLU NNは、主方向を回復することで、$y=f(langleboldsymbolu,boldsymbolxrangle) + epsilon$という形の単一インデックスターゲットを学習できることを示す。
また、SGDによる近似低ランク構造を用いて、NNに対して圧縮保証を提供する。
論文 参考訳(メタデータ) (2022-09-29T15:29:10Z) - Learning a Single Neuron with Adversarial Label Noise via Gradient
Descent [50.659479930171585]
モノトン活性化に対する $mathbfxmapstosigma(mathbfwcdotmathbfx)$ の関数について検討する。
学習者の目標は仮説ベクトル $mathbfw$ that $F(mathbbw)=C, epsilon$ を高い確率で出力することである。
論文 参考訳(メタデータ) (2022-06-17T17:55:43Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Nonparametric Learning of Two-Layer ReLU Residual Units [22.870658194212744]
本稿では,線形整列ユニット(ReLU)を活性化した2層残基を学習するアルゴリズムについて述べる。
解析最小化器はそのパラメータと非線形性の観点から、正確な地上構造ネットワークを表現できる機能として層ワイドな目的を設計する。
我々は,アルゴリズムの統計的強い一貫性を証明し,実験によるアルゴリズムの堅牢性とサンプル効率を実証する。
論文 参考訳(メタデータ) (2020-08-17T22:11:26Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。