論文の概要: The Generalized Lasso with Nonlinear Observations and Generative Priors
- arxiv url: http://arxiv.org/abs/2006.12415v3
- Date: Thu, 8 Oct 2020 05:14:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:49:38.279475
- Title: The Generalized Lasso with Nonlinear Observations and Generative Priors
- Title(参考訳): 非線形観測と生成優先を伴う一般化ラッソ
- Authors: Zhaoqiang Liu, Jonathan Scarlett
- Abstract要約: 我々は、幅広い測定モデルで満たされるガウス下測度を仮定する。
この結果から, 局所埋込特性を仮定して, 均一回復保証まで拡張できることが示唆された。
- 参考スコア(独自算出の注目度): 63.541900026673055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study the problem of signal estimation from noisy
non-linear measurements when the unknown $n$-dimensional signal is in the range
of an $L$-Lipschitz continuous generative model with bounded $k$-dimensional
inputs. We make the assumption of sub-Gaussian measurements, which is satisfied
by a wide range of measurement models, such as linear, logistic, 1-bit, and
other quantized models. In addition, we consider the impact of adversarial
corruptions on these measurements. Our analysis is based on a generalized Lasso
approach (Plan and Vershynin, 2016). We first provide a non-uniform recovery
guarantee, which states that under i.i.d.~Gaussian measurements, roughly
$O\left(\frac{k}{\epsilon^2}\log L\right)$ samples suffice for recovery with an
$\ell_2$-error of $\epsilon$, and that this scheme is robust to adversarial
noise. Then, we apply this result to neural network generative models, and
discuss various extensions to other models and non-i.i.d.~measurements.
Moreover, we show that our result can be extended to the uniform recovery
guarantee under the assumption of a so-called local embedding property, which
is satisfied by the 1-bit and censored Tobit models.
- Abstract(参考訳): 本稿では,未知の$n$次元信号が有界な$k$次元入力を持つ$L$-Lipschitz連続生成モデルの範囲内にある場合の雑音非線形測定による信号推定の問題について検討する。
我々は,線形,ロジスティック,1ビット,その他の量子化モデルなど,幅広い測定モデルで満たされる準ガウス測度を仮定する。
さらに,これらの測定結果に対する反抗的汚職の影響について考察する。
我々の分析は一般化lassoアプローチに基づいている(plan and vershynin, 2016)。
まず、一様でないリカバリ保証を提供する。つまり、ガウス測定では、およそ$O\left(\frac{k}{\epsilon^2}\log L\right)$サンプルは$\ell_2$-error of $\epsilon$でリカバリするのに十分であり、このスキームは敵のノイズに対して堅牢である。
そして、この結果をニューラルネットワーク生成モデルに適用し、他のモデルへの様々な拡張と非i.d.~測定について論じる。
さらに, 1ビットおよび検閲されたtobitモデルによって満足されるいわゆる局所埋め込み特性の仮定により, 結果が一様回復保証に拡張可能であることを示す。
関連論文リスト
- Benign overfitting in leaky ReLU networks with moderate input dimension [12.744982575603796]
二元分類タスクにおけるヒンジ損失を訓練した2層ReLUネットワークにおける良性オーバーフィッティングについて検討した。
モデルパラメータの信号対雑音比(SNR)の条件を特徴付ける。
論文 参考訳(メタデータ) (2024-03-11T16:56:01Z) - Analysis of Bootstrap and Subsampling in High-dimensional Regularized
Regression [20.348736537045916]
統計モデルの不確実性を推定するための一般的な再サンプリング手法について検討する。
一般化線形モデル(英語版)の文脈において、これらの手法によって推定されるバイアスと分散の厳密な記述を提供する。
論文 参考訳(メタデータ) (2024-02-21T08:50:33Z) - Off-the-grid prediction and testing for mixtures of translated features [0.0]
付加的なガウス雑音過程で信号(離散あるいは連続)が観測されるモデルを考える。
我々は,スケールパラメータが変化する可能性を考慮して,オフ・ザ・グリッド推定器の過去の予測結果を拡張した。
本稿では,本モデルに対する適合性テストを提案し,テストリスクとミニマックス分離率の非漸近的上限を与える。
論文 参考訳(メタデータ) (2022-12-02T13:48:45Z) - On the Identifiability and Estimation of Causal Location-Scale Noise
Models [122.65417012597754]
位置スケール・異方性雑音モデル(LSNM)のクラスについて検討する。
症例によっては, 因果方向が同定可能であることが示唆された。
我々は,LSNMの2つの推定器を提案し,その1つは(非線形)特徴写像に基づく推定器と,1つはニューラルネットワークに基づく推定器を提案する。
論文 参考訳(メタデータ) (2022-10-13T17:18:59Z) - Non-Iterative Recovery from Nonlinear Observations using Generative
Models [14.772379476524407]
この信号は、有界な$k$次元入力を持つ$L$-Lipschitz連続生成モデルの範囲内にあると仮定する。
提案手法は非定性的であり(プロジェクションステップの近似には反復手順を用いる場合もあるが)、高効率である。
論文 参考訳(メタデータ) (2022-05-31T12:34:40Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Inverting brain grey matter models with likelihood-free inference: a
tool for trustable cytoarchitecture measurements [62.997667081978825]
脳の灰白質細胞構造の特徴は、体密度と体積に定量的に敏感であり、dMRIでは未解決の課題である。
我々は新しいフォワードモデル、特に新しい方程式系を提案し、比較的スパースなb殻を必要とする。
次に,提案手法を逆転させるため,確率自由推論 (LFI) として知られるベイズ解析から最新のツールを適用した。
論文 参考訳(メタデータ) (2021-11-15T09:08:27Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z) - Sample Complexity Bounds for 1-bit Compressive Sensing and Binary Stable
Embeddings with Generative Priors [52.06292503723978]
生成モデルを用いた圧縮センシングの進歩により, 生成モデルを用いた1ビット圧縮センシングの問題点を考察した。
まずノイズのない1ビット測定を考察し, ガウス測度に基づく近似回復のためのサンプル複雑性境界を提供する。
また,リプシッツ連続生成モデルを用いた1ビット圧縮センシングにも有効であることを示すため,評価誤差と雑音に対する再構成の堅牢性を示すBinary $epsilon$-Stable Embedding特性を実証した。
論文 参考訳(メタデータ) (2020-02-05T09:44:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。