論文の概要: Recovering H\"older smooth functions from noisy modulo samples
- arxiv url: http://arxiv.org/abs/2112.01610v1
- Date: Thu, 2 Dec 2021 21:32:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-06 16:14:30.304046
- Title: Recovering H\"older smooth functions from noisy modulo samples
- Title(参考訳): 雑音モジュロ試料からのh\"older smooth functionsの回収
- Authors: Micha\"el Fanuel and Hemant Tyagi
- Abstract要約: いくつかの応用は、雑音のあるモジュラーサンプルが与えられた関数の回復を含む。
正規格子上にモジュロサンプルが与えられる固定的な設定を考える。
地上の真実を回復するための3段階の回復戦略が提案されている。
準補間作用素は、大域的な整数シフトまでの基底真理関数の推定値を得るために用いられる。
- 参考スコア(独自算出の注目度): 3.9215337270154995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In signal processing, several applications involve the recovery of a function
given noisy modulo samples. The setting considered in this paper is that the
samples corrupted by an additive Gaussian noise are wrapped due to the modulo
operation. Typical examples of this problem arise in phase unwrapping problems
or in the context of self-reset analog to digital converters. We consider a
fixed design setting where the modulo samples are given on a regular grid.
Then, a three stage recovery strategy is proposed to recover the ground truth
signal up to a global integer shift. The first stage denoises the modulo
samples by using local polynomial estimators. In the second stage, an
unwrapping algorithm is applied to the denoised modulo samples on the grid.
Finally, a spline based quasi-interpolant operator is used to yield an estimate
of the ground truth function up to a global integer shift. For a function in
H\"older class, uniform error rates are given for recovery performance with
high probability. This extends recent results obtained by Fanuel and Tyagi for
Lipschitz smooth functions wherein $k$NN regression was used in the denoising
step.
- Abstract(参考訳): 信号処理では、ノイズのあるモジュロサンプルが与えられた関数の回復を含むいくつかの応用がある。
本論文では, 付加ガウス雑音により劣化した試料をモデュロ動作によりラップする設定について検討した。
この問題の典型的な例は、位相アンラッピング問題やデジタルコンバータに対する自己リセットアナログの文脈で生じる。
正規格子上にモジュロサンプルが与えられる固定設計について考察する。
次に,大域的整数シフトまでの基底真理信号を回復するための3段階の回復戦略を提案する。
第1段階は局所多項式推定器を用いてモジュラーサンプルを復調する。
第2段階では、グリッド上の分別モデュロサンプルに対して、未解決のアルゴリズムを適用する。
最後に、スプラインベース準補間演算子を用いて、大域的な整数シフトまでの基底真理関数の推定値を得る。
H\"古いクラスの関数に対しては、高い確率でリカバリ性能に均一なエラー率が与えられる。
これにより、Fanuel と Tyagi がLipschitz の滑らかな関数に対して得た最近の結果が拡張される。
関連論文リスト
- Bayes-optimal learning of an extensive-width neural network from quadratically many samples [28.315491743569897]
本研究では,単一層ニューラルネットワークに対応する対象関数を学習する問題を考察する。
入力次元とネットワーク幅が比例的に大きい限界を考える。
論文 参考訳(メタデータ) (2024-08-07T12:41:56Z) - Noisy Pair Corrector for Dense Retrieval [59.312376423104055]
ノイズペアコレクタ(NPC)と呼ばれる新しい手法を提案する。
NPCは検出モジュールと修正モジュールから構成される。
我々は,テキスト検索ベンチマークのNatural QuestionとTriviaQA,コード検索ベンチマークのStaQCとSO-DSで実験を行った。
論文 参考訳(メタデータ) (2023-11-07T08:27:14Z) - Gradient Coding with Iterative Block Leverage Score Sampling [42.21200677508463]
変換したデータのサンプリングサブセットに対応するために,$ell$-subspace埋め込みのためのレバレッジスコアサンプリングスケッチを一般化する。
これを用いて、一階法に対する近似符号付き計算手法を導出する。
論文 参考訳(メタデータ) (2023-08-06T12:22:12Z) - Score-based Diffusion Models in Function Space [140.792362459734]
拡散モデルは、最近、生成モデリングの強力なフレームワークとして登場した。
本稿では,関数空間における拡散モデルをトレーニングするためのDDO(Denoising Diffusion Operators)という,数学的に厳密なフレームワークを提案する。
データ解像度に依存しない固定コストで、対応する離散化アルゴリズムが正確なサンプルを生成することを示す。
論文 参考訳(メタデータ) (2023-02-14T23:50:53Z) - Diffusion Posterior Sampling for General Noisy Inverse Problems [50.873313752797124]
我々は、後方サンプリングの近似により、雑音(非線形)逆問題に対処するために拡散解法を拡張した。
本手法は,拡散モデルが様々な計測ノイズ統計を組み込むことができることを示す。
論文 参考訳(メタデータ) (2022-09-29T11:12:27Z) - Towards Sample-Optimal Compressive Phase Retrieval with Sparse and
Generative Priors [59.33977545294148]
O(k log L)$サンプルは振幅に基づく経験損失関数を最小化する任意のベクトルに信号が近いことを保証するのに十分であることを示す。
この結果はスパース位相検索に適応し、基底信号が$s$-sparseおよび$n$-dimensionalである場合、$O(s log n)$サンプルは同様の保証に十分であることを示す。
論文 参考訳(メタデータ) (2021-06-29T12:49:54Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Error analysis for denoising smooth modulo signals on a graph [5.025654873456756]
多くの応用において、滑らかな関数のノイズのあるモジュラーサンプルへのアクセスが与えられる。
目標は、サンプルをしっかりと切り離し、関数のオリジナルのサンプルを見積もることである。
論文 参考訳(メタデータ) (2020-09-10T13:45:21Z) - Learning Noise-Aware Encoder-Decoder from Noisy Labels by Alternating
Back-Propagation for Saliency Detection [54.98042023365694]
本稿では,ノイズを考慮したエンコーダ・デコーダ・フレームワークを提案する。
提案モデルはニューラルネットワークによってパラメータ化された2つのサブモデルから構成される。
論文 参考訳(メタデータ) (2020-07-23T18:47:36Z) - Implicit Bias of Gradient Descent for Mean Squared Error Regression with
Two-Layer Wide Neural Networks [1.3706331473063877]
幅$n$浅いReLUネットワークをトレーニングする解は、トレーニングデータに適合する関数の$n-1/2$以内であることを示す。
また, トレーニング軌道はスムーズなスプラインの軌道によって捕捉され, 正規化強度は低下することを示した。
論文 参考訳(メタデータ) (2020-06-12T17:46:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。