論文の概要: Distributional Shrinkage II: Optimal Transport Denoisers with Higher-Order Scores
- arxiv url: http://arxiv.org/abs/2512.09295v1
- Date: Wed, 10 Dec 2025 03:41:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-11 15:14:53.387145
- Title: Distributional Shrinkage II: Optimal Transport Denoisers with Higher-Order Scores
- Title(参考訳): 分散収縮II:高次スコアの最適輸送デノイザ
- Authors: Tengyuan Liang,
- Abstract要約: 我々は最適な輸送のレンズを通して信号復調問題を再検討する。
目標は、ノイズの観測から未知のスカラー信号の分布を$X sim P$で回収することである。
信号分布に非依存なmathbbR$に$T_infty : mathbbRの階層を導入する。
- 参考スコア(独自算出の注目度): 6.878547831852429
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We revisit the signal denoising problem through the lens of optimal transport: the goal is to recover an unknown scalar signal distribution $X \sim P$ from noisy observations $Y = X + σZ$, with $Z$ being standard Gaussian independent of $X$ and $σ>0$ a known noise level. Let $Q$ denote the distribution of $Y$. We introduce a hierarchy of denoisers $T_0, T_1, \ldots, T_\infty : \mathbb{R} \to \mathbb{R}$ that are agnostic to the signal distribution $P$, depending only on higher-order score functions of $Q$. Each denoiser $T_K$ is progressively refined using the $(2K-1)$-th order score function of $Q$ at noise resolution $σ^{2K}$, achieving better denoising quality measured by the Wasserstein metric $W(T_K \sharp Q, P)$. The limiting denoiser $T_\infty$ identifies the optimal transport map with $T_\infty \sharp Q = P$. We provide a complete characterization of the combinatorial structure underlying this hierarchy through Bell polynomial recursions, revealing how higher-order score functions encode the optimal transport map for signal denoising. We study two estimation strategies with convergence rates for higher-order scores from i.i.d. samples drawn from $Q$: (i) plug-in estimation via Gaussian kernel smoothing, and (ii) direct estimation via higher-order score matching. This hierarchy of agnostic denoisers opens new perspectives in signal denoising and empirical Bayes.
- Abstract(参考訳): 目的は、未知のスカラー信号分布である$X \sim P$をノイズ観測から回収することであり、$Y = X + σZ$であり、$Z$は標準ガウスで、$X$と$σ>0$は既知のノイズレベルである。
Q$ は$Y$ の分布を表す。
信号分布に非依存な$T_0, T_1, \ldots, T_\infty : \mathbb{R} \to \mathbb{R}$の階層を導入する。
各デノイザ$T_K$は、ノイズ分解時に$Q$$2K-1)$-th次スコア関数$σ^{2K}$で徐々に洗練され、ワッサーシュタイン計量$W(T_K \sharp Q, P)$で測定されたより優れたデノイジング品質を達成する。
制限付き denoiser $T_\infty$ は、最適輸送写像を $T_\infty \sharp Q = P$ で識別する。
本稿では、ベル多項式再帰を通じて、この階層の基盤となる組合せ構造の完全な特徴付けを行い、信号復調のための最適なトランスポートマップを高次スコア関数がどのように符号化するかを明らかにする。
Q$:のサンプルから得られた高次スコアに対する収束率を用いた2つの推定方法について検討する。
(i)ガウス核平滑化によるプラグイン推定、及び
(ii)高次スコアマッチングによる直接推定。
この非依存的雑音の階層構造は、信号の認知と経験的ベイズにおける新しい視点を開放する。
関連論文リスト
- Distributional Shrinkage I: Universal Denoisers in Multi-Dimensions [6.878547831852429]
広帯域の信号や雑音の分布に依存しないユニバーサルデノイザを提案し,解析する。
最適輸送理論にインスパイアされた提案デノイザは,モンゲ・アンペア方程式を高次精度で近似するのに最適である。
論文 参考訳(メタデータ) (2025-11-12T17:20:42Z) - Stochastic Bilevel Optimization with Heavy-Tailed Noise [27.792016944321627]
本稿では,低次問題を強く凸し,高次問題を非定常雑音レベルとするスムーズな二段階最適化について考察する。
論文 参考訳(メタデータ) (2025-09-18T13:37:40Z) - Sign Operator for Coping with Heavy-Tailed Noise in Non-Convex Optimization: High Probability Bounds Under $(L_0, L_1)$-Smoothness [74.18546828528298]
SignSGD with Majority Votingは,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappaka ppakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappakappa -1right,Kappakappakappa-1right,Kappakappakappa-1right,Kappakappappapa-1right,Kappaを用いて,複雑性の全範囲で堅牢に動作することを示す。
論文 参考訳(メタデータ) (2025-02-11T19:54:11Z) - Noise Stability Optimization for Finding Flat Minima: A Hessian-based Regularization Approach [18.009376840944284]
本稿では,ヘッセン損失行列を効果的に正規化できるアルゴリズムを提案する。
提案手法は,CLIPとチェーン・オブ・ファインチューニングデータセットの事前学習における一般化の改善に有効である。
論文 参考訳(メタデータ) (2023-06-14T14:58:36Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Optimal Online Generalized Linear Regression with Stochastic Noise and
Its Application to Heteroscedastic Bandits [88.6139446295537]
一般化線形モデルの設定におけるオンライン一般化線形回帰の問題について検討する。
ラベルノイズに対処するため、古典的追従正規化リーダ(FTRL)アルゴリズムを鋭く解析する。
本稿では,FTRLに基づくアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-02-28T08:25:26Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Second-Order Information in Non-Convex Stochastic Optimization: Power
and Limitations [54.42518331209581]
私たちは発見するアルゴリズムを見つけます。
epsilon$-approximate stationary point ($|nabla F(x)|le epsilon$) using
$(epsilon,gamma)$surimateランダムランダムポイント。
ここでの私たちの下限は、ノイズのないケースでも新規です。
論文 参考訳(メタデータ) (2020-06-24T04:41:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。