論文の概要: Optimal rates for density and mode estimation with expand-and-sparsify representations
- arxiv url: http://arxiv.org/abs/2602.06175v1
- Date: Thu, 05 Feb 2026 20:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.099796
- Title: Optimal rates for density and mode estimation with expand-and-sparsify representations
- Title(参考訳): 展開・分離表現を用いた密度とモード推定のための最適速度
- Authors: Kaushik Sinha, Christopher Tosh,
- Abstract要約: 本稿では,密度推定とモード推定という2つの基本的な統計問題に対する拡張・分離表現の適合性について検討する。
密度推定のために、展開・スパーシフィケート表現の単純線型関数は、最小最大$ell_infty$収束率を持つ推定器を生成することを示す。
モード推定では, 厳密な条件下での対数係数までの最適な速度で単一モードあるいは複数モードを復元する, 密度推定器の上の単純なアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 7.092211861863685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Expand-and-sparsify representations are a class of theoretical models that capture sparse representation phenomena observed in the sensory systems of many animals. At a high level, these representations map an input $x \in \mathbb{R}^d$ to a much higher dimension $m \gg d$ via random linear projections before zeroing out all but the $k \ll m$ largest entries. The result is a $k$-sparse vector in $\{0,1\}^m$. We study the suitability of this representation for two fundamental statistical problems: density estimation and mode estimation. For density estimation, we show that a simple linear function of the expand-and-sparsify representation produces an estimator with minimax-optimal $\ell_{\infty}$ convergence rates. In mode estimation, we provide simple algorithms on top of our density estimator that recover single or multiple modes at optimal rates up to logarithmic factors under mild conditions.
- Abstract(参考訳): 拡大・分散表現(Expand-and-sparsify representations)は、多くの動物の感覚系で観察されるスパース表現現象を捉える理論モデルの一種である。
高いレベルでは、これらの表現は入力 $x \in \mathbb{R}^d$ をランダムな線型射影を通してより高次元の $m \gg d$ にマッピングするが、これらは、$k \ll m$大エントリを除く全てをゼロにする。
結果として$k$-スパースベクトルが$\{0,1\}^m$となる。
本稿では,この表現の密度推定とモード推定という2つの基本的な統計問題に対する適合性について検討する。
密度推定のために、拡大・スパーシフィケート表現の単純線型関数は、最小値最適化$\ell_{\infty}$収束率を持つ推定器を生成することを示す。
モード推定では, 厳密な条件下での対数係数までの最適な速度で単一モードあるいは複数モードを復元する, 密度推定器の上の単純なアルゴリズムを提供する。
関連論文リスト
- Generalization Properties of Score-matching Diffusion Models for Intrinsically Low-dimensional Data [32.72306410557258]
有限個のサンプルから未知分布の$$を学習するためのスコアベース拡散モデルの統計的収束について検討する。
以上の結果から,拡散モデルがデータ固有の幾何学に自然に適応していることが示唆された。
我々の理論は, 拡散モデルの解析を, GANと最適輸送で確立された急激なミニマックス速度で橋渡しするものである。
論文 参考訳(メタデータ) (2026-03-04T03:59:02Z) - The Generative Leap: Sharp Sample Complexity for Efficiently Learning Gaussian Multi-Index Models [71.5283441529015]
この研究において、ラベルは(ガウス)$d$-次元入力にのみ依存し、低次元$r = O_d(1)$部分空間への射影を通して得られる。
生成的跳躍指数 $kstar$, [Damian et al.'24] から生成的指数の自然拡張をマルチインデックス設定に導入する。
論文 参考訳(メタデータ) (2025-06-05T18:34:56Z) - Relative-Translation Invariant Wasserstein Distance [82.6068808353647]
距離の新しい族、相対翻訳不変ワッサーシュタイン距離(RW_p$)を導入する。
我々は、$RW_p 距離もまた、分布変換に不変な商集合 $mathcalP_p(mathbbRn)/sim$ 上で定義される実距離測度であることを示す。
論文 参考訳(メタデータ) (2024-09-04T03:41:44Z) - Kernel Density Estimators in Large Dimensions [9.299356601085586]
カーネルによる密度$hatrho_hmathcal D(x)=frac1n hdsum_i=1n Kleft(fracx-y_ihright)$の推定は帯域幅$h$に依存する。
本稿では,Kullback-Leibler分散に基づく帯域幅の最適しきい値が,本論文で同定された新しい統計体系に含まれることを示す。
論文 参考訳(メタデータ) (2024-08-11T15:56:44Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Minimax Optimality of Score-based Diffusion Models: Beyond the Density Lower Bound Assumptions [11.222970035173372]
カーネルベースのスコア推定器は$widetildeOleft(n-1 t-fracd+22(tfracd2 vee 1)rightの最適平均二乗誤差を達成する
核を用いたスコア推定器は,拡散モデルで生成した試料の分布の総変動誤差に対して,極小ガウスの下での最大平均2乗誤差を$widetildeOleft(n-1/2 t-fracd4right)$上界で達成することを示す。
論文 参考訳(メタデータ) (2024-02-23T20:51:31Z) - Memory Efficient And Minimax Distribution Estimation Under Wasserstein
Distance Using Bayesian Histograms [6.21295508577576]
例えば、$d 2v$の場合、ヒストグラムは特別なテキストメモリ効率特性を持ち、サンプルサイズが$nであるのに対して、$nd/2v$ binsはミニマックスレートの最適性を得るために必要であることを示す。
達成されたメモリフットプリントは、既存のミニマックス最適手順を$n$の係数で克服する。例えば、ボレル確率測度クラスのミニマックス推定器である経験的測度と比較した場合、フットプリントを$n1 - d/2v$に削減する。
論文 参考訳(メタデータ) (2023-07-19T16:13:20Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Efficient Minimax Optimal Estimators For Multivariate Convex Regression [1.583842747998493]
i) $L$-Lipschitz convex regression (ii) $Gamma$-bounded convex regression undertopal support。
この研究は、非ドンスカー類に対する効率的なミニマックス最適推定器の存在を示す最初のものである。
論文 参考訳(メタデータ) (2022-05-06T17:04:05Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。