論文の概要: Optimal rates for density and mode estimation with expand-and-sparsify representations
- arxiv url: http://arxiv.org/abs/2602.06175v1
- Date: Thu, 05 Feb 2026 20:27:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.099796
- Title: Optimal rates for density and mode estimation with expand-and-sparsify representations
- Title(参考訳): 展開・分離表現を用いた密度とモード推定のための最適速度
- Authors: Kaushik Sinha, Christopher Tosh,
- Abstract要約: 本稿では,密度推定とモード推定という2つの基本的な統計問題に対する拡張・分離表現の適合性について検討する。
密度推定のために、展開・スパーシフィケート表現の単純線型関数は、最小最大$ell_infty$収束率を持つ推定器を生成することを示す。
モード推定では, 厳密な条件下での対数係数までの最適な速度で単一モードあるいは複数モードを復元する, 密度推定器の上の単純なアルゴリズムを提供する。
- 参考スコア(独自算出の注目度): 7.092211861863685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Expand-and-sparsify representations are a class of theoretical models that capture sparse representation phenomena observed in the sensory systems of many animals. At a high level, these representations map an input $x \in \mathbb{R}^d$ to a much higher dimension $m \gg d$ via random linear projections before zeroing out all but the $k \ll m$ largest entries. The result is a $k$-sparse vector in $\{0,1\}^m$. We study the suitability of this representation for two fundamental statistical problems: density estimation and mode estimation. For density estimation, we show that a simple linear function of the expand-and-sparsify representation produces an estimator with minimax-optimal $\ell_{\infty}$ convergence rates. In mode estimation, we provide simple algorithms on top of our density estimator that recover single or multiple modes at optimal rates up to logarithmic factors under mild conditions.
- Abstract(参考訳): 拡大・分散表現(Expand-and-sparsify representations)は、多くの動物の感覚系で観察されるスパース表現現象を捉える理論モデルの一種である。
高いレベルでは、これらの表現は入力 $x \in \mathbb{R}^d$ をランダムな線型射影を通してより高次元の $m \gg d$ にマッピングするが、これらは、$k \ll m$大エントリを除く全てをゼロにする。
結果として$k$-スパースベクトルが$\{0,1\}^m$となる。
本稿では,この表現の密度推定とモード推定という2つの基本的な統計問題に対する適合性について検討する。
密度推定のために、拡大・スパーシフィケート表現の単純線型関数は、最小値最適化$\ell_{\infty}$収束率を持つ推定器を生成することを示す。
モード推定では, 厳密な条件下での対数係数までの最適な速度で単一モードあるいは複数モードを復元する, 密度推定器の上の単純なアルゴリズムを提供する。
関連論文リスト
- The Generative Leap: Sharp Sample Complexity for Efficiently Learning Gaussian Multi-Index Models [71.5283441529015]
この研究において、ラベルは(ガウス)$d$-次元入力にのみ依存し、低次元$r = O_d(1)$部分空間への射影を通して得られる。
生成的跳躍指数 $kstar$, [Damian et al.'24] から生成的指数の自然拡張をマルチインデックス設定に導入する。
論文 参考訳(メタデータ) (2025-06-05T18:34:56Z) - Kernel Density Estimators in Large Dimensions [9.299356601085586]
カーネルによる密度$hatrho_hmathcal D(x)=frac1n hdsum_i=1n Kleft(fracx-y_ihright)$の推定は帯域幅$h$に依存する。
本稿では,Kullback-Leibler分散に基づく帯域幅の最適しきい値が,本論文で同定された新しい統計体系に含まれることを示す。
論文 参考訳(メタデータ) (2024-08-11T15:56:44Z) - Computational-Statistical Gaps in Gaussian Single-Index Models [77.1473134227844]
単次元モデル(Single-Index Models)は、植木構造における高次元回帰問題である。
我々は,統計的クエリ (SQ) と低遅延多項式 (LDP) フレームワークの両方において,計算効率のよいアルゴリズムが必ずしも$Omega(dkstar/2)$サンプルを必要とすることを示した。
論文 参考訳(メタデータ) (2024-03-08T18:50:19Z) - Minimax Optimality of Score-based Diffusion Models: Beyond the Density Lower Bound Assumptions [11.222970035173372]
カーネルベースのスコア推定器は$widetildeOleft(n-1 t-fracd+22(tfracd2 vee 1)rightの最適平均二乗誤差を達成する
核を用いたスコア推定器は,拡散モデルで生成した試料の分布の総変動誤差に対して,極小ガウスの下での最大平均2乗誤差を$widetildeOleft(n-1/2 t-fracd4right)$上界で達成することを示す。
論文 参考訳(メタデータ) (2024-02-23T20:51:31Z) - Data Structures for Density Estimation [66.36971978162461]
p$のサブリニア数($n$)が与えられた場合、主な結果は$k$のサブリニアで$v_i$を識別する最初のデータ構造になります。
また、Acharyaなどのアルゴリズムの改良版も提供します。
論文 参考訳(メタデータ) (2023-06-20T06:13:56Z) - Approximate Function Evaluation via Multi-Armed Bandits [51.146684847667125]
既知の滑らかな関数 $f$ の値を未知の点 $boldsymbolmu in mathbbRn$ で推定する問題について検討する。
我々は、各座標の重要性に応じてサンプルを学習するインスタンス適応アルゴリズムを設計し、少なくとも1-delta$の確率で$epsilon$の正確な推定値である$f(boldsymbolmu)$を返す。
論文 参考訳(メタデータ) (2022-03-18T18:50:52Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。