論文の概要: Quantizing Heavy-tailed Data in Statistical Estimation: (Near) Minimax
Rates, Covariate Quantization, and Uniform Recovery
- arxiv url: http://arxiv.org/abs/2212.14562v2
- Date: Wed, 26 Jul 2023 09:10:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-27 16:13:45.772906
- Title: Quantizing Heavy-tailed Data in Statistical Estimation: (Near) Minimax
Rates, Covariate Quantization, and Uniform Recovery
- Title(参考訳): 統計的推定における重み付きデータの量子化:(Near)ミニマックスレート、共変量化、均一回復
- Authors: Junren Chen, Michael K. Ng, Di Wang
- Abstract要約: 本稿では,いくつかの統計的推定問題における重み付きデータの定量化について検討する。
我々は、均一な量子化の前にデータを切断し、適切に拡張することを提案する。
- 参考スコア(独自算出の注目度): 22.267482745621997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper studies the quantization of heavy-tailed data in some fundamental
statistical estimation problems, where the underlying distributions have
bounded moments of some order. We propose to truncate and properly dither the
data prior to a uniform quantization. Our major standpoint is that (near)
minimax rates of estimation error are achievable merely from the quantized data
produced by the proposed scheme. In particular, concrete results are worked out
for covariance estimation, compressed sensing, and matrix completion, all
agreeing that the quantization only slightly worsens the multiplicative factor.
Besides, we study compressed sensing where both covariate (i.e., sensing
vector) and response are quantized. Under covariate quantization, although our
recovery program is non-convex because the covariance matrix estimator lacks
positive semi-definiteness, all local minimizers are proved to enjoy near
optimal error bound. Moreover, by the concentration inequality of product
process and covering argument, we establish near minimax uniform recovery
guarantee for quantized compressed sensing with heavy-tailed noise.
- Abstract(参考訳): 本稿では,いくつかの基本統計的推定問題における重み付きデータの量子化について検討する。
我々は,一様量子化に先立ってデータを切断し,適切に処理することを提案する。
提案手法では, 推定誤差の最小化速度は, 提案手法が生成する量子化データからのみ達成可能である。
特に, 共分散推定, 圧縮センシング, 行列完全度について, 量子化が乗法係数をわずかに悪化させるだけという具体的な結果が得られた。
さらに,共変量(つまり,ベクトル)と応答が量子化される圧縮センシングの研究を行った。
共変量化の下では、共分散行列推定器は正の半定性に欠けるため、回復プログラムは非凸であるが、全ての局所最小化器は最適誤差境界付近で楽しむことが証明される。
さらに, 製品プロセスの濃度不等式と被覆議論により, 重み付き雑音を伴う量子化圧縮センシングのための最小値均一回復保証をほぼ確立する。
関連論文リスト
- Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - A Geometric Unification of Distributionally Robust Covariance Estimators: Shrinking the Spectrum by Inflating the Ambiguity Set [20.166217494056916]
制約的な仮定を課さずに共分散推定器を構築するための原理的手法を提案する。
頑健な推定器は効率的に計算可能で一貫したものであることを示す。
合成および実データに基づく数値実験により、我々の頑健な推定器は最先端の推定器と競合していることが示された。
論文 参考訳(メタデータ) (2024-05-30T15:01:18Z) - A Parameter-Free Two-Bit Covariance Estimator with Improved Operator Norm Error Rate [23.116373524718988]
両問題に同時に対処する2ビット共分散行列推定器を提案する。
エントリ毎に異なるディザリングスケールを利用することで、我々の推定器は演算子ノルム誤差率の改善を享受する。
提案手法は、ディザリングスケールがデータによって完全に決定されるため、いかなるチューニングパラメータも不要である。
論文 参考訳(メタデータ) (2023-08-30T14:31:24Z) - Quantized Low-Rank Multivariate Regression with Random Dithering [23.81618208119832]
低ランク多変量回帰(LRMR)は重要な統計的学習モデルである。
基礎となる係数行列の推定に焦点をあてる。
我々は、ランダムディザリングを伴う均一な量子化、すなわち、量子化の前に適切なランダムノイズをデータに追加する。
制約付きラッソおよび正規化ラッソ推定器を提案し、非漸近誤差境界を導出する。
論文 参考訳(メタデータ) (2023-02-22T08:14:24Z) - Importance sampling for stochastic quantum simulations [68.8204255655161]
我々は、係数に応じてハミルトン式からサンプリングしてランダムな積公式を構築するqDriftプロトコルを導入する。
サンプリング段階における個別のシミュレーションコストを考慮し、同じ精度でシミュレーションコストを削減可能であることを示す。
格子核効果場理論を用いて数値シミュレーションを行った結果, 実験結果が得られた。
論文 参考訳(メタデータ) (2022-12-12T15:06:32Z) - High Dimensional Statistical Estimation under One-bit Quantization [27.718986773043643]
1ビット(バイナリ)データは、信号ストレージ、処理、送信、プライバシーの強化といった効率性のために、多くのアプリケーションで好まれる。
本稿では,3つの基本的な統計的推定問題について検討する。
ガウス系と重尾系の両方で、高次元スケーリングを扱う新しい推定器が提案されている。
論文 参考訳(メタデータ) (2022-02-26T15:13:04Z) - Keep it Tighter -- A Story on Analytical Mean Embeddings [0.6445605125467574]
カーネル技術は、データサイエンスにおいて最も人気があり柔軟なアプローチの一つである。
平均埋め込みは、最大平均不一致(MMD)と呼ばれる分岐測度をもたらす。
本稿では,基礎となる分布の1つの平均埋め込みが解析的に利用可能である場合のMDD推定の問題に焦点をあてる。
論文 参考訳(メタデータ) (2021-10-15T21:29:27Z) - Optimal policy evaluation using kernel-based temporal difference methods [78.83926562536791]
カーネルヒルベルト空間を用いて、無限水平割引マルコフ報酬過程の値関数を推定する。
我々は、関連するカーネル演算子の固有値に明示的に依存した誤差の非漸近上界を導出する。
MRP のサブクラスに対する minimax の下位境界を証明する。
論文 参考訳(メタデータ) (2021-09-24T14:48:20Z) - Heavy-tailed Streaming Statistical Estimation [58.70341336199497]
ストリーミング$p$のサンプルから重み付き統計推定の課題を考察する。
そこで我々は,傾きの雑音に対して,よりニュアンスな条件下での傾きの傾きの低下を設計し,より詳細な解析を行う。
論文 参考訳(メタデータ) (2021-08-25T21:30:27Z) - Instability, Computational Efficiency and Statistical Accuracy [101.32305022521024]
我々は,人口レベルでのアルゴリズムの決定論的収束率と,$n$サンプルに基づく経験的対象に適用した場合の(不安定性)の間の相互作用に基づいて,統計的精度を得るフレームワークを開発する。
本稿では,ガウス混合推定,非線形回帰モデル,情報的非応答モデルなど,いくつかの具体的なモデルに対する一般結果の応用について述べる。
論文 参考訳(メタデータ) (2020-05-22T22:30:52Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。