論文の概要: A Biased Estimator for MinMax Sampling and Distributed Aggregation
- arxiv url: http://arxiv.org/abs/2404.17690v1
- Date: Fri, 26 Apr 2024 20:39:08 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-30 19:50:27.867883
- Title: A Biased Estimator for MinMax Sampling and Distributed Aggregation
- Title(参考訳): MinMaxサンプリングと分散アグリゲーションのためのバイアス付き推定器
- Authors: Joel Wolfrath, Abhishek Chandra,
- Abstract要約: 分散の低減のために推定器バイアスを増大させるB-MinMax推定法を提案する。
B-MinMaxは、サンプルサイズが小さいか、集約ベクトルの数が少ない場合に好ましい。
- 参考スコア(独自算出の注目度): 0.786519149320184
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: MinMax sampling is a technique for downsampling a real-valued vector which minimizes the maximum variance over all vector components. This approach is useful for reducing the amount of data that must be sent over a constrained network link (e.g. in the wide-area). MinMax can provide unbiased estimates of the vector elements, along with unbiased estimates of aggregates when vectors are combined from multiple locations. In this work, we propose a biased MinMax estimation scheme, B-MinMax, which trades an increase in estimator bias for a reduction in variance. We prove that when no aggregation is performed, B-MinMax obtains a strictly lower MSE compared to the unbiased MinMax estimator. When aggregation is required, B-MinMax is preferable when sample sizes are small or the number of aggregated vectors is limited. Our experiments show that this approach can substantially reduce the MSE for MinMax sampling in many practical settings.
- Abstract(参考訳): MinMax サンプリングは、すべてのベクトル成分の最大分散を最小化する実数値ベクトルをサンプリングする手法である。
このアプローチは、制約付きネットワークリンク(例えば、広域)上で送信されるデータ量を削減するのに有用である。
MinMaxはベクトル要素の偏りのない推定と、ベクトルが複数の位置から結合されたときの集合の偏りのない推定を提供することができる。
そこで本研究では,分散の低減のために推定器バイアスの増加と引き換えに,B-MinMax推定法を提案する。
集約が行われない場合、B-MinMaxは非バイアスのMinMax推定器に比べて厳密に低いMSEを得る。
集約が必要な場合、サンプルサイズが小さい場合や集約ベクトルの数が少ない場合、B-MinMaxが好ましい。
提案手法は,MinMaxサンプリングにおけるMSEを大幅に削減できることを示す。
関連論文リスト
- Minimax-optimal estimation for sparse multi-reference alignment with
collision-free signals [1.3658544194443192]
衝突のない信号に対するMRAモデルに基づく信号推定における最小値の最適化について検討する。
この設定におけるスパースMRA問題に対する推定の最小最大値は$sigma2/sqrtn$であり、$n$はサンプルサイズである。
論文 参考訳(メタデータ) (2023-12-13T02:06:52Z) - Optimal minimax rate of learning interaction kernels [7.329333373512536]
広帯域の交換可能な分布に対して最適な収束率を得るための最小二乗推定器(tLSE)を導入する。
以上の結果から, 大きな試料限界の逆問題が保たれた場合, 左テール確率はバイアス分散トレードオフを変化させないことがわかった。
論文 参考訳(メタデータ) (2023-11-28T15:01:58Z) - Optimal Estimation and Computational Limit of Low-rank Gaussian Mixtures [12.868722327487752]
本稿では,各行列値の観測値に低ランク構造が植え付けられていることを前提として,低ランクガウス混合モデル(LrMM)を提案する。
一般に計算不可能な最大極大推定器の最小極大最適性を証明する。
以上の結果から,ミニマックス誤差率と統計的-計算的ギャップの相転移が明らかとなった。
論文 参考訳(メタデータ) (2022-01-22T12:43:25Z) - Learning to Estimate Without Bias [57.82628598276623]
ガウスの定理は、重み付き最小二乗推定器は線形モデルにおける線形最小分散アンバイアスド推定(MVUE)であると述べている。
本稿では、バイアス制約のあるディープラーニングを用いて、この結果を非線形設定に拡張する第一歩を踏み出す。
BCEの第二の動機は、同じ未知の複数の推定値が平均化されてパフォーマンスが向上するアプリケーションにおいてである。
論文 参考訳(メタデータ) (2021-10-24T10:23:51Z) - Maximum sampled conditional likelihood for informative subsampling [4.708378681950648]
サブサンプリングは、計算資源が限られているときに大量のデータセットから情報を抽出する、計算学的に効果的な手法である。
そこで本研究では,サンプルデータに基づく最大条件付き確率推定器(MSCLE)を提案する。
論文 参考訳(メタデータ) (2020-11-11T16:01:17Z) - Consistent Structured Prediction with Max-Min Margin Markov Networks [84.60515484036239]
二項分類のためのマックスマージン法は、最大マージンマルコフネットワーク(M3N$)の名前で構造化予測設定まで拡張されている。
我々は、学習問題を"max-min"マージンの定式化で定義し、結果のメソッドmax-minマージンマルコフネットワーク(M4N$)を命名することで、そのような制限を克服する。
マルチクラス分類,順序回帰,シーケンス予測,ランキング実験により,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2020-07-02T10:48:42Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z) - Breaking the Sample Size Barrier in Model-Based Reinforcement Learning
with a Generative Model [50.38446482252857]
本稿では、生成モデル(シミュレータ)へのアクセスを想定して、強化学習のサンプル効率について検討する。
最初に$gamma$-discounted infinite-horizon Markov decision process (MDPs) with state space $mathcalS$ and action space $mathcalA$を考える。
対象の精度を考慮すれば,モデルに基づく計画アルゴリズムが最小限のサンプルの複雑さを実現するのに十分であることを示す。
論文 参考訳(メタデータ) (2020-05-26T17:53:18Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - Robust subgaussian estimation with VC-dimension [0.0]
この研究は、MOM推定器の余剰リスクを束縛する新しい一般的な方法を提案する。
中心となる技術は、統計複雑性を測定するためにVC次元(ラデマッハの複雑さの代わりに)を用いることである。
論文 参考訳(メタデータ) (2020-04-24T13:21:09Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。