論文の概要: Optimal high-dimensional and nonparametric distributed testing under
communication constraints
- arxiv url: http://arxiv.org/abs/2202.00968v1
- Date: Wed, 2 Feb 2022 11:31:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-03 19:57:06.116185
- Title: Optimal high-dimensional and nonparametric distributed testing under
communication constraints
- Title(参考訳): 通信制約下における最適高次元および非パラメトリック分散試験
- Authors: Botond Szab\'o, Lasse Vuursteen, Harry van Zanten
- Abstract要約: データを複数のマシンで分割する分散フレームワークにおいて、最小限のテストエラーを導出する。
分散テストは, 分散推定では観測されない, 基本的に異なる現象を伴っていることを示す。
- 参考スコア(独自算出の注目度): 1.3535770763481905
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We derive minimax testing errors in a distributed framework where the data is
split over multiple machines and their communication to a central machine is
limited to $b$ bits. We investigate both the $d$- and infinite-dimensional
signal detection problem under Gaussian white noise. We also derive distributed
testing algorithms reaching the theoretical lower bounds.
Our results show that distributed testing is subject to fundamentally
different phenomena that are not observed in distributed estimation. Among our
findings, we show that testing protocols that have access to shared randomness
can perform strictly better in some regimes than those that do not.
Furthermore, we show that consistent nonparametric distributed testing is
always possible, even with as little as $1$-bit of communication and the
corresponding test outperforms the best local test using only the information
available at a single local machine.
- Abstract(参考訳): 複数のマシンにまたがってデータが分割され、中央マシンへの通信が制限される分散フレームワークにおいて、ミニマックステストエラーを導出する。
ガウス白色雑音下での$d$-および無限次元信号検出問題について検討する。
また、分散テストアルゴリズムを理論上の下限まで導出する。
この結果から,分散テストは分散推定では観測されない現象が根本的に異なることが示唆された。
以上の結果から,共有ランダム性にアクセス可能なテストプロトコルは,そうでないシステムよりも厳格に機能する可能性が示唆された。
さらに、一貫性のある非パラメトリックな分散テストが常に可能であり、1ビットの通信しかなく、対応するテストが1つのローカルマシンで利用可能な情報のみを使用して最高のローカルテストを上回ることを示している。
関連論文リスト
- Robust Kernel Hypothesis Testing under Data Corruption [6.430258446597413]
データ破損下での頑健な置換テストを構築するための2つの一般的な方法を提案する。
最小限の条件下での力の一貫性を証明する。
これは、潜在的な敵攻撃を伴う現実世界のアプリケーションに対する仮説テストの実践的な展開に寄与する。
論文 参考訳(メタデータ) (2024-05-30T10:23:16Z) - Collaborative non-parametric two-sample testing [55.98760097296213]
目標は、null仮説の$p_v = q_v$が拒否されるノードを特定することである。
グラフ構造を効率的に活用する非パラメトリックコラボレーティブ2サンプルテスト(CTST)フレームワークを提案する。
提案手法は,f-divergence Estimation, Kernel Methods, Multitask Learningなどの要素を統合する。
論文 参考訳(メタデータ) (2024-02-08T14:43:56Z) - Partial identification of kernel based two sample tests with mismeasured
data [5.076419064097733]
最大平均離散性(MMD)のような2サンプルテストは、機械学習アプリケーションにおける2つの分布の違いを検出するためにしばしば使用される。
我々は,1つの分布の非ランダムな$epsilon$%が互いに誤ってグループ化されるような,$epsilon$-contaminationに基づくMDDの推定について検討した。
そこで本研究では,これらの境界を推定する手法を提案し,サンプルサイズが大きくなるにつれてMDD上の最も鋭い限界に収束する推定値を示す。
論文 参考訳(メタデータ) (2023-08-07T13:21:58Z) - Simple Binary Hypothesis Testing under Local Differential Privacy and
Communication Constraints [8.261182037130407]
局所差分プライバシー (LDP) と通信制約の両面から, 単純な二分仮説テストについて検討する。
我々はその結果をミニマックス最適かインスタンス最適かのどちらかとみなす。
論文 参考訳(メタデータ) (2023-01-09T18:36:49Z) - Spectral Regularized Kernel Two-Sample Tests [7.915420897195129]
MMD (maximum mean discrepancy) two-sample test to be optimal to the terms of the separation boundary in the Hellinger distance。
スペクトル正則化に基づくMDD試験の修正を提案し,MMD試験よりも分離境界が小さく,最小限の試験が最適であることを証明した。
その結果,テストしきい値がエレガントに選択されるテストの置換変種が,サンプルの置換によって決定されることがわかった。
論文 参考訳(メタデータ) (2022-12-19T00:42:21Z) - Learn then Test: Calibrating Predictive Algorithms to Achieve Risk
Control [67.52000805944924]
Learn then Test (LTT)は、機械学習モデルを校正するフレームワークである。
私たちの主な洞察は、リスクコントロール問題を複数の仮説テストとして再設計することです。
我々は、コンピュータビジョンの詳細な実例を用いて、コア機械学習タスクの新しいキャリブレーション手法を提供するために、我々のフレームワークを使用します。
論文 参考訳(メタデータ) (2021-10-03T17:42:03Z) - Optimal Testing of Discrete Distributions with High Probability [49.19942805582874]
高確率状態に着目して離散分布を試験する問題について検討する。
一定の要素でサンプル最適である近接性および独立性テストのための最初のアルゴリズムを提供する。
論文 参考訳(メタデータ) (2020-09-14T16:09:17Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Learning Kernel Tests Without Data Splitting [18.603394415852765]
データ分割なしにハイパーパラメータの学習と全サンプルでのテストを可能にするアプローチを提案する。
我々のアプローチの試験能力は、その分割割合に関係なく、データ分割アプローチよりも経験的に大きい。
論文 参考訳(メタデータ) (2020-06-03T14:07:39Z) - Computationally efficient sparse clustering [67.95910835079825]
我々はPCAに基づく新しいクラスタリングアルゴリズムの有限サンプル解析を行う。
ここでは,ミニマックス最適誤クラスタ化率を,体制$|theta infty$で達成することを示す。
論文 参考訳(メタデータ) (2020-05-21T17:51:30Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。