論文の概要: Suboptimality of Parity for Distilling Correlations with Nontrivial Marginals
- arxiv url: http://arxiv.org/abs/2511.19977v1
- Date: Tue, 25 Nov 2025 06:47:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-26 17:37:04.307078
- Title: Suboptimality of Parity for Distilling Correlations with Nontrivial Marginals
- Title(参考訳): 非自明なマージナルとの蒸留相関に対するパリティの準最適性
- Authors: Syed Affan Aslam, Areej Ilyas, Jibran Rashid,
- Abstract要約: 我々は、$n=2$の場合、局所極限が非自明であれば、PARITYはもはや最適でないことを示す。
同一のNLBを用いた適応蒸留プロトコルと非同一のNLBを用いたPARITYプロトコルの等価性を示す。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We prove that the PARITY protocol is optimal for a general class of non-adaptive distillation protocols of all $n$ player nonlocal boxes (NLBs) based on XOR games. The conditional distributions generated by these NLBs are assumed to have trivial local marginals. We also show that already for $n=2$, PARITY is no longer optimal if the local marginals are non-trivial. The OR protocol is shown to perform better and in the process also slightly extend the known correlations that collapse communication complexity. This emphasizes again the need to understand the local properties of nonlocal systems in order to obtain a better characterization of the global behavior. We conclude by showing an equivalence between adaptive distillation protocols that use identical NLBs and PARITY protocol using nonidentical NLBs.
- Abstract(参考訳): PARITYプロトコルは、XORゲームに基づくすべての$n$プレーヤ非ローカルボックス(NLB)の一般的な非適応蒸留プロトコルに対して最適であることを示す。
これらのNLBsによって生成される条件分布は、自明な局所境界を持つと仮定される。
また、既に$n=2$の場合、局所極限が非自明であればPARITYはもはや最適でないことを示す。
ORプロトコルはより良い性能を示すことが示され、その過程では通信複雑性を崩壊させる既知の相関関係もわずかに拡張される。
これは、グローバルな振る舞いのより優れた特徴を得るために、非局所システムの局所的性質を理解する必要があることを再び強調する。
同一のNLBを用いた適応蒸留プロトコルと非同一のNLBを用いたPARITYプロトコルの等価性を示す。
関連論文リスト
- Adaptive Refinement Protocols for Distributed Distribution Estimation under $\ell^p$-Losses [9.766173684831324]
通信制約のある$ellp$損失の離散分布の推定を考える。
我々は、ほとんどのパラメーター系における問題の最小値の最適値を得る。
論文 参考訳(メタデータ) (2024-10-09T13:46:08Z) - Simple Binary Hypothesis Testing under Local Differential Privacy and
Communication Constraints [8.261182037130407]
局所差分プライバシー (LDP) と通信制約の両面から, 単純な二分仮説テストについて検討する。
我々はその結果をミニマックス最適かインスタンス最適かのどちらかとみなす。
論文 参考訳(メタデータ) (2023-01-09T18:36:49Z) - Learning versus Refutation in Noninteractive Local Differential Privacy [133.80204506727526]
非対話的局所差分プライバシー(LDP)における2つの基本的な統計課題について検討する。
本研究の主な成果は,非対話型LDPプロトコルにおけるPAC学習の複雑さの完全な評価である。
論文 参考訳(メタデータ) (2022-10-26T03:19:24Z) - Non-isotropy Regularization for Proxy-based Deep Metric Learning [78.18860829585182]
本稿では,プロキシに基づくDeep Metric Learningのための非等方正則化(mathbbNIR$)を提案する。
これにより、プロキシの周囲のサンプルの非等方分布を明示的に誘導して最適化することが可能になる。
実験では、競争力と最先端のパフォーマンスを達成しながら、$mathbbNIR$の一貫性のある一般化の利点を強調している。
論文 参考訳(メタデータ) (2022-03-16T11:13:20Z) - Escaping Saddle Points with Bias-Variance Reduced Local Perturbed SGD
for Communication Efficient Nonconvex Distributed Learning [58.79085525115987]
ローカル手法は通信時間を短縮する有望なアプローチの1つである。
局所的データセットが局所的損失の滑らかさよりも小さい場合,通信の複雑さは非局所的手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2022-02-12T15:12:17Z) - Non-Convex SGD Learns Halfspaces with Adversarial Label Noise [50.659479930171585]
分布固有モデルにおいて,同種半空間の学習を代理する問題に対する解を示す。
任意の凸分布において、誤分類誤差は本質的にハーフスペースの誤分類誤差につながることを示す。
論文 参考訳(メタデータ) (2020-06-11T18:55:59Z) - Log-Likelihood Ratio Minimizing Flows: Towards Robust and Quantifiable
Neural Distribution Alignment [52.02794488304448]
そこで本研究では,対数様比統計量と正規化フローに基づく新しい分布アライメント手法を提案する。
入力領域の局所構造を保存する領域アライメントにおいて,結果の最小化を実験的に検証する。
論文 参考訳(メタデータ) (2020-03-26T22:10:04Z) - PowerNorm: Rethinking Batch Normalization in Transformers [96.14956636022957]
自然言語処理(NLP)におけるニューラルネットワーク(NN)モデルの正規化法は層正規化(LN)である
LN は BN (naive/vanilla) の使用が NLP タスクの大幅な性能低下をもたらすという経験的観察により好まれる。
本稿では,この問題を解決する新しい正規化手法である電力正規化(PN)を提案する。
論文 参考訳(メタデータ) (2020-03-17T17:50:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。