論文の概要: Private Federated Frequency Estimation: Adapting to the Hardness of the
Instance
- arxiv url: http://arxiv.org/abs/2306.09396v1
- Date: Thu, 15 Jun 2023 17:30:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 16:27:15.614574
- Title: Private Federated Frequency Estimation: Adapting to the Hardness of the
Instance
- Title(参考訳): プライベートフェデレーション周波数推定:インスタンスの硬さに適応する
- Authors: Jingfeng Wu, Wennan Zhu, Peter Kairouz, Vladimir Braverman
- Abstract要約: より実用的なマルチラウンドFEE設定の下では、カウントスケッチの単純な適応は厳密に準最適であることを示す。
そこで本研究では,より高精度なハイブリッドスケッチアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 35.59163008829941
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated frequency estimation (FFE), multiple clients work together to
estimate the frequencies of their collective data by communicating with a
server that respects the privacy constraints of Secure Summation (SecSum), a
cryptographic multi-party computation protocol that ensures that the server can
only access the sum of client-held vectors. For single-round FFE, it is known
that count sketching is nearly information-theoretically optimal for achieving
the fundamental accuracy-communication trade-offs [Chen et al., 2022]. However,
we show that under the more practical multi-round FEE setting, simple
adaptations of count sketching are strictly sub-optimal, and we propose a novel
hybrid sketching algorithm that is provably more accurate. We also address the
following fundamental question: how should a practitioner set the sketch size
in a way that adapts to the hardness of the underlying problem? We propose a
two-phase approach that allows for the use of a smaller sketch size for simpler
problems (e.g. near-sparse or light-tailed distributions). We conclude our work
by showing how differential privacy can be added to our algorithm and verifying
its superior performance through extensive experiments conducted on large-scale
datasets.
- Abstract(参考訳): フェデレート周波数推定(FFE)では、複数のクライアントが協調して、Secure Summation(SecSum)のプライバシー制約を尊重するサーバと通信することで、クライアントが保持するベクトルの和にしかアクセスできないことを保証している。
単一ラウンドFFEの場合、カウントスケッチは基本的な精度通信トレードオフ(Chen et al., 2022)を達成するのにほぼ情報理論的に最適であることが知られている。
しかし,より実用的なマルチラウンド料金設定の下では,カウントスケッチの単純な適応が厳密に最適であることを示すとともに,より精度の高いハイブリッドスケッチ手法を提案する。
私たちはまた、以下の基本的な問題にも対処します: 基礎となる問題の難しさに適応する方法で、どのようにスケッチサイズを設定するべきか?
より単純な問題(例えば、近接スパース分布や光尾分布)に対して、より小さなスケッチサイズを使用できる2相アプローチを提案する。
我々は,我々のアルゴリズムに差分プライバシを追加する方法を示し,大規模データセット上で行った広範囲な実験により,その優れた性能を検証した。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Share Your Secrets for Privacy! Confidential Forecasting with Vertical Federated Learning [5.584904689846748]
製造業における主な課題は、データプライバシと、小さくノイズの多いデータセットへの過度な適合である。
本稿では、以下の重要な特徴を示す新しいフレームワークである「VFLによる秘かに共有された時系列予測」を提案する。
以上の結果から,STVの予測精度は集中型手法に匹敵することがわかった。
論文 参考訳(メタデータ) (2024-05-31T12:27:38Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - When approximate design for fast homomorphic computation provides
differential privacy guarantees [0.08399688944263842]
差分プライバシー(DP)と暗号プリミティブは、プライバシー攻撃に対する一般的な対策である。
本稿では,argmax演算子に対する確率近似アルゴリズム ShiELD を設計する。
たとえShielDが他のアプリケーションを持つことができたとしても、私たちは1つの設定に集中し、SPEEDコラボレーティブトレーニングフレームワークにシームレスに統合します。
論文 参考訳(メタデータ) (2023-04-06T09:38:01Z) - On Differential Privacy and Adaptive Data Analysis with Bounded Space [76.10334958368618]
差分プライバシーと適応データ分析の2つの関連分野の空間複雑性について検討する。
差分プライバシーで効率的に解くために指数関数的に多くの空間を必要とする問題Pが存在することを示す。
アダプティブデータ分析の研究の行は、アダプティブクエリのシーケンスに応答するのに必要なサンプルの数を理解することに焦点を当てている。
論文 参考訳(メタデータ) (2023-02-11T14:45:31Z) - On Differential Privacy for Federated Learning in Wireless Systems with
Multiple Base Stations [90.53293906751747]
複数の基地局とセル間干渉を持つ無線システムにおける連合学習モデルを考える。
本稿では,学習過程の収束挙動を,その最適性ギャップの上限を導出することによって示す。
提案するスケジューラは,ランダムなスケジューラと比較して予測平均精度を向上する。
論文 参考訳(メタデータ) (2022-08-25T03:37:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation [32.004283989604154]
本稿では,各コントリビューションのユークリッドノルムがほぼ有界であることを検証したベクトル和のプロトコルを提案する。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、それによってさらなる効率が期待できる。
論文 参考訳(メタデータ) (2022-02-22T02:06:42Z) - A One-Pass Private Sketch for Most Machine Learning Tasks [48.17461258268463]
差別化プライバシ(DP)は、正式な証明可能な保証を通じて、プライバシとユーティリティのトレードオフを説明する魅力的なプライバシ定義である。
本稿では,回帰,分類,密度推定など,多数の機械学習タスクをサポートするプライベートスケッチを提案する。
このスケッチは,局所性に敏感なハッシュをインデックス化して,効率的なワンパスアルゴリズムで構築したランダムな一致テーブルで構成されている。
論文 参考訳(メタデータ) (2020-06-16T17:47:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。