論文の概要: When Focus Enhances Utility: Target Range LDP Frequency Estimation and Unknown Item Discovery
- arxiv url: http://arxiv.org/abs/2412.17303v1
- Date: Mon, 23 Dec 2024 05:50:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:55:17.675499
- Title: When Focus Enhances Utility: Target Range LDP Frequency Estimation and Unknown Item Discovery
- Title(参考訳): 焦点が実用性を高めるとき:ターゲット範囲LDP周波数推定と未知項目発見
- Authors: Bo Jiang, Wanrong Zhang, Donghang Lu, Jian Du, Qiang Yan,
- Abstract要約: ローカルの差分プライバシープロトコルは、Google、Apple、Microsoftといったテクノロジー企業が現実のシナリオでうまく展開している。
本稿では,既存の多くの周波数推定プロトコルをキャプチャする一般化数平均スケッチプロトコルを提案する。
周波数推定プロトコルは、既知のデータ領域でのみ有効に動作するため、未知領域内でデータを収集するための新しいプロトコルを提案する。
- 参考スコア(独自算出の注目度): 7.746385592375338
- License:
- Abstract: Local Differential Privacy (LDP) protocols enable the collection of randomized client messages for data analysis, without the necessity of a trusted data curator. Such protocols have been successfully deployed in real-world scenarios by major tech companies like Google, Apple, and Microsoft. In this paper, we propose a Generalized Count Mean Sketch (GCMS) protocol that captures many existing frequency estimation protocols. Our method significantly improves the three-way trade-offs between communication, privacy, and accuracy. We also introduce a general utility analysis framework that enables optimizing parameter designs. {Based on that, we propose an Optimal Count Mean Sketch (OCMS) framework that minimizes the variance for collecting items with targeted frequencies.} Moreover, we present a novel protocol for collecting data within unknown domain, as our frequency estimation protocols only work effectively with known data domain. Leveraging the stability-based histogram technique alongside the Encryption-Shuffling-Analysis (ESA) framework, our approach employs an auxiliary server to construct histograms without accessing original data messages. This protocol achieves accuracy akin to the central DP model while offering local-like privacy guarantees and substantially lowering computational costs.
- Abstract(参考訳): ローカル微分プライバシー(LDP)プロトコルは、信頼できるデータキュレーターを必要とせずに、データ分析のためのランダム化されたクライアントメッセージの収集を可能にする。
このようなプロトコルは、Google、Apple、Microsoftといった大手テクノロジー企業が現実のシナリオでうまく展開している。
本稿では,多くの既存周波数推定プロトコルをキャプチャするGCMS(Generalized Count Mean Sketch)プロトコルを提案する。
本手法は通信,プライバシ,精度の3方向トレードオフを大幅に改善する。
パラメータ設計の最適化を可能にする汎用ユーティリティ分析フレームワークも導入する。
そこで本稿では,対象周波数のアイテムを収集する際のばらつきを最小限に抑える,最適数平均スケッチ(OCMS)フレームワークを提案する。
さらに、周波数推定プロトコルは、既知のデータ領域でのみ有効に動作するため、未知領域内でデータを収集するための新しいプロトコルを提案する。
本手法では,ESA(Encryption-Shuffling-Analysis)フレームワークとともに,安定性に基づくヒストグラム手法を用いて,元のデータメッセージにアクセスせずにヒストグラムを構築する。
このプロトコルは、ローカルなプライバシー保証を提供し、計算コストを大幅に削減しながら、中央DPモデルに似た精度を実現する。
関連論文リスト
- Federated PCA and Estimation for Spiked Covariance Matrices: Optimal Rates and Efficient Algorithm [19.673557166734977]
フェデレートラーニング(FL)は、プライバシとデータセキュリティの強化により、機械学習において、近年大きな注目を集めている。
本稿では,分散差分プライバシー制約下でのフェデレーションPCAとスパイク共分散行列の推定について検討する。
我々は、集中サーバの最適レートがローカルクライアントのミニマックスレートの調和平均であることから、収束のミニマックスレートを確立する。
論文 参考訳(メタデータ) (2024-11-23T21:57:50Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - On the Robustness of LDP Protocols for Numerical Attributes under Data Poisoning Attacks [17.351593328097977]
ローカルディファレンシャルプライバシ(LDP)プロトコルは、データ中毒攻撃に対して脆弱である。
この脆弱性は、敵対的環境におけるLDPの堅牢性と信頼性に関する懸念を引き起こす。
論文 参考訳(メタデータ) (2024-03-28T15:43:38Z) - QMGeo: Differentially Private Federated Learning via Stochastic Quantization with Mixed Truncated Geometric Distribution [1.565361244756411]
Federated Learning(FL)は、複数のユーザがグローバル機械学習(ML)モデルを共同でトレーニングできるフレームワークである。
このような分散フレームワークの重要な動機の1つは、ユーザにプライバシ保証を提供することである。
本稿では,DPを提供するのに必要なランダム性を導入するために,混合幾何分布を用いた新しい量子化法を提案する。
論文 参考訳(メタデータ) (2023-12-10T04:44:53Z) - Bicoptor 2.0: Addressing Challenges in Probabilistic Truncation for Enhanced Privacy-Preserving Machine Learning [6.733212399517445]
本稿では,既存のPPML作業における確率的トランケーションプロトコルの問題の解析と解決策の提案に焦点をあてる。
精度の面では、既存の作品のいくつかで推奨される精度の選択が誤りであることを明らかにする。
本稿では,今後の課題に対する解法と精度選択ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-09-10T01:43:40Z) - Robust and efficient verification of graph states in blind
measurement-based quantum computation [52.70359447203418]
Blind Quantum Computing (BQC) は、クライアントのプライバシを保護するセキュアな量子計算手法である。
資源グラフ状態が敵のシナリオで正確に準備されているかどうかを検証することは重要である。
本稿では,任意の局所次元を持つ任意のグラフ状態を検証するための,堅牢で効率的なプロトコルを提案する。
論文 参考訳(メタデータ) (2023-05-18T06:24:45Z) - Balancing Privacy and Performance for Private Federated Learning
Algorithms [4.681076651230371]
Federated Learning(FL)は、複数のクライアントがプライベートデータを公開せずにモデルをトレーニングする分散機械学習フレームワークである。
FLアルゴリズムは、共有前に各クライアントのモデル更新にノイズを導入する差分プライバシーメカニズムを頻繁に採用する。
ローカルステップの数と通信ラウンドの間に最適なバランスがあることを示し、プライバシー予算内での収束性能を最大化する。
論文 参考訳(メタデータ) (2023-04-11T10:42:11Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Data post-processing for the one-way heterodyne protocol under
composable finite-size security [62.997667081978825]
本研究では,実用的連続可変(CV)量子鍵分布プロトコルの性能について検討する。
ヘテロダイン検出を用いたガウス変調コヒーレント状態プロトコルを高信号対雑音比で検討する。
これにより、プロトコルの実践的な実装の性能を調べ、上記のステップに関連付けられたパラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-20T12:37:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。