論文の概要: PREAMBLE: Private and Efficient Aggregation of Block Sparse Vectors and Applications
- arxiv url: http://arxiv.org/abs/2503.11897v1
- Date: Fri, 14 Mar 2025 21:58:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-18 15:59:54.675642
- Title: PREAMBLE: Private and Efficient Aggregation of Block Sparse Vectors and Applications
- Title(参考訳): PreAMBLE: ブロックスパースベクトルのプライベートかつ効率的な集約とその応用
- Authors: Hilal Asi, Vitaly Feldman, Hannah Keller, Guy N. Rothblum, Kunal Talwar,
- Abstract要約: プリオのような2サーバシステムにおける高次元ベクトルの安全なアグリゲーションの問題を再考する。
PreAMBLEは分散ポイント関数の新たな拡張であり、通信効率と計算効率のよいアグリゲーションを可能にする。
- 参考スコア(独自算出の注目度): 42.968231105076335
- License:
- Abstract: We revisit the problem of secure aggregation of high-dimensional vectors in a two-server system such as Prio. These systems are typically used to aggregate vectors such as gradients in private federated learning, where the aggregate itself is protected via noise addition to ensure differential privacy. Existing approaches require communication scaling with the dimensionality, and thus limit the dimensionality of vectors one can efficiently process in this setup. We propose PREAMBLE: Private Efficient Aggregation Mechanism for BLock-sparse Euclidean Vectors. PREAMBLE is a novel extension of distributed point functions that enables communication- and computation-efficient aggregation of block-sparse vectors, which are sparse vectors where the non-zero entries occur in a small number of clusters of consecutive coordinates. We then show that PREAMBLE can be combined with random sampling and privacy amplification by sampling results, to allow asymptotically optimal privacy-utility trade-offs for vector aggregation, at a fraction of the communication cost. When coupled with recent advances in numerical privacy accounting, our approach incurs a negligible overhead in noise variance, compared to the Gaussian mechanism used with Prio.
- Abstract(参考訳): プリオのような2サーバシステムにおける高次元ベクトルの安全なアグリゲーションの問題を再考する。
これらのシステムは一般に、プライベートフェデレーション学習における勾配などのベクトルを集約するために使用され、アグリゲーション自体がノイズ付加によって保護され、差分プライバシーが保証される。
既存のアプローチでは、次元による通信スケーリングが必要であり、したがってこの設定で効率的に処理できるベクトルの次元性を制限する。
PreAMBLE: BLock-sparse Euclidean Vectors のためのプライベート・エキシリジェンス・アグリゲーション・メカニズムを提案する。
PreAMBLEは分散点関数の新たな拡張であり、ブロックスパースベクトルの通信効率と計算効率が向上し、非ゼロ成分が連続座標の少数のクラスタで発生するスパースベクトルである。
次に,PreAMBLEとランダムサンプリングとプライバシアンプリフィケーションを組み合わせることで,ベクトルアグリゲーションに対する漸近的に最適なプライバシユーティリティトレードオフを,通信コストのごく一部で実現できることを示す。
近年の数値プライバシー会計の進歩と相まって,Prioのガウス機構と比較すると,ノイズ分散のオーバーヘッドが無視できる。
関連論文リスト
- Scalable Private Partition Selection via Adaptive Weighting [66.09199304818928]
プライベート・セット・ユニオンでは、ユーザーは非有界宇宙からのアイテムのサブセットを保持する。
目標は、ユーザレベルの差分プライバシーを維持しながら、ユーザセットの統一から可能な限り多くのアイテムを出力することである。
そこで本研究では,プライバシに必要なしきい値よりもはるかに重い項目からより少ない項目へ適応的に重みを還元するアルゴリズムであるMaximumDegree (MAD)を提案する。
論文 参考訳(メタデータ) (2025-02-13T01:27:11Z) - PINE: Efficient Norm-Bound Verification for Secret-Shared Vectors [25.30406294459483]
PRIOのような2サーバシステムは、秘密共有ベクトルのスケーラブルな集約を可能にする。
有界ノルム寄与を保証するための既存のプロトコルは、大きな通信オーバーヘッドを発生させるか、ノルム境界の近似的な検証しかできない。
Inexpensive Norm Enforcement (PINE) は,通信オーバーヘッドが少なく,正確な標準検証が可能なプロトコルである。
論文 参考訳(メタデータ) (2023-11-16T23:54:21Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Task-Oriented Sensing, Computation, and Communication Integration for
Multi-Device Edge AI [108.08079323459822]
本稿では,AIモデルの分割推論と統合センシング通信(ISAC)を併用した,新しいマルチインテリジェントエッジ人工レイテンシ(AI)システムについて検討する。
推定精度は近似的だが抽出可能な計量、すなわち判別利得を用いて測定する。
論文 参考訳(メタデータ) (2022-07-03T06:57:07Z) - Differential Secrecy for Distributed Data and Applications to Robust
Differentially Secure Vector Summation [32.004283989604154]
本稿では,各コントリビューションのユークリッドノルムがほぼ有界であることを検証したベクトル和のプロトコルを提案する。
必然的に整数を大きな有限体の要素にキャストするSMCアルゴリズムとは異なり、我々のアルゴリズムは整数/実数上で動作し、それによってさらなる効率が期待できる。
論文 参考訳(メタデータ) (2022-02-22T02:06:42Z) - Shuffle Private Stochastic Convex Optimization [20.379311972125034]
シャッフルプライバシでは、各ユーザがランダム化されたメッセージの集合を信頼できるシャッフルに送信する。
シャッフルラーはランダムにこれらのメッセージをパーミュートし、その結果、シャッフルされたメッセージの集合は、差分プライバシーを満たさなければならない。
凸最適化のための対話型シャッフルプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-17T20:44:00Z) - Composably secure data processing for Gaussian-modulated continuous
variable quantum key distribution [58.720142291102135]
連続可変量子鍵分布(QKD)は、ボソニックモードの二次構造を用いて、2つのリモートパーティ間の秘密鍵を確立する。
構成可能な有限サイズセキュリティの一般的な設定におけるホモダイン検出プロトコルについて検討する。
特に、ハイレート(非バイナリ)の低密度パリティチェックコードを使用する必要のあるハイシグネチャ・ツー・ノイズ・システマを解析する。
論文 参考訳(メタデータ) (2021-03-30T18:02:55Z) - On InstaHide, Phase Retrieval, and Sparse Matrix Factorization [32.93116534310763]
InstaHideは、分散学習の文脈でプライベートデータセットのセキュリティを保存するためのスキームである。
健全な疑問は、このスキームが証明可能な意味で安全かどうかである。
本研究は, 位相探索の古典的問題に対する, マルチタスク, 欠落データバージョンの平均ケース複雑性と, 非常に微妙な関係があることを示唆する。
論文 参考訳(メタデータ) (2020-11-23T02:47:08Z) - Privacy Amplification via Random Check-Ins [38.72327434015975]
Differentially Private Gradient Descent (DP-SGD) は、多くのアプリケーションにおいて、機密データを学習するための基本的な構成要素となっている。
本稿では,DP-SGD のような反復的手法を,多くのデバイス(クライアント)に分散したフェデレーションラーニング(FL)の設定において実施することに焦点を当てる。
当社の主なコントリビューションは,各クライアントがローカルかつ独立に行うランダムな参加決定にのみ依存する,Emphrandom Check-in分散プロトコルです。
論文 参考訳(メタデータ) (2020-07-13T18:14:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。