論文の概要: Perfectly-Private Analog Secure Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.08683v1
- Date: Wed, 10 Sep 2025 15:22:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-11 15:16:52.472803
- Title: Perfectly-Private Analog Secure Aggregation in Federated Learning
- Title(参考訳): フェデレートラーニングにおける完全生産型アナログセキュアアグリゲーション
- Authors: Delio Jaramillo-Velez, Charul Rajput, Ragnar Freij-Hollanti, Camilla Hollanti, Alexandre Graell i Amat,
- Abstract要約: 連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
- 参考スコア(独自算出の注目度): 51.61616734974475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning, multiple parties train models locally and share their parameters with a central server, which aggregates them to update a global model. To address the risk of exposing sensitive data through local models, secure aggregation via secure multiparty computation has been proposed to enhance privacy. At the same time, perfect privacy can only be achieved by a uniform distribution of the masked local models to be aggregated. This raises a problem when working with real valued data, as there is no measure on the reals that is invariant under the masking operation, and hence information leakage is bound to occur. Shifting the data to a finite field circumvents this problem, but as a downside runs into an inherent accuracy complexity tradeoff issue due to fixed point modular arithmetic as opposed to floating point numbers that can simultaneously handle numbers of varying magnitudes. In this paper, a novel secure parameter aggregation method is proposed that employs the torus rather than a finite field. This approach guarantees perfect privacy for each party's data by utilizing the uniform distribution on the torus, while avoiding accuracy losses. Experimental results show that the new protocol performs similarly to the model without secure aggregation while maintaining perfect privacy. Compared to the finite field secure aggregation, the torus-based protocol can in some cases significantly outperform it in terms of model accuracy and cosine similarity, hence making it a safer choice.
- Abstract(参考訳): 連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
ローカルモデルを通じて機密データを暴露するリスクに対処するため、セキュアなマルチパーティ計算によるセキュアなアグリゲーションが提案され、プライバシーが向上した。
同時に、完全なプライバシは、集約されるマスクされたローカルモデルの均一な分布によってのみ達成できる。
これは、マスキング操作下で不変な実数に関する尺度が存在しないため、実際の値データを扱う際に問題を引き起こすため、情報漏洩は発生しない。
有限フィールドにデータをシフトすることはこの問題を回避するが、欠点は固定点モジュラー算術による固有の精度の複雑さのトレードオフ問題に陥り、浮動小数点数とは対照的である。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
このアプローチは、トーラス上の均一な分布を利用して、正確さの損失を回避し、各パーティのデータに対する完全なプライバシを保証する。
実験の結果,新しいプロトコルは完全なプライバシーを維持しつつ,安全なアグリゲーションを伴わずに,モデルと同じような動作を行うことがわかった。
有限体安全なアグリゲーションと比較すると、トーラスベースのプロトコルはモデル精度とコサイン類似性の観点から著しく優れており、より安全な選択である。
関連論文リスト
- PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Secure PAC Bayesian Regression via Real Shamir Secret Sharing [2.578242050187029]
本稿では,最近記述された「実数秘密共有」技術を利用した線形モデル学習プロトコルを提案する。
我々は、複数のパーティが異なるデータインスタンスを保持し、データのプライバシを放棄する意思のない状況を考える。
本稿では,セキュアな逆法とセキュアなガウス除去法という2つの方法を提案する。
論文 参考訳(メタデータ) (2021-09-23T08:15:22Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。