論文の概要: Perfectly-Private Analog Secure Aggregation in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.08683v2
- Date: Wed, 17 Sep 2025 09:59:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-18 12:21:58.897108
- Title: Perfectly-Private Analog Secure Aggregation in Federated Learning
- Title(参考訳): フェデレートラーニングにおける完全生産型アナログセキュアアグリゲーション
- Authors: Delio Jaramillo-Velez, Charul Rajput, Ragnar Freij-Hollanti, Camilla Hollanti, Alexandre Graell i Amat,
- Abstract要約: 連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
- 参考スコア(独自算出の注目度): 51.61616734974475
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In federated learning, multiple parties train models locally and share their parameters with a central server, which aggregates them to update a global model. To address the risk of exposing sensitive data through local models, secure aggregation via secure multiparty computation has been proposed to enhance privacy. At the same time, perfect privacy can only be achieved by a uniform distribution of the masked local models to be aggregated. This raises a problem when working with real valued data, as there is no measure on the reals that is invariant under the masking operation, and hence information leakage is bound to occur. Shifting the data to a finite field circumvents this problem, but as a downside runs into an inherent accuracy complexity tradeoff issue due to fixed point modular arithmetic as opposed to floating point numbers that can simultaneously handle numbers of varying magnitudes. In this paper, a novel secure parameter aggregation method is proposed that employs the torus rather than a finite field. This approach guarantees perfect privacy for each party's data by utilizing the uniform distribution on the torus, while avoiding accuracy losses. Experimental results show that the new protocol performs similarly to the model without secure aggregation while maintaining perfect privacy. Compared to the finite field secure aggregation, the torus-based protocol can in some cases significantly outperform it in terms of model accuracy and cosine similarity, hence making it a safer choice.
- Abstract(参考訳): 連合学習では、複数のパーティがモデルをローカルにトレーニングし、パラメータを中央サーバと共有する。
ローカルモデルを通じて機密データを暴露するリスクに対処するため、セキュアなマルチパーティ計算によるセキュアなアグリゲーションが提案され、プライバシーが向上した。
同時に、完全なプライバシは、集約されるマスクされたローカルモデルの均一な分布によってのみ達成できる。
これは、マスキング操作下で不変な実数に関する尺度が存在しないため、実際の値データを扱う際に問題を引き起こすため、情報漏洩は発生しない。
有限フィールドにデータをシフトすることはこの問題を回避するが、欠点は固定点モジュラー算術による固有の精度の複雑さのトレードオフ問題に陥り、浮動小数点数とは対照的である。
本稿では,有限場ではなくトーラスを用いた新しいセキュアパラメータアグリゲーション法を提案する。
このアプローチは、トーラス上の均一な分布を利用して、正確さの損失を回避し、各パーティのデータに対する完全なプライバシを保証する。
実験の結果,新しいプロトコルは完全なプライバシーを維持しつつ,安全なアグリゲーションを伴わずに,モデルと同じような動作を行うことがわかった。
有限体安全なアグリゲーションと比較すると、トーラスベースのプロトコルはモデル精度とコサイン類似性の観点から著しく優れており、より安全な選択である。
関連論文リスト
- Differential Privacy in Federated Learning: Mitigating Inference Attacks with Randomized Response [1.9949261242626626]
マシンラーニングでは、各クライアントが独自のデータを使用してローカルモデルをトレーニングする。トレーニングされたモデルは、定期的に中央サーバに送信される。
その後、サーバはフェデレーション集約アルゴリズムを用いて受信したモデルを組み合わせてグローバルモデルを得る。
このグローバルモデルはクライアントに分散され、プロセスは循環的に継続されます。
攻撃者は、得られたモデルに対して推論攻撃を行い、トレーニングデータセットを近似し、データ漏洩を引き起こす可能性がある。
論文 参考訳(メタデータ) (2025-09-17T13:59:38Z) - PriRoAgg: Achieving Robust Model Aggregation with Minimum Privacy Leakage for Federated Learning [49.916365792036636]
フェデレートラーニング(FL)は、大規模分散ユーザデータを活用する可能性から、最近大きな勢いを増している。
送信されたモデル更新は、センシティブなユーザ情報をリークする可能性があり、ローカルなトレーニングプロセスの集中的な制御の欠如は、モデル更新に対する悪意のある操作の影響を受けやすいグローバルモデルを残します。
我々は、Lagrange符号化計算と分散ゼロ知識証明を利用した汎用フレームワークPriRoAggを開発し、集約されたプライバシを満たすとともに、幅広いロバストな集約アルゴリズムを実行する。
論文 参考訳(メタデータ) (2024-07-12T03:18:08Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Enabling Privacy-preserving Model Evaluation in Federated Learning via Fully Homomorphic Encryption [1.9662978733004604]
センシティブなデータを集中化せずにモデルを協調的にトレーニングする能力によって、フェデレートラーニングが急速に普及している。
評価フェーズでは、文献で適切に対処されていない重要なプライバシーリスクが提示される。
完全同型暗号を利用した新しい評価手法を提案する。
論文 参考訳(メタデータ) (2024-03-21T14:36:55Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - FedCC: Robust Federated Learning against Model Poisoning Attacks [0.0]
フェデレートラーニング(Federated Learning)は、プライバシの問題に対処するために設計された分散フレームワークである。
新たなアタックサーフェスを導入しており、データは独立に、そしてIdentically Distributedである場合、特に困難である。
我々は,モデル中毒に対する簡易かつ効果的な新しい防御アルゴリズムであるFedCCを提案する。
論文 参考訳(メタデータ) (2022-12-05T01:52:32Z) - Differentially private partitioned variational inference [28.96767727430277]
複数のデバイスに分散している機密データから、プライバシ保護モデルを学ぶことは、ますます重要な問題である。
ベイズ分布に対する変分近似を学習するための最初の一般フレームワークである差分分割変分推論について述べる。
論文 参考訳(メタデータ) (2022-09-23T13:58:40Z) - Suppressing Poisoning Attacks on Federated Learning for Medical Imaging [4.433842217026879]
本稿では, ビザンチン障害に対する耐性を有する分散型外乱抑制法(DOS)を提案する。
提案手法は,異なるクライアントのローカルパラメータ更新間の距離を計算し,各クライアントに対してアウトラヤスコアを求める。
得られたアウトリーチスコアはソフトマックス関数を用いて正規化重みに変換され、局所パラメータの重み付け平均がグローバルモデル更新に使用される。
論文 参考訳(メタデータ) (2022-07-15T00:43:34Z) - BEAS: Blockchain Enabled Asynchronous & Secure Federated Machine
Learning [0.0]
我々は、N-party Federated Learningのための最初のブロックチェーンベースのフレームワークBEASを紹介する。
グラデーションプルーニングを使用したトレーニングデータの厳格なプライバシー保証を提供する。
異常検出プロトコルは、データ汚染攻撃のリスクを最小限に抑えるために使用される。
また、異種学習環境における早期収束を防止するための新しいプロトコルも定義する。
論文 参考訳(メタデータ) (2022-02-06T17:11:14Z) - Secure PAC Bayesian Regression via Real Shamir Secret Sharing [2.578242050187029]
本稿では,最近記述された「実数秘密共有」技術を利用した線形モデル学習プロトコルを提案する。
我々は、複数のパーティが異なるデータインスタンスを保持し、データのプライバシを放棄する意思のない状況を考える。
本稿では,セキュアな逆法とセキュアなガウス除去法という2つの方法を提案する。
論文 参考訳(メタデータ) (2021-09-23T08:15:22Z) - Coded Stochastic ADMM for Decentralized Consensus Optimization with Edge
Computing [113.52575069030192]
セキュリティ要件の高いアプリケーションを含むビッグデータは、モバイルデバイスやドローン、車両など、複数の異種デバイスに収集され、格納されることが多い。
通信コストとセキュリティ要件の制限のため、核融合センターにデータを集約するのではなく、分散的に情報を抽出することが最重要となる。
分散エッジノードを介してデータを局所的に処理するマルチエージェントシステムにおいて,モデルパラメータを学習する問題を考える。
分散学習モデルを開発するために,乗算器アルゴリズムの最小バッチ交互方向法(ADMM)のクラスについて検討した。
論文 参考訳(メタデータ) (2020-10-02T10:41:59Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。