論文の概要: AHSecAgg and TSKG: Lightweight Secure Aggregation for Federated Learning Without Compromise
- arxiv url: http://arxiv.org/abs/2312.04937v2
- Date: Mon, 11 Dec 2023 04:16:37 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 12:46:22.730687
- Title: AHSecAgg and TSKG: Lightweight Secure Aggregation for Federated Learning Without Compromise
- Title(参考訳): AHSecAggとTSKG: 妥協のないフェデレーション学習のための軽量セキュアアグリゲーション
- Authors: Siqing Zhang, Yong Liao, Pengyuan Zhou,
- Abstract要約: AHSecAggは、加法的ホモモルフィックマスクを用いた軽量なセキュアアグリゲーションプロトコルである。
TSKGはThreshold Signatureベースのマスキング鍵生成方式である。
- 参考スコア(独自算出の注目度): 7.908496863030483
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Leveraging federated learning (FL) to enable cross-domain privacy-sensitive data mining represents a vital breakthrough to accomplish privacy-preserving learning. However, attackers can infer the original user data by analyzing the uploaded intermediate parameters during the aggregation process. Therefore, secure aggregation has become a critical issue in the field of FL. Many secure aggregation protocols face the problem of high computation costs, which severely limits their applicability. To this end, we propose AHSecAgg, a lightweight secure aggregation protocol using additive homomorphic masks. AHSecAgg significantly reduces computation overhead without compromising the dropout handling capability or model accuracy. We prove the security of AHSecAgg in semi-honest and active adversary settings. In addition, in cross-silo scenarios where the group of participants is relatively fixed during each round, we propose TSKG, a lightweight Threshold Signature based masking key generation method. TSKG can generate different temporary secrets and shares for different aggregation rounds using the initial key and thus effectively eliminates the cost of secret sharing and key agreement. We prove TSKG does not sacrifice security. Extensive experiments show that AHSecAgg significantly outperforms state-of-the-art mask-based secure aggregation protocols in terms of computational efficiency, and TSKG effectively reduces the computation and communication costs for existing secure aggregation protocols.
- Abstract(参考訳): ドメイン間プライバシに敏感なデータマイニングを可能にするためにフェデレーション学習(FL)を活用することは、プライバシ保護学習を実現する上で重要なブレークスルーとなる。
しかし、アタッカーは、アグリゲーションプロセス中にアップロードされた中間パラメータを分析して、元のユーザデータを推測することができる。
したがって、安全凝集はFLの分野において重要な問題となっている。
多くのセキュアアグリゲーションプロトコルは高い計算コストの問題に直面しており、適用性が著しく制限されている。
この目的のために,加法的同型マスクを用いた軽量なセキュアアグリゲーションプロトコルであるAHSecAggを提案する。
AHSecAggは、ドロップアウト処理能力やモデルの精度を損なうことなく、計算オーバーヘッドを大幅に削減する。
AHSecAggのセキュリティを半正直かつアクティブな敵設定で証明する。
また,各ラウンドで参加者群が比較的固定されたクロスサイロシナリオでは,ライトウェイトなThreshold Signatureベースのマスキングキー生成手法であるTSKGを提案する。
TSKGは、初期キーを使用して異なるアグリゲーションラウンドのための異なる一時的な秘密と共有を生成することができ、これにより、秘密共有と鍵契約のコストを効果的に排除できる。
TSKGがセキュリティを犠牲にしていないことを証明します。
AHSecAggは、計算効率の点で最先端のマスクベースのセキュアアグリゲーションプロトコルを著しく上回り、TSKGは既存のセキュアアグリゲーションプロトコルの計算と通信コストを効果的に削減する。
関連論文リスト
- FedMPQ: Secure and Communication-Efficient Federated Learning with Multi-codebook Product Quantization [12.83265009728818]
本稿では,フェデレート学習のための新しいアップリンク通信圧縮手法であるFedMPQを提案する。
従来の研究とは対照的に,本手法では,データが独立かつ同一に分散されていないシナリオにおいて,より堅牢性を示す。
LEAFデータセットを用いて実験を行った結果,提案手法はベースラインの最終精度の99%を達成できた。
論文 参考訳(メタデータ) (2024-04-21T08:27:36Z) - Privacy-Preserving Distributed Learning for Residential Short-Term Load
Forecasting [11.185176107646956]
電力システムの負荷データは、住宅ユーザの日常のルーチンを不注意に明らかにし、彼らの財産のセキュリティにリスクを及ぼす可能性がある。
我々はマルコフスイッチ方式の分散学習フレームワークを導入し、その収束は厳密な理論的解析によって実証される。
実世界の電力系統負荷データを用いたケーススタディにより,提案アルゴリズムの有効性を検証した。
論文 参考訳(メタデータ) (2024-02-02T16:39:08Z) - MAPS: A Noise-Robust Progressive Learning Approach for Source-Free
Domain Adaptive Keypoint Detection [76.97324120775475]
クロスドメインキーポイント検出方法は、常に適応中にソースデータにアクセスする必要がある。
本稿では、ターゲット領域に十分に訓練されたソースモデルのみを提供する、ソースフリーなドメイン適応キーポイント検出について考察する。
論文 参考訳(メタデータ) (2023-02-09T12:06:08Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [44.69902593901196]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバ側のオーバーヘッドも緩やかなため、標準的なFLベンチマークでは同等の精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Log Barriers for Safe Black-box Optimization with Application to Safe
Reinforcement Learning [72.97229770329214]
本稿では,学習時の安全性維持が不可欠である高次元非線形最適化問題に対する一般的なアプローチを提案する。
LBSGDと呼ばれるアプローチは、慎重に選択されたステップサイズで対数障壁近似を適用することに基づいている。
安全強化学習における政策課題の違反を最小限に抑えるためのアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2022-07-21T11:14:47Z) - Is Vertical Logistic Regression Privacy-Preserving? A Comprehensive
Privacy Analysis and Beyond [57.10914865054868]
垂直ロジスティック回帰(VLR)をミニバッチ降下勾配で訓練した。
我々は、オープンソースのフェデレーション学習フレームワークのクラスにおいて、VLRの包括的で厳密なプライバシー分析を提供する。
論文 参考訳(メタデータ) (2022-07-19T05:47:30Z) - Data post-processing for the one-way heterodyne protocol under
composable finite-size security [62.997667081978825]
本研究では,実用的連続可変(CV)量子鍵分布プロトコルの性能について検討する。
ヘテロダイン検出を用いたガウス変調コヒーレント状態プロトコルを高信号対雑音比で検討する。
これにより、プロトコルの実践的な実装の性能を調べ、上記のステップに関連付けられたパラメータを最適化することができる。
論文 参考訳(メタデータ) (2022-05-20T12:37:09Z) - Sparsified Secure Aggregation for Privacy-Preserving Federated Learning [1.2891210250935146]
セキュアアグリゲーションのための軽量な勾配スペーシフィケーションフレームワークを提案する。
提案手法は,セキュアアグリゲーションの通信オーバヘッドを大幅に低減できることを示す。
実験により,従来のセキュアなベンチマークと比較すると,我々のフレームワークは通信オーバーヘッドを最大7.8倍削減し,壁時計のトレーニング時間を1.13倍短縮することを示した。
論文 参考訳(メタデータ) (2021-12-23T22:44:21Z) - Efficient Sparse Secure Aggregation for Federated Learning [0.20052993723676896]
我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
論文 参考訳(メタデータ) (2020-07-29T14:28:30Z) - Differentially Private Federated Learning with Laplacian Smoothing [72.85272874099644]
フェデレートラーニングは、ユーザ間でプライベートデータを共有せずに、協調的にモデルを学習することで、データのプライバシを保護することを目的としている。
敵は、リリースしたモデルを攻撃することによって、プライベートトレーニングデータを推測することができる。
差別化プライバシは、トレーニングされたモデルの正確性や実用性を著しく低下させる価格で、このような攻撃に対する統計的保護を提供する。
論文 参考訳(メタデータ) (2020-05-01T04:28:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。