論文の概要: FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning
- arxiv url: http://arxiv.org/abs/2009.11248v1
- Date: Wed, 23 Sep 2020 16:49:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-15 15:52:09.107777
- Title: FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning
- Title(参考訳): FastSecAgg: プライバシ保護フェデレーション学習のためのスケーラブルなセキュアアグリゲーション
- Authors: Swanand Kadhe, Nived Rajaraman, O. Ozan Koyluoglu, Kannan Ramchandran
- Abstract要約: セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
- 参考スコア(独自算出の注目度): 18.237186837994585
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent attacks on federated learning demonstrate that keeping the training
data on clients' devices does not provide sufficient privacy, as the model
parameters shared by clients can leak information about their training data. A
'secure aggregation' protocol enables the server to aggregate clients' models
in a privacy-preserving manner. However, existing secure aggregation protocols
incur high computation/communication costs, especially when the number of model
parameters is larger than the number of clients participating in an iteration
-- a typical scenario in federated learning.
In this paper, we propose a secure aggregation protocol, FastSecAgg, that is
efficient in terms of computation and communication, and robust to client
dropouts. The main building block of FastSecAgg is a novel multi-secret sharing
scheme, FastShare, based on the Fast Fourier Transform (FFT), which may be of
independent interest. FastShare is information-theoretically secure, and
achieves a trade-off between the number of secrets, privacy threshold, and
dropout tolerance. Riding on the capabilities of FastShare, we prove that
FastSecAgg is (i) secure against the server colluding with 'any' subset of some
constant fraction (e.g. $\sim10\%$) of the clients in the honest-but-curious
setting; and (ii) tolerates dropouts of a 'random' subset of some constant
fraction (e.g. $\sim10\%$) of the clients. FastSecAgg achieves significantly
smaller computation cost than existing schemes while achieving the same
(orderwise) communication cost. In addition, it guarantees security against
adaptive adversaries, which can perform client corruptions dynamically during
the execution of the protocol.
- Abstract(参考訳): 最近の連合学習に対する攻撃は、クライアントが共有するモデルパラメータがトレーニングデータに関する情報をリークできるため、トレーニングデータをクライアントのデバイスに保持しても十分なプライバシは提供されないことを示している。
プロトコルは、サーバがクライアントのモデルをプライバシー保護の方法で集約することを可能にする。
しかしながら、既存のセキュアアグリゲーションプロトコルは、特にモデルパラメータの数がイテレーションに参加するクライアントの数よりも大きい場合、高い計算/通信コストを発生させる。
本稿では,セキュアなアグリゲーションプロトコルであるFastSecAggを提案する。
FastSecAggの主なビルディングブロックは、Fast Fourier Transform (FFT)をベースにした、新しいマルチシークレット共有スキームであるFastShareである。
FastShareは情報理論的に安全であり、シークレットの数、プライバシのしきい値、およびドロップアウトトレランスの間のトレードオフを達成する。
FastShareの機能を活用して、FastSecAggが有効であることを証明します。
i) 誠実だが正確な設定でクライアントの一定割合(例えば$\sim10\%$)の「任意の」サブセットと競合するサーバに対して安全である。
(ii) クライアントの一定の分数(例えば$\sim10\%$)の「ランダム」サブセットのドロップアウトを許容する。
FastSecAggは、既存のスキームよりも計算コストが大幅に小さく、同じ(順番に)通信コストを達成する。
さらに、適応的な敵に対するセキュリティが保証され、プロトコルの実行中にクライアントの汚職を動的に行うことができる。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Boosting Communication Efficiency of Federated Learning's Secure Aggregation [22.943966056320424]
Federated Learning(FL)は、クライアントデバイスがモデルをローカルにトレーニングしてサーバに送信する分散機械学習アプローチである。
FLは、トレーニングされたモデルからセンシティブなクライアントデータを推論できる、モデル逆攻撃に対して脆弱である。
GoogleのSecure Aggregation(SecAgg)プロトコルは、各クライアントのトレーニング済みモデルを隠すことによって、このデータプライバシ問題に対処する。
このポスターでは、このオーバーヘッドを大幅に削減する通信効率の高いセキュアアグリゲーション(CESA)プロトコルを紹介している。
論文 参考訳(メタデータ) (2024-05-02T10:00:16Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Chu-ko-nu: A Reliable, Efficient, and Anonymously Authentication-Enabled Realization for Multi-Round Secure Aggregation in Federated Learning [13.64339376830805]
セキュアなアグリゲーションのための,より信頼性が高く,匿名で認証する方式であるChu-ko-nuを提案する。
中古ぬは秘密鍵成分の再分配過程を補うことで確率P障壁を破る。
FLトレーニングに参加するクライアントを匿名でサポートし、攻撃の有無でクライアントを効果的に認証することができる。
論文 参考訳(メタデータ) (2024-02-23T05:50:43Z) - Robust and Actively Secure Serverless Collaborative Learning [48.01929996757643]
コラボレーティブ機械学習(ML)は、分散データからより良いモデルを学ぶために広く利用されている。
学習のための協調的なアプローチは、直感的にユーザデータを保護しますが、サーバ、クライアント、あるいはその両方に対して脆弱なままです。
本稿では、悪意のあるサーバに対してセキュアで、悪意のあるクライアントに対して堅牢なピアツーピア学習方式を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:43:03Z) - An Efficient and Multi-private Key Secure Aggregation for Federated Learning [41.29971745967693]
フェデレート学習のための効率的かつ多目的な鍵セキュアアグリゲーション手法を提案する。
具体的には、変種ElGamal暗号を巧みに修正し、同型加算演算を実現する。
高次元深層モデルパラメータに対しては,多次元データを1次元に圧縮する超増進シーケンスを導入する。
論文 参考訳(メタデータ) (2023-06-15T09:05:36Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment [90.60126724503662]
ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
論文 参考訳(メタデータ) (2023-02-20T11:15:18Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Towards Bidirectional Protection in Federated Learning [70.36925233356335]
F2ED-LEARNINGは、悪意のある集中型サーバとビザンティンの悪意のあるクライアントに対して双方向の防御を提供する。
F2ED-LEARNINGは各シャードの更新を安全に集約し、異なるシャードからの更新に対してFilterL2を起動する。
評価の結果,F2ED-LEARNing は最適あるいは最適に近い性能が得られることがわかった。
論文 参考訳(メタデータ) (2020-10-02T19:37:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。