論文の概要: ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment
- arxiv url: http://arxiv.org/abs/2302.09913v3
- Date: Fri, 2 Jun 2023 10:06:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-05 19:58:57.396462
- Title: ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated
Learning Based on Coded Computing and Vector Commitment
- Title(参考訳): byzsecagg: 符号化計算とベクトルコミットメントに基づく連合学習のためのビザンチン耐性セキュアアグリゲーションスキーム
- Authors: Tayyebeh Jahani-Nezhad and Mohammad Ali Maddah-Ali and Giuseppe Caire
- Abstract要約: ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggは、ビザンツの攻撃やプライバシーの漏洩から保護されている。
- 参考スコア(独自算出の注目度): 90.60126724503662
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose ByzSecAgg, an efficient secure aggregation scheme
for federated learning that is protected against Byzantine attacks and privacy
leakages. Processing individual updates to manage adversarial behavior, while
preserving privacy of data against colluding nodes, requires some sort of
secure secret sharing. However, the communication load for secret sharing of
long vectors of updates can be very high. ByzSecAgg solves this problem by
partitioning local updates into smaller sub-vectors and sharing them using ramp
secret sharing. However, this sharing method does not admit bi-linear
computations, such as pairwise distance calculations, needed by
outlier-detection algorithms. To overcome this issue, each user runs another
round of ramp sharing, with different embedding of data in the sharing
polynomial. This technique, motivated by ideas from coded computing, enables
secure computation of pairwise distance. In addition, to maintain the integrity
and privacy of the local update, ByzSecAgg also uses a vector commitment
method, in which the commitment size remains constant (i.e. does not increase
with the length of the local update), while simultaneously allowing
verification of the secret sharing process. In terms of communication loads,
ByzSecAgg significantly outperforms the state-of-the-art scheme, known as BREA.
- Abstract(参考訳): 本稿では,ビザンチン攻撃やプライバシ漏洩から保護されるフェデレート学習のための効率的なセキュアアグリゲーションスキームであるbyzsecaggを提案する。
個々の更新を処理して敵の行動を管理するには、データのプライバシをノードの結束に対して保ちながら、ある種のセキュアなシークレット共有が必要となる。
しかし、更新の長いベクターを秘密に共有するための通信負荷は非常に高い。
ByzSecAggは、ローカル更新を小さなサブベクタに分割し、ランプ秘密共有を使用して共有することで、この問題を解決する。
しかし、この共有法では、対距離計算など、外乱検出アルゴリズムが必要とする二線形計算は認めない。
この問題を解決するために、各ユーザは別のラウンドのランプ共有を実行し、共有多項式に異なるデータの埋め込みを行う。
この技術は、符号化コンピューティングのアイデアに動機付けられ、ペア距離の安全な計算を可能にする。
さらに、ローカル更新の完全性とプライバシを維持するために、ByzSecAggは、コミットサイズが一定(すなわち、ローカル更新の長さで増加しない)でありながら、同時に秘密共有プロセスの検証を可能にするベクトルコミットメントメソッドを使用する。
通信負荷の面では、ByzSecAggはBREAとして知られる最先端のスキームを著しく上回っている。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - RFLPA: A Robust Federated Learning Framework against Poisoning Attacks with Secure Aggregation [2.2667044928324747]
フェデレートラーニング(FL)は、複数のデバイスがデータを共有せずに協調的にモデルをトレーニングすることを可能にする。
その利点にもかかわらず、FLはプライバシーの漏洩や中毒攻撃に弱い。
本稿では,SecAggプロトコルに基づくRFLPAに対する堅牢なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:31:10Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Mining Relations among Cross-Frame Affinities for Video Semantic
Segmentation [87.4854250338374]
関連性間の関係を, 単一スケールの内在的相関と多スケールの関係という2つの側面で検討する。
実験により,提案手法は最先端のVSS法に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2022-07-21T12:12:36Z) - Scaling the Wild: Decentralizing Hogwild!-style Shared-memory SGD [29.6870062491741]
Hogwilld!は共有メモリ設定上でSGDを並列化するゴーツーアプローチである。
本稿では,分散分散メモリを並列共有メモリSGD自体で動作するノードに組み込むことを提案する。
論文 参考訳(メタデータ) (2022-03-13T11:52:24Z) - Secure Byzantine-Robust Distributed Learning via Clustering [16.85310886805588]
ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
論文 参考訳(メタデータ) (2021-10-06T17:40:26Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。