論文の概要: ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment
- arxiv url: http://arxiv.org/abs/2302.09913v4
- Date: Fri, 06 Jun 2025 16:07:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:42.553445
- Title: ByzSecAgg: A Byzantine-Resistant Secure Aggregation Scheme for Federated Learning Based on Coded Computing and Vector Commitment
- Title(参考訳): ByzSecAgg: コードコンピューティングとベクトルコミットに基づくフェデレーション学習のためのビザンチン耐性セキュアアグリゲーションスキーム
- Authors: Tayyebeh Jahani-Nezhad, Mohammad Ali Maddah-Ali, Giuseppe Caire,
- Abstract要約: ByzSecAggは、フェデレートラーニングのための効率的なセキュアアグリゲーションスキームである。
ByzSecAggはビザンツの攻撃やプライバシーの漏洩に耐性がある。
- 参考スコア(独自算出の注目度): 61.540831911168226
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we propose ByzSecAgg, an efficient secure aggregation scheme for federated learning that is resistant to Byzantine attacks and privacy leakages. Processing individual updates to manage adversarial behavior, while preserving the privacy of the data against colluding nodes, requires some sort of secure secret sharing. However, the communication load for secret sharing of long vectors of updates can be very high. In federated settings, where users are often edge devices with potential bandwidth constraints, excessive communication overhead is undesirable. ByzSecAgg solves this problem by partitioning local updates into smaller sub-vectors and sharing them using ramp secret sharing. However, this sharing method does not admit bilinear computations, such as pairwise distances calculations, which are needed for distance-based outlier-detection algorithms, and effective methods for mitigating Byzantine attacks. To overcome this issue, each user runs another round of ramp sharing, with a different embedding of the data in the sharing polynomial. This technique, motivated by ideas from coded computing, enables secure computation of pairwise distance. In addition, to maintain the integrity and privacy of the local update, ByzSecAgg also uses a vector commitment method, in which the commitment size remains constant (i.e., does not increase with the length of the local update), while simultaneously allowing verification of the secret sharing process. In terms of communication load, ByzSecAgg significantly outperforms the related baseline scheme, known as BREA.
- Abstract(参考訳): 本稿では,ByzSecAggを提案する。ByzSecAggは,Byzantine攻撃やプライバシー漏洩に耐性のある,フェデレーション学習のための効率的なセキュアアグリゲーション手法である。
敵の行動を管理するために個々の更新を処理する一方で、データのプライバシを衝突ノードに対して保持するためには、何らかの安全な秘密の共有が必要になる。
しかし、長い更新ベクトルの秘密共有のための通信負荷は非常に高い。
ユーザが潜在的な帯域制限のあるエッジデバイスであるフェデレートされた設定では、過剰な通信オーバーヘッドは望ましくない。
ByzSecAggは、ローカル更新を小さなサブベクタに分割し、ランプシークレット共有を使用して共有することで、この問題を解決する。
しかし、この共有手法では、距離に基づく外乱検出アルゴリズムに必要なペアワイズ距離計算や、ビザンチン攻撃を緩和する効果的な方法など、双線形計算は認めていない。
この問題を解決するために、各ユーザは別のラウンドのランプ共有を実行し、データの異なる埋め込みを共有多項式に組み込む。
この技術は、符号化コンピューティングのアイデアに動機付けられ、ペア距離のセキュアな計算を可能にしている。
さらに、ローカル更新の完全性とプライバシを維持するために、ByzSecAggは、コミットサイズが一定(すなわち、ローカル更新の長さで増加しない)でありながら、同時に秘密共有プロセスの検証を可能にするベクトルコミットメントメソッドを使用する。
通信負荷の面では、ByzSecAggはBREAとして知られる関連するベースラインスキームを著しく上回っている。
関連論文リスト
- PREAMBLE: Private and Efficient Aggregation of Block Sparse Vectors and Applications [42.968231105076335]
プリオのような2サーバシステムにおける高次元ベクトルの安全なアグリゲーションの問題を再考する。
PreAMBLEは分散ポイント関数の新たな拡張であり、通信効率と計算効率のよいアグリゲーションを可能にする。
論文 参考訳(メタデータ) (2025-03-14T21:58:15Z) - Fundamental Limits of Hierarchical Secure Aggregation with Cyclic User Association [93.46811590752814]
階層的なセキュアな集約は、連合学習によって動機づけられる。
本稿では,各ユーザが連続する$B$のリレーに接続される循環型アソシエーションパターンを用いたHSAについて考察する。
本稿では、勾配符号化にインスパイアされた入力に対するメッセージ設計を含む効率的なアグリゲーション手法を提案する。
論文 参考訳(メタデータ) (2025-03-06T15:53:37Z) - NET-SA: An Efficient Secure Aggregation Architecture Based on In-Network Computing [10.150846654917753]
NET-SAは機械学習のための効率的なセキュアアグリゲーションアーキテクチャである。
シードアグリーメントとシークレット共有のコミュニケーション集約フェーズを排除し、通信オーバーヘッドを低減する。
実行時の最大77倍と12倍の強化を実現し、最先端のメソッドと比較してクライアント間の通信コストを2倍削減する。
論文 参考訳(メタデータ) (2025-01-02T10:27:06Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - RFLPA: A Robust Federated Learning Framework against Poisoning Attacks with Secure Aggregation [2.2667044928324747]
フェデレートラーニング(FL)は、複数のデバイスがデータを共有せずに協調的にモデルをトレーニングすることを可能にする。
その利点にもかかわらず、FLはプライバシーの漏洩や中毒攻撃に弱い。
本稿では,SecAggプロトコルに基づくRFLPAに対する堅牢なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2024-05-24T03:31:10Z) - Secure Aggregation is Not Private Against Membership Inference Attacks [66.59892736942953]
フェデレーション学習におけるSecAggのプライバシーへの影響について検討する。
SecAggは、単一のトレーニングラウンドであっても、メンバシップ推論攻撃に対して弱いプライバシを提供します。
以上の結果から,ノイズ注入などの付加的なプライバシー強化機構の必要性が浮き彫りになった。
論文 参考訳(メタデータ) (2024-03-26T15:07:58Z) - Communication-Efficient Decentralized Federated Learning via One-Bit
Compressive Sensing [52.402550431781805]
分散連合学習(DFL)は、様々なアプリケーションにまたがる実用性によって人気を博している。
集中型バージョンと比較して、DFLの多数のノード間で共有モデルをトレーニングするのはより難しい。
我々は,iADM (iexact alternating direction method) の枠組みに基づく新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2023-08-31T12:22:40Z) - Over-the-Air Federated Learning with Privacy Protection via Correlated
Additive Perturbations [57.20885629270732]
我々は、複数のユーザ/エージェントからエッジサーバへの勾配更新をOtA(Over-the-Air)で送信することで、無線フェデレーション学習のプライバシー面を考察する。
従来の摂動に基づく手法は、トレーニングの精度を犠牲にしてプライバシー保護を提供する。
本研究では,エッジサーバにおけるプライバシリークの最小化とモデル精度の低下を目標とする。
論文 参考訳(メタデータ) (2022-10-05T13:13:35Z) - Mining Relations among Cross-Frame Affinities for Video Semantic
Segmentation [87.4854250338374]
関連性間の関係を, 単一スケールの内在的相関と多スケールの関係という2つの側面で検討する。
実験により,提案手法は最先端のVSS法に対して好適に動作することを示した。
論文 参考訳(メタデータ) (2022-07-21T12:12:36Z) - Scaling the Wild: Decentralizing Hogwild!-style Shared-memory SGD [29.6870062491741]
Hogwilld!は共有メモリ設定上でSGDを並列化するゴーツーアプローチである。
本稿では,分散分散メモリを並列共有メモリSGD自体で動作するノードに組み込むことを提案する。
論文 参考訳(メタデータ) (2022-03-13T11:52:24Z) - Secure Byzantine-Robust Distributed Learning via Clustering [16.85310886805588]
ビザンチンの堅牢性とプライバシを共同で保護するフェデレーション学習システムは、依然としてオープンな問題である。
本研究では,クライアントのプライバシーとロバスト性を同時に保持する分散学習フレームワークであるSHAREを提案する。
論文 参考訳(メタデータ) (2021-10-06T17:40:26Z) - Secure Distributed Training at Scale [65.7538150168154]
ピアの存在下でのトレーニングには、ビザンティン寛容な特殊な分散トレーニングアルゴリズムが必要である。
本稿では,コミュニケーション効率を重視したセキュアな(ビザンチン耐性)分散トレーニングのための新しいプロトコルを提案する。
論文 参考訳(メタデータ) (2021-06-21T17:00:42Z) - FastSecAgg: Scalable Secure Aggregation for Privacy-Preserving Federated
Learning [18.237186837994585]
セキュアアグリゲーション'プロトコルは、サーバがクライアントのモデルをプライバシ保護方法で集約することを可能にする。
FastSecAggは計算と通信の面で効率的であり、クライアントのドロップアウトに対して堅牢である。
論文 参考訳(メタデータ) (2020-09-23T16:49:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。