論文の概要: Efficient Sparse Secure Aggregation for Federated Learning
- arxiv url: http://arxiv.org/abs/2007.14861v3
- Date: Mon, 18 Oct 2021 13:18:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 20:00:31.495919
- Title: Efficient Sparse Secure Aggregation for Federated Learning
- Title(参考訳): 連合学習のための効率的なスパースセキュアアグリゲーション
- Authors: Constance Beguier and Mathieu Andreux and Eric W. Tramel
- Abstract要約: 我々は,圧縮に基づくフェデレーション手法を付加的な秘密共有に適用し,効率的なセキュアなアグリゲーションプロトコルを実現する。
悪意のある敵に対するプライバシーの証明と、半正直な設定でその正しさを証明します。
セキュアアグリゲーションに関する従来の研究と比較すると、我々のプロトコルは通信コストが低く、同じ精度で適用可能なコストがかかる。
- 参考スコア(独自算出の注目度): 0.20052993723676896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated Learning enables one to jointly train a machine learning model
across distributed clients holding sensitive datasets. In real-world settings,
this approach is hindered by expensive communication and privacy concerns. Both
of these challenges have already been addressed individually, resulting in
competing optimisations. In this article, we tackle them simultaneously for one
of the first times. More precisely, we adapt compression-based federated
techniques to additive secret sharing, leading to an efficient secure
aggregation protocol, with an adaptable security level. We prove its privacy
against malicious adversaries and its correctness in the semi-honest setting.
Experiments on deep convolutional networks demonstrate that our secure protocol
achieves high accuracy with low communication costs. Compared to prior works on
secure aggregation, our protocol has a lower communication and computation
costs for a similar accuracy.
- Abstract(参考訳): 連合学習は、センシティブなデータセットを持つ分散クライアント間で、機械学習モデルを共同でトレーニングすることを可能にする。
現実の環境では、このアプローチは高価なコミュニケーションとプライバシーの懸念によって妨げられている。
これらの課題はどちらもすでに個別に対処されており、結果として競合する最適化が実現している。
この記事では、それらを1回ずつ同時に取り組む。
より正確には、圧縮ベースのフェデレーション技術にシークレット共有を追加し、効率的なセキュアアグリゲーションプロトコルに適応可能なセキュリティレベルを与えます。
我々は、悪意のある敵に対するプライバシーと、その正しさを半正統な設定で証明する。
深層畳み込みネットワークの実験により、セキュアなプロトコルが通信コストの低い精度で達成できることが実証された。
セキュアアグリゲーションに関する以前の作業と比較すると,プロトコルの通信コストと計算コストは同等の精度で低い。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - TernaryVote: Differentially Private, Communication Efficient, and
Byzantine Resilient Distributed Optimization on Heterogeneous Data [50.797729676285876]
本稿では, 3次圧縮機と多数決機構を組み合わせて, 差分プライバシー, 勾配圧縮, ビザンチンレジリエンスを同時に実現するternaryVoteを提案する。
提案アルゴリズムのF差分プライバシー(DP)とビザンチンレジリエンスのレンズによるプライバシー保証を理論的に定量化する。
論文 参考訳(メタデータ) (2024-02-16T16:41:14Z) - An Efficient and Multi-private Key Secure Aggregation for Federated Learning [41.29971745967693]
フェデレート学習のための効率的かつ多目的な鍵セキュアアグリゲーション手法を提案する。
具体的には、変種ElGamal暗号を巧みに修正し、同型加算演算を実現する。
高次元深層モデルパラメータに対しては,多次元データを1次元に圧縮する超増進シーケンスを導入する。
論文 参考訳(メタデータ) (2023-06-15T09:05:36Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Pre-trained Encoders in Self-Supervised Learning Improve Secure and
Privacy-preserving Supervised Learning [63.45532264721498]
自己教師付き学習は、ラベルのないデータを使ってエンコーダを事前訓練するための新しいテクニックである。
我々は、事前訓練されたエンコーダがセキュア・プライバシ保護型学習アルゴリズムの限界に対処できるかどうかを理解するための、最初の体系的、原則的な測定研究を行う。
論文 参考訳(メタデータ) (2022-12-06T21:35:35Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Byzantine-Robust Federated Learning with Optimal Statistical Rates and
Privacy Guarantees [123.0401978870009]
ほぼ最適な統計率を持つビザンチン・ロバスト・フェデレーション学習プロトコルを提案する。
競合プロトコルに対してベンチマークを行い、提案プロトコルの実証的な優位性を示す。
我々のバケットプロトコルは、プライバシー保証手順と自然に組み合わせて、半正直なサーバに対するセキュリティを導入することができる。
論文 参考訳(メタデータ) (2022-05-24T04:03:07Z) - Collusion Resistant Federated Learning with Oblivious Distributed
Differential Privacy [4.951247283741297]
プライバシ保護フェデレーション学習は、分散クライアントの集団が共同で共有モデルを学ぶことを可能にする。
本稿では、このようなクライアントの共謀に対して最初に保護する、難解な分散差分プライバシーに基づく効率的なメカニズムを提案する。
我々は,プロトコルの実行速度,学習精度,および2つのデータセットのプライバシ性能を実証的に分析した。
論文 参考訳(メタデータ) (2022-02-20T19:52:53Z) - Sparsified Secure Aggregation for Privacy-Preserving Federated Learning [1.2891210250935146]
セキュアアグリゲーションのための軽量な勾配スペーシフィケーションフレームワークを提案する。
提案手法は,セキュアアグリゲーションの通信オーバヘッドを大幅に低減できることを示す。
実験により,従来のセキュアなベンチマークと比較すると,我々のフレームワークは通信オーバーヘッドを最大7.8倍削減し,壁時計のトレーニング時間を1.13倍短縮することを示した。
論文 参考訳(メタデータ) (2021-12-23T22:44:21Z) - Privacy-preserving Decentralized Aggregation for Federated Learning [3.9323226496740733]
フェデレーション学習は、複数のリージョンにまたがる分散データを学習するための有望なフレームワークである。
我々は,連合学習のためのプライバシ保存型分散集約プロトコルを開発した。
9 と 15 の分散サイトを持つベンチマークデータセットを用いて,画像分類と次単語予測のアルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2020-12-13T23:45:42Z) - Secure Byzantine-Robust Machine Learning [61.03711813598128]
本稿では,Byzantine-robustnessとByzantine-robustnessの両方を提供するセキュアな2サーバプロトコルを提案する。
さらに、このプロトコルは通信効率が高く、フォールトトレラントであり、局所的な差分プライバシーを享受する。
論文 参考訳(メタデータ) (2020-06-08T16:55:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。