論文の概要: Secure Aggregation for Federated Learning in Flower
- arxiv url: http://arxiv.org/abs/2205.06117v1
- Date: Thu, 12 May 2022 14:31:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-13 18:29:27.935745
- Title: Secure Aggregation for Federated Learning in Flower
- Title(参考訳): 花の連合学習のためのセキュアアグリゲーション
- Authors: Kwing Hei Li, Pedro Porto Buarque de Gusm\~ao, Daniel J. Beutel,
Nicholas D. Lane
- Abstract要約: フェデレートラーニング(FL)は、トレーニング計算をクライアントに委譲することで、共用予測モデルを学ぶことを可能にする。
セキュアアグリゲーション(SA)プロトコルは、サーバが個々のトレーニングされたモデルをアグリゲーションする際に検査できないことを保証するために使用される。
本稿では、Flower FLフレームワークでPythonユーザ向けのSAの実装であるSalviaを紹介する。
- 参考スコア(独自算出の注目度): 8.537997283673997
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) allows parties to learn a shared prediction model by
delegating the training computation to clients and aggregating all the
separately trained models on the server. To prevent private information being
inferred from local models, Secure Aggregation (SA) protocols are used to
ensure that the server is unable to inspect individual trained models as it
aggregates them. However, current implementations of SA in FL frameworks have
limitations, including vulnerability to client dropouts or configuration
difficulties.
In this paper, we present Salvia, an implementation of SA for Python users in
the Flower FL framework. Based on the SecAgg(+) protocols for a semi-honest
threat model, Salvia is robust against client dropouts and exposes a flexible
and easy-to-use API that is compatible with various machine learning
frameworks. We show that Salvia's experimental performance is consistent with
SecAgg(+)'s theoretical computation and communication complexities.
- Abstract(参考訳): federated learning (fl)は、クライアントにトレーニング計算を委譲し、サーバ上で個別にトレーニングされたすべてのモデルを集約することで、共有予測モデルを学ぶことができる。
ローカルモデルからプライベート情報が推測されるのを防ぐため、セキュリティ集約(SA)プロトコルは、サーバが個別にトレーニングされたモデルを集約して検査できないことを保証するために使用される。
しかし、現在のflフレームワークにおけるsaの実装には、クライアントのドロップアウトに対する脆弱性や設定の困難など、制限がある。
本稿では、Flower FLフレームワークにおけるPythonユーザ向けSAの実装であるSalviaについて述べる。
半正直な脅威モデルのためのSecAgg(+)プロトコルに基づいて、Salviaはクライアントのドロップアウトに対して堅牢であり、さまざまな機械学習フレームワークと互換性のあるフレキシブルで使いやすいAPIを公開する。
本稿では、Salviaの実験性能がSecAgg(+)の理論計算と通信複雑性と一致することを示す。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - SRATTA : Sample Re-ATTribution Attack of Secure Aggregation in Federated
Learning [1.8888312436971186]
我々は、完全に接続された第1層を持つ機械学習モデルを異なるクライアント間でトレーニングする、クロスサイロ・フェデレート・ラーニング(FL)の設定について検討する。
SRATTAは、現実的な仮定の下で、異なるクライアントからデータサンプルを復元する集約モデルに依存する攻撃である。
SRATTAは理論的に基礎があり、現実的なモデルやデータセットで実際に使用することができることを示す。
論文 参考訳(メタデータ) (2023-06-13T09:33:26Z) - Client-specific Property Inference against Secure Aggregation in
Federated Learning [52.8564467292226]
フェデレートラーニングは、さまざまな参加者の間で共通のモデルを協調的に訓練するための、広く使われているパラダイムとなっている。
多くの攻撃は、メンバーシップ、資産、または参加者データの完全な再構築のような機密情報を推測することは依然として可能であることを示した。
単純な線形モデルでは、集約されたモデル更新からクライアント固有のプロパティを効果的にキャプチャできることが示される。
論文 参考訳(メタデータ) (2023-03-07T14:11:01Z) - BAFFLE: A Baseline of Backpropagation-Free Federated Learning [71.09425114547055]
フェデレートラーニング(FL)は、分散クライアントがローカルデータを共有せずにサーバモデルをまとめて訓練する一般的な原則である。
我々は、バックプロパゲーションを複数のフォワードプロセスに置き換えて勾配を推定する、BAFFLEと呼ばれる、バックプロパゲーションフリーなフェデレーション学習を開発する。
BAFFLEは、1)メモリ効率が高く、アップロード帯域幅に適しており、2)推論のみのハードウェア最適化とモデル量子化やプルーニングと互換性があり、3)信頼できる実行環境に適している。
論文 参考訳(メタデータ) (2023-01-28T13:34:36Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - UnSplit: Data-Oblivious Model Inversion, Model Stealing, and Label
Inference Attacks Against Split Learning [0.0]
Split Learningフレームワークは、モデルをクライアントとサーバ間で分割することを目的としている。
分割学習パラダイムは深刻なセキュリティリスクを生じさせ,セキュリティの誤った感覚以上のものを提供しないことを示す。
論文 参考訳(メタデータ) (2021-08-20T07:39:16Z) - CRFL: Certifiably Robust Federated Learning against Backdoor Attacks [59.61565692464579]
本稿では,第1の汎用フレームワークであるCertifiably Robust Federated Learning (CRFL) を用いて,バックドアに対する堅牢なFLモデルをトレーニングする。
提案手法は, モデルパラメータのクリッピングと平滑化を利用して大域的モデル平滑化を制御する。
論文 参考訳(メタデータ) (2021-06-15T16:50:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。