論文の概要: Fluent: Round-efficient Secure Aggregation for Private Federated
Learning
- arxiv url: http://arxiv.org/abs/2403.06143v1
- Date: Sun, 10 Mar 2024 09:11:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-13 07:27:59.526432
- Title: Fluent: Round-efficient Secure Aggregation for Private Federated
Learning
- Title(参考訳): Fluent: プライベートフェデレーション学習のためのラウンド効率セキュアアグリゲーション
- Authors: Xincheng Li, Jianting Ning, Geong Sen Poh, Leo Yu Zhang, Xinchun Yin,
Tianwei Zhang
- Abstract要約: フェデレートラーニング(FL)は、多数のクライアント間で機械学習モデルの協調トレーニングを促進する。
FLは、プライバシ推論や逆攻撃といった脆弱性の影響を受け続けている。
本研究は,プライベートFLのためのラウンドおよび通信効率の高いセキュアアグリゲーション方式であるFluentを導入する。
- 参考スコア(独自算出の注目度): 23.899922716694427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) facilitates collaborative training of machine
learning models among a large number of clients while safeguarding the privacy
of their local datasets. However, FL remains susceptible to vulnerabilities
such as privacy inference and inversion attacks. Single-server secure
aggregation schemes were proposed to address these threats. Nonetheless, they
encounter practical constraints due to their round and communication
complexities. This work introduces Fluent, a round and communication-efficient
secure aggregation scheme for private FL. Fluent has several improvements
compared to state-of-the-art solutions like Bell et al. (CCS 2020) and Ma et
al. (SP 2023): (1) it eliminates frequent handshakes and secret sharing
operations by efficiently reusing the shares across multiple training
iterations without leaking any private information; (2) it accomplishes both
the consistency check and gradient unmasking in one logical step, thereby
reducing another round of communication. With these innovations, Fluent
achieves the fewest communication rounds (i.e., two in the collection phase) in
the malicious server setting, in contrast to at least three rounds in existing
schemes. This significantly minimizes the latency for geographically
distributed clients; (3) Fluent also introduces Fluent-Dynamic with a
participant selection algorithm and an alternative secret sharing scheme. This
can facilitate dynamic client joining and enhance the system flexibility and
scalability. We implemented Fluent and compared it with existing solutions.
Experimental results show that Fluent improves the computational cost by at
least 75% and communication overhead by at least 25% for normal clients. Fluent
also reduces the communication overhead for the server at the expense of a
marginal increase in computational cost.
- Abstract(参考訳): federated learning(fl)は、ローカルデータセットのプライバシを保護しながら、多数のクライアント間の機械学習モデルの協調トレーニングを促進する。
しかし、flは依然として、プライバシ推論や反転攻撃などの脆弱性に影響を受けやすい。
これらの脅威に対処するためにシングルサーバのセキュアアグリゲーションスキームが提案された。
それにもかかわらず、彼らはラウンドと通信の複雑さのために実用的な制約に遭遇する。
本稿では,プライベートflのためのラウンドかつ通信効率の高いセキュアアグリゲーションスキームであるfluentを紹介する。
Fluentは、Bell et al.(CCS 2020)やMa et al.(SP 2023)のような最先端のソリューションと比較して、いくつかの改善がある。 1) プライベート情報をリークすることなく、複数のトレーニングイテレーション間で共有を効率的に再利用することで、頻繁なハンドシェイクとシークレット共有操作を廃止する。
これらのイノベーションにより、fluentは悪意のあるサーバ設定において、少なくとも3つの既存のスキームのラウンドとは対照的に、最小の通信ラウンド(つまり、収集フェーズにおける2つのラウンド)を達成する。
これは地理的に分散したクライアントのレイテンシを著しく削減する。 (3) fluentは参加者選択アルゴリズムと別のシークレット共有スキームによるfluent-dynamicも導入している。
これによって動的クライアントの結合が容易になり、システムの柔軟性とスケーラビリティが向上します。
Fluentを実装し、既存のソリューションと比較しました。
実験の結果,fluentは計算コストを75%以上向上させ,通信オーバーヘッドを25%向上させることがわかった。
Fluentはまた、計算コストの限界増加を犠牲にして、サーバの通信オーバーヘッドを低減する。
関連論文リスト
- ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Safely Learning with Private Data: A Federated Learning Framework for Large Language Model [3.1077263218029105]
フェデレートラーニング(FL)は、分散プライベートデータを用いたモデルのトレーニングに理想的なソリューションである。
FedAvgのような従来のフレームワークは、大きな言語モデル(LLM)には適さない
本稿では,サーバサイド攻撃とピアクライアント攻撃の両方によるデータ漏洩を防止するFL-GLMを提案する。
論文 参考訳(メタデータ) (2024-06-21T06:43:15Z) - Enhancing Security and Privacy in Federated Learning using Update Digests and Voting-Based Defense [23.280147155814955]
フェデレートラーニング(FL)は、有望なプライバシー保護機械学習パラダイムである。
その可能性にもかかわらず、FLはクライアントとサーバの信頼性に関する課題に直面している。
underlinetextbfFederated underlinetextbfLearning with underlinetextbfUpdate underlinetextbfDigest (FLUD) という新しいフレームワークを導入する。
FLUDは、分散学習環境におけるビザンチン攻撃に対するプライバシー保護と抵抗の重要な問題に対処する。
論文 参考訳(メタデータ) (2024-05-29T06:46:10Z) - Boosting Communication Efficiency of Federated Learning's Secure Aggregation [22.943966056320424]
Federated Learning(FL)は、クライアントデバイスがモデルをローカルにトレーニングしてサーバに送信する分散機械学習アプローチである。
FLは、トレーニングされたモデルからセンシティブなクライアントデータを推論できる、モデル逆攻撃に対して脆弱である。
GoogleのSecure Aggregation(SecAgg)プロトコルは、各クライアントのトレーニング済みモデルを隠すことによって、このデータプライバシ問題に対処する。
このポスターでは、このオーバーヘッドを大幅に削減する通信効率の高いセキュアアグリゲーション(CESA)プロトコルを紹介している。
論文 参考訳(メタデータ) (2024-05-02T10:00:16Z) - FedComLoc: Communication-Efficient Distributed Training of Sparse and Quantized Models [56.21666819468249]
フェデレートラーニング(FL)は、異種クライアントがローカルにプライベートデータを処理し、中央サーバーと対話できるというユニークな特徴から、注目を集めている。
我々は,emphScaffnewに実用的で効果的な圧縮を統合し,通信効率を向上するFedComLocを紹介した。
論文 参考訳(メタデータ) (2024-03-14T22:29:59Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - On the Design of Communication-Efficient Federated Learning for Health
Monitoring [21.433739206682404]
本稿では,クライアントクラスタリングと伝達学習を含む通信効率のよいフェデレーション学習(CEFL)フレームワークを提案する。
CEFLは従来のFLと比較して、通信コストを最大98.45%削減でき、精度損失は3%未満である。
論文 参考訳(メタデータ) (2022-11-30T12:52:23Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z) - Low-Latency Federated Learning over Wireless Channels with Differential
Privacy [142.5983499872664]
フェデレートラーニング(FL)では、モデルトレーニングはクライアントに分散し、ローカルモデルは中央サーバによって集約される。
本稿では,各クライアントの差分プライバシ(DP)要件だけでなく,全体としてのトレーニング性能に制約された無線チャネル上でのFLトレーニング遅延を最小限に抑えることを目的とする。
論文 参考訳(メタデータ) (2021-06-20T13:51:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。