論文の概要: Harnessing Sparsification in Federated Learning: A Secure, Efficient, and Differentially Private Realization
- arxiv url: http://arxiv.org/abs/2511.07123v1
- Date: Mon, 10 Nov 2025 14:10:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:45.290996
- Title: Harnessing Sparsification in Federated Learning: A Secure, Efficient, and Differentially Private Realization
- Title(参考訳): フェデレーション学習におけるスパシフィケーションのハーネス--セキュアで効率よく、差別的な個人的実現
- Authors: Shuangqing Xu, Yifeng Zheng, Zhongyun Hua,
- Abstract要約: フェデレートラーニング(FL)は、複数のクライアントが、生データの代わりに集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする。
通信効率,セキュア,および微分プライベートなFLのための新しいシステムフレームワークであるCloverを提案する。
- 参考スコア(独自算出の注目度): 28.546805212017926
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables multiple clients to jointly train a model by sharing only gradient updates for aggregation instead of raw data. Due to the transmission of very high-dimensional gradient updates from many clients, FL is known to suffer from a communication bottleneck. Meanwhile, the gradients shared by clients as well as the trained model may also be exploited for inferring private local datasets, making privacy still a critical concern in FL. We present Clover, a novel system framework for communication-efficient, secure, and differentially private FL. To tackle the communication bottleneck in FL, Clover follows a standard and commonly used approach-top-k gradient sparsification, where each client sparsifies its gradient update such that only k largest gradients (measured by magnitude) are preserved for aggregation. Clover provides a tailored mechanism built out of a trending distributed trust setting involving three servers, which allows to efficiently aggregate multiple sparse vectors (top-k sparsified gradient updates) into a dense vector while hiding the values and indices of non-zero elements in each sparse vector. This mechanism outperforms a baseline built on the general distributed ORAM technique by several orders of magnitude in server-side communication and runtime, with also smaller client communication cost. We further integrate this mechanism with a lightweight distributed noise generation mechanism to offer differential privacy (DP) guarantees on the trained model. To harden Clover with security against a malicious server, we devise a series of lightweight mechanisms for integrity checks on the server-side computation. Extensive experiments show that Clover can achieve utility comparable to vanilla FL with central DP, with promising performance.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のクライアントが、生データの代わりに集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする。
多くのクライアントから非常に高次元の勾配更新が送信されているため、FLは通信ボトルネックに悩まされていることが知られている。
一方、クライアントとトレーニングされたモデルによって共有される勾配は、プライベートなローカルデータセットを推測するためにも利用される可能性がある。
通信効率,セキュア,および微分プライベートなFLのための新しいシステムフレームワークであるCloverを提案する。
FLにおける通信ボトルネックに対処するため、クローバーは標準的で一般的に使用されるアプローチトップk勾配スカラー化(英語版)に従っており、各クライアントはその勾配更新をスペーサーし、k最大の勾配(マグニチュードによって測定される)のみがアグリゲーションのために保存される。
Cloverは、3つのサーバを含むトレンドの分散信頼設定から構築された調整されたメカニズムを提供する。これにより、スパースベクトルの値とインデックスを各スパースベクトルに隠蔽しながら、複数のスパースベクトル(トップ-kスペーサー化勾配更新)を高密度ベクトルに効率的に集約することができる。
この機構は、サーバ側通信と実行時の数桁の規模で、汎用分散ORAM技術に基づくベースラインを上回り、クライアント通信コストも小さくする。
さらに、このメカニズムを軽量な分散ノイズ発生機構と統合し、トレーニングされたモデルに差分プライバシー(DP)保証を提供する。
悪意のあるサーバに対するセキュリティでCloverを強化するために、サーバサイドの計算における整合性チェックのための軽量なメカニズムを考案した。
大規模な実験により、Cloverは、中央DPのバニラFLに匹敵する実用性を期待できる性能で達成できることが示されている。
関連論文リスト
- FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning [0.696125353550498]
フェデレートラーニング(FL)は、クライアントデータを集中化せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインには魅力的である。
クロスサイロ設定用に設計された完全セキュアでスケーラブルなFLスキームであるFuSeFLを提案する。
論文 参考訳(メタデータ) (2025-07-18T00:50:44Z) - DMM: Distributed Matrix Mechanism for Differentially-Private Federated Learning Based on Constant-Overhead Linear Secret Resharing [51.336015600778396]
本稿では,ベスト・オブ・ボス・ワールドを実現するための分散行列機構,分散DPのプライバシ向上,行列機構の実用性向上について紹介する。
我々は、異なるトレーニングイテレーションのクライアント委員会間で、一定の通信オーバーヘッドで機密値をセキュアに転送する、新しい暗号プロトコルを用いてこれを実現する。
論文 参考訳(メタデータ) (2024-10-21T16:25:14Z) - Camel: Communication-Efficient and Maliciously Secure Federated Learning in the Shuffle Model of Differential Privacy [9.100955087185811]
フェデレートラーニング(FL)は、複数のクライアントが集約のための勾配更新のみを共有することで、モデルを共同でトレーニングすることを可能にする、急速に魅力的なパラダイムになっています。
プライバシーに敏感なグラデーションアップデートを保護するため、ローカルな差分プライバシーメカニズムの研究が続けられている。
我々は,DP のシャッフルモデルにおいて,コミュニケーション効率が高く,かつ悪意のある FL フレームワークである Camel を提示する。
論文 参考訳(メタデータ) (2024-10-04T13:13:44Z) - EncCluster: Scalable Functional Encryption in Federated Learning through Weight Clustering and Probabilistic Filters [3.9660142560142067]
フェデレートラーニング(FL)は、アグリゲーションサーバにのみローカルモデルの更新を通信することで、分散デバイス間のモデルトレーニングを可能にする。
FLはモデル更新送信中に推論攻撃に弱いままである。
本稿では、重みクラスタリングによるモデル圧縮と、最近の分散型FEとプライバシ強化データエンコーディングを統合する新しい方法であるEncClusterを提案する。
論文 参考訳(メタデータ) (2024-06-13T14:16:50Z) - Communication Efficient ConFederated Learning: An Event-Triggered SAGA
Approach [67.27031215756121]
Federated Learning(FL)は、さまざまなデータソース上のローカルデータを収集することなく、モデルトレーニングをターゲットとする機械学習パラダイムである。
単一のサーバを使用するStandard FLは、限られた数のユーザしかサポートできないため、学習能力の低下につながる。
本研究では,多数のユーザに対応するために,emphConfederated Learning(CFL)と呼ばれるマルチサーバFLフレームワークを検討する。
論文 参考訳(メタデータ) (2024-02-28T03:27:10Z) - Fed-CVLC: Compressing Federated Learning Communications with
Variable-Length Codes [54.18186259484828]
フェデレートラーニング(FL)パラダイムでは、パラメータサーバ(PS)がモデル収集、更新アグリゲーション、複数のラウンドでのモデル分散のために、分散参加クライアントと同時通信する。
FLの圧縮には可変長が有用であることを示す。
本稿では,Fed-CVLC(Federated Learning Compression with Variable-Length Codes)を提案する。
論文 参考訳(メタデータ) (2024-02-06T07:25:21Z) - Scalable Collaborative Learning via Representation Sharing [53.047460465980144]
フェデレートラーニング(FL)とスプリットラーニング(SL)は、データを(デバイス上で)プライベートにしながら協調学習を可能にする2つのフレームワークである。
FLでは、各データ保持者がモデルをローカルにトレーニングし、集約のために中央サーバにリリースする。
SLでは、クライアントは個々のカット層アクティベーション(スマッシュされたデータ)をサーバにリリースし、そのレスポンス(推論とバックの伝搬の両方)を待つ必要があります。
本研究では, クライアントがオンライン知識蒸留を通じて, 対照的な損失を生かして協調する, プライバシ保護機械学習の新しいアプローチを提案する。
論文 参考訳(メタデータ) (2022-11-20T10:49:22Z) - ScionFL: Efficient and Robust Secure Quantized Aggregation [36.668162197302365]
我々は,フェデレートラーニングのための最初のセキュアアグリゲーションフレームワークであるScionFLを紹介する。
量子化された入力で効率的に動作し、同時に悪意のあるクライアントに対して堅牢性を提供する。
クライアントのオーバーヘッドがなく、サーバのオーバーヘッドも緩やかなため、標準的なFLベンチマークに匹敵する精度が得られます。
論文 参考訳(メタデータ) (2022-10-13T21:46:55Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Over-the-Air Federated Learning from Heterogeneous Data [107.05618009955094]
フェデレートラーニング(Federated Learning、FL)は、集中型モデルの分散ラーニングのためのフレームワークである。
我々は,共通局所勾配勾配勾配(SGD)FLアルゴリズムを強化するコンバージェント OTA FL (COTAF) アルゴリズムを開発した。
我々は,COTAFにより誘導されるプリコーディングが,OTA FLを用いて訓練されたモデルの収束率と精度を顕著に向上させることを示す。
論文 参考訳(メタデータ) (2020-09-27T08:28:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。