論文の概要: CLIP: Client-Side Invariant Pruning for Mitigating Stragglers in Secure Federated Learning
- arxiv url: http://arxiv.org/abs/2510.16694v1
- Date: Sun, 19 Oct 2025 03:29:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:11.841932
- Title: CLIP: Client-Side Invariant Pruning for Mitigating Stragglers in Secure Federated Learning
- Title(参考訳): CLIP: 安全なフェデレーション学習におけるストラグラーの緩和のためのクライアント側不変プルーニング
- Authors: Anthony DiMaggio, Raghav Sharma, Gururaj Saileshwar,
- Abstract要約: 本稿では、ディープニューラルネットワークを用いた安全なアグリゲーションのための、最初のストラグラー緩和手法を提案する。
ネットワーク認識型プルーニングと組み合わせたクライアント側の不変ニューロンプルーニング手法であるCLIPを提案する。
- 参考スコア(独自算出の注目度): 2.7018389296091505
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Secure federated learning (FL) preserves data privacy during distributed model training. However, deploying such frameworks across heterogeneous devices results in performance bottlenecks, due to straggler clients with limited computational or network capabilities, slowing training for all participating clients. This paper introduces the first straggler mitigation technique for secure aggregation with deep neural networks. We propose CLIP, a client-side invariant neuron pruning technique coupled with network-aware pruning, that addresses compute and network bottlenecks due to stragglers during training with minimal accuracy loss. Our technique accelerates secure FL training by 13% to 34% across multiple datasets (CIFAR10, Shakespeare, FEMNIST) with an accuracy impact of between 1.3% improvement to 2.6% reduction.
- Abstract(参考訳): セキュアなフェデレーション学習(FL)は、分散モデルのトレーニング中にデータのプライバシを保存する。
しかしながら、そのようなフレームワークを異種デバイスにデプロイすると、トラグラークライアントが計算能力やネットワーク能力に制限されているため、パフォーマンス上のボトルネックが発生し、参加するすべてのクライアントのトレーニングが遅くなる。
本稿では、ディープニューラルネットワークを用いた安全なアグリゲーションのための、最初のストラグラー緩和手法を提案する。
ネットワーク認識型プルーニングと組み合わせたクライアント側の不変ニューロンプルーニング手法であるCLIPを提案する。
我々の技術は、複数のデータセット(CIFAR10、シェークスピア、FEMNIST)にわたるセキュアなFLトレーニングを13%から34%加速させ、精度は1.3%改善から2.6%削減された。
関連論文リスト
- ZORRO: Zero-Knowledge Robustness and Privacy for Split Learning (Full Version) [58.595691399741646]
Split Learning(SL)は、リソース制約のあるクライアントがディープニューラルネットワーク(DNN)を協調的にトレーニングすることを可能にする分散学習アプローチである。
このセットアップにより、SLはデータを共有せずにサーバの能力を活用することができ、機密データを扱うリソース制約のある環境で非常に効果的になる。
我々は、プライベートで検証可能な、堅牢なSL防御スキームであるZORROを提示する。
論文 参考訳(メタデータ) (2025-09-11T18:44:09Z) - Pigeon-SL: Robust Split Learning Framework for Edge Intelligence under Malicious Clients [53.496957000114875]
我々は,M クライアントのうち少なくとも 1 つの完全正直なクラスタを保証する新しいスキームである Pigeon-SL を紹介する。
各グローバルラウンドでは、アクセスポイントがクライアントをN+1クラスタに分割し、バニラSLを介して独立して各クラスタをトレーニングし、共有データセット上での検証損失を評価する。
損失が最も低いクラスタのみが進歩し、悪意のある更新を分離して破棄する。
論文 参考訳(メタデータ) (2025-08-04T09:34:50Z) - ACCESS-FL: Agile Communication and Computation for Efficient Secure Aggregation in Stable Federated Learning Networks [26.002975401820887]
Federated Learning(FL)は、プライバシ対応アプリケーション用に設計された分散学習フレームワークである。
従来のFLは、プレーンモデルのアップデートがサーバに送信されると、機密性の高いクライアントデータを露出するリスクにアプローチする。
GoogleのSecure Aggregation(SecAgg)プロトコルは、二重マスキング技術を使用することで、この脅威に対処する。
通信・計算効率の高いセキュアアグリゲーション手法であるACCESS-FLを提案する。
論文 参考訳(メタデータ) (2024-09-03T09:03:38Z) - Fluent: Round-efficient Secure Aggregation for Private Federated
Learning [23.899922716694427]
フェデレートラーニング(FL)は、多数のクライアント間で機械学習モデルの協調トレーニングを促進する。
FLは、プライバシ推論や逆攻撃といった脆弱性の影響を受け続けている。
本研究は,プライベートFLのためのラウンドおよび通信効率の高いセキュアアグリゲーション方式であるFluentを導入する。
論文 参考訳(メタデータ) (2024-03-10T09:11:57Z) - Effectively Heterogeneous Federated Learning: A Pairing and Split
Learning Based Approach [16.093068118849246]
本稿では,クライアントと異なる計算資源をペアリングする,新しい分割フェデレーション学習(SFL)フレームワークを提案する。
グラフエッジ選択問題として,学習遅延の最適化を再構築し,グレディアルゴリズムを提案する。
シミュレーションの結果,提案手法はFLトレーニング速度を大幅に向上し,高い性能を実現することができることがわかった。
論文 参考訳(メタデータ) (2023-08-26T11:10:54Z) - TCT: Convexifying Federated Learning using Bootstrapped Neural Tangent
Kernels [141.29156234353133]
最先端の凸学習手法は、クライアントが異なるデータ分布を持つ場合、集中型よりもはるかにパフォーマンスが劣る。
我々は、この格差は、非NISTityが提示した課題に大きく起因していることを示す。
本稿では,Train-Convexify Neural Network (TCT) 手法を提案する。
論文 参考訳(メタデータ) (2022-07-13T16:58:22Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - Federated Dynamic Sparse Training: Computing Less, Communicating Less,
Yet Learning Better [88.28293442298015]
Federated Learning (FL)は、クラウドからリソース制限されたエッジデバイスへの機械学習ワークロードの分散を可能にする。
我々は、FedDST(Federated Dynamic Sparse Training)と呼ばれる新しいFLフレームワークを開発し、実装し、実験的に検証する。
FedDSTは、ターゲットのフルネットワークからスパースサブネットワークを抽出し、訓練する動的プロセスである。
論文 参考訳(メタデータ) (2021-12-18T02:26:38Z) - Dynamic Attention-based Communication-Efficient Federated Learning [85.18941440826309]
フェデレートラーニング(FL)は、グローバル機械学習モデルをトレーニングするためのソリューションを提供する。
FLは、クライアントデータの分散が非IIDであるときに性能劣化に悩まされる。
本稿では,この劣化に対処するために,新しい適応トレーニングアルゴリズムであるtextttAdaFL$を提案する。
論文 参考訳(メタデータ) (2021-08-12T14:18:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。