論文の概要: Byzantine-Resilient High-Dimensional Federated Learning
- arxiv url: http://arxiv.org/abs/2006.13041v2
- Date: Sun, 16 Aug 2020 21:24:14 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-18 05:59:27.827066
- Title: Byzantine-Resilient High-Dimensional Federated Learning
- Title(参考訳): ビザンチン耐性高次元フェデレート学習
- Authors: Deepesh Data and Suhas Diggavi
- Abstract要約: 我々は、悪意のある/ビザンツ人クライアントの存在下で、局所的な反復を伴う勾配CV降下(SGD)を採用する。
クライアントは独自の勾配ベクトルのサブセットを取得してイテレーションを更新し、その後、ネットと通信する。
我々のアルゴリズムは、ローカルデータセットを用いた最初のビザンチン耐性アルゴリズムと分析であると信じている。
- 参考スコア(独自算出の注目度): 10.965065178451104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We study stochastic gradient descent (SGD) with local iterations in the
presence of malicious/Byzantine clients, motivated by the federated learning.
The clients, instead of communicating with the central server in every
iteration, maintain their local models, which they update by taking several SGD
iterations based on their own datasets and then communicate the net update with
the server, thereby achieving communication-efficiency. Furthermore, only a
subset of clients communicate with the server, and this subset may be different
at different synchronization times. The Byzantine clients may collaborate and
send arbitrary vectors to the server to disrupt the learning process. To combat
the adversary, we employ an efficient high-dimensional robust mean estimation
algorithm from Steinhardt et al.~\cite[ITCS 2018]{Resilience_SCV18} at the
server to filter-out corrupt vectors; and to analyze the outlier-filtering
procedure, we develop a novel matrix concentration result that may be of
independent interest.
We provide convergence analyses for strongly-convex and non-convex smooth
objectives in the heterogeneous data setting, where different clients may have
different local datasets, and we do not make any probabilistic assumptions on
data generation. We believe that ours is the first Byzantine-resilient
algorithm and analysis with local iterations. We derive our convergence results
under minimal assumptions of bounded variance for SGD and bounded gradient
dissimilarity (which captures heterogeneity among local datasets). We also
extend our results to the case when clients compute full-batch gradients.
- Abstract(参考訳): 本研究では,悪質/ビザンツ人クライアントの存在下での局所的な反復を伴う確率勾配降下(SGD)について検討した。
クライアントは、イテレーション毎に中央サーバと通信する代わりに、ローカルモデルを維持し、自身のデータセットに基づいて複数のsgdイテレーションを実行して、サーバとネットアップデートを通信することで、通信効率を実現している。
さらに、クライアントのサブセットのみがサーバと通信し、このサブセットは異なる同期時間で異なる可能性がある。
ビザンチンのクライアントは協調して任意のベクターをサーバに送り、学習プロセスを破壊することができる。
敵と戦うために,steinhardtらによる効率的な高次元ロバスト平均推定アルゴリズムを用いる。
~\cite[itcs 2018]{resilience_scv18}サーバで腐敗したベクターをフィルターアウトし、アウトリアーフィルタ手順を分析するために、独立した関心を持つ可能性のある新しいマトリックス濃度結果を開発した。
我々は、異なるクライアントが異なるローカルデータセットを持つ可能性がある異種データ設定において、強凸および非凸スムーズな目的に対して収束解析を行い、データ生成に関する確率論的仮定をしない。
我々は、局所的な反復による最初のビザンチン耐性アルゴリズムと解析であると信じている。
我々は、SGDの有界分散と有界勾配の相似性(局所データセット間の不均一性を捉える)の最小仮定の下で、収束結果を導出する。
また、クライアントがフルバッチ勾配を計算する場合にも結果を拡張します。
関連論文リスト
- Modality Alignment Meets Federated Broadcasting [9.752555511824593]
フェデレートラーニング(FL)は、ローカルデータを集中化せずに、分散エッジデバイス間でモデルをトレーニングすることで、データのプライバシを保護する強力なアプローチとして登場した。
本稿では,テキストエンコーダをサーバ上に配置し,画像エンコーダをローカルデバイス上で動作させる,モダリティアライメントを利用した新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-11-24T13:30:03Z) - PeFAD: A Parameter-Efficient Federated Framework for Time Series Anomaly Detection [51.20479454379662]
私たちはaを提案します。
フェデレートされた異常検出フレームワークであるPeFADは、プライバシーの懸念が高まっている。
我々は、4つの実際のデータセットに対して広範な評価を行い、PeFADは既存の最先端ベースラインを最大28.74%上回っている。
論文 参考訳(メタデータ) (2024-06-04T13:51:08Z) - Asynchronous Federated Stochastic Optimization for Heterogeneous Objectives Under Arbitrary Delays [0.0]
フェデレートラーニング(FL)は、データを複数の場所に保持するモデル("clients")をセキュアにトレーニングするために提案されている。
FLアルゴリズムの性能を阻害する2つの大きな課題は、階層化クライアントによって引き起こされる長いトレーニング時間と、非イドローカルなデータ分布("client drift")によるモデル精度の低下である。
本稿では,Asynchronous Exact Averaging (AREA, Asynchronous Exact Averaging) を提案する。Asynchronous Exact Averaging (AREA) は,通信を利用して収束を高速化し,拡張性を向上し,クライアント更新頻度の変動によるクライアントのドリフトの補正にクライアントメモリを利用する。
論文 参考訳(メタデータ) (2024-05-16T14:22:49Z) - Towards Instance-adaptive Inference for Federated Learning [80.38701896056828]
Federated Learning(FL)は、複数のクライアントがローカルトレーニングを集約することで、強力なグローバルモデルを学ぶことができる分散学習パラダイムである。
本稿では,FedInsという新しいFLアルゴリズムを提案する。
我々のFedInsは、Tiny-ImageNet上での通信コストが15%未満で、トップパフォーマンスの手法に対して6.64%の改善など、最先端のFLアルゴリズムよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-08-11T09:58:47Z) - Efficient Distribution Similarity Identification in Clustered Federated
Learning via Principal Angles Between Client Data Subspaces [59.33965805898736]
クラスタ学習は、クライアントをクラスタにグループ化することで、有望な結果をもたらすことが示されている。
既存のFLアルゴリズムは基本的に、クライアントを同様のディストリビューションでグループ化しようとしている。
以前のFLアルゴリズムは、訓練中に間接的に類似性を試みていた。
論文 参考訳(メタデータ) (2022-09-21T17:37:54Z) - Federated Stochastic Gradient Descent Begets Self-Induced Momentum [151.4322255230084]
Federated Learning(FL)は、モバイルエッジシステムに適用可能な、新興の機械学習手法である。
このような条件下での勾配降下(SGD)への走行は,大域的な集約プロセスに運動量的な項を加えるとみなすことができる。
論文 参考訳(メタデータ) (2022-02-17T02:01:37Z) - Stochastic Coded Federated Learning with Convergence and Privacy
Guarantees [8.2189389638822]
フェデレートラーニング(FL)は、プライバシを保存する分散機械学習フレームワークとして多くの注目を集めている。
本稿では、トラグラー問題を緩和するために、SCFL(Coded Federated Learning)というコード付きフェデレーション学習フレームワークを提案する。
我々は、相互情報差分プライバシー(MI-DP)によるプライバシー保証を特徴付け、連合学習における収束性能を分析する。
論文 参考訳(メタデータ) (2022-01-25T04:43:29Z) - Federated Multi-Target Domain Adaptation [99.93375364579484]
フェデレートされた学習手法により、プライバシを保護しながら、分散ユーザデータ上で機械学習モデルをトレーニングすることが可能になります。
分散クライアントデータがラベル付けされず、集中型ラベル付きデータセットがサーバ上で利用可能となる、より実用的なシナリオを考えます。
本稿では,新しい課題に対処する効果的なDualAdapt法を提案する。
論文 参考訳(メタデータ) (2021-08-17T17:53:05Z) - Exploiting Shared Representations for Personalized Federated Learning [54.65133770989836]
本稿では,クライアント間の共有データ表現と,クライアント毎のユニークなローカルヘッダを学習するための,新しいフェデレーション学習フレームワークとアルゴリズムを提案する。
提案アルゴリズムは, クライアント間の分散計算能力を利用して, 表現の更新毎に低次元の局所パラメータに対して, 多数の局所更新を行う。
この結果は、データ分布間の共有低次元表現を学習することを目的とした、幅広い種類の問題に対するフェデレーション学習以上の関心を持っている。
論文 参考訳(メタデータ) (2021-02-14T05:36:25Z) - Coded Computing for Low-Latency Federated Learning over Wireless Edge
Networks [10.395838711844892]
フェデレートラーニングは、データ共有やクライアントデータを集中型サーバに移行することなく、クライアントノードにあるデータからグローバルモデルをトレーニングすることを可能にする。
我々は,構造化符号化冗長性をフェデレーション学習に注入し,ストラグラーを緩和し,訓練手順を高速化する,新しい符号化コンピューティングフレームワーク,CodedFedLを提案する。
論文 参考訳(メタデータ) (2020-11-12T06:21:59Z) - Byzantine-Resilient SGD in High Dimensions on Heterogeneous Data [10.965065178451104]
ビザンチン攻撃下での主作業者アーキテクチャにおける分散勾配降下(SGD)について検討した。
我々のアルゴリズムは、最大で$frac14$のビザンティン労働者を許容できる。
論文 参考訳(メタデータ) (2020-05-16T04:15:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。