論文の概要: Byzantine-Robust Clustered Federated Learning
- arxiv url: http://arxiv.org/abs/2306.00638v1
- Date: Thu, 1 Jun 2023 13:01:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-02 16:14:10.417700
- Title: Byzantine-Robust Clustered Federated Learning
- Title(参考訳): ビザンチンロバストクラスター型フェデレート学習
- Authors: Zhixu Tao, Kun Yang, Sanjeev R. Kulkarni
- Abstract要約: 本稿では,フェデレーテッド・ラーニング・セッティングにおけるビザンチンマシンの敵攻撃問題に焦点をあてる。
この設定では、同一クラスタ内の非ビザンチンマシンは同じ基盤データ分布を持ち、非ビザンチンマシンの異なるクラスタは異なる学習タスクを持つ。
私たちの研究の目的は、非ビザンチンマシンのクラスタメンバシップを特定し、各クラスタが学習したモデルを最適化することにあります。
- 参考スコア(独自算出の注目度): 10.503285978504548
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper focuses on the problem of adversarial attacks from Byzantine
machines in a Federated Learning setting where non-Byzantine machines can be
partitioned into disjoint clusters. In this setting, non-Byzantine machines in
the same cluster have the same underlying data distribution, and different
clusters of non-Byzantine machines have different learning tasks. Byzantine
machines can adversarially attack any cluster and disturb the training process
on clusters they attack. In the presence of Byzantine machines, the goal of our
work is to identify cluster membership of non-Byzantine machines and optimize
the models learned by each cluster. We adopt the Iterative Federated Clustering
Algorithm (IFCA) framework of Ghosh et al. (2020) to alternatively estimate
cluster membership and optimize models. In order to make this framework robust
against adversarial attacks from Byzantine machines, we use coordinate-wise
trimmed mean and coordinate-wise median aggregation methods used by Yin et al.
(2018). Specifically, we propose a new Byzantine-Robust Iterative Federated
Clustering Algorithm to improve on the results in Ghosh et al. (2019). We prove
a convergence rate for this algorithm for strongly convex loss functions. We
compare our convergence rate with the convergence rate of an existing
algorithm, and we demonstrate the performance of our algorithm on simulated
data.
- Abstract(参考訳): 本稿では,非ビザンチンマシンを非接続クラスタに分割可能なフェデレーテッドラーニング環境において,ビザンチンマシンからの敵攻撃の問題に焦点をあてる。
この設定では、同一クラスタ内の非ビザンチンマシンは同じ基盤データ分布を持ち、非ビザンチンマシンの異なるクラスタは異なる学習タスクを持つ。
ビザンチンマシンはあらゆるクラスタを敵に攻撃し、攻撃するクラスタのトレーニングプロセスを妨害することができる。
ビザンチンマシンの存在下で、我々の研究の目的は、非ビザンチンマシンのクラスタメンバシップを特定し、各クラスタが学習したモデルを最適化することである。
我々は,GhoshらによるIFCA(Iterative Federated Clustering Algorithm)フレームワークを用いて,クラスタメンバシップを推定し,モデルを最適化する。
この枠組みをビザンチンマシンの敵攻撃に対して堅牢にするために、Yinらによって2018年に開発された座標ワイド平均および座標ワイド中央集約法を用いる。
具体的には,ghosh et al.(2019)の結果を改善するために,新たなビザンチン・ロバスト反復フェデレーションクラスタリングアルゴリズムを提案する。
強凸損失関数に対するこのアルゴリズムの収束率を証明した。
本研究では,既存のアルゴリズムの収束率と比較し,シミュレーションデータを用いたアルゴリズムの性能を示す。
関連論文リスト
- Proportional Fairness in Non-Centroid Clustering [34.91134564352282]
我々は、グループフェアネスを保証することを目的として、最近開発された、比例フェアクラスタリングのフレームワークを再考する。
フレームワークを非セントロイドクラスタリングに拡張し、エージェントの損失はそのクラスタ内の他のエージェントの関数である。
我々は、GreedyCaptureアルゴリズムの適応を用いて、我々が確立できる最良の近似が自然損失関数には適用されないことを示す。
論文 参考訳(メタデータ) (2024-10-30T17:53:49Z) - Self-Supervised Graph Embedding Clustering [70.36328717683297]
K-means 1-step dimensionality reduction clustering method は,クラスタリングタスクにおける次元性の呪いに対処する上で,いくつかの進歩をもたらした。
本稿では,K-meansに多様体学習を統合する統一フレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-24T08:59:51Z) - Near-Optimal Resilient Aggregation Rules for Distributed Learning Using 1-Center and 1-Mean Clustering with Outliers [24.88026399458157]
ビザンティンの機械学習は、予測不可能な欠陥によってかなりの注目を集めている。
分散学習におけるマシンのセキュア化の鍵は、レジリエントな集約メカニズムである。
論文 参考訳(メタデータ) (2023-12-20T08:36:55Z) - Reinforcement Graph Clustering with Unknown Cluster Number [91.4861135742095]
本稿では,Reinforcement Graph Clusteringと呼ばれる新しいディープグラフクラスタリング手法を提案する。
提案手法では,クラスタ数決定と教師なし表現学習を統一的なフレームワークに統合する。
フィードバック動作を行うために、クラスタリング指向の報酬関数を提案し、同一クラスタの凝集を高め、異なるクラスタを分離する。
論文 参考訳(メタデータ) (2023-08-13T18:12:28Z) - Robust Federated Learning via Over-The-Air Computation [48.47690125123958]
オーバー・ザ・エア計算によるモデル更新の簡易な平均化により、学習タスクは悪意のあるクライアントのローカルモデル更新のランダムまたは意図した変更に対して脆弱になる。
本稿では,このような攻撃に対して,フェデレート学習のためのオーバー・ザ・エア計算の利点を保ちながら,ロバストな伝達と集約の枠組みを提案する。
論文 参考訳(メタデータ) (2021-11-01T19:21:21Z) - Escaping Saddle Points in Distributed Newton's Method with Communication
efficiency and Byzantine Resilience [49.379254729853756]
我々は、ビザンチン機械の存在下で分散フレームワークにおける非正規化損失関数(サドルポイント付き)を最適化する問題を検討する。
キューブ正規化されたニュートンアルゴリズムを堅牢化し、サドルポイントと偽のローカルミニマを効率的に回避します。
提案手法は, (サブサンプリング) と hessian を含むいくつかの近似設定で理論的に保証される。
論文 参考訳(メタデータ) (2021-03-17T03:53:58Z) - Byzantine-Resilient Non-Convex Stochastic Gradient Descent [61.6382287971982]
敵対的レジリエントな分散最適化。
機械は独立して勾配を計算し 協力することができます
私達のアルゴリズムは新しい集中の技術およびサンプル複雑性に基づいています。
それは非常に実用的です:それはないときすべての前の方法の性能を改善します。
セッティングマシンがあります。
論文 参考訳(メタデータ) (2020-12-28T17:19:32Z) - Joint Optimization of an Autoencoder for Clustering and Embedding [22.16059261437617]
本稿では,自動エンコーダとクラスタリングを同時に学習する代替手法を提案する。
この単純なニューラルネットワークはクラスタリングモジュールと呼ばれ、ディープオートエンコーダに統合され、ディープクラスタリングモデルとなる。
論文 参考訳(メタデータ) (2020-12-07T14:38:10Z) - A black-box adversarial attack for poisoning clustering [78.19784577498031]
本稿では,クラスタリングアルゴリズムのロバスト性をテストするために,ブラックボックス対逆攻撃法を提案する。
我々の攻撃は、SVM、ランダムフォレスト、ニューラルネットワークなどの教師付きアルゴリズムに対しても転送可能であることを示す。
論文 参考訳(メタデータ) (2020-09-09T18:19:31Z) - An Efficient Framework for Clustered Federated Learning [26.24231986590374]
本稿では,ユーザがクラスタに分散するフェデレーション学習(FL)の問題に対処する。
反復フェデレーションクラスタリングアルゴリズム(IFCA)を提案する。
ニューラルネットワークのような非分割問題では,アルゴリズムが効率的であることを示す。
論文 参考訳(メタデータ) (2020-06-07T08:48:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。