論文の概要: Competitive Advantage Attacks to Decentralized Federated Learning
- arxiv url: http://arxiv.org/abs/2310.13862v1
- Date: Fri, 20 Oct 2023 23:57:57 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-25 04:48:10.784474
- Title: Competitive Advantage Attacks to Decentralized Federated Learning
- Title(参考訳): 分散連合学習における競争優位攻撃
- Authors: Yuqi Jia, Minghong Fang, Neil Zhenqiang Gong
- Abstract要約: SelfishAttackは、分散連邦学習(DFL)に対する新たな攻撃ファミリーである
SelfishAttackでは、利己的なクライアントのセットは、残りの非利己的なクライアントよりも競争上の優位性を達成することを目指している。
本稿では,自己学習型クライアントと非自己学習型クライアントとの精度差を,SelfishAttackが向上させることを示す。
- 参考スコア(独自算出の注目度): 43.00395197400252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decentralized federated learning (DFL) enables clients (e.g., hospitals and
banks) to jointly train machine learning models without a central orchestration
server. In each global training round, each client trains a local model on its
own training data and then they exchange local models for aggregation. In this
work, we propose SelfishAttack, a new family of attacks to DFL. In
SelfishAttack, a set of selfish clients aim to achieve competitive advantages
over the remaining non-selfish ones, i.e., the final learnt local models of the
selfish clients are more accurate than those of the non-selfish ones. Towards
this goal, the selfish clients send carefully crafted local models to each
remaining non-selfish one in each global training round. We formulate finding
such local models as an optimization problem and propose methods to solve it
when DFL uses different aggregation rules. Theoretically, we show that our
methods find the optimal solutions to the optimization problem. Empirically, we
show that SelfishAttack successfully increases the accuracy gap (i.e.,
competitive advantage) between the final learnt local models of selfish clients
and those of non-selfish ones. Moreover, SelfishAttack achieves larger accuracy
gaps than poisoning attacks when extended to increase competitive advantages.
- Abstract(参考訳): 分散統合学習(DFL)は、クライアント(例えば病院や銀行)が中央オーケストレーションサーバーなしで機械学習モデルを共同で訓練することを可能にする。
各グローバルトレーニングラウンドでは、各クライアントが独自のトレーニングデータに基づいてローカルモデルをトレーニングし、アグリゲーションのためにローカルモデルを交換する。
本研究では,DFLに対する新たな攻撃ファミリーであるSelfishAttackを提案する。
SelfishAttackでは、利己的なクライアントのセットは、残りの非利己的なクライアントに比べて競争上の優位性を達成することを目的としている。
この目標に向けて、自己中心的なクライアントは、グローバルなトレーニングラウンド毎に、残りの各非自己中心的なモデルに慎重に独自のローカルモデルを送信する。
最適化問題としてそのような局所モデルを定式化し、DFLが異なるアグリゲーションルールを使用する場合の解法を提案する。
理論的には,提案手法が最適化問題の最適解であることを示す。
実証的に、セルフシアタックは、セルフシッシュクライアントの最終学習したローカルモデルと非セルフシッシュクライアントとの精度ギャップ(すなわち競争上の優位性)を良好に増加させることを示した。
さらに、SelfishAttackは、競争上の優位性を高めるために拡張された場合の中毒攻撃よりも大きな精度ギャップを達成する。
関連論文リスト
- Tackling Selfish Clients in Federated Learning [8.021349780247009]
Federated Learning (FL) は分散機械学習パラダイムである。
一部のインテリジェントクライアントは、標準的なトレーニングプロセスから意図的に逸脱し、グローバルモデルをローカルモデルに傾けることができる。
本稿では,FLサーバのロバスト集約戦略を提案する。
論文 参考訳(メタデータ) (2024-07-22T06:08:13Z) - Overcoming Data and Model Heterogeneities in Decentralized Federated Learning via Synthetic Anchors [21.931436901703634]
従来のフェデレートラーニング(FL)には、ユーザデータのプライバシを維持しながら、グローバルモデルの協調的なトレーニングが含まれる。
そのブランチの1つ、分散FLは、クライアントが別々のローカルモデルを所有し、最適化できるサーバーレスネットワークである。
本稿では,DeSAと呼ばれる合成アンカーを導入し,新しい分散FL手法を提案する。
論文 参考訳(メタデータ) (2024-05-19T11:36:45Z) - Rethinking Client Drift in Federated Learning: A Logit Perspective [125.35844582366441]
フェデレートラーニング(FL)は、複数のクライアントが分散した方法で協調的に学習し、プライバシ保護を可能にする。
その結果,局所モデルとグローバルモデルとのロジット差は,モデルが継続的に更新されるにつれて増大することがわかった。
我々はFedCSDと呼ばれる新しいアルゴリズムを提案する。FedCSDは、ローカルモデルとグローバルモデルを調整するためのフェデレーションフレームワークにおけるクラスプロトタイプの類似度蒸留である。
論文 参考訳(メタデータ) (2023-08-20T04:41:01Z) - Adaptive Self-Distillation for Minimizing Client Drift in Heterogeneous
Federated Learning [9.975023463908496]
Federated Learning(FL)は、クライアントがローカルトレーニングデータを共有せずに、局所的にトレーニングされたモデルを集約することで、グローバルモデルの共同トレーニングを可能にする機械学習パラダイムである。
本稿では,適応自己蒸留(ASD)に基づく新たな正規化手法を提案する。
我々の正規化方式は,グローバルモデルエントロピーとクライアントのラベル分布に基づいて,クライアントのトレーニングデータに適応的に適応的に適応する。
論文 参考訳(メタデータ) (2023-05-31T07:00:42Z) - No One Left Behind: Real-World Federated Class-Incremental Learning [111.77681016996202]
ローカル・グローバル・アンチ・フォーゲッティング(LGA)モデルは、局所的およびグローバルな破滅的な忘れに対処する。
本研究は,カテゴリ均衡型勾配適応型補償損失とカテゴリ勾配誘導型セマンティック蒸留損失を開発する。
ローカルクライアントから収集した新しいカテゴリの摂動型プロトタイプイメージを、自己監督型プロトタイプ拡張を通じて拡張する。
論文 参考訳(メタデータ) (2023-02-02T06:41:02Z) - To Federate or Not To Federate: Incentivizing Client Participation in
Federated Learning [22.3101738137465]
フェデレートラーニング(FL)は、共通の機械学習モデルをトレーニングしようとするクライアントのグループ間のコラボレーションを促進する。
本稿では,グローバルモデルにインセンティブを与えるクライアントの割合を明示的に最大化する,IncFLと呼ばれるアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-05-30T04:03:31Z) - Acceleration of Federated Learning with Alleviated Forgetting in Local
Training [61.231021417674235]
フェデレートラーニング(FL)は、プライバシを保護しながら機械学習モデルの分散最適化を可能にする。
我々は,FedRegを提案する。FedRegは,局所的な訓練段階において,知識を忘れることなくFLを加速するアルゴリズムである。
我々の実験は、FedRegはFLの収束率を著しく改善するだけでなく、特にニューラルネットワークアーキテクチャが深い場合にも改善することを示した。
論文 参考訳(メタデータ) (2022-03-05T02:31:32Z) - A Bayesian Federated Learning Framework with Online Laplace
Approximation [144.7345013348257]
フェデレートラーニングは、複数のクライアントが協力してグローバルに共有されたモデルを学ぶことを可能にする。
クライアント側とサーバ側の両方の後方部を近似するために,オンラインラプラス近似を用いた新しいFLフレームワークを提案する。
提案手法の利点を実証し,いくつかのベンチマークで最新の結果を得た。
論文 参考訳(メタデータ) (2021-02-03T08:36:58Z) - Blockchain Assisted Decentralized Federated Learning (BLADE-FL):
Performance Analysis and Resource Allocation [119.19061102064497]
ブロックチェーンをFL、すなわちブロックチェーン支援分散学習(BLADE-FL)に統合することで、分散FLフレームワークを提案する。
提案されたBLADE-FLのラウンドでは、各クライアントはトレーニング済みモデルを他のクライアントにブロードキャストし、受信したモデルに基づいてブロックを生成し、次のラウンドのローカルトレーニングの前に生成されたブロックからモデルを集約します。
遅延クライアントがblade-flの学習性能に与える影響を調査し,最適なk,学習パラメータ,遅延クライアントの割合の関係を特徴付ける。
論文 参考訳(メタデータ) (2021-01-18T07:19:08Z) - Continual Local Training for Better Initialization of Federated Models [14.289213162030816]
フェデレートラーニング(Federated Learning、FL)とは、機械学習モデルを分散システムで直接訓練する学習パラダイムである。
一般的なFLアルゴリズムであるemphFederated Averaging (FedAvg)は重みのばらつきに悩まされている。
本稿では,この問題に対処するための局所的な継続的トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2020-05-26T12:27:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。