論文の概要: Fake or Compromised? Making Sense of Malicious Clients in Federated
Learning
- arxiv url: http://arxiv.org/abs/2403.06319v1
- Date: Sun, 10 Mar 2024 21:37:21 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-12 20:50:35.910141
- Title: Fake or Compromised? Making Sense of Malicious Clients in Federated
Learning
- Title(参考訳): フェイクか妥協か?
フェデレーションラーニングにおける悪意あるクライアントのセンス
- Authors: Hamid Mozaffari, Sunav Choudhary, and Amir Houmansadr
- Abstract要約: 本報告では, 各種毒素攻撃および防御凝集規則(AGR)の包括的分析について述べる。
既存の敵モデルを接続するために、敵のスペクトルの中間に位置するハイブリッド敵モデルを提示する。
我々は、FLシステムを設計する際に考慮すべきさまざまな脅威について、実践者や研究者に明確に理解することを目的としている。
- 参考スコア(独自算出の注目度): 15.91062695812289
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) is a distributed machine learning paradigm that
enables training models on decentralized data. The field of FL security against
poisoning attacks is plagued with confusion due to the proliferation of
research that makes different assumptions about the capabilities of adversaries
and the adversary models they operate under. Our work aims to clarify this
confusion by presenting a comprehensive analysis of the various poisoning
attacks and defensive aggregation rules (AGRs) proposed in the literature, and
connecting them under a common framework. To connect existing adversary models,
we present a hybrid adversary model, which lies in the middle of the spectrum
of adversaries, where the adversary compromises a few clients, trains a
generative (e.g., DDPM) model with their compromised samples, and generates new
synthetic data to solve an optimization for a stronger (e.g., cheaper, more
practical) attack against different robust aggregation rules. By presenting the
spectrum of FL adversaries, we aim to provide practitioners and researchers
with a clear understanding of the different types of threats they need to
consider when designing FL systems, and identify areas where further research
is needed.
- Abstract(参考訳): Federated Learning(FL)は分散機械学習のパラダイムであり、分散データのトレーニングモデルを可能にする。
毒殺攻撃に対するflのセキュリティの分野は、敵の能力やその下の敵のモデルについて異なる仮定をする研究の急増によって混乱に苦しめられている。
本研究の目的は,本論文で提案されている各種毒殺攻撃および防衛集約ルール(AGR)を包括的に分析し,共通の枠組みで接続することで,この混乱を明らかにすることである。
既存の敵モデルを接続するために、敵のスペクトルの中間に位置するハイブリッド敵モデルを提案し、敵は少数のクライアントを妥協し、生成的(例えばDDPM)モデルをそれらの妥協したサンプルで訓練し、新しい合成データを生成して、より強い(例えば、より安く、より実用的な)攻撃を異なる頑健な凝集規則に対して解決する。
FLの敵のスペクトルを提示することにより、FLシステムを設計する際に考慮すべき脅威の種類を明確に把握し、さらなる研究が必要な分野を特定することを目的としている。
関連論文リスト
- DMPA: Model Poisoning Attacks on Decentralized Federated Learning for Model Differences [9.077813103456206]
モデル中毒攻撃において、悪意のある参加者は、妥協されたモデルを作成し、広めることで良性モデルの性能を低下させようとする。
本稿ではDMPAと呼ばれる革新的なモデル中毒攻撃を提案する。
複数の悪意のあるクライアントモデルの差分特性を計算し、最も効果的な毒殺戦略を得る。
論文 参考訳(メタデータ) (2025-02-07T09:15:38Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - EAB-FL: Exacerbating Algorithmic Bias through Model Poisoning Attacks in Federated Learning [3.699715556687871]
フェデレートラーニング(FL)は、複数のパーティがプライベートデータを開示することなく、共同で共有モデルをトレーニングできる技術である。
FLモデルは、データの異質性や党の選択により、特定の人口集団に対する偏見に悩まされることがある。
そこで本研究では, モデル有効性を維持しつつ, グループ不公平性を高めることを目的とした, 新たなモデル中毒攻撃であるERB-FLを提案する。
論文 参考訳(メタデータ) (2024-10-02T21:22:48Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Decentralized Adversarial Training over Graphs [55.28669771020857]
機械学習モデルの敵攻撃に対する脆弱性は、近年、かなりの注目を集めている。
この研究は、個々のエージェントが様々な強度摂動空間に従属するグラフ上の敵の訓練を研究する。
論文 参考訳(メタデータ) (2023-03-23T15:05:16Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - Delving into Data: Effectively Substitute Training for Black-box Attack [84.85798059317963]
本稿では,知識盗むプロセスで使用されるデータの分散設計に焦点をあてた,新しい視点代替トレーニングを提案する。
これら2つのモジュールの組み合わせにより、代替モデルとターゲットモデルの一貫性がさらに向上し、敵攻撃の有効性が大幅に向上する。
論文 参考訳(メタデータ) (2021-04-26T07:26:29Z) - Dynamic Defense Against Byzantine Poisoning Attacks in Federated
Learning [11.117880929232575]
フェデレート・ラーニングはビザチンによる敵対的な攻撃に弱い。
本稿では,これらのクライアントを動的に破棄する動的集約演算子を提案する。
その結果,集約するクライアントの動的選択により,グローバル学習モデルの性能が向上することが示唆された。
論文 参考訳(メタデータ) (2020-07-29T18:02:11Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。