論文の概要: EAB-FL: Exacerbating Algorithmic Bias through Model Poisoning Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2410.02042v1
- Date: Wed, 2 Oct 2024 21:22:48 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-04 09:15:25.015502
- Title: EAB-FL: Exacerbating Algorithmic Bias through Model Poisoning Attacks in Federated Learning
- Title(参考訳): EAB-FL:フェデレートラーニングにおけるモデル中毒によるアルゴリズムバイアスの悪化
- Authors: Syed Irfan Ali Meerza, Jian Liu,
- Abstract要約: フェデレートラーニング(FL)は、複数のパーティがプライベートデータを開示することなく、共同で共有モデルをトレーニングできる技術である。
FLモデルは、データの異質性や党の選択により、特定の人口集団に対する偏見に悩まされることがある。
そこで本研究では, モデル有効性を維持しつつ, グループ不公平性を高めることを目的とした, 新たなモデル中毒攻撃であるERB-FLを提案する。
- 参考スコア(独自算出の注目度): 3.699715556687871
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) is a technique that allows multiple parties to train a shared model collaboratively without disclosing their private data. It has become increasingly popular due to its distinct privacy advantages. However, FL models can suffer from biases against certain demographic groups (e.g., racial and gender groups) due to the heterogeneity of data and party selection. Researchers have proposed various strategies for characterizing the group fairness of FL algorithms to address this issue. However, the effectiveness of these strategies in the face of deliberate adversarial attacks has not been fully explored. Although existing studies have revealed various threats (e.g., model poisoning attacks) against FL systems caused by malicious participants, their primary aim is to decrease model accuracy, while the potential of leveraging poisonous model updates to exacerbate model unfairness remains unexplored. In this paper, we propose a new type of model poisoning attack, EAB-FL, with a focus on exacerbating group unfairness while maintaining a good level of model utility. Extensive experiments on three datasets demonstrate the effectiveness and efficiency of our attack, even with state-of-the-art fairness optimization algorithms and secure aggregation rules employed.
- Abstract(参考訳): フェデレートラーニング(FL)は、複数のパーティがプライベートデータを開示することなく、共同で共有モデルをトレーニングできる技術である。
プライバシー上の優位性から、ますます人気が高まっている。
しかし、FLモデルは、データの異質性や党の選択により、特定の人口集団(例えば、人種や性別グループ)に対する偏見に悩まされることがある。
研究者らはこの問題に対処するためのFLアルゴリズムのグループフェアネスを特徴づけるための様々な戦略を提案している。
しかし、これらの戦略が故意の敵対的攻撃に直面している場合の効果は十分には検討されていない。
既存の研究では、悪意のある参加者によって引き起こされるFLシステムに対する様々な脅威(例えば、モデル中毒攻撃)が明らかにされているが、その主な目的はモデルの精度を下げることである。
本稿では,モデルの有効性を維持しつつ,グループ不公平性を高めることを目的とした新たなモデル中毒攻撃であるERB-FLを提案する。
3つのデータセットに対する大規模な実験は、最先端の公正度最適化アルゴリズムや安全な集約ルールが採用されている場合でも、攻撃の有効性と効率を実証している。
関連論文リスト
- PFAttack: Stealthy Attack Bypassing Group Fairness in Federated Learning [24.746843739848003]
フェデレーテッド・ラーニング(FL)は、異なる集団に対して偏見のない決定を下すグローバルモデルを、クライアントが共同でトレーニングすることを可能にする。
これまでの研究では、FLシステムは毒殺攻撃のモデルに弱いことが示されている。
本研究では,グローバルモデル精度を低下させるのではなく,公平性メカニズムを回避することを目的としたPFATTACK(Profit-driven Fairness Attack)を提案する。
論文 参考訳(メタデータ) (2024-10-09T03:23:07Z) - Fake or Compromised? Making Sense of Malicious Clients in Federated
Learning [15.91062695812289]
本報告では, 各種毒素攻撃および防御凝集規則(AGR)の包括的分析について述べる。
既存の敵モデルを接続するために、敵のスペクトルの中間に位置するハイブリッド敵モデルを提示する。
我々は、FLシステムを設計する際に考慮すべきさまざまな脅威について、実践者や研究者に明確に理解することを目的としている。
論文 参考訳(メタデータ) (2024-03-10T21:37:21Z) - Towards Robust Federated Learning via Logits Calibration on Non-IID Data [49.286558007937856]
Federated Learning(FL)は、エッジネットワークにおける分散デバイスの共同モデルトレーニングに基づく、プライバシ保護のための分散管理フレームワークである。
近年の研究では、FLは敵の例に弱いことが示されており、その性能は著しく低下している。
本研究では,対戦型訓練(AT)フレームワークを用いて,対戦型実例(AE)攻撃に対するFLモデルの堅牢性を向上させる。
論文 参考訳(メタデータ) (2024-03-05T09:18:29Z) - SA-Attack: Improving Adversarial Transferability of Vision-Language
Pre-training Models via Self-Augmentation [56.622250514119294]
ホワイトボックスの敵攻撃とは対照的に、転送攻撃は現実世界のシナリオをより反映している。
本稿では,SA-Attackと呼ばれる自己拡張型転送攻撃手法を提案する。
論文 参考訳(メタデータ) (2023-12-08T09:08:50Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Data-Agnostic Model Poisoning against Federated Learning: A Graph
Autoencoder Approach [65.2993866461477]
本稿では,フェデレートラーニング(FL)に対するデータに依存しないモデル中毒攻撃を提案する。
この攻撃はFLトレーニングデータの知識を必要とせず、有効性と検出不能の両方を達成する。
実験により、FLの精度は提案した攻撃の下で徐々に低下し、既存の防御機構では検出できないことが示された。
論文 参考訳(メタデータ) (2023-11-30T12:19:10Z) - When Fairness Meets Privacy: Exploring Privacy Threats in Fair Binary Classifiers via Membership Inference Attacks [17.243744418309593]
本研究では,公平度差分結果に基づく公平度向上モデルに対する効率的なMIA手法を提案する。
また、プライバシー漏洩を緩和するための潜在的戦略についても検討する。
論文 参考訳(メタデータ) (2023-11-07T10:28:17Z) - Fast Model Debias with Machine Unlearning [54.32026474971696]
ディープニューラルネットワークは多くの現実世界のシナリオでバイアスのある振る舞いをする。
既存のデバイアス法は、バイアスラベルやモデル再トレーニングのコストが高い。
バイアスを特定し,評価し,除去するための効率的なアプローチを提供する高速モデル脱バイアスフレームワーク(FMD)を提案する。
論文 参考訳(メタデータ) (2023-10-19T08:10:57Z) - Towards Poisoning Fair Representations [26.47681999979761]
本研究は、公正表現学習手法を攻撃した最初のデータ中毒フレームワークを提案する。
トレーニングデータに慎重に毒を盛ったサンプルを注入することにより、できるだけ多くの人口統計情報を含む不公平な表現を出力するモデルを誘導する。
ベンチマークフェアネスデータセットと最先端の公正表現学習モデルの実験は、我々の攻撃の優位性を実証している。
論文 参考訳(メタデータ) (2023-09-28T14:51:20Z) - Non-Invasive Fairness in Learning through the Lens of Data Drift [88.37640805363317]
データや学習アルゴリズムを変更することなく、機械学習モデルの公平性を向上する方法を示す。
異なる集団間の傾向のばらつきと、学習モデルと少数民族間の連続的な傾向は、データドリフトと類似している。
このドリフトを解決するための2つの戦略(モデル分割とリウィーディング)を探索し、基礎となるデータに対するモデル全体の適合性を改善することを目的としている。
論文 参考訳(メタデータ) (2023-03-30T17:30:42Z) - ARFED: Attack-Resistant Federated averaging based on outlier elimination [0.0]
フェデレートラーニングでは、各参加者はローカルモデルを独自のデータで訓練し、信頼されたサーバでグローバルモデルを形成する。
サーバは、プライバシを確保するために参加者のトレーニング手順に効果と可視性がないため、グローバルモデルはデータ中毒やモデル中毒などの攻撃に対して脆弱になる。
我々は,データ配信や参加者の類似性,悪意のある参加者の比率などの仮定を一切含まない ARFED という防衛アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-11-08T15:00:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。