論文の概要: AntiFLipper: A Secure and Efficient Defense Against Label-Flipping Attacks in Federated Learning
- arxiv url: http://arxiv.org/abs/2509.22873v1
- Date: Fri, 26 Sep 2025 19:36:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.849091
- Title: AntiFLipper: A Secure and Efficient Defense Against Label-Flipping Attacks in Federated Learning
- Title(参考訳): AntiFLipper: フェデレートラーニングにおけるラベルフリップ攻撃に対する安全かつ効果的な防御
- Authors: Aashnan Rahman, Abid Hasan, Sherajul Arifin, Faisal Haque Bappy, Tahrim Hossain, Tariqul Islam, Abu Raihan Mostofa Kamal, Md. Azam Hossain,
- Abstract要約: フェデレートラーニング(FL)は、データを分散化してプライバシ保護モデルトレーニングを可能にする。
悪意のあるクライアントがラベルを操作してグローバルモデルに悪影響を及ぼすような、ラベルフリップ攻撃には依然として脆弱だ。
FLにおけるマルチクラスラベルフリップ攻撃に対する,新規かつ計算効率のよい防御手法であるAntiFLipperを紹介した。
- 参考スコア(独自算出の注目度): 2.699539310040651
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Federated learning (FL) enables privacy-preserving model training by keeping data decentralized. However, it remains vulnerable to label-flipping attacks, where malicious clients manipulate labels to poison the global model. Despite their simplicity, these attacks can severely degrade model performance, and defending against them remains challenging. We introduce AntiFLipper, a novel and computationally efficient defense against multi-class label-flipping attacks in FL. Unlike existing methods that ensure security at the cost of high computational overhead, AntiFLipper employs a novel client-side detection strategy, significantly reducing the central server's burden during aggregation. Comprehensive empirical evaluations across multiple datasets under different distributions demonstrate that AntiFLipper achieves accuracy comparable to state-of-the-art defenses while requiring substantially fewer computational resources in server side. By balancing security and efficiency, AntiFLipper addresses a critical gap in existing defenses, making it particularly suitable for resource-constrained FL deployments where both model integrity and operational efficiency are essential.
- Abstract(参考訳): フェデレートラーニング(FL)は、データを分散化してプライバシ保護モデルトレーニングを可能にする。
しかし、悪意のあるクライアントがラベルを操作してグローバルモデルに悪影響を及ぼすような、ラベルフリップ攻撃には依然として脆弱である。
単純さにもかかわらず、これらの攻撃はモデルのパフォーマンスを著しく低下させ、それに対する防御は依然として困難である。
FLにおけるマルチクラスラベルフリップ攻撃に対する,新規かつ計算効率のよい防御手法であるAntiFLipperを紹介した。
高い計算オーバーヘッドを犠牲にしてセキュリティを確保する既存の方法とは異なり、AntiFLipperは新たなクライアント側検出戦略を採用しており、集約時の中央サーバの負担を大幅に削減している。
異なる分布下での複数のデータセットに対する総合的な経験的評価は、AntiFLipperが最先端の防御に匹敵する精度を達成し、サーバ側の計算リソースを著しく少なくすることを示した。
セキュリティと効率のバランスをとることで、AntiFLipperは既存の防御における重要なギャップに対処し、モデルの完全性と運用効率の両方が不可欠であるリソース制約のFLデプロイメントに特に適している。
関連論文リスト
- FuSeFL: Fully Secure and Scalable Cross-Silo Federated Learning [0.696125353550498]
フェデレートラーニング(FL)は、クライアントデータを集中化せずに協調的なモデルトレーニングを可能にするため、プライバシに敏感なドメインには魅力的である。
クロスサイロ設定用に設計された完全セキュアでスケーラブルなFLスキームであるFuSeFLを提案する。
論文 参考訳(メタデータ) (2025-07-18T00:50:44Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - Byzantine-Robust Federated Learning Using Generative Adversarial Networks [1.4091801425319963]
フェデレートラーニング(FL)は、生データを共有せずに分散クライアント間で協調的なモデルトレーニングを可能にするが、その堅牢性は、データやモデル中毒といったビザンチンの行動によって脅かされている。
本稿では,クライアントの更新を検証するための代表データを生成するために,サーバ上の条件付き生成逆ネットワーク(cGAN)を活用することで,これらの課題に対処する防衛フレームワークを提案する。
このアプローチは、外部データセットへの依存を排除し、多様な攻撃戦略に適応し、標準FLにシームレスに統合する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Celtibero: Robust Layered Aggregation for Federated Learning [0.0]
Celtiberoは, 対向操作に対する強靭性を高めるため, 層状アグリゲーションを統合した新しい防御機構である。
セルティベロは、標的外および標的標的の毒殺攻撃において、最小攻撃成功率(ASR)を維持しつつ、常に高い主タスク精度(MTA)を達成することを実証した。
論文 参考訳(メタデータ) (2024-08-26T12:54:00Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - SPFL: A Self-purified Federated Learning Method Against Poisoning Attacks [12.580891810557482]
フェデレートラーニング(FL)は、プライバシを保存する分散トレーニングデータを引き出す上で魅力的なものだ。
本研究では, ベニグアのクライアントが, 局所的に精製されたモデルの信頼性のある歴史的特徴を活用できる自己浄化FL(SPFL)手法を提案する。
実験により,SPFLは様々な毒殺攻撃に対して,最先端のFL防御に優れることを示した。
論文 参考訳(メタデータ) (2023-09-19T13:31:33Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Challenges and approaches for mitigating byzantine attacks in federated
learning [6.836162272841266]
フェデレーテッド・ラーニング(FL)は、多くの無線エンドユーザーデバイスがデータを使いながらグローバルモデルをトレーニングできる、魅力的な分散学習フレームワークである。
将来性はあるものの、従来の分散ネットワークの難易度の高い脅威であるビザンチン攻撃はFLにも有効であることが判明した。
そこで我々は,これらの防御策を打ち破り,その脅威を実証するための実験を行うために,重み攻撃と呼ばれる新たなビザンチン攻撃法を提案する。
論文 参考訳(メタデータ) (2021-12-29T09:24:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。