論文の概要: FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks
- arxiv url: http://arxiv.org/abs/2508.18737v1
- Date: Tue, 26 Aug 2025 07:09:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 17:42:38.717459
- Title: FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks
- Title(参考訳): FLAegis: 攻撃に対するフェデレーション学習のための2層防御フレームワーク
- Authors: Enrique Mármol Campos, Aurora González Vidal, José Luis Hernández Ramos, Antonio Skarmeta,
- Abstract要約: フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなっている。
ビザンティンの顧客として知られる第三者は、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
本研究では、ビザンティンのクライアントを特定し、FLシステムの堅牢性を改善するために設計された2段階の防御フレームワークであるFLAegisを紹介する。
- 参考スコア(独自算出の注目度): 2.6599014990168843
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Federated Learning (FL) has become a powerful technique for training Machine Learning (ML) models in a decentralized manner, preserving the privacy of the training datasets involved. However, the decentralized nature of FL limits the visibility of the training process, relying heavily on the honesty of participating clients. This assumption opens the door to malicious third parties, known as Byzantine clients, which can poison the training process by submitting false model updates. Such malicious clients may engage in poisoning attacks, manipulating either the dataset or the model parameters to induce misclassification. In response, this study introduces FLAegis, a two-stage defensive framework designed to identify Byzantine clients and improve the robustness of FL systems. Our approach leverages symbolic time series transformation (SAX) to amplify the differences between benign and malicious models, and spectral clustering, which enables accurate detection of adversarial behavior. Furthermore, we incorporate a robust FFT-based aggregation function as a final layer to mitigate the impact of those Byzantine clients that manage to evade prior defenses. We rigorously evaluate our method against five poisoning attacks, ranging from simple label flipping to adaptive optimization-based strategies. Notably, our approach outperforms state-of-the-art defenses in both detection precision and final model accuracy, maintaining consistently high performance even under strong adversarial conditions.
- Abstract(参考訳): フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなり、関連するトレーニングデータセットのプライバシを保存する。
しかし、FLの分散した性質は、トレーニングプロセスの可視性を制限し、参加するクライアントの誠実さに大きく依存している。
この仮定は、Byzantineクライアントとして知られる悪意のあるサードパーティへの扉を開くもので、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
このような悪意のあるクライアントは、誤分類を引き起こすためにデータセットまたはモデルパラメータを操作して、中毒攻撃を行う可能性がある。
これに対して本研究では,ビザンティンのクライアントを特定し,FLシステムの堅牢性を向上させるために設計された2段階の防御フレームワークであるFLAegisを紹介した。
提案手法は,シンボル時系列変換(SAX)を利用して,良性モデルと悪質モデルの違いを増幅し,スペクトルクラスタリングにより,敵行動の正確な検出を可能にする。
さらに,FFTをベースとしたロバストなアグリゲーション機能を最終層として組み込んで,前衛を回避するビザンツのクライアントの影響を軽減する。
本手法は,単純なラベルフリップから適応最適化戦略に至るまで,5つの毒素攻撃に対して厳格に評価する。
特に,本手法は検出精度と最終モデル精度の両方において最先端の防御性能を向上し,強い対向条件下でも一貫して高い性能を維持している。
関連論文リスト
- SecureFed: A Two-Phase Framework for Detecting Malicious Clients in Federated Learning [0.0]
フェデレートラーニング(FL)は、モデルをトレーニングするための分散メソッドを提供しながら、データのプライバシを保護する。
分散スキーマのため、結果を変えたり、モデルのパフォーマンスを妨害したりできる敵のクライアントに感受性がある。
本研究では,攻撃者の影響を識別・低減する二相FLフレームワークSecureFedを提案する。
論文 参考訳(メタデータ) (2025-06-19T16:52:48Z) - Adversarial Training for Defense Against Label Poisoning Attacks [53.893792844055106]
ラベル中毒攻撃は機械学習モデルに重大なリスクをもたらす。
本稿では,これらの脅威に対処するために,サポートベクトルマシン(SVM)に基づく新たな対角的防御戦略を提案する。
提案手法は, 様々なモデルアーキテクチャに対応し, カーネルSVMを用いた予測勾配降下アルゴリズムを用いて, 対向学習を行う。
論文 参考訳(メタデータ) (2025-02-24T13:03:19Z) - Formal Logic-guided Robust Federated Learning against Poisoning Attacks [6.997975378492098]
Federated Learning (FL)は、集中型機械学習(ML)に関連するプライバシー問題に対して、有望な解決策を提供する。
FLは、敵クライアントがトレーニングデータやモデル更新を操作して全体的なモデルパフォーマンスを低下させる、毒殺攻撃など、さまざまなセキュリティ上の脅威に対して脆弱である。
本稿では,時系列タスクにおけるフェデレート学習における中毒攻撃の軽減を目的とした防御機構を提案する。
論文 参考訳(メタデータ) (2024-11-05T16:23:19Z) - Mitigating Malicious Attacks in Federated Learning via Confidence-aware Defense [3.685395311534351]
Federated Learning(FL)は、分散機械学習ダイアグラムで、複数のクライアントがプライベートなローカルデータを共有せずに、グローバルモデルを協調的にトレーニングすることができる。
FLシステムは、データ中毒やモデル中毒を通じて悪意のあるクライアントで起こっている攻撃に対して脆弱である。
既存の防御方法は通常、特定の種類の中毒を緩和することに焦点を当てており、しばしば目に見えないタイプの攻撃に対して効果がない。
論文 参考訳(メタデータ) (2024-08-05T20:27:45Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。