論文の概要: DEFEND: Poisoned Model Detection and Malicious Client Exclusion Mechanism for Secure Federated Learning-based Road Condition Classification
- arxiv url: http://arxiv.org/abs/2512.06172v1
- Date: Fri, 05 Dec 2025 21:50:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-09 22:03:54.217691
- Title: DEFEND: Poisoned Model Detection and Malicious Client Exclusion Mechanism for Secure Federated Learning-based Road Condition Classification
- Title(参考訳): DEFEND:セキュアなフェデレーション学習に基づく道路条件分類のためのモデル検出と不正クライアント排除機構
- Authors: Sheng Liu, Panos Papadimitratos,
- Abstract要約: フェデレート・ラーニング(FL)は、インテリジェント・トランスポーテーション・システムズ(ITS)コミュニティの注目を集めている。
FLはITSタスク、特にカメラベースの道路条件分類(RCC)のために様々なモデルを訓練することができる
有毒モデル検出戦略を含むDEFENDを提案する。
- 参考スコア(独自算出の注目度): 16.871281029100313
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Federated Learning (FL) has drawn the attention of the Intelligent Transportation Systems (ITS) community. FL can train various models for ITS tasks, notably camera-based Road Condition Classification (RCC), in a privacy-preserving collaborative way. However, opening up to collaboration also opens FL-based RCC systems to adversaries, i.e., misbehaving participants that can launch Targeted Label-Flipping Attacks (TLFAs) and threaten transportation safety. Adversaries mounting TLFAs poison training data to misguide model predictions, from an actual source class (e.g., wet road) to a wrongly perceived target class (e.g., dry road). Existing countermeasures against poisoning attacks cannot maintain model performance under TLFAs close to the performance level in attack-free scenarios, because they lack specific model misbehavior detection for TLFAs and neglect client exclusion after the detection. To close this research gap, we propose DEFEND, which includes a poisoned model detection strategy that leverages neuron-wise magnitude analysis for attack goal identification and Gaussian Mixture Model (GMM)-based clustering. DEFEND discards poisoned model contributions in each round and adapts accordingly client ratings, eventually excluding malicious clients. Extensive evaluation involving various FL-RCC models and tasks shows that DEFEND can thwart TLFAs and outperform seven baseline countermeasures, with at least 15.78% improvement, with DEFEND remarkably achieving under attack the same performance as in attack-free scenarios.
- Abstract(参考訳): フェデレート・ラーニング(FL)は、インテリジェント・トランスポーテーション・システムズ(ITS)コミュニティの注目を集めている。
FLはITSタスク、特にカメラベースの道路条件分類(RCC)の様々なモデルをプライバシ保護協調方式で訓練することができる。
しかし、共同作業の開始は、FLベースのRCCシステムを敵、すなわちTargeted Label-Flipping Attacks(TLFA)を発射し、交通安全を脅かすような不正行為の参加者に開放する。
TLFAの毒のトレーニングデータを、実際のソースクラス(例えば、湿った道路)から間違った認識されたターゲットクラス(例えば、乾いた道路)まで、誤案内モデル予測に応用した。
既存の中毒攻撃対策では、TLFAの特定のモデル行動検出が欠如し、検出後のクライアント排除が無視されているため、攻撃のないシナリオでは、TLFAの性能レベルに近いモデル性能を維持することはできない。
この研究ギャップを埋めるために、攻撃目標の同定にニューロンワイド・マグニチュード分析とガウス混合モデル(GMM)に基づくクラスタリングを利用する有毒モデル検出戦略を含むDEFENDを提案する。
DEFENDは、各ラウンドで有毒なモデルコントリビューションを捨て、クライアントのレーティングに応じて適応し、最終的に悪意のあるクライアントを除外する。
様々なFL-RCCモデルとタスクを含む広範囲な評価は、DefENDがTLFAを抑え、少なくとも15.78%の改善で7つのベースライン対策を上回り、攻撃のないシナリオと同じ性能でDeFENDが顕著に達成していることを示している。
関連論文リスト
- FLAegis: A Two-Layer Defense Framework for Federated Learning Against Poisoning Attacks [2.6599014990168843]
フェデレートラーニング(FL)は、機械学習(ML)モデルを分散的にトレーニングするための強力なテクニックとなっている。
ビザンティンの顧客として知られる第三者は、偽モデルのアップデートを提出することでトレーニングプロセスに悪影響を及ぼす可能性がある。
本研究では、ビザンティンのクライアントを特定し、FLシステムの堅牢性を改善するために設計された2段階の防御フレームワークであるFLAegisを紹介する。
論文 参考訳(メタデータ) (2025-08-26T07:09:15Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - FreqFed: A Frequency Analysis-Based Approach for Mitigating Poisoning
Attacks in Federated Learning [98.43475653490219]
フェデレート・ラーニング(Federated Learning, FL)は、毒素による攻撃を受けやすい。
FreqFedは、モデルの更新を周波数領域に変換する新しいアグリゲーションメカニズムである。
FreqFedは, 凝集モデルの有用性に悪影響を及ぼすことなく, 毒性攻撃を効果的に軽減できることを実証した。
論文 参考訳(メタデータ) (2023-12-07T16:56:24Z) - Client-side Gradient Inversion Against Federated Learning from Poisoning [59.74484221875662]
フェデレートラーニング(FL)により、分散参加者は、データを中央サーバに直接共有することなく、グローバルモデルをトレーニングできる。
近年の研究では、FLは元のトレーニングサンプルの再構築を目的とした勾配反転攻撃(GIA)に弱いことが判明している。
本稿では,クライアント側から起動可能な新たな攻撃手法であるクライアント側中毒性グレーディエント・インバージョン(CGI)を提案する。
論文 参考訳(メタデータ) (2023-09-14T03:48:27Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。