論文の概要: Federated Learning with Anomaly Detection via Gradient and Reconstruction Analysis
- arxiv url: http://arxiv.org/abs/2403.10000v1
- Date: Fri, 15 Mar 2024 03:54:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-18 18:38:56.699602
- Title: Federated Learning with Anomaly Detection via Gradient and Reconstruction Analysis
- Title(参考訳): 勾配解析と再構成解析による異常検出によるフェデレーション学習
- Authors: Zahir Alsulaimawi,
- Abstract要約: 自動エンコーダ駆動のデータ再構成と勾配解析を相乗化して、前例のない精度で有毒データを検出・緩和する新しいフレームワークを提案する。
本手法は, 最小偽陽性率を維持しつつ, 異常検出精度を15%向上させる。
私たちの仕事は、分散学習のセキュリティにおける将来の進歩の道を開くものです。
- 参考スコア(独自算出の注目度): 2.28438857884398
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In the evolving landscape of Federated Learning (FL), the challenge of ensuring data integrity against poisoning attacks is paramount, particularly for applications demanding stringent privacy preservation. Traditional anomaly detection strategies often struggle to adapt to the distributed nature of FL, leaving a gap our research aims to bridge. We introduce a novel framework that synergizes gradient-based analysis with autoencoder-driven data reconstruction to detect and mitigate poisoned data with unprecedented precision. Our approach uniquely combines detecting anomalous gradient patterns with identifying reconstruction errors, significantly enhancing FL model security. Validated through extensive experiments on MNIST and CIFAR-10 datasets, our method outperforms existing solutions by 15\% in anomaly detection accuracy while maintaining a minimal false positive rate. This robust performance, consistent across varied data types and network sizes, underscores our framework's potential in securing FL deployments in critical domains such as healthcare and finance. By setting new benchmarks for anomaly detection within FL, our work paves the way for future advancements in distributed learning security.
- Abstract(参考訳): フェデレートラーニング(FL)の進化する状況において、特に厳格なプライバシー保護を要求するアプリケーションにおいて、毒殺攻撃に対するデータの完全性を保証するという課題が最重要である。
従来の異常検出戦略は、FLの分散した性質に適応するためにしばしば苦労します。
自動エンコーダ駆動のデータ再構成と勾配解析を相乗化して、前例のない精度で有毒データを検出・緩和する新しいフレームワークを提案する。
本手法は,異常勾配パターンの検出と再構成誤りの同定を一意に組み合わせ,FLモデルの安全性を著しく向上させる。
MNIST と CIFAR-10 データセットの広範な実験によって検証された本手法は,最小の偽陽性率を維持しつつ,異常検出精度を 15 % 向上させる。
この堅牢なパフォーマンスは、さまざまなデータタイプやネットワークサイズに一貫性があり、ヘルスケアやファイナンスといった重要な領域におけるFLデプロイメントの安全性に関する私たちのフレームワークの可能性を浮き彫りにしています。
FL内での異常検出のための新しいベンチマークを設定することで、我々の研究は分散学習セキュリティにおける将来の進歩の道を開くことができる。
関連論文リスト
- An Empirical Study of Vulnerability Detection using Federated Learning [19.14259520825083]
フェデレートラーニング(FL)は、脆弱性検出におけるデータサイロ問題に対処するための有望な手段として研究されている。
本稿ではまず,FLに基づく脆弱性検出のための効果的な評価フレームワークであるVulFLを提案する。
本研究は、脆弱性検出におけるFLの可能性に光を当て、脆弱性検出のためのFLベースのソリューションの設計をガイドするために使用できる。
論文 参考訳(メタデータ) (2024-11-25T05:21:12Z) - Typicalness-Aware Learning for Failure Detection [26.23185979968123]
ディープニューラルネットワーク(DNN)は、しばしば自信過剰な問題に悩まされる。
そこで本研究では,本問題に対処し,故障検出性能を向上させるために,S typicalness-Aware Learning (TAL) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2024-11-04T11:09:47Z) - Trustworthy Intrusion Detection: Confidence Estimation Using Latent Space [7.115540429006041]
侵入検知システム(IDS)における異常検出の信頼性向上のための新しい手法を提案する。
遅延空間表現に基づく信頼度尺度の開発により,サイバー攻撃に対するIDS予測の信頼性向上を目指す。
NSL-KDDデータセットの適用により,通常のネットワークアクティビティと悪意のあるネットワークアクティビティを効果的に区別するバイナリ分類タスクに焦点をあてる。
論文 参考訳(メタデータ) (2024-09-19T08:09:44Z) - FedAD-Bench: A Unified Benchmark for Federated Unsupervised Anomaly Detection in Tabular Data [11.42231457116486]
FedAD-Benchは、フェデレート学習の文脈における教師なし異常検出アルゴリズムを評価するためのベンチマークである。
モデル集約の非効率性やメトリクスの不確実性といった重要な課題を特定します。
本研究は,フェデレートされた異常検出における今後の研究・開発を導くための標準化されたベンチマークを確立することを目的としている。
論文 参考訳(メタデータ) (2024-08-08T13:14:19Z) - Enhancing Security in Federated Learning through Adaptive
Consensus-Based Model Update Validation [2.28438857884398]
本稿では,ラベルフリップ攻撃に対して,FL(Federated Learning)システムを構築するための高度なアプローチを提案する。
本稿では,適応的しきい値設定機構と統合されたコンセンサスに基づく検証プロセスを提案する。
以上の結果から,FLシステムのレジリエンスを高め,ラベルフリップ攻撃の顕著な緩和効果が示唆された。
論文 参考訳(メタデータ) (2024-03-05T20:54:56Z) - Enhancing Infrared Small Target Detection Robustness with Bi-Level
Adversarial Framework [61.34862133870934]
本稿では,異なる汚職の存在下での検出の堅牢性を促進するために,二段階の対向的枠組みを提案する。
我々の手法は広範囲の汚職で21.96%のIOUを著しく改善し、特に一般ベンチマークで4.97%のIOUを推進している。
論文 参考訳(メタデータ) (2023-09-03T06:35:07Z) - PULL: Reactive Log Anomaly Detection Based On Iterative PU Learning [58.85063149619348]
本稿では,推定故障時間ウィンドウに基づくリアクティブ異常検出のための反復ログ解析手法PULLを提案する。
我々の評価では、PULLは3つの異なるデータセットで10のベンチマークベースラインを一貫して上回っている。
論文 参考訳(メタデータ) (2023-01-25T16:34:43Z) - Do Gradient Inversion Attacks Make Federated Learning Unsafe? [70.0231254112197]
フェデレートラーニング(FL)は、生データを共有することなく、AIモデルの協調トレーニングを可能にする。
モデル勾配からのディープニューラルネットワークの反転に関する最近の研究は、トレーニングデータの漏洩を防止するためのFLの安全性に関する懸念を提起した。
本研究では,本論文で提示されたこれらの攻撃が実際のFLユースケースでは実行不可能であることを示し,新たなベースライン攻撃を提供する。
論文 参考訳(メタデータ) (2022-02-14T18:33:12Z) - Local Learning Matters: Rethinking Data Heterogeneity in Federated
Learning [61.488646649045215]
フェデレートラーニング(FL)は、クライアントのネットワーク(エッジデバイス)でプライバシ保護、分散ラーニングを行うための有望な戦略である。
論文 参考訳(メタデータ) (2021-11-28T19:03:39Z) - Semantic Perturbations with Normalizing Flows for Improved
Generalization [62.998818375912506]
我々は、非教師付きデータ拡張を定義するために、潜在空間における摂動が利用できることを示す。
トレーニングを通して分類器に適応する潜伏性対向性摂動が最も効果的であることが判明した。
論文 参考訳(メタデータ) (2021-08-18T03:20:00Z) - Uncertainty Estimation Using a Single Deep Deterministic Neural Network [66.26231423824089]
本稿では,1回のフォワードパスで,テスト時に分布データポイントの発見と拒否が可能な決定論的ディープモデルを訓練する手法を提案する。
我々は,新しい損失関数とセントロイド更新方式を用いて,これらをスケールトレーニングし,ソフトマックスモデルの精度に適合させる。
論文 参考訳(メタデータ) (2020-03-04T12:27:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。