論文の概要: Federated Learning in Adversarial Environments: Testbed Design and Poisoning Resilience in Cybersecurity
- arxiv url: http://arxiv.org/abs/2409.09794v1
- Date: Sun, 15 Sep 2024 17:04:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-09-17 17:20:56.627497
- Title: Federated Learning in Adversarial Environments: Testbed Design and Poisoning Resilience in Cybersecurity
- Title(参考訳): 敵対的環境におけるフェデレートラーニング--テストベッド設計とサイバーセキュリティのレジリエンス
- Authors: Hao Jian Huang, Bekzod Iskandarov, Mizanur Rahman, Hakan T. Otal, M. Abdullah Canbaz,
- Abstract要約: 本稿では,フェデレートラーニング(FL)テストベッドの設計と実装に焦点を当て,サイバーセキュリティへの応用に焦点を当てた。
Flowerフレームワークを使用して構築されたテストベッドは、さまざまなFLフレームワークの実験を容易にし、そのパフォーマンス、スケーラビリティ、統合の容易さを評価します。
モデルとデータの整合性の両方をターゲットにした総合的な中毒検査は、敵の条件下でのシステムの堅牢性を評価する。
- 参考スコア(独自算出の注目度): 3.2872099228776315
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: This paper presents the design and implementation of a Federated Learning (FL) testbed, focusing on its application in cybersecurity and evaluating its resilience against poisoning attacks. Federated Learning allows multiple clients to collaboratively train a global model while keeping their data decentralized, addressing critical needs for data privacy and security, particularly in sensitive fields like cybersecurity. Our testbed, built using the Flower framework, facilitates experimentation with various FL frameworks, assessing their performance, scalability, and ease of integration. Through a case study on federated intrusion detection systems, we demonstrate the testbed's capabilities in detecting anomalies and securing critical infrastructure without exposing sensitive network data. Comprehensive poisoning tests, targeting both model and data integrity, evaluate the system's robustness under adversarial conditions. Our results show that while federated learning enhances data privacy and distributed learning, it remains vulnerable to poisoning attacks, which must be mitigated to ensure its reliability in real-world applications.
- Abstract(参考訳): 本稿では,フェデレート・ラーニング(FL)テストベッドの設計と実装について述べる。
フェデレートラーニング(Federated Learning)は、データプライバシとセキュリティ、特にサイバーセキュリティのようなセンシティブな分野における重要なニーズに対処しながら、データを分散化しながら、複数のクライアントが協力的にグローバルモデルをトレーニングすることを可能にする。
Flowerフレームワークを使用して構築されたテストベッドは、さまざまなFLフレームワークの実験を容易にし、そのパフォーマンス、スケーラビリティ、統合の容易さを評価します。
フェデレートされた侵入検知システムに関するケーススタディを通じて, ネットワークデータの機密化を伴わずに, 異常を検出し, 重要なインフラを確保するテストベッドの能力を実証した。
モデルとデータの整合性の両方をターゲットにした総合的な中毒検査は、敵の条件下でのシステムの堅牢性を評価する。
この結果から,フェデレーション学習はデータのプライバシと分散学習を促進するが,実際のアプリケーションで信頼性を確保するためには,有害な攻撃に対して脆弱であることが示唆された。
関連論文リスト
- Adaptive Dual-Weighting Framework for Federated Learning via Out-of-Distribution Detection [53.45696787935487]
Federated Learning (FL)は、大規模分散サービスノード間の協調的なモデルトレーニングを可能にする。
実世界のサービス指向デプロイメントでは、異種ユーザ、デバイス、アプリケーションシナリオによって生成されたデータは本質的にIIDではない。
FLoodは、オフ・オブ・ディストリビューション(OOD)検出にインスパイアされた新しいFLフレームワークである。
論文 参考訳(メタデータ) (2026-02-01T05:54:59Z) - Federated Learning in the Wild: A Comparative Study for Cybersecurity under Non-IID and Unbalanced Settings [1.441946602098626]
フェデレートラーニング(FL)は、複数のクライアントにわたるMLモデルの協調トレーニングを可能にする新しいパラダイムとして登場した。
本研究は、DDoS攻撃に対する侵入検知の文脈において、FL法を体系的に評価し、評価する。
我々の知る限りでは、現実的な非i.d.とアンバランスな設定下での侵入検出のためのFLアルゴリズムの比較分析はこれが初めてである。
論文 参考訳(メタデータ) (2025-09-22T14:25:32Z) - On the Security and Privacy of Federated Learning: A Survey with Attacks, Defenses, Frameworks, Applications, and Future Directions [1.7056096558557128]
Federated Learning(FL)は、クライアントが生データを共有せずにグローバルモデルを協調的にトレーニングできる、新興の分散機械学習パラダイムである。
FLはデータプライバシを設計によって強化するが、さまざまなセキュリティやプライバシの脅威に対して脆弱である。
セキュリティ強化手法は、ビザンチン攻撃、中毒、シビル攻撃などの悪意ある行動に対してFLの堅牢性を改善することを目的としている。
プライバシー保護技術は、暗号化アプローチ、差分プライバシー、セキュアアグリゲーションを通じて機密データを保護することに重点を置いている。
論文 参考訳(メタデータ) (2025-08-19T11:06:20Z) - Zero-Trust Foundation Models: A New Paradigm for Secure and Collaborative Artificial Intelligence for Internet of Things [61.43014629640404]
Zero-Trust Foundation Models (ZTFM)は、ゼロトラストセキュリティの原則をIoT(Internet of Things)システムの基盤モデル(FM)のライフサイクルに組み込む。
ZTFMは、分散、異質、潜在的に敵対的なIoT環境にわたって、セキュアでプライバシ保護のAIを可能にする。
論文 参考訳(メタデータ) (2025-05-26T06:44:31Z) - A Federated Random Forest Solution for Secure Distributed Machine Learning [44.99833362998488]
本稿では,データプライバシを保護し,分散環境での堅牢な性能を提供するランダムフォレスト分類器のためのフェデレート学習フレームワークを提案する。
PySyftをセキュアでプライバシを意識した計算に活用することにより、複数の機関がローカルに保存されたデータ上でランダムフォレストモデルを協調的にトレーニングすることが可能となる。
2つの実世界の医療ベンチマークの実験は、フェデレートされたアプローチが、集中型のメソッドの最大9%のマージンで、競争の正確性を維持していることを示している。
論文 参考訳(メタデータ) (2025-05-12T21:40:35Z) - Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Robust Asymmetric Heterogeneous Federated Learning with Corrupted Clients [60.22876915395139]
本稿では、異種・データ破損クライアントをモデルとした頑健な連立学習課題について検討する。
データ破損は、ランダムノイズ、圧縮アーティファクト、現実のデプロイメントにおける環境条件などの要因によって避けられない。
本稿では,これらの問題に対処する新しいロバスト非対称不均一なフェデレート学習フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-12T09:52:04Z) - Towards Robust Stability Prediction in Smart Grids: GAN-based Approach under Data Constraints and Adversarial Challenges [53.2306792009435]
本稿では,安定したデータのみを用いて,スマートグリッドの不安定性を検出する新しいフレームワークを提案する。
最大98.1%の精度でグリッド安定性を予測でき、98.9%で敵の攻撃を検知できる。
シングルボードコンピュータ上で実装され、7ms以下の平均応答時間でリアルタイムな意思決定を可能にする。
論文 参考訳(メタデータ) (2025-01-27T20:48:25Z) - FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Securing Federated Learning with Control-Flow Attestation: A Novel Framework for Enhanced Integrity and Resilience against Adversarial Attacks [2.28438857884398]
分散機械学習パラダイムとしてのフェデレートラーニング(FL)は、新たなサイバーセキュリティ課題を導入した。
本研究では,従来サイバーセキュリティに用いられてきた制御フロー(CFA)機構にインスパイアされた,革新的なセキュリティフレームワークを提案する。
我々は、ネットワーク全体にわたるモデル更新の完全性を認証し、検証し、モデル中毒や敵対的干渉に関連するリスクを効果的に軽減する。
論文 参考訳(メタデータ) (2024-03-15T04:03:34Z) - Effective Intrusion Detection in Heterogeneous Internet-of-Things Networks via Ensemble Knowledge Distillation-based Federated Learning [52.6706505729803]
我々は、分散化された侵入検知システムの共有モデル(IDS)を協調訓練するために、フェデレートラーニング(FL)を導入する。
FLEKDは従来のモデル融合法よりも柔軟な凝集法を実現する。
実験の結果,提案手法は,速度と性能の両面で,局所訓練と従来のFLよりも優れていた。
論文 参考訳(メタデータ) (2024-01-22T14:16:37Z) - Fed-LSAE: Thwarting Poisoning Attacks against Federated Cyber Threat Detection System via Autoencoder-based Latent Space Inspection [0.0]
サイバーセキュリティでは、センシティブなデータと文脈情報と高品質なラベル付けが重要な役割を果たす。
本稿では,潜在空間表現を利用したフェデレーション学習のための新しい頑健なアグリゲーション手法であるFed-LSAEについて検討する。
CIC-ToN-IoTおよびN-Ba IoTデータセットの実験結果から,最先端の毒殺攻撃に対する防御機構の実現可能性が確認された。
論文 参考訳(メタデータ) (2023-09-20T04:14:48Z) - Security and Privacy Issues of Federated Learning [0.0]
フェデレートラーニング(FL)は、データのプライバシと機密性に対処するための有望なアプローチとして登場した。
本稿では,各種機械学習モデルを対象としたフェデレートラーニング(FL)におけるセキュリティとプライバシの包括的分類について述べる。
論文 参考訳(メタデータ) (2023-07-22T22:51:07Z) - Federated Learning Based Distributed Localization of False Data
Injection Attacks on Smart Grids [5.705281336771011]
偽データインジェクション攻撃(False Data Injection attack, FDIA)は、悪意のあるデータを注入することで、スマート測定デバイスをターゲットにする攻撃の1つである。
本稿では,ハイブリッドディープニューラルネットワークアーキテクチャと組み合わせたフェデレート学習に基づくスキームを提案する。
提案手法をIEEE 57,118,300バスシステムおよび実電力負荷データを用いて広範囲なシミュレーションにより検証した。
論文 参考訳(メタデータ) (2023-06-17T20:29:55Z) - Combating Exacerbated Heterogeneity for Robust Models in Federated
Learning [91.88122934924435]
対人訓練と連合学習の組み合わせは、望ましくない頑丈さの劣化につながる可能性がある。
我々は、Slack Federated Adversarial Training (SFAT)と呼ばれる新しいフレームワークを提案する。
各種ベンチマークおよび実世界のデータセットに対するSFATの合理性と有効性を検証する。
論文 参考訳(メタデータ) (2023-03-01T06:16:15Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RobustFed: A Truth Inference Approach for Robust Federated Learning [9.316565110931743]
フェデレートラーニング(Federated Learning)は、クライアントが中央サーバのオーケストレーションの下で協調的にグローバルなモデルをトレーニングすることを可能にするフレームワークである。
統合学習における集約ステップは、中央サーバがクライアントの動作を管理することができないため、敵攻撃に対して脆弱である。
本稿では,クラウドソーシングにおける真理推論手法に着想を得た新しいロバスト集約アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-07-18T09:34:57Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Curse or Redemption? How Data Heterogeneity Affects the Robustness of
Federated Learning [51.15273664903583]
データの不均一性は、フェデレートラーニングにおける重要な特徴の1つとして認識されているが、しばしば敵対的攻撃に対する堅牢性のレンズで見過ごされる。
本稿では, 複合学習におけるバックドア攻撃の影響を, 総合的な実験を通じて評価し, 理解することを目的とした。
論文 参考訳(メタデータ) (2021-02-01T06:06:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。