論文の概要: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- arxiv url: http://arxiv.org/abs/2306.04959v3
- Date: Fri, 6 Oct 2023 07:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 08:59:07.008475
- Title: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- Title(参考訳): FedMLSecurity: フェデレーション学習とフェデレーションLLMにおける攻撃と防御のベンチマーク
- Authors: Shanshan Han, Baturalp Buyukates, Zijian Hu, Han Jin, Weizhao Jin,
Lichao Sun, Xiaoyang Wang, Wenxuan Wu, Chulin Xie, Yuhang Yao, Kai Zhang,
Qifan Zhang, Yuhui Zhang, Salman Avestimehr and Chaoyang He
- Abstract要約: FedMLSecurityは、Federated Learning (FL)における敵攻撃とそれに対応する防御機構をシミュレートするために設計されたベンチマークである。
FedMLSecurityはLarge Language Models(LLM)に簡単に適用でき、様々なシナリオで適応性と適用性を示す。
- 参考スコア(独自算出の注目度): 38.16715502423447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces FedMLSecurity, a benchmark designed to simulate
adversarial attacks and corresponding defense mechanisms in Federated Learning
(FL). As an integral module of the open-sourced library FedML that facilitates
FL algorithm development and performance comparison, FedMLSecurity enhances
FedML's capabilities to evaluate security issues and potential remedies in FL.
FedMLSecurity comprises two major components: FedMLAttacker that simulates
attacks injected during FL training, and FedMLDefender that simulates defensive
mechanisms to mitigate the impacts of the attacks. FedMLSecurity is
open-sourced and can be customized to a wide range of machine learning models
(e.g., Logistic Regression, ResNet, GAN, etc.) and federated optimizers (e.g.,
FedAVG, FedOPT, FedNOVA, etc.). FedMLSecurity can also be applied to Large
Language Models (LLMs) easily, demonstrating its adaptability and applicability
in various scenarios.
- Abstract(参考訳): 本稿では,federated learning (fl) における敵の攻撃とその防御機構をシミュレートするベンチマークである fedmlsecurity を提案する。
FLアルゴリズムの開発と性能比較を容易にするオープンソースライブラリであるFedMLの不可欠なモジュールとして、FedMLSecurityは、FLのセキュリティ問題と潜在的な改善を評価するFedMLの機能を強化する。
FedMLSecurityには、FLトレーニング中に注入された攻撃をシミュレートするFedMLAttackerと、攻撃の影響を軽減するための防御メカニズムをシミュレートするFedMLDefenderの2つの主要コンポーネントが含まれている。
FedMLSecurityはオープンソースで、幅広い機械学習モデル(Logistic Regression、ResNet、GANなど)やフェデレーションオプティマイザ(FedAVG、FedOPT、FedNOVAなど)にカスタマイズできる。
FedMLSecurityはLarge Language Models(LLM)にも容易に適用でき、さまざまなシナリオで適応性と適用性を示す。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - A Secure Federated Learning Framework for 5G Networks [44.40119258491145]
分散トレーニングデータセットを使用して機械学習モデルを構築するための新たなパラダイムとして、フェデレートラーニング(FL)が提案されている。
重大なセキュリティ上の脅威は2つあり、毒殺とメンバーシップ推論攻撃である。
ブロックチェーンベースのセキュアなFLフレームワークを提案し、スマートコントラクトを作成し、悪意のあるあるいは信頼性の低い参加者がFLに参加するのを防ぐ。
論文 参考訳(メタデータ) (2020-05-12T13:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。