論文の概要: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- arxiv url: http://arxiv.org/abs/2306.04959v4
- Date: Fri, 9 Feb 2024 19:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:55:23.612225
- Title: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- Title(参考訳): FedMLSecurity: フェデレーション学習とフェデレーションLLMにおける攻撃と防御のベンチマーク
- Authors: Shanshan Han, Baturalp Buyukates, Zijian Hu, Han Jin, Weizhao Jin,
Lichao Sun, Xiaoyang Wang, Wenxuan Wu, Chulin Xie, Yuhang Yao, Kai Zhang,
Qifan Zhang, Yuhui Zhang, Carlee Joe-Wong, Salman Avestimehr and Chaoyang He
- Abstract要約: FedSecurityは、Federated Learning (FL)における敵攻撃とそれに対応する防御機構をシミュレートするために設計されたエンドツーエンドのベンチマークである。
FedSecurityは、FLトレーニング中のさまざまな攻撃のシミュレーションを容易にするFedAttackerと、これらの攻撃に対抗する防御メカニズムを実装するFedDefenderの2つの重要なコンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 44.304149413243046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces FedSecurity, an end-to-end benchmark designed to
simulate adversarial attacks and corresponding defense mechanisms in Federated
Learning (FL). FedSecurity comprises two pivotal components: FedAttacker, which
facilitates the simulation of a variety of attacks during FL training, and
FedDefender, which implements defensive mechanisms to counteract these attacks.
As an open-source library, FedSecurity enhances its usability compared to
from-scratch implementations that focus on specific attack/defense scenarios
based on the following features: i) It offers extensive customization options
to accommodate a broad range of machine learning models (e.g., Logistic
Regression, ResNet, and GAN) and FL optimizers (e.g., FedAVG, FedOPT, and
FedNOVA); ii) it enables exploring the variability in the effectiveness of
attacks and defenses across different datasets and models; and iii) it supports
flexible configuration and customization through a configuration file and some
provided APIs. We further demonstrate FedSecurity's utility and adaptability
through federated training of Large Language Models (LLMs), showcasing its
potential to impact a wide range of complex applications.
- Abstract(参考訳): 本稿では,federated learning(fl)における敵の攻撃とその防御機構をシミュレートするエンドツーエンドベンチマークであるfeedsecurityを提案する。
FedSecurityには、FLトレーニング中のさまざまな攻撃のシミュレーションを容易にするFedAttackerと、これらの攻撃に対抗する防御メカニズムを実装するFedDefenderの2つの重要なコンポーネントが含まれている。
オープンソースライブラリとして、FedSecurityは、以下の機能に基づいて特定の攻撃/防御シナリオに焦点を当てたTrom-scratch実装と比較して、ユーザビリティを向上させる。
i)幅広い機械学習モデル(例えば、ロジスティック回帰、ResNet、GAN)とFLオプティマイザ(例えば、FedAVG、FedOPT、FedNOVA)に対応する広範なカスタマイズオプションを提供する。
二 異なるデータセット及びモデルにまたがる攻撃及び防御の有効性の変動を探索することができること。
三 構成ファイルと提供されたAPIによるフレキシブルな設定とカスタマイズをサポートすること。
さらに,大規模言語モデル(llm)のフェデレーショントレーニングを通じて,federated securityの有用性と適応性を実証し,幅広い複雑なアプリケーションに影響を与える可能性を示す。
関連論文リスト
- FEDLAD: Federated Evaluation of Deep Leakage Attacks and Defenses [50.921333548391345]
フェデレーテッド・ラーニング(Federated Learning)は、分散型機械学習パラダイムをプライバシ保護するものだ。
近年の研究では、Deep Leakageと呼ばれる勾配技術によって、民間の真実データを復元できることが判明している。
本稿では、Deep Leakage攻撃と防御を評価するための総合的なベンチマークであるFEDLAD Framework(Federated Evaluation of Deep Leakage Attacks and Defenses)を紹介する。
論文 参考訳(メタデータ) (2024-11-05T11:42:26Z) - Byzantine-Robust Federated Learning: An Overview With Focus on Developing Sybil-based Attacks to Backdoor Augmented Secure Aggregation Protocols [0.0]
フェデレートラーニング(FL)パラダイムは、多数のクライアントがプライベートデータ上で機械学習モデルを協調的にトレーニングすることを可能にする。
従来のFLスキームは、悪意のあるバックドアを注入することによってモデルのパフォーマンスを損なおうとするビザンティン攻撃に弱いままである。
本稿では,既存の手法やフレームワークの総括的かつ更新された分類法について,フェデレートラーニングプロトコルのロバストネスの強みと弱みを詳細に分析し,詳細に分析する前に提案する。
我々は,RoFLの脆弱性を利用したSybilベースの2つの新しい攻撃を提案する。
論文 参考訳(メタデータ) (2024-10-30T04:20:22Z) - Rethinking the Vulnerabilities of Face Recognition Systems:From a Practical Perspective [53.24281798458074]
顔認識システム(FRS)は、監視やユーザー認証を含む重要なアプリケーションにますます統合されている。
最近の研究によると、FRSの脆弱性は敵(例えば、敵パッチ攻撃)やバックドア攻撃(例えば、データ中毒の訓練)であることが明らかになっている。
論文 参考訳(メタデータ) (2024-05-21T13:34:23Z) - FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - WW-FL: Secure and Private Large-Scale Federated Learning [15.412475066687723]
Federated Learning(FL)は、クライアントデバイス上でトレーニングデータを保持することによって、データのプライバシを保証する、大規模分散機械学習の効率的なアプローチである。
最近の研究でFLの脆弱性が発見され、毒殺攻撃によってセキュリティとプライバシーの両方に影響を及ぼした。
データとグローバルモデルのプライバシを保証するために,セキュアなマルチパーティ計算と階層的なFLを組み合わせた,革新的なフレームワークであるWW-FLを提案する。
論文 参考訳(メタデータ) (2023-02-20T11:02:55Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z) - A Secure Federated Learning Framework for 5G Networks [44.40119258491145]
分散トレーニングデータセットを使用して機械学習モデルを構築するための新たなパラダイムとして、フェデレートラーニング(FL)が提案されている。
重大なセキュリティ上の脅威は2つあり、毒殺とメンバーシップ推論攻撃である。
ブロックチェーンベースのセキュアなFLフレームワークを提案し、スマートコントラクトを作成し、悪意のあるあるいは信頼性の低い参加者がFLに参加するのを防ぐ。
論文 参考訳(メタデータ) (2020-05-12T13:27:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。