論文の概要: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- arxiv url: http://arxiv.org/abs/2306.04959v4
- Date: Fri, 9 Feb 2024 19:57:05 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-14 00:55:23.612225
- Title: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- Title(参考訳): FedMLSecurity: フェデレーション学習とフェデレーションLLMにおける攻撃と防御のベンチマーク
- Authors: Shanshan Han, Baturalp Buyukates, Zijian Hu, Han Jin, Weizhao Jin,
Lichao Sun, Xiaoyang Wang, Wenxuan Wu, Chulin Xie, Yuhang Yao, Kai Zhang,
Qifan Zhang, Yuhui Zhang, Carlee Joe-Wong, Salman Avestimehr and Chaoyang He
- Abstract要約: FedSecurityは、Federated Learning (FL)における敵攻撃とそれに対応する防御機構をシミュレートするために設計されたエンドツーエンドのベンチマークである。
FedSecurityは、FLトレーニング中のさまざまな攻撃のシミュレーションを容易にするFedAttackerと、これらの攻撃に対抗する防御メカニズムを実装するFedDefenderの2つの重要なコンポーネントで構成されている。
- 参考スコア(独自算出の注目度): 44.304149413243046
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces FedSecurity, an end-to-end benchmark designed to
simulate adversarial attacks and corresponding defense mechanisms in Federated
Learning (FL). FedSecurity comprises two pivotal components: FedAttacker, which
facilitates the simulation of a variety of attacks during FL training, and
FedDefender, which implements defensive mechanisms to counteract these attacks.
As an open-source library, FedSecurity enhances its usability compared to
from-scratch implementations that focus on specific attack/defense scenarios
based on the following features: i) It offers extensive customization options
to accommodate a broad range of machine learning models (e.g., Logistic
Regression, ResNet, and GAN) and FL optimizers (e.g., FedAVG, FedOPT, and
FedNOVA); ii) it enables exploring the variability in the effectiveness of
attacks and defenses across different datasets and models; and iii) it supports
flexible configuration and customization through a configuration file and some
provided APIs. We further demonstrate FedSecurity's utility and adaptability
through federated training of Large Language Models (LLMs), showcasing its
potential to impact a wide range of complex applications.
- Abstract(参考訳): 本稿では,federated learning(fl)における敵の攻撃とその防御機構をシミュレートするエンドツーエンドベンチマークであるfeedsecurityを提案する。
FedSecurityには、FLトレーニング中のさまざまな攻撃のシミュレーションを容易にするFedAttackerと、これらの攻撃に対抗する防御メカニズムを実装するFedDefenderの2つの重要なコンポーネントが含まれている。
オープンソースライブラリとして、FedSecurityは、以下の機能に基づいて特定の攻撃/防御シナリオに焦点を当てたTrom-scratch実装と比較して、ユーザビリティを向上させる。
i)幅広い機械学習モデル(例えば、ロジスティック回帰、ResNet、GAN)とFLオプティマイザ(例えば、FedAVG、FedOPT、FedNOVA)に対応する広範なカスタマイズオプションを提供する。
二 異なるデータセット及びモデルにまたがる攻撃及び防御の有効性の変動を探索することができること。
三 構成ファイルと提供されたAPIによるフレキシブルな設定とカスタマイズをサポートすること。
さらに,大規模言語モデル(llm)のフェデレーショントレーニングを通じて,federated securityの有用性と適応性を実証し,幅広い複雑なアプリケーションに影響を与える可能性を示す。
関連論文リスト
- FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated
Learning [7.228253116465784]
本研究は,分散型フェデレートラーニング(DFL)における毒殺対策戦略であるSentinelを紹介する。
センチネルは多様なデータセットと様々な毒殺攻撃タイプと脅威レベルで評価され、標的外および標的の毒殺攻撃に対する最先端のパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning [14.916718841834953]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
その変種の一つである垂直連合学習(VFL)は、より価値ある機能を活用するという企業の要求と一致するため、最近注目を集めている。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
論文 参考訳(メタデータ) (2022-09-08T15:41:31Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。