論文の概要: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- arxiv url: http://arxiv.org/abs/2306.04959v3
- Date: Fri, 6 Oct 2023 07:58:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-13 08:59:07.008475
- Title: FedMLSecurity: A Benchmark for Attacks and Defenses in Federated
Learning and Federated LLMs
- Title(参考訳): FedMLSecurity: フェデレーション学習とフェデレーションLLMにおける攻撃と防御のベンチマーク
- Authors: Shanshan Han, Baturalp Buyukates, Zijian Hu, Han Jin, Weizhao Jin,
Lichao Sun, Xiaoyang Wang, Wenxuan Wu, Chulin Xie, Yuhang Yao, Kai Zhang,
Qifan Zhang, Yuhui Zhang, Salman Avestimehr and Chaoyang He
- Abstract要約: FedMLSecurityは、Federated Learning (FL)における敵攻撃とそれに対応する防御機構をシミュレートするために設計されたベンチマークである。
FedMLSecurityはLarge Language Models(LLM)に簡単に適用でき、様々なシナリオで適応性と適用性を示す。
- 参考スコア(独自算出の注目度): 38.16715502423447
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: This paper introduces FedMLSecurity, a benchmark designed to simulate
adversarial attacks and corresponding defense mechanisms in Federated Learning
(FL). As an integral module of the open-sourced library FedML that facilitates
FL algorithm development and performance comparison, FedMLSecurity enhances
FedML's capabilities to evaluate security issues and potential remedies in FL.
FedMLSecurity comprises two major components: FedMLAttacker that simulates
attacks injected during FL training, and FedMLDefender that simulates defensive
mechanisms to mitigate the impacts of the attacks. FedMLSecurity is
open-sourced and can be customized to a wide range of machine learning models
(e.g., Logistic Regression, ResNet, GAN, etc.) and federated optimizers (e.g.,
FedAVG, FedOPT, FedNOVA, etc.). FedMLSecurity can also be applied to Large
Language Models (LLMs) easily, demonstrating its adaptability and applicability
in various scenarios.
- Abstract(参考訳): 本稿では,federated learning (fl) における敵の攻撃とその防御機構をシミュレートするベンチマークである fedmlsecurity を提案する。
FLアルゴリズムの開発と性能比較を容易にするオープンソースライブラリであるFedMLの不可欠なモジュールとして、FedMLSecurityは、FLのセキュリティ問題と潜在的な改善を評価するFedMLの機能を強化する。
FedMLSecurityには、FLトレーニング中に注入された攻撃をシミュレートするFedMLAttackerと、攻撃の影響を軽減するための防御メカニズムをシミュレートするFedMLDefenderの2つの主要コンポーネントが含まれている。
FedMLSecurityはオープンソースで、幅広い機械学習モデル(Logistic Regression、ResNet、GANなど)やフェデレーションオプティマイザ(FedAVG、FedOPT、FedNOVAなど)にカスタマイズできる。
FedMLSecurityはLarge Language Models(LLM)にも容易に適用でき、さまざまなシナリオで適応性と適用性を示す。
関連論文リスト
- FedRDF: A Robust and Dynamic Aggregation Function against Poisoning
Attacks in Federated Learning [0.0]
Federated Learning(FL)は、集中型機械学習(ML)デプロイメントに関連する典型的なプライバシ問題に対する、有望なアプローチである。
そのよく知られた利点にもかかわらず、FLはビザンツの行動や毒殺攻撃のようなセキュリティ攻撃に弱い。
提案手法は各種モデル毒殺攻撃に対して試験され,最先端の凝集法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-02-15T16:42:04Z) - Sentinel: An Aggregation Function to Secure Decentralized Federated
Learning [7.228253116465784]
本研究は,分散型フェデレートラーニング(DFL)における毒殺対策戦略であるSentinelを紹介する。
センチネルは多様なデータセットと様々な毒殺攻撃タイプと脅威レベルで評価され、標的外および標的の毒殺攻撃に対する最先端のパフォーマンスが改善されている。
論文 参考訳(メタデータ) (2023-10-12T07:45:18Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - A Framework for Evaluating Privacy-Utility Trade-off in Vertical
Federated Learning [14.916718841834953]
フェデレートラーニング(FL)は、ユーザのプライバシを損なうことなく、データサイロ問題に取り組むための実践的なソリューションとして登場した。
その変種の一つである垂直連合学習(VFL)は、より価値ある機能を活用するという企業の要求と一致するため、最近注目を集めている。
VFLにおける現在の研究は、特定のVFLアルゴリズムの特定の保護または攻撃メカニズムの開発に集中している。
論文 参考訳(メタデータ) (2022-09-08T15:41:31Z) - RelaxLoss: Defending Membership Inference Attacks without Losing Utility [68.48117818874155]
より達成可能な学習目標を持つ緩和された損失に基づく新しい学習フレームワークを提案する。
RelaxLossは、簡単な実装と無視可能なオーバーヘッドのメリットを加えた任意の分類モデルに適用できる。
当社のアプローチはMIAに対するレジリエンスの観点から,常に最先端の防御機構より優れています。
論文 参考訳(メタデータ) (2022-07-12T19:34:47Z) - FedHiSyn: A Hierarchical Synchronous Federated Learning Framework for
Resource and Data Heterogeneity [56.82825745165945]
フェデレートラーニング(FL)は、データプライバシを保護するために複数のデバイスに格納された分散生データを共有することなく、グローバルモデルのトレーニングを可能にする。
本稿では,階層型同期FLフレームワークであるFedHiSynを提案し,トラグラー効果や時代遅れモデルの問題に対処する。
提案手法は,MNIST,EMNIST,CIFAR10,CIFAR100のデータセットと多種多様なデバイス設定に基づいて評価する。
論文 参考訳(メタデータ) (2022-06-21T17:23:06Z) - BlindFL: Vertical Federated Machine Learning without Peeking into Your
Data [20.048695060411774]
垂直連合学習(VFL)は、さまざまな参加者のプライベートデータに基づいてMLモデルを構築する場合を記述している。
本稿では,VFLトレーニングと推論のための新しいフレームワークであるBlindFLを紹介する。
BlindFLは、堅牢なプライバシー保証を達成しつつ、多様なデータセットやモデルを効率的にサポートする。
論文 参考訳(メタデータ) (2022-06-16T07:26:50Z) - RoFL: Attestable Robustness for Secure Federated Learning [59.63865074749391]
フェデレートラーニング(Federated Learning)により、多数のクライアントが、プライベートデータを共有することなく、ジョイントモデルをトレーニングできる。
クライアントのアップデートの機密性を保証するため、フェデレートラーニングシステムはセキュアなアグリゲーションを採用している。
悪意のあるクライアントに対する堅牢性を向上させるセキュアなフェデレート学習システムであるRoFLを提案する。
論文 参考訳(メタデータ) (2021-07-07T15:42:49Z) - Meta Federated Learning [57.52103907134841]
フェデレートラーニング(FL)は、時間的敵攻撃の訓練に弱い。
本稿では,メタフェデレーション学習(Meta Federated Learning, Meta-FL)を提案する。
論文 参考訳(メタデータ) (2021-02-10T16:48:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。