論文の概要: Decoding FL Defenses: Systemization, Pitfalls, and Remedies
- arxiv url: http://arxiv.org/abs/2502.05211v1
- Date: Mon, 03 Feb 2025 23:14:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-16 04:07:12.368487
- Title: Decoding FL Defenses: Systemization, Pitfalls, and Remedies
- Title(参考訳): FLディフェンスのデコード: システム化、落とし穴、修正
- Authors: Momin Ahmad Khan, Virat Shejwalkar, Yasra Chandio, Amir Houmansadr, Fatima Muhammad Anwar,
- Abstract要約: FL(Federated Learning)のディフェンスを評価するためのガイドラインはありません。
FLディフェンスの総合的なシステム化を3次元に沿って設計する。
我々は,トップレベル防衛紙50点を調査し,それらの評価設定でよく使用されるコンポーネントを特定した。
- 参考スコア(独自算出の注目度): 16.907513505608666
- License:
- Abstract: While the community has designed various defenses to counter the threat of poisoning attacks in Federated Learning (FL), there are no guidelines for evaluating these defenses. These defenses are prone to subtle pitfalls in their experimental setups that lead to a false sense of security, rendering them unsuitable for practical deployment. In this paper, we systematically understand, identify, and provide a better approach to address these challenges. First, we design a comprehensive systemization of FL defenses along three dimensions: i) how client updates are processed, ii) what the server knows, and iii) at what stage the defense is applied. Next, we thoroughly survey 50 top-tier defense papers and identify the commonly used components in their evaluation setups. Based on this survey, we uncover six distinct pitfalls and study their prevalence. For example, we discover that around 30% of these works solely use the intrinsically robust MNIST dataset, and 40% employ simplistic attacks, which may inadvertently portray their defense as robust. Using three representative defenses as case studies, we perform a critical reevaluation to study the impact of the identified pitfalls and show how they lead to incorrect conclusions about robustness. We provide actionable recommendations to help researchers overcome each pitfall.
- Abstract(参考訳): コミュニティは、フェデレートラーニング(FL)における毒殺攻撃の脅威に対抗するために、様々な防衛を設計してきたが、これらの防衛を評価するためのガイドラインは存在しない。
これらの防御は、実験的な設定で微妙な落とし穴を生じやすいため、セキュリティの誤った感覚を招き、実践的な展開には適さない。
本稿では、これらの課題に対処するためのより良いアプローチを体系的に理解し、特定し、提供する。
まず、FLディフェンスの総合的なシステム化を3次元に沿って設計する。
i) クライアント更新の処理方法
二 サーバが知っていること、及び
三 防衛が適用される段階において。
次に,トップレベルの防衛文書50件を徹底的に調査し,それらの評価設定において一般的に使用されている構成要素を同定する。
本調査から,6つの異なる落とし穴を発見し,その有病率について検討した。
例えば、これらの研究の約30%は本質的に堅牢なMNISTデータセットのみを使用し、40%は単純攻撃を採用しており、それは故意に彼らの防御を堅牢であると表現している可能性がある。
3つの代表的防衛をケーススタディとして、特定された落とし穴の影響を調査し、それらがロバスト性に関する誤った結論に至るかを示すために、批判的な再評価を行う。
研究者がそれぞれの落とし穴を克服するのを助けるために、実行可能なレコメンデーションを提供します。
関連論文リスト
- SoK: Benchmarking Poisoning Attacks and Defenses in Federated Learning [21.73177249075515]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にするが、その分散された性質は、それをクライアント側データ中毒攻撃(DPA)とモデル中毒攻撃(MPAs)に公開する。
本稿では、DPAとMPAに対する防御を統一したベンチマークと分析し、これら2つの類似しているがわずかに異なるドメインの区別を明らかにすることを目的とする。
論文 参考訳(メタデータ) (2025-02-06T06:05:00Z) - The VLLM Safety Paradox: Dual Ease in Jailbreak Attack and Defense [56.32083100401117]
本稿では,視覚大言語モデル (VLLM) がジェイルブレイク攻撃のリスクが高い理由を考察する。
既存の防御機構は、テキストバウンド・プルーデンスの問題に悩まされる。
ジェイルブレイクの2つの代表的な評価手法は、しばしばチャンス合意を示す。
論文 参考訳(メタデータ) (2024-11-13T07:57:19Z) - Evaluating Adversarial Robustness: A Comparison Of FGSM, Carlini-Wagner Attacks, And The Role of Distillation as Defense Mechanism [0.0]
本研究では、画像分類に使用されるディープニューラルネットワーク(DNN)を対象とする敵攻撃について検討する。
本研究は,FGSM (Fast Gradient Sign Method) とCarini-Wagner (CW) の2つの攻撃手法の分岐を理解することに焦点を当てている。
本研究は,FGSMおよびCW攻撃に対する防御機構として,防衛蒸留の堅牢性を提案する。
論文 参考訳(メタデータ) (2024-04-05T17:51:58Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Randomness in ML Defenses Helps Persistent Attackers and Hinders
Evaluators [49.52538232104449]
堅牢なMLディフェンスを設計することがますます重要になっている。
近年の研究では、当初最先端の攻撃に抵抗する多くの防衛は、適応的な敵によって破壊される可能性があることが判明している。
我々は、防御設計をシンプルにし、ホワイトボックスの防御は可能な限りランダム性を損なうべきだと論じる。
論文 参考訳(メタデータ) (2023-02-27T01:33:31Z) - Measuring Equality in Machine Learning Security Defenses: A Case Study
in Speech Recognition [56.69875958980474]
この研究は、学習したシステムを守るためのアプローチと、異なるサブ人口間でのセキュリティ防衛がパフォーマンス上の不平等をもたらす方法を検討する。
提案された多くの手法は、虚偽の拒絶やロバストネストレーニングの不平等といった直接的な害を引き起こす可能性がある。
本稿では, ランダム化スムースメントとニューラルリジェクションの2つの防御法の比較を行い, マイノリティ集団のサンプリング機構により, ランダム化スムースメントがより公平であることを見出した。
論文 参考訳(メタデータ) (2023-02-17T16:19:26Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z) - Increasing Confidence in Adversarial Robustness Evaluations [53.2174171468716]
本稿では,弱い攻撃を識別し,防御評価を弱めるテストを提案する。
本テストでは,各サンプルに対する逆例の存在を保証するため,ニューラルネットワークをわずかに修正した。
これまでに公表された13の防衛のうち、11の防衛について、元の防衛評価は我々のテストに失敗し、これらの防衛を破る強力な攻撃はそれを通過する。
論文 参考訳(メタデータ) (2022-06-28T13:28:13Z) - Evaluating Gradient Inversion Attacks and Defenses in Federated Learning [43.993693910541275]
本稿では,既存の攻撃と,勾配反転攻撃に対する防御について検討する。
提案する3つの防御機構のプライバシー漏洩とデータユーティリティのトレードオフを示す。
我々の研究結果は、現在最先端の攻撃は、小さなデータユーティリティー損失で防御可能であることを示唆している。
論文 参考訳(メタデータ) (2021-11-30T19:34:16Z) - Back to the Drawing Board: A Critical Evaluation of Poisoning Attacks on
Federated Learning [32.88150721857589]
近年の研究では、フェデレート・ラーニング(FL)は、侵害されたクライアントによる攻撃に弱いことが示されている。
これらの研究はいくつかの非現実的な仮定を導いており、何らかの誤解を招く結論に達している。
本研究は,実用FL環境下での毒殺攻撃に関する最初の批判的分析を行う。
論文 参考訳(メタデータ) (2021-08-23T15:29:45Z) - TROJANZOO: Everything you ever wanted to know about neural backdoors
(but were afraid to ask) [28.785693760449604]
TROJANZOOは、ニューラルバックドア攻撃/防御を評価するための最初のオープンソースプラットフォームです。
12の代表的な攻撃、15の最先端の防御、6の攻撃パフォーマンスメトリクス、10の防衛ユーティリティメトリクス、および攻撃防御相互作用の分析のための豊富なツールがあります。
既存の攻撃/防御の体系的な調査を行い、多くの興味深い発見をもたらします。
論文 参考訳(メタデータ) (2020-12-16T22:37:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。