論文の概要: On Hyperparameters and Backdoor-Resistance in Horizontal Federated Learning
- arxiv url: http://arxiv.org/abs/2509.05192v2
- Date: Mon, 08 Sep 2025 13:52:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:03.413186
- Title: On Hyperparameters and Backdoor-Resistance in Horizontal Federated Learning
- Title(参考訳): 水平フェデレーション学習におけるハイパーパラメータとバックドア抵抗性について
- Authors: Simon Lachnit, Ghassan Karame,
- Abstract要約: HFLのバックドア攻撃と防御効果に対するハイパートレーニングの効果について検討した。
ハイパーパラメータの選択の影響と影響を示す。
提案手法は,タスクの精度を犠牲にすることなく,メインロバスト性の向上を実現する。
- 参考スコア(独自算出の注目度): 4.680737055399071
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Horizontal Federated Learning (HFL) is particularly vulnerable to backdoor attacks as adversaries can easily manipulate both the training data and processes to execute sophisticated attacks. In this work, we study the impact of training hyperparameters on the effectiveness of backdoor attacks and defenses in HFL. More specifically, we show both analytically and by means of measurements that the choice of hyperparameters by benign clients does not only influence model accuracy but also significantly impacts backdoor attack success. This stands in sharp contrast with the multitude of contributions in the area of HFL security, which often rely on custom ad-hoc hyperparameter choices for benign clients$\unicode{x2013}$leading to more pronounced backdoor attack strength and diminished impact of defenses. Our results indicate that properly tuning benign clients' hyperparameters$\unicode{x2013}$such as learning rate, batch size, and number of local epochs$\unicode{x2013}$can significantly curb the effectiveness of backdoor attacks, regardless of the malicious clients' settings. We support this claim with an extensive robustness evaluation of state-of-the-art attack-defense combinations, showing that carefully chosen hyperparameters yield across-the-board improvements in robustness without sacrificing main task accuracy. For example, we show that the 50%-lifespan of the strong A3FL attack can be reduced by 98.6%, respectively$\unicode{x2013}$all without using any defense and while incurring only a 2.9 percentage points drop in clean task accuracy.
- Abstract(参考訳): HFL(Horizontal Federated Learning)は、高度な攻撃を実行するための訓練データとプロセスの両方を容易に操作できるため、バックドア攻撃に対して特に脆弱である。
本研究では,HFLのバックドア攻撃と防御効果に対するハイパーパラメータの訓練効果について検討した。
具体的には, モデル精度に影響を与えるだけでなく, バックドア攻撃の成功にも大きな影響を与えることを示す。
これは、HFLセキュリティの領域における多くの貢献とは対照的であり、しばしば良質なクライアントに対するカスタムのアドホックなハイパーパラメータ選択に依存している。
この結果から,良識のあるクライアントのハイパーパラメータ$\unicode{x2013}$,学習率,バッチサイズ,ローカルエポック$\unicode{x2013}$canなど,悪意のあるクライアントの設定に関わらず,バックドアアタックの有効性を著しく抑制できることが示唆された。
我々はこの主張を、最先端の攻撃・防御の組み合わせに対する広範囲な堅牢性評価により支持し、慎重に選択されたハイパーパラメータが、メインタスクの精度を犠牲にすることなく、頑健性の向上を実現することを示す。
例えば、強いA3FL攻撃の50%の寿命を98.6%削減でき、それぞれ$\unicode{x2013}$allで防御を使わずに、クリーンタスクの精度は2.9%しか低下しない。
関連論文リスト
- FedBAP: Backdoor Defense via Benign Adversarial Perturbation in Federated Learning [9.79790722384987]
フェデレートラーニング(FL)は、データのプライバシを維持しながら協調的なモデルトレーニングを可能にする。
FLの既存の防御方法は、バックドアトリガーに対するモデルの過度な信頼性を無視するため、効果が限られている。
本稿では,FLにおけるバックドア攻撃を緩和する新しいフレームワークであるFedBAPを提案する。
論文 参考訳(メタデータ) (2025-07-26T07:00:32Z) - Efficient Backdoor Defense in Multimodal Contrastive Learning: A Token-Level Unlearning Method for Mitigating Threats [52.94388672185062]
本稿では,機械学習という概念を用いて,バックドアの脅威に対する効果的な防御機構を提案する。
これは、モデルがバックドアの脆弱性を迅速に学習するのを助けるために、小さな毒のサンプルを戦略的に作成することを必要とする。
バックドア・アンラーニング・プロセスでは,新しいトークン・ベースの非ラーニング・トレーニング・システムを提案する。
論文 参考訳(メタデータ) (2024-09-29T02:55:38Z) - Obliviate: Neutralizing Task-agnostic Backdoors within the Parameter-efficient Fine-tuning Paradigm [8.905741632785183]
PEFT統合バックドアディフェンスであるObliviateを紹介する。
我々は,PEFT層内の良性ニューロンを増幅し,トリガートークンの影響を罰する2つの手法を開発した。
本手法は,タスク固有のバックドアとアダプティブアタックに対する堅牢な防御能力を示す。
論文 参考訳(メタデータ) (2024-09-21T12:20:18Z) - Defending Against Weight-Poisoning Backdoor Attacks for Parameter-Efficient Fine-Tuning [57.50274256088251]
パラメータ効率のよい微調整(PEFT)は,重み付けによるバックドア攻撃の影響を受けやすいことを示す。
PEFTを利用したPSIM(Poisoned Sample Identification Module)を開発した。
テキスト分類タスク,5つの微調整戦略,および3つの重み付けバックドア攻撃手法について実験を行った。
論文 参考訳(メタデータ) (2024-02-19T14:22:54Z) - G$^2$uardFL: Safeguarding Federated Learning Against Backdoor Attacks
through Attributed Client Graph Clustering [116.4277292854053]
Federated Learning (FL)は、データ共有なしで協調的なモデルトレーニングを提供する。
FLはバックドア攻撃に弱いため、有害なモデル重みがシステムの整合性を損なう。
本稿では、悪意のあるクライアントの識別を属性グラフクラスタリング問題として再解釈する保護フレームワークであるG$2$uardFLを提案する。
論文 参考訳(メタデータ) (2023-06-08T07:15:04Z) - FedGrad: Mitigating Backdoor Attacks in Federated Learning Through Local
Ultimate Gradients Inspection [3.3711670942444014]
フェデレートラーニング(FL)は、複数のクライアントが機密データを妥協することなくモデルをトレーニングすることを可能にする。
FLの分散的な性質は、特に訓練中のバックドア挿入において、敵の攻撃に敏感である。
我々は,最先端のバックドア攻撃に抵抗するFLに対するバックドア耐性防御であるFedGradを提案する。
論文 参考訳(メタデータ) (2023-04-29T19:31:44Z) - FLIP: A Provable Defense Framework for Backdoor Mitigation in Federated
Learning [66.56240101249803]
我々は,クライアントの強固化がグローバルモデル(および悪意のあるクライアント)に与える影響について検討する。
本稿では, 逆エンジニアリングによる防御手法を提案するとともに, 堅牢性を保証して, 改良を実現できることを示す。
競合する8つのSOTA防御法について, 単発および連続のFLバックドア攻撃に対して, 提案手法の実証的優位性を示した。
論文 参考訳(メタデータ) (2022-10-23T22:24:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。