論文の概要: Watch Out for the Lifespan: Evaluating Backdoor Attacks Against Federated Model Adaptation
- arxiv url: http://arxiv.org/abs/2511.14406v1
- Date: Tue, 18 Nov 2025 12:13:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-19 16:23:53.095846
- Title: Watch Out for the Lifespan: Evaluating Backdoor Attacks Against Federated Model Adaptation
- Title(参考訳): 生活に気をつけて:フェデレーションモデル適応に対するバックドアアタックの評価
- Authors: Bastien Vuillod, Pierre-Alain Moellic, Jean-Max Dutertre,
- Abstract要約: フェデレートラーニング(FL)による大規模なモデル適応は、幅広いユースケースに対処し、有効にします。
低ランク適応(LoRA)のような効率的な微調整技術
FLにおけるモデル適応をターゲットとした、最先端のバックドア攻撃に対するLoRAの影響を初めて分析した。
- 参考スコア(独自算出の注目度): 1.2744523252873352
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Large models adaptation through Federated Learning (FL) addresses a wide range of use cases and is enabled by Parameter-Efficient Fine-Tuning techniques such as Low-Rank Adaptation (LoRA). However, this distributed learning paradigm faces several security threats, particularly to its integrity, such as backdoor attacks that aim to inject malicious behavior during the local training steps of certain clients. We present the first analysis of the influence of LoRA on state-of-the-art backdoor attacks targeting model adaptation in FL. Specifically, we focus on backdoor lifespan, a critical characteristic in FL, that can vary depending on the attack scenario and the attacker's ability to effectively inject the backdoor. A key finding in our experiments is that for an optimally injected backdoor, the backdoor persistence after the attack is longer when the LoRA's rank is lower. Importantly, our work highlights evaluation issues of backdoor attacks against FL and contributes to the development of more robust and fair evaluations of backdoor attacks, enhancing the reliability of risk assessments for critical FL systems. Our code is publicly available.
- Abstract(参考訳): フェデレートラーニング(FL)による大規模なモデル適応は、幅広いユースケースに対応し、ローランド適応(LoRA)のようなパラメータ効率の良いファインチューニング技術によって実現されている。
しかし、この分散学習パラダイムは、特に、特定のクライアントのローカルトレーニングステップ中に悪意ある振る舞いを注入することを目的としたバックドア攻撃のような、その完全性に対するいくつかのセキュリティ脅威に直面している。
FLにおけるモデル適応をターゲットとした、最先端のバックドア攻撃に対するLoRAの影響を初めて分析した。
具体的には,攻撃シナリオや攻撃者が効果的にバックドアを注入する能力によって異なる,FLの重要な特徴であるバックドアライフスパンに着目した。
我々の実験で重要な発見は、最適に注入されたバックドアの場合、LoRAのランクが低い場合に攻撃後のバックドアの持続時間が長くなることである。
本研究は、FLに対するバックドアアタックの評価課題を強調し、バックドアアタックをより堅牢かつ公平に評価し、重要なFLシステムに対するリスクアセスメントの信頼性を高めることに貢献している。
私たちのコードは公開されています。
関連論文リスト
- MARS: A Malignity-Aware Backdoor Defense in Federated Learning [51.77354308287098]
最近提案されたSOTA攻撃(3DFed)は、ディフェンダーがバックドアモデルを受け入れたかどうかを判断するためにインジケータ機構を使用する。
本稿では,各ニューロンの有害な範囲を示すためにバックドアエネルギーを利用するMARS(Maignity-Aware backdooR defenSe)を提案する。
実験により、MARSはSOTAのバックドア攻撃に対して防御でき、既存の防御を著しく上回っていることが示された。
論文 参考訳(メタデータ) (2025-09-21T14:50:02Z) - Mind the Cost of Scaffold! Benign Clients May Even Become Accomplices of Backdoor Attack [16.104941796138128]
BadSFLはScaffoldをターゲットにした最初のバックドア攻撃である。
攻撃者の毒殺方向へのクライアントの局所的な勾配更新を無視し、効果的に無知の共犯者へと変える。
BadSFLは攻撃耐久性に優れ、60回以上のグローバルラウンドで有効性を維持し、既存のベースラインの最大3倍の長寿命を維持できる。
論文 参考訳(メタデータ) (2024-11-25T07:46:57Z) - Revisiting Backdoor Attacks against Large Vision-Language Models from Domain Shift [104.76588209308666]
本稿では,LVLMの学習訓練におけるバックドア攻撃について検討する。
我々は,攻撃の堅牢性を評価するために,新たな評価次元,バックドア領域の一般化を導入する。
本稿では,ドメイン非依存的トリガを臨界領域に注入するマルチモーダルアトリビューションバックドアアタック(MABA)を提案する。
論文 参考訳(メタデータ) (2024-06-27T02:31:03Z) - Concealing Backdoor Model Updates in Federated Learning by Trigger-Optimized Data Poisoning [20.69655306650485]
Federated Learning(FL)は、参加者がプライベートデータを共有せずに、協力的にモデルをトレーニングできる分散型機械学習手法である。
プライバシーとスケーラビリティの利点にもかかわらず、FLはバックドア攻撃の影響を受けやすい。
本稿では,バックドアトリガの最適化によりバックドア目標を動的に構築する,FLのバックドア攻撃戦略であるDPOTを提案する。
論文 参考訳(メタデータ) (2024-05-10T02:44:25Z) - Backdoor Attacks and Defenses in Federated Learning: Survey, Challenges
and Future Research Directions [3.6086478979425998]
Federated Learning(FL)は、個人のプライバシを損なうことなく分散データを使用することが可能な機械学習(ML)アプローチである。
FLにおけるクライアント間のデータの均一な分散は、オーケストレーションサーバがローカルモデル更新の完全性を検証するのを難しくする。
バックドア攻撃では、悪意のあるクライアントからの悪意のあるアップデートを通じて、悪意のある機能をターゲットモデルに挿入する。
論文 参考訳(メタデータ) (2023-03-03T20:54:28Z) - Revisiting Personalized Federated Learning: Robustness Against Backdoor
Attacks [53.81129518924231]
pFLフレームワークにおけるバックドア攻撃の最初の研究を行う。
モデル共有部分を持つpFL法は,バックドア攻撃に対するロバスト性を大幅に向上させることができることを示す。
本稿では,バックドア攻撃に対する防御性能を実証的に向上する軽量防御手法Simple-Tuningを提案する。
論文 参考訳(メタデータ) (2023-02-03T11:58:14Z) - Defending against Backdoors in Federated Learning with Robust Learning
Rate [25.74681620689152]
フェデレートラーニング(FL)は、エージェントの集合が、潜在的に敏感なデータを共有せずに、協調的にモデルをトレーニングすることを可能にする。
バックドア攻撃において、敵はトレーニング中にモデルにバックドア機能を埋め込もうとする。
FLプロトコルの変更を最小限に抑える軽量ディフェンスを提案する。
論文 参考訳(メタデータ) (2020-07-07T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。