論文の概要: Sylva: Tailoring Personalized Adversarial Defense in Pre-trained Models via Collaborative Fine-tuning
- arxiv url: http://arxiv.org/abs/2506.05402v1
- Date: Wed, 04 Jun 2025 03:31:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.128128
- Title: Sylva: Tailoring Personalized Adversarial Defense in Pre-trained Models via Collaborative Fine-tuning
- Title(参考訳): Sylva: 協調的微調整による事前訓練モデルにおける個人化された対人防御の調整
- Authors: Tianyu Qi, Lei Xue, Yufeng Zhan, Xiaobo Ma,
- Abstract要約: textitSylvaは、クライアントごとにカスタマイズされた防御モデルを提供するために設計された、協調的な敵のトレーニングフレームワークである。
フェーズ1では、 textitSylva はLoRA を局所的な敵の微調整に使用し、クライアントがモデルの堅牢性をパーソナライズすることを可能にする。
フェーズ2では、良性データの精度を高めるために、ゲームベースの層選択戦略を導入する。
- 参考スコア(独自算出の注目度): 6.026535484454967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing adoption of large pre-trained models in edge computing has made deploying model inference on mobile clients both practical and popular. These devices are inherently vulnerable to direct adversarial attacks, which pose a substantial threat to the robustness and security of deployed models. Federated adversarial training (FAT) has emerged as an effective solution to enhance model robustness while preserving client privacy. However, FAT frequently produces a generalized global model, which struggles to address the diverse and heterogeneous data distributions across clients, resulting in insufficiently personalized performance, while also encountering substantial communication challenges during the training process. In this paper, we propose \textit{Sylva}, a personalized collaborative adversarial training framework designed to deliver customized defense models for each client through a two-phase process. In Phase 1, \textit{Sylva} employs LoRA for local adversarial fine-tuning, enabling clients to personalize model robustness while drastically reducing communication costs by uploading only LoRA parameters during federated aggregation. In Phase 2, a game-based layer selection strategy is introduced to enhance accuracy on benign data, further refining the personalized model. This approach ensures that each client receives a tailored defense model that balances robustness and accuracy effectively. Extensive experiments on benchmark datasets demonstrate that \textit{Sylva} can achieve up to 50$\times$ improvements in communication efficiency compared to state-of-the-art algorithms, while achieving up to 29.5\% and 50.4\% enhancements in adversarial robustness and benign accuracy, respectively.
- Abstract(参考訳): エッジコンピューティングにおける大規模な事前トレーニングモデルの採用の増加により、モバイルクライアントへのモデル推論のデプロイは実用的かつ一般的なものになった。
これらのデバイスは本質的に、直接の敵攻撃に対して脆弱であり、配備されたモデルの堅牢性とセキュリティに重大な脅威をもたらす。
FAT(Federated Adversarial Training)は、クライアントのプライバシーを維持しながら、モデルの堅牢性を高める効果的なソリューションとして登場した。
しかし、FATは、クライアント間の多様で異種なデータ分散に対処するのに苦労する一般化されたグローバルモデルを頻繁に生成し、結果としてパーソナライズされたパフォーマンスが不十分になり、トレーニングプロセス中にかなりのコミュニケーション上の課題に遭遇する。
本稿では,2段階のプロセスを通じて,各クライアントに対してカスタマイズされた防御モデルを提供するために設計された,個人化された協調的対人訓練フレームワークである「textit{Sylva}」を提案する。
フェーズ1で \textit{Sylva} は、LoRA を局所的な敵の微調整に使用し、クライアントは、フェデレーションアグリゲーション中にLoRA パラメータのみをアップロードすることで、通信コストを大幅に削減しながら、モデルロバストネスをパーソナライズすることができる。
フェーズ2では、良性データの精度を高め、パーソナライズされたモデルをさらに洗練するために、ゲームベースの層選択戦略が導入された。
このアプローチにより、各クライアントは、堅牢性と精度のバランスをとるように調整された防御モデルを受け取ることができる。
ベンチマークデータセットの大規模な実験により、 \textit{Sylva} は最先端のアルゴリズムと比較して通信効率を最大50$\times$改善でき、対向的ロバスト性と良性精度を最大29.5\%、50.4\%向上できることが示された。
関連論文リスト
- Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing [58.56017169759816]
本稿では,テスト時に顔のアンチスプーフィングモデルをクライアント自身でターゲットドメインに適応させる新しい手法を提案する。
具体的には,プロトタイプベースモデルと最適トランスポート誘導型アダプタを開発した。
近年の手法と比較して、クロスドメインおよびクロスアタック設定では、HTERが19.17%、AUCが8.58%の平均相対的改善が達成されている。
論文 参考訳(メタデータ) (2025-03-29T06:10:34Z) - Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Robust Federated Learning in the Face of Covariate Shift: A Magnitude Pruning with Hybrid Regularization Framework for Enhanced Model Aggregation [1.519321208145928]
Federated Learning(FL)は、共有モデルの共同開発を目指す個人に対して、有望なフレームワークを提供する。
クライアント間のデータの分散の変化は、主に集約プロセスの不安定性によって、FL方法論に大きく影響します。
本稿では,個々のパラメータのプルーニングと正規化技術を組み合わせて,個々のクライアントモデルのロバスト性を向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。