論文の概要: Lorica: A Synergistic Fine-Tuning Framework for Advancing Personalized Adversarial Robustness
- arxiv url: http://arxiv.org/abs/2506.05402v2
- Date: Sat, 01 Nov 2025 12:02:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-04 16:14:22.067857
- Title: Lorica: A Synergistic Fine-Tuning Framework for Advancing Personalized Adversarial Robustness
- Title(参考訳): Lorica: 個人化された対人ロバスト性を改善するための相乗的ファインチューニングフレームワーク
- Authors: Tianyu Qi, Lei Xue, Yufeng Zhan, Xiaobo Ma,
- Abstract要約: モバイルデバイスは敵の攻撃に弱いままであり、モデルの堅牢性とセキュリティを脅かす。
textitLoricaは、カスタマイズされた防御モデルを提供する、パーソナライズされた相乗的対角訓練フレームワークである。
ベンチマークデータセットの実験では、 textitLorica が最大68$times$ の通信効率向上を実現可能であることが示されている。
- 参考スコア(独自算出の注目度): 14.039639177573164
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The growing use of large pre-trained models in edge computing has made model inference on mobile clients both feasible and popular. Yet these devices remain vulnerable to adversarial attacks, threatening model robustness and security. Federated adversarial training (FAT) offers a promising solution by enhancing robustness while preserving client privacy. However, FAT often yields a generalized global model that struggles with heterogeneous client data, leading to limited personalization and significant communication overhead. In this paper, we propose \textit{Lorica}, a personalized synergistic adversarial training framework that delivers customized defense models through a two-phase process. In Phase 1, \textit{Lorica} applies LoRA-FA for local adversarial fine-tuning, enabling personalized robustness while reducing communication by uploading only LoRA-FA parameters. In Phase 2, a forward-gating selection strategy improves benign accuracy, further refining the personalized model. This yields tailored defense models that effectively balance robustness and accuracy. Extensive experiments on benchmark datasets demonstrate that \textit{Lorica} can achieve up to 68$\times$ improvements in communication efficiency compared to state-of-the-art algorithms, while achieving up to 29.9\% and 52.2\% enhancements in adversarial robustness and benign accuracy, respectively.
- Abstract(参考訳): エッジコンピューティングにおける大規模な事前学習モデルの利用の増加により、モバイルクライアントでのモデル推論は実現可能であり、人気がある。
しかし、これらのデバイスは敵の攻撃に弱いままであり、モデルの堅牢性とセキュリティを脅かす。
Federated Adversarial Training (FAT)は、クライアントプライバシを保護しながら堅牢性を強化することで、有望なソリューションを提供する。
しかし、FATはしばしば、異種クライアントデータと競合する一般化されたグローバルモデルをもたらし、パーソナライズが制限され、通信のオーバーヘッドが大きくなる。
本稿では,2段階のプロセスを通じてカスタマイズされた防衛モデルを提供する,個人化された相乗的対角訓練フレームワークである「textit{Lorica}」を提案する。
フェーズ1では、LoRA-FAを局所的な敵の微調整に適用し、LoRA-FAパラメータのみをアップロードすることで通信を減らしながら、パーソナライズされた堅牢性を実現する。
フェーズ2では、前方選択戦略により良性精度が向上し、パーソナライズされたモデルはさらに改善される。
これにより、堅牢性と精度を効果的にバランスさせる、調整された防御モデルが得られる。
ベンチマークデータセットの大規模な実験により、 \textit{Lorica} は最先端のアルゴリズムと比較して最大68$\times$ の通信効率の向上を達成でき、対向ロバスト性と良性精度の最大29.9\%と52.2\%の強化を達成できることが示された。
関連論文リスト
- \ extit{FedABC}: Attention-Based Client Selection for Federated Learning with Long-Term View [5.072601407613152]
フェデレートラーニング(FL)により、分散クライアントは、データを直接共有することなく、プライバシを保存することなく、AIモデルを協調的にトレーニングすることができる。
クライアントは、プライベートデータ上でローカルモデルをトレーニングし、モデルのアップデートを共有する。
textitFedABCは、データ不均一性の管理とクライアント参加の最適化において、長期的視点を取り入れた革新的なクライアント選択アルゴリズムである。
論文 参考訳(メタデータ) (2025-07-28T14:22:43Z) - Optimal Transport-Guided Source-Free Adaptation for Face Anti-Spoofing [58.56017169759816]
本稿では,テスト時に顔のアンチスプーフィングモデルをクライアント自身でターゲットドメインに適応させる新しい手法を提案する。
具体的には,プロトタイプベースモデルと最適トランスポート誘導型アダプタを開発した。
近年の手法と比較して、クロスドメインおよびクロスアタック設定では、HTERが19.17%、AUCが8.58%の平均相対的改善が達成されている。
論文 参考訳(メタデータ) (2025-03-29T06:10:34Z) - Robust Federated Learning Against Poisoning Attacks: A GAN-Based Defense Framework [0.6554326244334868]
フェデレートラーニング(FL)は、生データを共有せずに、分散デバイス間で協調的なモデルトレーニングを可能にする。
本稿では,クライアントの更新を認証するために,CGAN(Conditional Generative Adversarial Network)を利用してサーバで合成データを生成する,プライバシ保護型防衛フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-26T18:00:56Z) - Robust Federated Learning in the Face of Covariate Shift: A Magnitude Pruning with Hybrid Regularization Framework for Enhanced Model Aggregation [1.519321208145928]
Federated Learning(FL)は、共有モデルの共同開発を目指す個人に対して、有望なフレームワークを提供する。
クライアント間のデータの分散の変化は、主に集約プロセスの不安定性によって、FL方法論に大きく影響します。
本稿では,個々のパラメータのプルーニングと正規化技術を組み合わせて,個々のクライアントモデルのロバスト性を向上する新しいFLフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-19T16:22:37Z) - A Hybrid Defense Strategy for Boosting Adversarial Robustness in Vision-Language Models [9.304845676825584]
本稿では,複数の攻撃戦略と高度な機械学習技術を統合した,新たな敵訓練フレームワークを提案する。
CIFAR-10 や CIFAR-100 などの実世界のデータセットで行った実験により,提案手法がモデルロバスト性を大幅に向上することを示した。
論文 参考訳(メタデータ) (2024-10-18T23:47:46Z) - FedAA: A Reinforcement Learning Perspective on Adaptive Aggregation for Fair and Robust Federated Learning [5.622065847054885]
Federated Learning (FL)は、分散デバイス間でのプライバシ保護モデルトレーニングのための有望なアプローチとして登場した。
我々はtextbfAdaptive textbfAggregation を通じてクライアントのコントリビューションを最適化する textbfFedAA という新しい手法を導入し、悪意のあるクライアントに対するモデルロバスト性を高める。
論文 参考訳(メタデータ) (2024-02-08T10:22:12Z) - Pre-trained Model Guided Fine-Tuning for Zero-Shot Adversarial Robustness [52.9493817508055]
我々は,モデルがゼロショットの逆方向のロバスト性を高めるために,事前訓練されたモデル誘導逆方向の微調整(PMG-AFT)を提案する。
私たちのアプローチは、平均8.72%のクリーンな精度を継続的に改善します。
論文 参考訳(メタデータ) (2024-01-09T04:33:03Z) - Learn from the Past: A Proxy Guided Adversarial Defense Framework with
Self Distillation Regularization [53.04697800214848]
敵対的訓練(AT)は、ディープラーニングモデルの堅牢性を固める上で重要な要素である。
AT方式は、目標モデルの防御のために直接反復的な更新を頼りにしており、不安定な訓練や破滅的なオーバーフィッティングといった障害に頻繁に遭遇する。
汎用プロキシガイド型防衛フレームワークLAST(bf Pbf astから学ぶ)を提案する。
論文 参考訳(メタデータ) (2023-10-19T13:13:41Z) - Avoid Adversarial Adaption in Federated Learning by Multi-Metric
Investigations [55.2480439325792]
Federated Learning(FL)は、分散機械学習モデルのトレーニング、データのプライバシの保護、通信コストの低減、多様化したデータソースによるモデルパフォーマンスの向上を支援する。
FLは、中毒攻撃、標的外のパフォーマンス劣化とターゲットのバックドア攻撃の両方でモデルの整合性を損なうような脆弱性に直面している。
我々は、複数の目的に同時に適応できる、強い適応的敵の概念を新たに定義する。
MESASは、実際のデータシナリオで有効であり、平均オーバーヘッドは24.37秒である。
論文 参考訳(メタデータ) (2023-06-06T11:44:42Z) - Personalizing Federated Learning with Over-the-Air Computations [84.8089761800994]
フェデレートされたエッジ学習は、プライバシー保護の方法で無線ネットワークのエッジにインテリジェンスをデプロイする、有望な技術である。
このような設定の下で、複数のクライアントは、エッジサーバの調整の下でグローバルジェネリックモデルを協調的にトレーニングする。
本稿では,アナログオーバー・ザ・エア計算を用いて通信ボトルネックに対処する分散トレーニングパラダイムを提案する。
論文 参考訳(メタデータ) (2023-02-24T08:41:19Z) - Interpolated Joint Space Adversarial Training for Robust and
Generalizable Defenses [82.3052187788609]
敵の訓練(AT)は、敵の攻撃に対する最も信頼できる防御の1つと考えられている。
近年の研究では、新たな脅威モデルの下での対向サンプルによる一般化の改善が示されている。
我々は、JSTM(Joint Space Threat Model)と呼ばれる新しい脅威モデルを提案する。
JSTMでは,新たな敵攻撃・防衛手法が開発されている。
論文 参考訳(メタデータ) (2021-12-12T21:08:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。