論文の概要: DAC-LoRA: Dynamic Adversarial Curriculum for Efficient and Robust Few-Shot Adaptation
- arxiv url: http://arxiv.org/abs/2509.20792v1
- Date: Thu, 25 Sep 2025 06:20:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-26 20:58:12.72733
- Title: DAC-LoRA: Dynamic Adversarial Curriculum for Efficient and Robust Few-Shot Adaptation
- Title(参考訳): DAC-LoRA: 効率的かつロバストなFew-Shot適応のための動的逆数カリキュラム
- Authors: Ved Umrajkar,
- Abstract要約: 本稿では,PEFT に対人訓練を統合する新しいフレームワークである Dynamic Adrial Curriculum DAC-LoRA を提案する。
本研究は,DAC-LoRAフレームワークを標準PEFTパイプラインに統合し,ロバスト性を大幅に向上させることができることを示すために,効果的で軽量で広く適用可能な手法を提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Vision-Language Models (VLMs) are foundational to critical applications like autonomous driving, medical diagnosis, and content moderation. While Parameter-Efficient Fine-Tuning (PEFT) methods like LoRA enable their efficient adaptation to specialized tasks, these models remain vulnerable to adversarial attacks that can compromise safety-critical decisions. CLIP, the backbone for numerous downstream VLMs, is a high-value target whose vulnerabilities can cascade across the multimodal AI ecosystem. We propose Dynamic Adversarial Curriculum DAC-LoRA, a novel framework that integrates adversarial training into PEFT. The core principle of our method i.e. an intelligent curriculum of progressively challenging attack, is general and can potentially be applied to any iterative attack method. Guided by the First-Order Stationary Condition (FOSC) and a TRADES-inspired loss, DAC-LoRA achieves substantial improvements in adversarial robustness without significantly compromising clean accuracy. Our work presents an effective, lightweight, and broadly applicable method to demonstrate that the DAC-LoRA framework can be easily integrated into a standard PEFT pipeline to significantly enhance robustness.
- Abstract(参考訳): VLM(Vision-Language Models)は、自動運転、医療診断、コンテンツモデレーションといった重要な応用の基礎となっている。
LoRAのようなパラメータ効率の良いファインチューニング(PEFT)手法は、特定のタスクへの効率的な適応を可能にするが、これらのモデルは安全クリティカルな決定を損なう敵攻撃に弱いままである。
多数の下流VLMのバックボーンであるCLIPは、マルチモーダルAIエコシステムをまたいで脆弱性をカスケードできる、高価値なターゲットである。
本稿では,PEFT に対人訓練を統合する新しいフレームワークである Dynamic Adversarial Curriculum DAC-LoRA を提案する。
本手法の中核となる原理は、段階的に挑戦的な攻撃の知的カリキュラムであり、あらゆる反復的な攻撃方法に適用できる可能性がある。
1次定常条件(FOSC)とTRADESによる損失によって導かれるDAC-LoRAは、クリーンな精度を著しく損なうことなく、対向ロバスト性を大幅に改善する。
本研究は,DAC-LoRAフレームワークを標準PEFTパイプラインに統合し,ロバスト性を大幅に向上させることができることを示すために,効果的で軽量で広く適用可能な手法を提案する。
関連論文リスト
- SEQR: Secure and Efficient QR-based LoRA Routing [53.52716967527183]
Low-Rank Adaptation (LoRA) は,大規模言語モデルのパラメータ効率向上のための標準手法となっている。
与えられた入力に対して適切なLoRAアダプタを効果的に選択することは依然として困難である。
厳密なルーティング保証を提供しながら効率を最大化するために設計された、教師なしのLoRAルーティングアルゴリズムであるSEQRを導入する。
論文 参考訳(メタデータ) (2025-09-22T17:59:38Z) - FedStrategist: A Meta-Learning Framework for Adaptive and Robust Aggregation in Federated Learning [0.10241134756773229]
フェデレートラーニング(FL)は、プライバシ保護のための協調AIのパラダイムを提供するが、その分散された性質は、毒殺攻撃をモデル化するための重大な脆弱性を生み出している。
本稿では、ロバストアグリゲーションをリアルタイムでコストを意識した制御問題として再編成する新しいメタラーニングフレームワークであるFedStrategistを紹介する。
論文 参考訳(メタデータ) (2025-07-18T18:53:26Z) - Few-Shot Adversarial Low-Rank Fine-Tuning of Vision-Language Models [13.754960315253014]
アドリアリトレーニングは,PEFTにおけるモデルロバスト性を改善するための最も効果的な戦略である。
本稿では,LRAで微調整されたCLIPモデルを少数の設定で拡張する最初のアルゴリズムであるAdvCLIP-LoRAを提案する。
論文 参考訳(メタデータ) (2025-05-21T05:35:24Z) - Adversarial Robustness through Dynamic Ensemble Learning [0.0]
敵対的攻撃は、事前訓練された言語モデル(PLM)の信頼性に重大な脅威をもたらす
本稿では,このような攻撃に対するPLMの堅牢性を高めるための新しいスキームであるDynamic Ensemble Learning (ARDEL) による対逆ロバスト性について述べる。
論文 参考訳(メタデータ) (2024-12-20T05:36:19Z) - Efficient Adversarial Training in LLMs with Continuous Attacks [99.5882845458567]
大規模言語モデル(LLM)は、安全ガードレールをバイパスできる敵攻撃に対して脆弱である。
本稿では,2つの損失からなる高速対向訓練アルゴリズム(C-AdvUL)を提案する。
C-AdvIPOは、対向的に堅牢なアライメントのためのユーティリティデータを必要としない、対向型のIPOである。
論文 参考訳(メタデータ) (2024-05-24T14:20:09Z) - Policy Smoothing for Provably Robust Reinforcement Learning [109.90239627115336]
入力のノルム有界対向摂動に対する強化学習の証明可能な堅牢性について検討する。
我々は、スムーズなポリシーによって得られる全報酬が、入力の摂動のノルムバウンドな逆数の下で一定の閾値以下に収まらないことを保証した証明書を生成する。
論文 参考訳(メタデータ) (2021-06-21T21:42:08Z) - On Fast Adversarial Robustness Adaptation in Model-Agnostic
Meta-Learning [100.14809391594109]
モデルに依存しないメタラーニング(MAML)は、数発の学習において最も成功したメタラーニング手法の1つである。
メタモデルの一般化力にもかかわらず、マルチショット学習においてMDLがいかに敵対的堅牢性を維持することができるかは明らかではない。
本稿では,ラベルなしデータ拡張,高速な攻撃生成,計算量軽微な微調整を可能にする,汎用的かつ最適化が容易なロバストネス正規化メタラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-20T22:03:04Z) - Boosting Adversarial Training with Hypersphere Embedding [53.75693100495097]
敵対的訓練は、ディープラーニングモデルに対する敵対的攻撃に対する最も効果的な防御の1つである。
本研究では,超球埋め込み機構をATプロシージャに組み込むことを提唱する。
我々は,CIFAR-10 と ImageNet データセットに対する幅広い敵対攻撃の下で本手法を検証した。
論文 参考訳(メタデータ) (2020-02-20T08:42:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。