論文の概要: StolenLoRA: Exploring LoRA Extraction Attacks via Synthetic Data
- arxiv url: http://arxiv.org/abs/2509.23594v1
- Date: Sun, 28 Sep 2025 02:51:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-30 22:32:19.312317
- Title: StolenLoRA: Exploring LoRA Extraction Attacks via Synthetic Data
- Title(参考訳): StolenLoRA: 合成データによるLoRA抽出攻撃の探索
- Authors: Yixu Wang, Yan Teng, Yingchun Wang, Xingjun Ma,
- Abstract要約: 本稿では,LoRA抽出と呼ばれるモデル抽出攻撃の新たな焦点を紹介する。
代用モデルを用いてLoRA適応モデルの機能を抽出するStolenLoRAと呼ばれる新しい抽出法を提案する。
実験では,StolenLoRAの有効性を実証し,96.60%の攻撃成功率を10kクエリで達成した。
- 参考スコア(独自算出の注目度): 39.230850434780756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parameter-Efficient Fine-Tuning (PEFT) methods like LoRA have transformed vision model adaptation, enabling the rapid deployment of customized models. However, the compactness of LoRA adaptations introduces new safety concerns, particularly their vulnerability to model extraction attacks. This paper introduces a new focus of model extraction attacks named LoRA extraction that extracts LoRA-adaptive models based on a public pre-trained model. We then propose a novel extraction method called StolenLoRA which trains a substitute model to extract the functionality of a LoRA-adapted model using synthetic data. StolenLoRA leverages a Large Language Model to craft effective prompts for data generation, and it incorporates a Disagreement-based Semi-supervised Learning (DSL) strategy to maximize information gain from limited queries. Our experiments demonstrate the effectiveness of StolenLoRA, achieving up to a 96.60% attack success rate with only 10k queries, even in cross-backbone scenarios where the attacker and victim models utilize different pre-trained backbones. These findings reveal the specific vulnerability of LoRA-adapted models to this type of extraction and underscore the urgent need for robust defense mechanisms tailored to PEFT methods. We also explore a preliminary defense strategy based on diversified LoRA deployments, highlighting its potential to mitigate such attacks.
- Abstract(参考訳): LoRAのようなパラメータ効率の良い細調整(PEFT)手法は視覚モデル適応を変換し、カスタマイズされたモデルの迅速な展開を可能にした。
しかし、LoRA適応のコンパクト性は新たな安全性、特にモデル抽出攻撃に対する脆弱性をもたらす。
本稿では,LoRA学習モデルに基づいてLoRA適応モデルを抽出するLoRA抽出というモデル抽出攻撃について紹介する。
そこで我々はStolenLoRAと呼ばれる新しい抽出法を提案し、代用モデルを訓練し、合成データを用いてLoRA適応モデルの機能を抽出する。
StolenLoRAはデータ生成のための効果的なプロンプトを構築するためにLarge Language Modelを活用し、Dagreementベースの半教師付き学習(DSL)戦略を採用して、限られたクエリからの情報ゲインを最大化する。
実験では,攻撃者および被害者モデルが異なる事前訓練されたバックボーンを使用するクロスバックボーンシナリオにおいても,10kクエリで96.60%の攻撃成功率を達成するStolenLoRAの有効性を実証した。
これらの結果から, PEFT法に適合した堅牢な防御機構の必要性が示唆された。
また、多様化したLoRA配備に基づく予備的な防衛戦略についても検討し、そのような攻撃を緩和する可能性を強調した。
関連論文リスト
- LoRAShield: Data-Free Editing Alignment for Secure Personalized LoRA Sharing [43.88211522311429]
Low-Rank Adaptation (LoRA)モデルは、CivitaiやLiblibといったプラットフォームで共有できる。
LoRAShieldは、不正使用に対してLoRAモデルをセキュアにするための最初のデータフリーな編集フレームワークである。
論文 参考訳(メタデータ) (2025-07-05T02:53:17Z) - MISLEADER: Defending against Model Extraction with Ensembles of Distilled Models [56.09354775405601]
モデル抽出攻撃は、クエリアクセスを通じてブラックボックスモデルの機能を複製することを目的としている。
既存のディフェンスでは、アタッカークエリにはオフ・オブ・ディストリビューション(OOD)サンプルがあることを前提としており、不審な入力を検出し破壊することができる。
OOD仮定に依存しない新しい防衛戦略であるMISLEADERを提案する。
論文 参考訳(メタデータ) (2025-06-03T01:37:09Z) - RepLoRA: Reparameterizing Low-Rank Adaptation via the Perspective of Mixture of Experts [37.43961020113692]
Low-rank Adaptation (LoRA) は、大規模基盤モデルを微調整するための強力な手法として登場した。
本稿では,LoRAモデルとMixture of Expertsモデルとの関連性を検討することによって,ロラの理論解析を行う。
論文 参考訳(メタデータ) (2025-02-05T10:03:09Z) - LoRA vs Full Fine-tuning: An Illusion of Equivalence [76.11938177294178]
我々は,Low-Rank Adaptation (LoRA) とフルファインタニングによる事前学習モデルについて検討する。
特異値分解が全く異なる構造を示すLoRAおよび完全微調整収量行列が得られた。
我々は、LoRAが完全な微調整を忘れてはならないという発見を拡張し、その忘れ物は侵入者次元に大きく局所化されていることを発見した。
論文 参考訳(メタデータ) (2024-10-28T17:14:01Z) - LoRA Dropout as a Sparsity Regularizer for Overfitting Control [18.992276878667997]
そこで本研究では,LoRA方式のドロップアウト機構を提案する。
適切な空間性は、経験的リスクと一般化リスクのギャップを狭めるのに役立ちます。
論文 参考訳(メタデータ) (2024-04-15T09:32:12Z) - Continual Forgetting for Pre-trained Vision Models [70.51165239179052]
現実のシナリオでは、選択的な情報は事前訓練されたモデルから継続的に取り除かれることが期待される。
効率的な削除のためのグループスパースロラ(GS-LoRA)を提案する。
我々は,顔認識,物体検出,画像分類に関する広範な実験を行い,GS-LoRAが他のクラスに最小限の影響で,特定のクラスを忘れることが実証された。
論文 参考訳(メタデータ) (2024-03-18T07:33:56Z) - LoRATK: LoRA Once, Backdoor Everywhere in the Share-and-Play Ecosystem [55.2986934528672]
タスク強化型LORAにバックドアを注入する方法を検討する。
シンプルで効率的で具体的なレシピで、バックドアのLoRAを一度トレーニングして、シームレスに複数のLoRAとマージできることが分かりました。
我々の研究は、下流の可搬性イットバックドア注入型LORAのトレーニング不要分布の新しい脅威モデルを研究する最初のものである。
論文 参考訳(メタデータ) (2024-02-29T20:25:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。