論文の概要: From Injection to Defense: Constructing Edit-Based Fingerprints for Large Language Models
- arxiv url: http://arxiv.org/abs/2509.03122v2
- Date: Wed, 08 Oct 2025 16:23:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-09 14:21:18.116416
- Title: From Injection to Defense: Constructing Edit-Based Fingerprints for Large Language Models
- Title(参考訳): インジェクションからディフェンスへ:大規模言語モデルのための編集ベースのフィンガープリントを構築する
- Authors: Yue Li, Xin Yi, Dongsheng Shi, Yongyi Cui, Gerard de Melo, Linlin Wang,
- Abstract要約: 本稿では,ルールベースの多言語自然言語指紋(MNLF)を組み込んだ知識編集フレームワークRFEditを提案する。
RFEditはFingerprint Subspace-aware Fine-Tuning (FSFT)によって保護されている。
- 参考スコア(独自算出の注目度): 28.393476667026523
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fingerprinting is critical for maintaining traceability and protecting the intellectual property (IP) of developers, as LLMs deployed in web applications are susceptible to unauthorized redistribution and misuse via fine-tuning or black-box deployment. However, current backdoor-based fingerprinting methods face a fundamental trade-off: fingerprints embedded as garbled text are easily detected and filtered, whereas those crafted as coherent natural language are prone to being triggered unintentionally. To overcome these limitations, we propose RFEdit, a knowledge-editing framework that embeds a rule-based multilingual natural language fingerprint (MNLF) by modifying a sparse subset of model weights. This approach enables efficient and robust fingerprint injection with minimal impact on unrelated knowledge in LLMs. Our RFEdit framework is further safeguarded by Fingerprint Subspace-aware Fine-Tuning (FSFT), which mitigates fingerprint degradation during legitimate fine-tuning by restricting parameter updates to the fingerprint subspace. This approach preserves fingerprint integrity while enhancing downstream task performance of LLMs. These advances establish a comprehensive pipeline from fingerprint injection to defense, achieving high detection effectiveness, robustness against adversarial manipulations, harmlessness to model utility, and persistence under fine-tuning. Extensive experiments demonstrate that RFEdit maintains robustness under quantization and pruning. Additionally, fingerprint effectiveness is generally improved by more than 10\% when combined with FSFT for math and alpaca downstream tasks.
- Abstract(参考訳): フィンガープリンティングは、トレーサビリティの維持と開発者の知的財産権(IP)の保護に重要である。
しかし、現在のバックドアベースの指紋認証法は基本的なトレードオフに直面しており、ガーブラートテキストとして埋め込まれた指紋は容易に検出・フィルタリングされ、コヒーレントな自然言語として作られた指紋は意図せずに引き起こされる傾向にある。
これらの制限を克服するために,ルールベースの多言語自然言語指紋(MNLF)を組み込んだ知識編集フレームワークRFEditを提案する。
このアプローチにより、LLMにおける無関係な知識に最小限の影響を伴って、効率的で堅牢な指紋注入が可能となる。
RFEditフレームワークはFingerprint Subspace-aware Fine-Tuning (FSFT)によってさらに保護されている。
このアプローチは,LLMの下流タスク性能を向上しつつ,指紋の整合性を維持する。
これらの進歩は、指紋注入から防御への包括的パイプラインを確立し、高い検出効率、敵の操作に対する堅牢性、実用性に対する無害性、微調整下での持続性を実現している。
大規模実験により、RFEditは量子化とプルーニングの下で堅牢性を維持することが示された。
さらに、数学とアルパカ下流のタスクでFSFTと組み合わせた場合、指紋の有効性は一般的に10\%以上改善される。
関連論文リスト
- ImF: Implicit Fingerprint for Large Language Models [14.580290415247385]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - Scalable Fingerprinting of Large Language Models [46.26999419117367]
我々はPerinucleus sampleと呼ばれる新しい手法を導入し、スケーラブルで永続的で無害な指紋を生成する。
この手法により,Llama-3.1-8Bモデルに24,576個の指紋を付加できることを示した。
論文 参考訳(メタデータ) (2025-02-11T18:43:07Z) - Fingerprint Vector: Enabling Scalable and Efficient Model Fingerprint Transfer via Vector Addition [23.282821424581]
我々はフィンガープリントベクトルと呼ばれる新しいメカニズムを提案する。
指紋をバックドアベースの微調整でベースモデルに埋め込み、タスク固有のパラメータデルタを指紋ベクトルとして抽出する。
キーデシダラタにまたがる直接注入に匹敵する、あるいは優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-13T14:04:39Z) - Hey, That's My Model! Introducing Chain & Hash, An LLM Fingerprinting Technique [2.7174461714624805]
大規模言語モデル(LLM)の盗難や誤用に対する懸念が高まり、効果的な指紋認証の必要性が高まっている。
指紋の透明性、効率性、永続性、ロバスト性、非偽造性という5つの重要な特性を定義します。
我々は,指紋の完全性を維持しつつ,認証された所有権の証明を提供する新しい指紋認証フレームワークを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:38:56Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Hierarchical Perceptual Noise Injection for Social Media Fingerprint
Privacy Protection [106.5308793283895]
ソーシャルメディアからの指紋漏洩は 画像を匿名化したいという強い欲求を喚起します
指紋漏洩を保護するために、画像に知覚不能な摂動を加えることにより、敵攻撃が解決策として現れる。
この問題を解決するために,階層型パーセプティカルノイズ注入フレームワークであるFingerSafeを提案する。
論文 参考訳(メタデータ) (2022-08-23T02:20:46Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。