論文の概要: From Evaluation to Defense: Constructing Persistent Edit-Based Fingerprints for Large Language Models
- arxiv url: http://arxiv.org/abs/2509.03122v1
- Date: Wed, 03 Sep 2025 08:22:04 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.460518
- Title: From Evaluation to Defense: Constructing Persistent Edit-Based Fingerprints for Large Language Models
- Title(参考訳): 評価から防衛へ:大規模言語モデルのための永続的な編集ベースフィンガープリントの構築
- Authors: Yue Li, Xin Yi, Dongsheng Shi, Yongyi Cui, Gerard de Melo, Xiaoling Wang, Linlin Wang,
- Abstract要約: 命令チューニングを通じてLLM(Large Language Models)に特殊な指紋を注入することは、一般的なIP保護技術である。
我々は知識編集が指紋注入に適した軽量な代替手段であると主張している。
指紋サブスペースの更新を制限することにより,指紋の劣化を低減するFingerprint Subspace-aware Fine-Tuning (FSFT)を提案する。
- 参考スコア(独自算出の注目度): 40.79429403341075
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The intellectual property (IP) protection of Large Language Models (LLMs) is increasingly critical. Injecting specialized fingerprints into LLMs through instruction tuning is a common IP protection technique. However, this may significantly degrade model performance, requires substantial computational resources, and exhibits poor persistence under model modifications. We argue that knowledge editing offers a lightweight alternative that is more suitable for fingerprint injection. Accordingly, we apply knowledge editing to fingerprint injection for the first time and demonstrate its strong capability. Despite using scrambled text as fingerprints to prevent them from being overwritten during fine-tuning, degradation still occurs under large-scale fine-tuning. To address this, we propose Fingerprint Subspace-aware Fine-Tuning (FSFT), which reduces fingerprint degradation by constraining the update of the fingerprint subspace. The performance of FSFT exceeds fine-tuning by 10% even in the worst-case scenario. Additionally, we observe that the fingerprint-injected models struggle to distinguish between fingerprints and similar texts due to the high similarity of their features. This finding underscores the urgent need for more robust and fine-grained fingerprinting injection methods for LLMs.
- Abstract(参考訳): 大規模言語モデル(LLM)の知的財産権(IP)保護はますます重要になっている。
命令チューニングによる特殊な指紋をLLMに注入することは、一般的なIP保護技術である。
しかし、これはモデル性能を著しく低下させ、かなりの計算資源を必要とし、モデル修正の下では持続性が低いことを示す。
我々は知識編集が指紋注入に適した軽量な代替手段であると主張している。
そこで本研究では,指紋注入における知識編集を初めて適用し,その強みを実証する。
スクランブルテキストを指紋として用いて、微調整中に上書きされてしまうのを防ぐが、大規模な微調整では依然として劣化が発生する。
そこで本研究では,指紋サブスペースの更新を制限することにより,指紋の劣化を低減するFingerprint Subspace-aware Fine-Tuning (FSFT)を提案する。
FSFTの性能は最悪の場合であっても微調整を10%以上上回る。
さらに,指紋を注入したモデルでは,特徴の類似性が高いため,指紋と類似したテキストの識別に苦慮している。
この発見は、LSMのより堅牢できめ細かい指紋注入法の必要性を浮き彫りにしている。
関連論文リスト
- A Behavioral Fingerprint for Large Language Models: Provenance Tracking via Refusal Vectors [43.11304710234668]
安全アライメントによって引き起こされる行動パターンを活用する新しいフィンガープリントフレームワークを提案する。
76の子孫モデルを対象とした大規模識別タスクにおいて,本手法は正しいモデル群を同定する際の精度を100%向上する。
本稿では,このプライベートフィンガープリントを,公開で検証可能なプライバシー保護アーティファクトに変換するための理論的枠組みを提案する。
論文 参考訳(メタデータ) (2026-02-10T05:57:35Z) - Antidistillation Fingerprinting [119.66677613290359]
本稿では, 学生の学習力学と指紋認証の目的を一致させる原則的アプローチとして, 抗蒸留フィンガープリント (ADFP) を導入する。
ADFPは、学生モデルのアーキテクチャが未知であっても、最先端のベースラインよりも大幅に改善され、実用性への影響が最小限に抑えられた検出信頼性が向上する。
論文 参考訳(メタデータ) (2026-02-03T18:15:50Z) - DNF: Dual-Layer Nested Fingerprinting for Large Language Model Intellectual Property Protection [21.422855789542695]
暗黙的な意味的トリガーとドメイン固有のスタイル的手がかりを結合することにより,階層的なバックドアを埋め込むブラックボックス手法を提案する。
Mistral-7B、LLaMA-3-8B-インストラクト、Falcon3-7B-インストラクトを通して、DNFは下流のユーティリティを保ちながら完璧な指紋活性化を実現する。
論文 参考訳(メタデータ) (2026-01-13T05:05:37Z) - SELF: A Robust Singular Value and Eigenvalue Approach for LLM Fingerprinting [4.335948336782789]
本稿では,入力への依存を排除し,本質的に偽の主張に抵抗する本質的な重みに基づく指紋認証方式を提案する。
SELFは,1)LLM注目重みの特異値と固有値分解によるユニークな,スケーラブルかつ変換不変な指紋抽出,2)少数ショット学習とデータ拡張に基づく効果的なニューラルネットワークベースの指紋類似性比較という2つの重要なイノベーションを通じて,堅牢なIP保護を実現する。
論文 参考訳(メタデータ) (2025-12-03T09:53:47Z) - GateRA: Token-Aware Modulation for Parameter-Efficient Fine-Tuning [51.79350934271497]
GateRAは、PEFT更新の強度を動的に調整するトークン対応変調を導入する統一フレームワークである。
適応ゲーティングを標準のPEFTブランチに組み込むことで、Gateraは選択的でトークンレベルの適応を可能にする。
複数のコモンセンス推論ベンチマークの実験により、GateRAはPEFT法よりも一貫して優れ、一致していることが示された。
論文 参考訳(メタデータ) (2025-11-15T17:55:47Z) - SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - EditMF: Drawing an Invisible Fingerprint for Your Large Language Models [11.691985114214162]
EditMFはトレーニング不要なフィンガープリントのパラダイムであり、最小の計算オーバーヘッドで非常に受け入れ難いフィンガープリントの埋め込みを実現する。
EditMF は,LoRA ベースの指紋認証をはるかに超越した堅牢性を提供しながら,認識不能なモデルの性能損失と高い認識性を兼ね備えていることを示す。
論文 参考訳(メタデータ) (2025-08-12T10:52:48Z) - FPEdit: Robust LLM Fingerprinting through Localized Parameter Editing [24.648168413166673]
FPEditは、知識編集を利用してセマンティック・コヒーレントな自然言語の指紋を注入する新しいフレームワークである。
FPEditは,全パラメータの微調整とパラメータ効率の両面において,95-100%の指紋保持を実現する。
FPEditは、30GB未満のGPUメモリを使用して、LLaMA2-7Bに10個の指紋ペアを2分以内で埋め込むことができる。
論文 参考訳(メタデータ) (2025-08-04T06:00:22Z) - Robust Anti-Backdoor Instruction Tuning in LVLMs [53.766434746801366]
大規模視覚言語モデル(LVLM)のための軽量で認証に依存しない防御フレームワークについて紹介する。
私たちのフレームワークは、命令チューニングの下で、アダプタモジュールとテキスト埋め込み層のみを微調整します。
Flickr30kとMSCOCOに対する7つの攻撃に対する実験は、我々の攻撃の成功率をほぼゼロに低下させることを示した。
論文 参考訳(メタデータ) (2025-06-04T01:23:35Z) - ImF: Implicit Fingerprint for Large Language Models [14.580290415247385]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - Scalable Fingerprinting of Large Language Models [46.26999419117367]
我々はPerinucleus sampleと呼ばれる新しい手法を導入し、スケーラブルで永続的で無害な指紋を生成する。
この手法により,Llama-3.1-8Bモデルに24,576個の指紋を付加できることを示した。
論文 参考訳(メタデータ) (2025-02-11T18:43:07Z) - Fingerprint Vector: Enabling Scalable and Efficient Model Fingerprint Transfer via Vector Addition [23.282821424581]
我々はフィンガープリントベクトルと呼ばれる新しいメカニズムを提案する。
指紋をバックドアベースの微調整でベースモデルに埋め込み、タスク固有のパラメータデルタを指紋ベクトルとして抽出する。
キーデシダラタにまたがる直接注入に匹敵する、あるいは優れたパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-13T14:04:39Z) - Hey, That's My Model! Introducing Chain & Hash, An LLM Fingerprinting Technique [2.7174461714624805]
大規模言語モデル(LLM)の盗難や誤用に対する懸念が高まり、効果的な指紋認証の必要性が高まっている。
指紋の透明性、効率性、永続性、ロバスト性、非偽造性という5つの重要な特性を定義します。
我々は,指紋の完全性を維持しつつ,認証された所有権の証明を提供する新しい指紋認証フレームワークを導入する。
論文 参考訳(メタデータ) (2024-07-15T16:38:56Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Hierarchical Perceptual Noise Injection for Social Media Fingerprint
Privacy Protection [106.5308793283895]
ソーシャルメディアからの指紋漏洩は 画像を匿名化したいという強い欲求を喚起します
指紋漏洩を保護するために、画像に知覚不能な摂動を加えることにより、敵攻撃が解決策として現れる。
この問題を解決するために,階層型パーセプティカルノイズ注入フレームワークであるFingerSafeを提案する。
論文 参考訳(メタデータ) (2022-08-23T02:20:46Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。