論文の概要: SELF: A Robust Singular Value and Eigenvalue Approach for LLM Fingerprinting
- arxiv url: http://arxiv.org/abs/2512.03620v1
- Date: Wed, 03 Dec 2025 09:53:47 GMT
- ステータス: 情報取得中
- システム内更新日: 2025-12-04 12:11:37.977043
- Title: SELF: A Robust Singular Value and Eigenvalue Approach for LLM Fingerprinting
- Title(参考訳): SELF: LLMフィンガープリントにおけるロバスト特異値と固有値アプローチ
- Authors: Hanxiu Zhang, Yue Zheng,
- Abstract要約: 本稿では,入力への依存を排除し,本質的に偽の主張に抵抗する本質的な重みに基づく指紋認証方式を提案する。
SELFは,1)LLM注目重みの特異値と固有値分解によるユニークな,スケーラブルかつ変換不変な指紋抽出,2)少数ショット学習とデータ拡張に基づく効果的なニューラルネットワークベースの指紋類似性比較という2つの重要なイノベーションを通じて,堅牢なIP保護を実現する。
- 参考スコア(独自算出の注目度): 4.335948336782789
- License:
- Abstract: The protection of Intellectual Property (IP) in Large Language Models (LLMs) represents a critical challenge in contemporary AI research. While fingerprinting techniques have emerged as a fundamental mechanism for detecting unauthorized model usage, existing methods -- whether behavior-based or structural -- suffer from vulnerabilities such as false claim attacks or susceptible to weight manipulations. To overcome these limitations, we propose SELF, a novel intrinsic weight-based fingerprinting scheme that eliminates dependency on input and inherently resists false claims. SELF achieves robust IP protection through two key innovations: 1) unique, scalable and transformation-invariant fingerprint extraction via singular value and eigenvalue decomposition of LLM attention weights, and 2) effective neural network-based fingerprint similarity comparison based on few-shot learning and data augmentation. Experimental results demonstrate SELF maintains high IP infringement detection accuracy while showing strong robustness against various downstream modifications, including quantization, pruning, and fine-tuning attacks. Our code is available at https://github.com/HanxiuZhang/SELF_v2.
- Abstract(参考訳): 大規模言語モデル(LLM)における知的財産権(IP)の保護は、現代AI研究における重要な課題である。
指紋認証技術は、不正なモデルの使用を検出するための基本的なメカニズムとして現れてきたが、行動ベースであれ構造的であれ、既存の手法は、偽のクレーム攻撃や重み操作の影響を受けやすいような脆弱性に悩まされている。
これらの制約を克服するため,本研究では,入力への依存を排除し,本質的に偽の主張に抵抗する,本質的な重みに基づく指紋認証方式であるSELFを提案する。
SELFは2つの重要なイノベーションを通じて、堅牢なIP保護を実現する。
1)LDM注目重みの特異値と固有値分解によるユニークでスケーラブルで変形不変な指紋抽出
2) 少数ショット学習とデータ拡張に基づく効果的なニューラルネットワークに基づく指紋類似度比較を行った。
実験の結果、SELFは、量子化、プルーニング、微調整攻撃など、様々な下流修正に対して強い堅牢性を示しながら、高いIP侵害検出精度を維持していることが示された。
私たちのコードはhttps://github.com/HanxiuZhang/SELF_v2.comで利用可能です。
関連論文リスト
- SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - DiffuGuard: How Intrinsic Safety is Lost and Found in Diffusion Large Language Models [50.21378052667732]
我々は、ステップ内およびステップ間ダイナミクスという2つの異なる次元にわたるジェイルブレイク攻撃に対して、dLLM脆弱性の詳細な分析を行う。
デュアルステージアプローチによる脆弱性に対処する,トレーニング不要な防御フレームワークであるDiffuGuardを提案する。
論文 参考訳(メタデータ) (2025-09-29T05:17:10Z) - PREE: Towards Harmless and Adaptive Fingerprint Editing in Large Language Models via Knowledge Prefix Enhancement [31.35718494215824]
ブラックボックスのフィンガープリント技術は、インクリメンタルな微調整の消去と特徴空間の防御という2つの課題に直面している。
最近の研究で、フィンガープリント領域におけるモデル編集には、明確な利点があることが判明した。
本稿では、革新的に$textbfPr$efix-$textbfe$nhanced Fingerprint $textbfE$diting Frameworkを提案する。
論文 参考訳(メタデータ) (2025-08-31T16:04:02Z) - SoK: Large Language Model Copyright Auditing via Fingerprinting [69.14570598973195]
既存の手法をホワイトボックスとブラックボックスのアプローチに分類する統一的な枠組みと形式的な分類法を導入する。
現実的な展開シナリオ下でのLDMフィンガープリント評価のための最初の体系的ベンチマークであるLeaFBenchを提案する。
論文 参考訳(メタデータ) (2025-08-27T12:56:57Z) - Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - FPEdit: Robust LLM Fingerprinting through Localized Parameter Editing [24.648168413166673]
FPEditは、知識編集を利用してセマンティック・コヒーレントな自然言語の指紋を注入する新しいフレームワークである。
FPEditは,全パラメータの微調整とパラメータ効率の両面において,95-100%の指紋保持を実現する。
FPEditは、30GB未満のGPUメモリを使用して、LLaMA2-7Bに10個の指紋ペアを2分以内で埋め込むことができる。
論文 参考訳(メタデータ) (2025-08-04T06:00:22Z) - ImF: Implicit Fingerprint for Large Language Models [14.580290415247385]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - Improving Adversarial Robustness to Sensitivity and Invariance Attacks
with Deep Metric Learning [80.21709045433096]
対向ロバスト性の標準的な方法は、サンプルを最小に摂動させることによって作られたサンプルに対して防御する枠組みを仮定する。
距離学習を用いて、最適輸送問題として逆正則化をフレーム化する。
予備的な結果から, 変分摂動の規則化は, 変分防御と敏感防御の両方を改善することが示唆された。
論文 参考訳(メタデータ) (2022-11-04T13:54:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。