論文の概要: EditMF: Drawing an Invisible Fingerprint for Your Large Language Models
- arxiv url: http://arxiv.org/abs/2508.08836v1
- Date: Tue, 12 Aug 2025 10:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.398163
- Title: EditMF: Drawing an Invisible Fingerprint for Your Large Language Models
- Title(参考訳): EditMF:大きな言語モデルのための見えないフィンガープリントを描く
- Authors: Jiaxuan Wu, Yinghan Zhou, Wanli Peng, Yiming Xue, Juan Wen, Ping Zhong,
- Abstract要約: EditMFはトレーニング不要なフィンガープリントのパラダイムであり、最小の計算オーバーヘッドで非常に受け入れ難いフィンガープリントの埋め込みを実現する。
EditMF は,LoRA ベースの指紋認証をはるかに超越した堅牢性を提供しながら,認識不能なモデルの性能損失と高い認識性を兼ね備えていることを示す。
- 参考スコア(独自算出の注目度): 11.691985114214162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training large language models (LLMs) is resource-intensive and expensive, making protecting intellectual property (IP) for LLMs crucial. Recently, embedding fingerprints into LLMs has emerged as a prevalent method for establishing model ownership. However, existing back-door-based methods suffer from limited stealth and efficiency. To simultaneously address these issues, we propose EditMF, a training-free fingerprinting paradigm that achieves highly imperceptible fingerprint embedding with minimal computational overhead. Ownership bits are mapped to compact, semantically coherent triples drawn from an encrypted artificial knowledge base (e.g., virtual author-novel-protagonist facts). Causal tracing localizes the minimal set of layers influencing each triple, and a zero-space update injects the fingerprint without perturbing unrelated knowledge. Verification requires only a single black-box query and succeeds when the model returns the exact pre-embedded protagonist. Empirical results on LLaMA and Qwen families show that EditMF combines high imperceptibility with negligible model's performance loss, while delivering robustness far beyond LoRA-based fingerprinting and approaching that of SFT embeddings. Extensive experiments demonstrate that EditMF is an effective and low-overhead solution for secure LLM ownership verification.
- Abstract(参考訳): 大規模言語モデル(LLM)の訓練は資源集約的で高価であり、LLMの知的財産権(IP)を保護することが重要である。
近年, LLM に指紋を埋め込むことが, モデルオーナシップを確立する方法として広く普及している。
しかし、既存のバックドア方式では、ステルスと効率が制限されている。
これらの問題に同時に対処するために,我々は,計算オーバーヘッドを最小限に抑止できる指紋埋め込みを実現する,トレーニング不要なフィンガープリントパラダイムであるEditMFを提案する。
オーナシップビットは、暗号化された人工的な知識ベースから引き出されたコンパクトでセマンティックにコヒーレントなトリプルにマップされる。
因果トレースは、各トリプルに影響を与える最小限の層をローカライズし、ゼロスペース更新は無関係な知識を邪魔することなく指紋を注入する。
検証には単一のブラックボックスクエリしか必要とせず、モデルが正確な埋め込み済みのプロタゴニストを返すと成功する。
LLaMAとQwenファミリーの実証的な結果から、EditMFは認識不能なモデルの性能損失と高い非認識性を組み合わせ、LoRAベースの指紋認証を超えて堅牢性を提供し、SFT埋め込みに近づいた。
大規模な実験により、EditMFは安全なLLMオーナシップ検証のための有効かつ低オーバヘッドのソリューションであることが示された。
関連論文リスト
- Inhibitory Attacks on Backdoor-based Fingerprinting for Large Language Models [14.909356150499297]
本稿では,トークンフィルタ攻撃(TFA)と文検証攻撃(SVA)の2つの新しい指紋認証手法を提案する。
本手法は,アンサンブル性能を維持しつつ,指紋応答を効果的に抑制する手法である。
論文 参考訳(メタデータ) (2026-01-07T06:06:56Z) - iSeal: Encrypted Fingerprinting for Reliable LLM Ownership Verification [22.052342142871144]
iSealは、モデル泥棒が疑わしいLLMをエンドツーエンドで制御する際に、信頼性の高い検証のために設計されたフィンガープリント手法である。
モデルと外部モジュールの両方にユニークな特徴を注入し、エラー訂正機構と類似性に基づく検証戦略によって強化される。
iSealは、12 LLMで10以上の攻撃に対して100%フィンガープリント成功率を達成する一方、ベースラインは未学習およびレスポンス操作で失敗する。
論文 参考訳(メタデータ) (2025-11-12T02:30:19Z) - From Injection to Defense: Constructing Edit-Based Fingerprints for Large Language Models [28.393476667026523]
本稿では,ルールベースの多言語自然言語指紋(MNLF)を組み込んだ知識編集フレームワークRFEditを提案する。
RFEditはFingerprint Subspace-aware Fine-Tuning (FSFT)によって保護されている。
論文 参考訳(メタデータ) (2025-09-03T08:22:04Z) - Lethe: Purifying Backdoored Large Language Models with Knowledge Dilution [49.78359632298156]
大規模言語モデル(LLM)は、様々な自然言語処理(NLP)タスクにおいて優れたパフォーマンスを達成し、大幅な進歩を遂げている。
標準クエリではモデルが正常に動作しますが、特定のトリガがアクティブになると、有害な応答や意図しない出力を生成します。
本稿では,LLMからのバックドアの挙動を知識希釈により除去する新しい手法LETHEを提案する。
論文 参考訳(メタデータ) (2025-08-28T17:05:18Z) - SoK: Large Language Model Copyright Auditing via Fingerprinting [69.14570598973195]
既存の手法をホワイトボックスとブラックボックスのアプローチに分類する統一的な枠組みと形式的な分類法を導入する。
現実的な展開シナリオ下でのLDMフィンガープリント評価のための最初の体系的ベンチマークであるLeaFBenchを提案する。
論文 参考訳(メタデータ) (2025-08-27T12:56:57Z) - FPEdit: Robust LLM Fingerprinting through Localized Knowledge Editing [9.351260848685229]
FPEditは、モデル重みのスパース部分を変更することによって、意味的に一貫性のある自然言語の指紋を注入する、新しい知識編集フレームワークである。
実験によると、FPEditは95ドルから100%の指紋保持を実現している。
FPEditは、32GB以下のGPUメモリを使用して、10個の指紋ペアを10分以内でLLaMA2-7Bに埋め込むことができる。
論文 参考訳(メタデータ) (2025-08-04T06:00:22Z) - DuFFin: A Dual-Level Fingerprinting Framework for LLMs IP Protection [9.849635250118913]
大型言語モデル(LLM)は、正当な所有者にとって価値のある知的特性(IP)と見なされている。
我々は、ブラックボックス設定オーナシップ検証のための新しい$textbfDu$al-Level $textbfFin$gerprinting $textbfF$rameworkであるDuFFinを提案する。
論文 参考訳(メタデータ) (2025-05-22T11:16:46Z) - ImF: Implicit Fingerprint for Large Language Models [0.0]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - LLM-Lasso: A Robust Framework for Domain-Informed Feature Selection and Regularization [59.75242204923353]
LLM-Lassoは大規模言語モデル(LLM)を利用してラッソ回帰における特徴選択を導くフレームワークである。
LLMは各特徴に対してペナルティ因子を生成し、単純でチューニング可能なモデルを用いてラスソペナルティの重みに変換される。
LLMによりより関連づけられた特徴は、より低い罰を受け、最終モデルに保持される可能性を高める。
論文 参考訳(メタデータ) (2025-02-15T02:55:22Z) - REEF: Representation Encoding Fingerprints for Large Language Models [53.679712605506715]
REEFは、被疑者モデルと被害者モデルの表現との中心となるカーネルアライメントの類似性を計算し、比較する。
このトレーニング不要のREEFは、モデルの一般的な能力を損なうことなく、シーケンシャルな微調整、プルーニング、モデルマージ、置換に堅牢である。
論文 参考訳(メタデータ) (2024-10-18T08:27:02Z) - A Fingerprint for Large Language Models [10.63985246068255]
大規模言語モデル(LLM)のための新しいブラックボックスフィンガープリント手法を提案する。
実験結果から,提案手法はPEFT攻撃に対するオーナシップ検証とロバスト性において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-07-01T12:25:42Z) - DALD: Improving Logits-based Detector without Logits from Black-box LLMs [56.234109491884126]
大規模言語モデル(LLM)はテキスト生成に革命をもたらし、人間の文章を忠実に模倣する出力を生成する。
我々は、ブラックボックステキスト検出における最先端性能を再定義する革新的なフレームワークであるDLD(Dis Distribution-Aligned LLMs Detection)を提案する。
DALDは、サロゲートモデルの分布を未知の目標LLMの分布と整合させ、高速モデルの反復に対する検出能力とレジリエンスを向上するように設計されている。
論文 参考訳(メタデータ) (2024-06-07T19:38:05Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。