論文の概要: EditMF: Drawing an Invisible Fingerprint for Your Large Language Models
- arxiv url: http://arxiv.org/abs/2508.08836v1
- Date: Tue, 12 Aug 2025 10:52:48 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-13 21:07:34.398163
- Title: EditMF: Drawing an Invisible Fingerprint for Your Large Language Models
- Title(参考訳): EditMF:大きな言語モデルのための見えないフィンガープリントを描く
- Authors: Jiaxuan Wu, Yinghan Zhou, Wanli Peng, Yiming Xue, Juan Wen, Ping Zhong,
- Abstract要約: EditMFはトレーニング不要なフィンガープリントのパラダイムであり、最小の計算オーバーヘッドで非常に受け入れ難いフィンガープリントの埋め込みを実現する。
EditMF は,LoRA ベースの指紋認証をはるかに超越した堅牢性を提供しながら,認識不能なモデルの性能損失と高い認識性を兼ね備えていることを示す。
- 参考スコア(独自算出の注目度): 11.691985114214162
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Training large language models (LLMs) is resource-intensive and expensive, making protecting intellectual property (IP) for LLMs crucial. Recently, embedding fingerprints into LLMs has emerged as a prevalent method for establishing model ownership. However, existing back-door-based methods suffer from limited stealth and efficiency. To simultaneously address these issues, we propose EditMF, a training-free fingerprinting paradigm that achieves highly imperceptible fingerprint embedding with minimal computational overhead. Ownership bits are mapped to compact, semantically coherent triples drawn from an encrypted artificial knowledge base (e.g., virtual author-novel-protagonist facts). Causal tracing localizes the minimal set of layers influencing each triple, and a zero-space update injects the fingerprint without perturbing unrelated knowledge. Verification requires only a single black-box query and succeeds when the model returns the exact pre-embedded protagonist. Empirical results on LLaMA and Qwen families show that EditMF combines high imperceptibility with negligible model's performance loss, while delivering robustness far beyond LoRA-based fingerprinting and approaching that of SFT embeddings. Extensive experiments demonstrate that EditMF is an effective and low-overhead solution for secure LLM ownership verification.
- Abstract(参考訳): 大規模言語モデル(LLM)の訓練は資源集約的で高価であり、LLMの知的財産権(IP)を保護することが重要である。
近年, LLM に指紋を埋め込むことが, モデルオーナシップを確立する方法として広く普及している。
しかし、既存のバックドア方式では、ステルスと効率が制限されている。
これらの問題に同時に対処するために,我々は,計算オーバーヘッドを最小限に抑止できる指紋埋め込みを実現する,トレーニング不要なフィンガープリントパラダイムであるEditMFを提案する。
オーナシップビットは、暗号化された人工的な知識ベースから引き出されたコンパクトでセマンティックにコヒーレントなトリプルにマップされる。
因果トレースは、各トリプルに影響を与える最小限の層をローカライズし、ゼロスペース更新は無関係な知識を邪魔することなく指紋を注入する。
検証には単一のブラックボックスクエリしか必要とせず、モデルが正確な埋め込み済みのプロタゴニストを返すと成功する。
LLaMAとQwenファミリーの実証的な結果から、EditMFは認識不能なモデルの性能損失と高い非認識性を組み合わせ、LoRAベースの指紋認証を超えて堅牢性を提供し、SFT埋め込みに近づいた。
大規模な実験により、EditMFは安全なLLMオーナシップ検証のための有効かつ低オーバヘッドのソリューションであることが示された。
関連論文リスト
- FPEdit: Robust LLM Fingerprinting through Localized Knowledge Editing [9.351260848685229]
FPEditは、モデル重みのスパース部分を変更することによって、意味的に一貫性のある自然言語の指紋を注入する、新しい知識編集フレームワークである。
実験によると、FPEditは95ドルから100%の指紋保持を実現している。
FPEditは、32GB以下のGPUメモリを使用して、10個の指紋ペアを10分以内でLLaMA2-7Bに埋め込むことができる。
論文 参考訳(メタデータ) (2025-08-04T06:00:22Z) - DuFFin: A Dual-Level Fingerprinting Framework for LLMs IP Protection [9.849635250118913]
大型言語モデル(LLM)は、正当な所有者にとって価値のある知的特性(IP)と見なされている。
我々は、ブラックボックス設定オーナシップ検証のための新しい$textbfDu$al-Level $textbfFin$gerprinting $textbfF$rameworkであるDuFFinを提案する。
論文 参考訳(メタデータ) (2025-05-22T11:16:46Z) - ImF: Implicit Fingerprint for Large Language Models [0.0]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - A Fingerprint for Large Language Models [10.63985246068255]
大規模言語モデル(LLM)のための新しいブラックボックスフィンガープリント手法を提案する。
実験結果から,提案手法はPEFT攻撃に対するオーナシップ検証とロバスト性において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2024-07-01T12:25:42Z) - DALD: Improving Logits-based Detector without Logits from Black-box LLMs [56.234109491884126]
大規模言語モデル(LLM)はテキスト生成に革命をもたらし、人間の文章を忠実に模倣する出力を生成する。
我々は、ブラックボックステキスト検出における最先端性能を再定義する革新的なフレームワークであるDLD(Dis Distribution-Aligned LLMs Detection)を提案する。
DALDは、サロゲートモデルの分布を未知の目標LLMの分布と整合させ、高速モデルの反復に対する検出能力とレジリエンスを向上するように設計されている。
論文 参考訳(メタデータ) (2024-06-07T19:38:05Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。