論文の概要: Fingerprint Vector: Enabling Scalable and Efficient Model Fingerprint Transfer via Vector Addition
- arxiv url: http://arxiv.org/abs/2409.08846v3
- Date: Tue, 26 Aug 2025 07:56:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-27 15:23:52.197992
- Title: Fingerprint Vector: Enabling Scalable and Efficient Model Fingerprint Transfer via Vector Addition
- Title(参考訳): フィンガープリントベクトル:ベクトル付加によるスケーラブルで効率的なモデルフィンガープリント転送を実現する
- Authors: Zhenhua Xu, Qichen Liu, Zhebo Wang, Wenpeng Xing, Dezhang Kong, Mohan Li, Meng Han,
- Abstract要約: 我々はフィンガープリントベクトルと呼ばれる新しいメカニズムを提案する。
指紋をバックドアベースの微調整でベースモデルに埋め込み、タスク固有のパラメータデルタを指紋ベクトルとして抽出する。
キーデシダラタにまたがる直接注入に匹敵する、あるいは優れたパフォーマンスを実現する。
- 参考スコア(独自算出の注目度): 23.282821424581
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Backdoor-based fingerprinting has emerged as an effective technique for tracing the ownership of large language models. However, in real-world deployment scenarios, developers often instantiate multiple downstream models from a shared base model, and applying fingerprinting to each variant individually incurs prohibitive computational overhead. While inheritance-based approaches -- where fingerprints are embedded into the base model and expected to persist through fine-tuning -- appear attractive, they suffer from three key limitations: late-stage fingerprinting, fingerprint instability, and interference with downstream adaptation. To address these challenges, we propose a novel mechanism called the Fingerprint Vector. Our method first embeds a fingerprint into the base model via backdoor-based fine-tuning, then extracts a task-specific parameter delta as a fingerprint vector by computing the difference between the fingerprinted and clean models. This vector can be directly added to any structurally compatible downstream model, allowing the fingerprint to be transferred post hoc without additional fine-tuning. Extensive experiments show that Fingerprint Vector achieves comparable or superior performance to direct injection across key desiderata. It maintains strong effectiveness across diverse model architectures as well as mainstream downstream variants within the same family. It also preserves harmlessness and robustness in most cases. Even when slight robustness degradation is observed, the impact remains within acceptable bounds and is outweighed by the scalability benefits of our approach.
- Abstract(参考訳): バックドアベースのフィンガープリントは、大きな言語モデルのオーナシップをトレースする有効なテクニックとして登場した。
しかし、実際のデプロイメントシナリオでは、開発者は共有ベースモデルから複数のダウンストリームモデルをインスタンス化し、各変種にフィンガープリントを適用すると、計算のオーバーヘッドが禁じられる。
継承ベースのアプローチ -- 指紋がベースモデルに埋め込まれ、微調整を通じて持続すると予想される -- は魅力的だが、後期の指紋認証、指紋の不安定性、下流適応への干渉という3つの重要な制限に悩まされている。
これらの課題に対処するために、フィンガープリントベクトルと呼ばれる新しいメカニズムを提案する。
提案手法はまず,バックドアによる微調整によりベースモデルに指紋を埋め込んで,指紋モデルとクリーンモデルの違いを計算して,タスク固有のパラメータデルタを指紋ベクトルとして抽出する。
このベクターは、構造的に互換性のある下流モデルに直接追加することができ、指紋を追加の微調整なしにポストホックで転送することができる。
大規模な実験により、フィンガープリントベクターは、キーデシダータをまたいで直接注入するのと同等または優れた性能を達成している。
多様なモデルアーキテクチャにまたがる強力な効果と、同じファミリー内の主流の下流のバリエーションを維持している。
また、ほとんどの場合、無害性や頑丈性も保たれる。
わずかにロバスト性劣化が観察されたとしても、影響は許容範囲内に留まり、我々のアプローチのスケーラビリティの利点に勝っている。
関連論文リスト
- DuFFin: A Dual-Level Fingerprinting Framework for LLMs IP Protection [9.849635250118913]
大型言語モデル(LLM)は、正当な所有者にとって価値のある知的特性(IP)と見なされている。
我々は、ブラックボックス設定オーナシップ検証のための新しい$textbfDu$al-Level $textbfFin$gerprinting $textbfF$rameworkであるDuFFinを提案する。
論文 参考訳(メタデータ) (2025-05-22T11:16:46Z) - ImF: Implicit Fingerprint for Large Language Models [0.0]
我々はImF(Implicit Fingerprints)と呼ばれる新しい指紋注入パラダイムを提案する。
ImFは強力な意味的相関を持つ指紋ペアを構築し、大きな言語モデル(LLM)内の自然な質問応答ペアとして扱う。
実験により,ImFは敵条件下で高い検証成功率を維持していることが示された。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - Scalable Fingerprinting of Large Language Models [46.26999419117367]
我々はPerinucleus sampleと呼ばれる新しい手法を導入し、スケーラブルで永続的で無害な指紋を生成する。
この手法により,Llama-3.1-8Bモデルに24,576個の指紋を付加できることを示した。
論文 参考訳(メタデータ) (2025-02-11T18:43:07Z) - UTF:Undertrained Tokens as Fingerprints A Novel Approach to LLM Identification [23.164580168870682]
大型言語モデル(LLM)のフィンガープリントは、モデルのオーナシップの検証、信頼性の確保、誤用防止に不可欠である。
本稿では,未学習トークンを利用したLDMのフィンガープリント手法を提案する。
提案手法は,モデルの性能に最小限のオーバーヘッドと影響があり,対象モデルのオーナシップ識別にホワイトボックスアクセスを必要としない。
論文 参考訳(メタデータ) (2024-10-16T07:36:57Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - HuRef: HUman-REadable Fingerprint for Large Language Models [44.9820558213721]
HuRefは、大きな言語モデルのための人間可読指紋である。
トレーニングやモデルパラメータを公開することなく、ベースモデルを独自に識別する。
論文 参考訳(メタデータ) (2023-12-08T05:01:47Z) - Robust Retraining-free GAN Fingerprinting via Personalized Normalization [21.63902009635896]
提案手法は,ParamGen Netsの入力を変更するだけで,異なる指紋をGAN内に埋め込むことができる。
モデルレベルの攻撃と画像レベルの攻撃の両方に対するロバスト性の観点から提案手法の性能は,最先端技術よりも優れている。
論文 参考訳(メタデータ) (2023-11-09T16:09:12Z) - Language models are weak learners [71.33837923104808]
本研究では,プロンプトベースの大規模言語モデルは弱い学習者として効果的に動作可能であることを示す。
これらのモデルをブースティングアプローチに組み込むことで、モデル内の知識を活用して、従来のツリーベースのブースティングよりも優れています。
結果は、プロンプトベースのLLMが、少数の学習者だけでなく、より大きな機械学習パイプラインのコンポーネントとして機能する可能性を示している。
論文 参考訳(メタデータ) (2023-06-25T02:39:19Z) - PrintsGAN: Synthetic Fingerprint Generator [39.804969475699345]
PrintsGANは、特定の指紋に対する複数の印象とともに、ユニークな指紋を生成することができる合成指紋生成装置である。
本研究では,指紋から一定の長さの埋め込みを抽出するために,深層ネットワークをトレーニングしたPrintsGANの有用性を示す。
論文 参考訳(メタデータ) (2022-01-10T22:25:10Z) - SignBERT: Pre-Training of Hand-Model-Aware Representation for Sign
Language Recognition [94.30084702921529]
手振りは手話において重要な役割を担っている。
現在の深層学習に基づく手話認識手法は、解釈可能性に欠ける可能性がある。
SLRに先立って手を入れた初の自己教師型事前訓練型SignBERTを導入する。
論文 参考訳(メタデータ) (2021-10-11T16:18:09Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z) - Latent Fingerprint Registration via Matching Densely Sampled Points [100.53031290339483]
既存の潜伏指紋登録手法は、主にミツバチ間の対応を確立することに基づいている。
本研究では,一対の指紋間の空間的変換を推定する,最小限の潜伏指紋登録手法を提案する。
提案手法は,特に挑戦的な条件下で,最先端の登録性能を実現する。
論文 参考訳(メタデータ) (2020-05-12T15:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。