論文の概要: DuFFin: A Dual-Level Fingerprinting Framework for LLMs IP Protection
- arxiv url: http://arxiv.org/abs/2505.16530v1
- Date: Thu, 22 May 2025 11:16:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-23 17:12:48.248629
- Title: DuFFin: A Dual-Level Fingerprinting Framework for LLMs IP Protection
- Title(参考訳): DuFFin: LLMのIP保護のためのデュアルレベルフィンガープリントフレームワーク
- Authors: Yuliang Yan, Haochun Tang, Shuo Yan, Enyan Dai,
- Abstract要約: 大型言語モデル(LLM)は、正当な所有者にとって価値のある知的特性(IP)と見なされている。
我々は、ブラックボックス設定オーナシップ検証のための新しい$textbfDu$al-Level $textbfFin$gerprinting $textbfF$rameworkであるDuFFinを提案する。
- 参考スコア(独自算出の注目度): 9.849635250118913
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Large language models (LLMs) are considered valuable Intellectual Properties (IP) for legitimate owners due to the enormous computational cost of training. It is crucial to protect the IP of LLMs from malicious stealing or unauthorized deployment. Despite existing efforts in watermarking and fingerprinting LLMs, these methods either impact the text generation process or are limited in white-box access to the suspect model, making them impractical. Hence, we propose DuFFin, a novel $\textbf{Du}$al-Level $\textbf{Fin}$gerprinting $\textbf{F}$ramework for black-box setting ownership verification. DuFFin extracts the trigger pattern and the knowledge-level fingerprints to identify the source of a suspect model. We conduct experiments on a variety of models collected from the open-source website, including four popular base models as protected LLMs and their fine-tuning, quantization, and safety alignment versions, which are released by large companies, start-ups, and individual users. Results show that our method can accurately verify the copyright of the base protected LLM on their model variants, achieving the IP-ROC metric greater than 0.95. Our code is available at https://github.com/yuliangyan0807/llm-fingerprint.
- Abstract(参考訳): 大規模言語モデル(LLM)は、トレーニングの膨大な計算コストのために、正当な所有者にとって価値のある知的特性(IP)と見なされている。
LLMのIPを悪質な盗難や不正なデプロイから保護することが重要である。
従来の電子透かしと指紋認証の取り組みにもかかわらず、これらの手法はテキスト生成プロセスに影響を与えるか、または容疑者モデルへのホワイトボックスアクセスに制限されているため、実用的ではない。
したがって、ブラックボックス設定のオーナシップ検証のための新しい$\textbf{Du}$al-Level $\textbf{Fin}$gerprinting $\textbf{F}$rameworkであるDuFFinを提案する。
DuFFinは、容疑者モデルの起源を特定するために、トリガーパターンと知識レベルの指紋を抽出する。
オープンソースのWebサイトから収集したさまざまなモデルについて実験を行い、その中には、LLMの保護された4つの人気ベースモデルと、大企業やスタートアップ、個人ユーザがリリースする微調整、量子化、安全アライメントバージョンが含まれています。
以上の結果から,提案手法はベース保護LLMの著作権を精度良く検証でき,IP-ROCの精度は0.95以上であることがわかった。
私たちのコードはhttps://github.com/yuliangyan0807/llm-fingerprintで公開されています。
関連論文リスト
- ProFLingo: A Fingerprinting-based Intellectual Property Protection Scheme for Large Language Models [18.46904928949022]
大規模言語モデル(LLM)のためのブラックボックス指紋認証に基づくIP保護スキームProFLingoを提案する。
ProFLingoは、オリジナルのモデルから特定の応答を引き出すクエリを生成し、ユニークな指紋を確立する。
提案手法は,疑似モデルにおけるこれらのクエリの有効性を評価し,元のモデルから派生したものかどうかを判断する。
論文 参考訳(メタデータ) (2024-05-03T20:00:40Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Who Leaked the Model? Tracking IP Infringers in Accountable Federated Learning [51.26221422507554]
Federated Learning (FL) は、大規模で分散したクライアントからのデータと計算リソースを調整する効果的な協調学習フレームワークである。
このようなコラボレーションは、個々のユーザではなく、パーティー全体によって保護され、共有されるべきモデルパラメータによって表現される非自明な知的財産(IP)をもたらす。
このようなIPリークをブロックするためには、IPを共有モデルで識別し、最初にリークした匿名の侵害者を特定することが不可欠である。
本稿では,説明責任FLの要件を満たすために,Dudeable Unique Watermarking (DUW)を提案する。
論文 参考訳(メタデータ) (2023-12-06T00:47:55Z) - Are You Copying My Model? Protecting the Copyright of Large Language
Models for EaaS via Backdoor Watermark [58.60940048748815]
企業は大規模な言語モデル(LLM)に基づいたEmbeddding as a Service(E)の提供を開始した。
Eはモデル抽出攻撃に弱いため、LLMの所有者に重大な損失をもたらす可能性がある。
埋め込みにバックドアを埋め込むEmbMarkerという埋め込み透かし手法を提案する。
論文 参考訳(メタデータ) (2023-05-17T08:28:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。