論文の概要: EverTracer: Hunting Stolen Large Language Models via Stealthy and Robust Probabilistic Fingerprint
- arxiv url: http://arxiv.org/abs/2509.03058v1
- Date: Wed, 03 Sep 2025 06:40:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-04 21:40:46.435878
- Title: EverTracer: Hunting Stolen Large Language Models via Stealthy and Robust Probabilistic Fingerprint
- Title(参考訳): EverTracer: ステルスとロバスト確率的フィンガープリントによる、安定した大規模言語モデルの探索
- Authors: Zhenhua Xu, Meng Han, Wenpeng Xing,
- Abstract要約: EverTracerは、ステルスで堅牢なモデルプロファイランストレースを保証する新しいグレーボックスフィンガープリントフレームワークである。
EverTracerは、最初の防衛目的でメンバーシップ推論アタック(MIAs)を再利用した。
フィンガープリント・インジェクション(Fingerprint Injection)は、検出可能なアーティファクトを含まない自然言語データ上でモデルを微調整する。
- 参考スコア(独自算出の注目度): 22.154946163092117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The proliferation of large language models (LLMs) has intensified concerns over model theft and license violations, necessitating robust and stealthy ownership verification. Existing fingerprinting methods either require impractical white-box access or introduce detectable statistical anomalies. We propose EverTracer, a novel gray-box fingerprinting framework that ensures stealthy and robust model provenance tracing. EverTracer is the first to repurpose Membership Inference Attacks (MIAs) for defensive use, embedding ownership signals via memorization instead of artificial trigger-output overfitting. It consists of Fingerprint Injection, which fine-tunes the model on any natural language data without detectable artifacts, and Verification, which leverages calibrated probability variation signal to distinguish fingerprinted models. This approach remains robust against adaptive adversaries, including input level modification, and model-level modifications. Extensive experiments across architectures demonstrate EverTracer's state-of-the-art effectiveness, stealthness, and resilience, establishing it as a practical solution for securing LLM intellectual property. Our code and data are publicly available at https://github.com/Xuzhenhua55/EverTracer.
- Abstract(参考訳): 大規模言語モデル(LLM)の普及は、モデル盗難とライセンス違反に対する懸念を強め、堅牢でステルスなオーナシップの検証を必要としている。
既存の指紋認証手法は、非現実的なホワイトボックスアクセスを必要とするか、検出可能な統計異常を導入するかのいずれかである。
EverTracerは、ステルスで堅牢なモデルプロファイランストレースを保証する新しいグレーボックスフィンガープリントフレームワークである。
EverTracerは、人工的なトリガーアウトプットオーバーフィッティングではなく、記憶を通じてオーナシップシグナルを埋め込んだ、防衛用のメンバシップ推論アタック(MIA)を初めて再利用した。
フィンガープリント・インジェクション(Fingerprint Injection)は、検出可能なアーティファクトを含まない自然言語データ上でモデルを微調整する。
このアプローチは、入力レベルの修正やモデルレベルの修正など、適応的な敵に対して堅牢なままである。
アーキテクチャ全体にわたる大規模な実験は、EverTracerの最先端の有効性、ステルス性、レジリエンスを実証し、LLM知的財産権を確保するための実用的なソリューションとして確立した。
私たちのコードとデータはhttps://github.com/Xuzhenhua55/EverTracer.comで公開されています。
関連論文リスト
- Deep Learning Models for Robust Facial Liveness Detection [56.08694048252482]
本研究では,現代のアンチスプーフィング手法の欠陥に対処する新しい深層学習モデルを用いて,ロバストな解を提案する。
テクスチャ解析と実際の人間の特性に関連する反射特性を革新的に統合することにより、我々のモデルは、顕著な精度でレプリカと真の存在を区別する。
論文 参考訳(メタデータ) (2025-08-12T17:19:20Z) - FIT-Print: Towards False-claim-resistant Model Ownership Verification via Targeted Fingerprint [22.398234847594242]
モデルフィンガープリントは、オープンソースモデルの知的財産権を保護するために広く採用されているアプローチである。
本稿では, 相手が第三者モデルの所有権を誤って主張する, 虚偽のクレーム攻撃に対して脆弱であることを明らかにする。
これらの知見に触発され,疑似クレーム攻撃に対処するための指紋認証パラダイム(FIT-Print)を提案する。
論文 参考訳(メタデータ) (2025-01-26T13:00:58Z) - Exploring Federated Learning Dynamics for Black-and-White-Box DNN Traitor Tracing [49.1574468325115]
本稿では,フェデレートラーニングにおける白黒裏切り者追跡の適応について検討する。
以上の結果から,情報漏えいを疑うデータ所有者を識別するコラシオン耐性トレプレクターの追跡は,訓練の初期段階においてもFLフレームワークで可能であることが示唆された。
論文 参考訳(メタデータ) (2024-07-02T09:54:35Z) - On the Robustness of Dataset Inference [21.321310557323383]
機械学習(ML)モデルは、大量のデータ、計算リソース、技術的専門知識を必要とするため、トレーニングにコストがかかる。
オーナーシップ検証技術により、モデル盗難事件の被害者は、容疑者モデルが実際に彼らから盗まれたことを実証することができる。
フィンガープリント技術であるデータセット推論(DI)は,従来の手法よりも堅牢性や効率性が向上することが示されている。
論文 参考訳(メタデータ) (2022-10-24T22:17:55Z) - MOVE: Effective and Harmless Ownership Verification via Embedded External Features [104.97541464349581]
本稿では,異なる種類のモデル盗難を同時に防ぐために,効果的かつ無害なモデル所有者認証(MOVE)を提案する。
我々は、疑わしいモデルがディフェンダー特定外部特徴の知識を含むかどうかを検証し、所有権検証を行う。
次に、メタ分類器をトレーニングして、モデルが被害者から盗まれたかどうかを判断します。
論文 参考訳(メタデータ) (2022-08-04T02:22:29Z) - Fingerprinting Deep Neural Networks Globally via Universal Adversarial
Perturbations [22.89321897726347]
本稿では,被害者モデルから被疑者モデルが盗まれたかどうかをサービス提供者が検証できるようにする,新しい,実用的なメカニズムを提案する。
我々のフレームワークは、容疑者モデルの指紋が20ドル以内で、信頼度99.99 %のモデルIP侵害を検出することができる。
論文 参考訳(メタデータ) (2022-02-17T11:29:50Z) - Defending against Model Stealing via Verifying Embedded External
Features [90.29429679125508]
トレーニングサンプルがなく、モデルパラメータや構造にアクセスできない場合でも、敵はデプロイされたモデルを盗むことができる。
我々は、不審なモデルがディフェンダー特定遠近法の特徴の知識を含んでいるかどうかを検証することによって、他の角度からの防御を探索する。
本手法は, 複数段階の盗難処理によって盗難モデルが得られた場合でも, 同時に異なる種類の盗難モデルを検出するのに有効である。
論文 参考訳(メタデータ) (2021-12-07T03:51:54Z) - Fingerprinting Image-to-Image Generative Adversarial Networks [53.02510603622128]
Generative Adversarial Networks (GAN) は様々なアプリケーションシナリオで広く利用されている。
本稿では,信頼できる第三者に基づく画像間GANの知的保護のための新しい指紋認証方式を提案する。
論文 参考訳(メタデータ) (2021-06-19T06:25:10Z) - Responsible Disclosure of Generative Models Using Scalable
Fingerprinting [70.81987741132451]
深層生成モデルは質的に新しいパフォーマンスレベルを達成した。
この技術がスプーフセンサーに誤用され、ディープフェイクを発生させ、大規模な誤情報を可能にするという懸念がある。
最先端のジェネレーションモデルを責任を持って公開することで、研究者や企業がモデルに指紋を刻むことができます。
論文 参考訳(メタデータ) (2020-12-16T03:51:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。