論文の概要: CTCC: A Robust and Stealthy Fingerprinting Framework for Large Language Models via Cross-Turn Contextual Correlation Backdoor
- arxiv url: http://arxiv.org/abs/2509.09703v1
- Date: Fri, 05 Sep 2025 05:59:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-15 16:03:07.826243
- Title: CTCC: A Robust and Stealthy Fingerprinting Framework for Large Language Models via Cross-Turn Contextual Correlation Backdoor
- Title(参考訳): CTCC: コンテキスト相関バックドアを用いた大規模言語モデルのためのロバストでステルスなフィンガープリントフレームワーク
- Authors: Zhenhua Xu, Xixiang Zhao, Xubin Yue, Shengwei Tian, Changting Lin, Meng Han,
- Abstract要約: 我々は新しいルール駆動型フィンガープリントフレームワークであるCTCCを紹介する。
CTCCは、トークンレベルやシングルターントリガーに頼るのではなく、逆ファクトのような複数の対話ターン間のコンテキスト相関を符号化する。
そこで本研究では,CTCCを実環境におけるLCM配置シナリオにおけるオーナシップ検証の信頼性と実用的なソリューションとして位置づけた。
- 参考スコア(独自算出の注目度): 21.71721725818432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The widespread deployment of large language models (LLMs) has intensified concerns around intellectual property (IP) protection, as model theft and unauthorized redistribution become increasingly feasible. To address this, model fingerprinting aims to embed verifiable ownership traces into LLMs. However, existing methods face inherent trade-offs between stealthness, robustness, and generalizability, being either detectable via distributional shifts, vulnerable to adversarial modifications, or easily invalidated once the fingerprint is revealed. In this work, we introduce CTCC, a novel rule-driven fingerprinting framework that encodes contextual correlations across multiple dialogue turns, such as counterfactual, rather than relying on token-level or single-turn triggers. CTCC enables fingerprint verification under black-box access while mitigating false positives and fingerprint leakage, supporting continuous construction under a shared semantic rule even if partial triggers are exposed. Extensive experiments across multiple LLM architectures demonstrate that CTCC consistently achieves stronger stealth and robustness than prior work. Our findings position CTCC as a reliable and practical solution for ownership verification in real-world LLM deployment scenarios. Our code and data are publicly available at <https://github.com/Xuzhenhua55/CTCC>.
- Abstract(参考訳): 大規模言語モデル(LLM)の広範な展開は、モデル盗難や不正な再配布がますます実現し、知的財産権(IP)保護に関する懸念を強めている。
これを解決するために、モデルフィンガープリントは、検証可能なオーナシップトレースをLSMに埋め込むことを目的としている。
しかし、既存の方法は、スチールネス、堅牢性、一般化可能性の間の本質的にのトレードオフに直面しており、分布シフトによって検出可能か、敵の修正に弱いか、指紋が明らかになると容易に無効化される。
本研究では,トークンレベルやシングルターントリガに頼るのではなく,複数の対話ターン間のコンテキスト相関を符号化する新しいルール駆動型フィンガープリントフレームワークであるCTCCを紹介する。
CTCCは、偽陽性と指紋漏洩を緩和しつつ、ブラックボックスアクセス下で指紋認証を可能にし、部分的なトリガーが露出しても共有セマンティックルールの下で連続的な構築をサポートする。
複数のLLMアーキテクチャにわたる大規模な実験により、CTCCは従来よりも強いステルスとロバスト性を実現していることが示された。
そこで本研究では,CTCCを実環境におけるLCM配置シナリオにおけるオーナシップ検証の信頼性と実用的なソリューションとして位置づけた。
コードとデータは <https://github.com/Xuzhenhua55/CTCC> で公開されています。
関連論文リスト
- EverTracer: Hunting Stolen Large Language Models via Stealthy and Robust Probabilistic Fingerprint [22.154946163092117]
EverTracerは、ステルスで堅牢なモデルプロファイランストレースを保証する新しいグレーボックスフィンガープリントフレームワークである。
EverTracerは、最初の防衛目的でメンバーシップ推論アタック(MIAs)を再利用した。
フィンガープリント・インジェクション(Fingerprint Injection)は、検出可能なアーティファクトを含まない自然言語データ上でモデルを微調整する。
論文 参考訳(メタデータ) (2025-09-03T06:40:57Z) - SoK: Large Language Model Copyright Auditing via Fingerprinting [69.14570598973195]
既存の手法をホワイトボックスとブラックボックスのアプローチに分類する統一的な枠組みと形式的な分類法を導入する。
現実的な展開シナリオ下でのLDMフィンガープリント評価のための最初の体系的ベンチマークであるLeaFBenchを提案する。
論文 参考訳(メタデータ) (2025-08-27T12:56:57Z) - EditMF: Drawing an Invisible Fingerprint for Your Large Language Models [11.691985114214162]
EditMFはトレーニング不要なフィンガープリントのパラダイムであり、最小の計算オーバーヘッドで非常に受け入れ難いフィンガープリントの埋め込みを実現する。
EditMF は,LoRA ベースの指紋認証をはるかに超越した堅牢性を提供しながら,認識不能なモデルの性能損失と高い認識性を兼ね備えていることを示す。
論文 参考訳(メタデータ) (2025-08-12T10:52:48Z) - Decompiling Smart Contracts with a Large Language Model [51.49197239479266]
Etherscanの78,047,845のスマートコントラクトがデプロイされているにも関わらず(2025年5月26日現在)、わずか767,520 (1%)がオープンソースである。
この不透明さは、オンチェーンスマートコントラクトバイトコードの自動意味解析を必要とする。
バイトコードを可読でセマンティックに忠実なSolidityコードに変換する,先駆的な逆コンパイルパイプラインを導入する。
論文 参考訳(メタデータ) (2025-06-24T13:42:59Z) - ImF: Implicit Fingerprint for Large Language Models [14.580290415247385]
我々は,ジェネレーション・リビジョン・インターベンション(GRI)攻撃という新たな敵攻撃を導入する。
GRIは、現在のフィンガープリント手法のセマンティックな脆弱性を利用して、事実上指紋を消去する。
Inlicit Fingerprints (ImF) と呼ばれる新しいモデル指紋パラダイムを提案する。
論文 参考訳(メタデータ) (2025-03-25T05:47:34Z) - MergePrint: Merge-Resistant Fingerprints for Robust Black-box Ownership Verification of Large Language Models [1.9249287163937978]
モデルマージを継続することのできる頑健な指紋を埋め込むための新しいフィンガープリント手法であるMergePrintを提案する。
MergePrintはブラックボックスのオーナシップの検証を可能にする。モデルが特定の指紋入力に対してターゲット出力を生成するかどうかのみを所有者が確認する必要がある。
論文 参考訳(メタデータ) (2024-10-11T08:00:49Z) - Instructional Fingerprinting of Large Language Models [57.72356846657551]
本稿では,非常に軽量なインストラクションチューニングの一形態として,Large Language Model (LLM) の指紋認証に関する実験的検討を行う。
11個の LLM 実験の結果,このアプローチは軽量であり,モデルの正常な挙動には影響しないことがわかった。
また、パブリッシャーの誇張を防ぎ、指紋の推測やパラメータ効率のトレーニングに対する堅牢性を維持し、MITライセンスのような多段階の指紋認証をサポートする。
論文 参考訳(メタデータ) (2024-01-21T09:51:45Z) - Towards General Visual-Linguistic Face Forgery Detection [95.73987327101143]
ディープフェイクは現実的な顔操作であり、セキュリティ、プライバシー、信頼に深刻な脅威をもたらす可能性がある。
既存の方法は、このタスクを、デジタルラベルまたはマスク信号を使用して検出モデルをトレーニングするバイナリ分類として扱う。
本稿では, 微粒な文レベルのプロンプトをアノテーションとして用いた, VLFFD (Visual-Linguistic Face Forgery Detection) という新しいパラダイムを提案する。
論文 参考訳(メタデータ) (2023-07-31T10:22:33Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。