論文の概要: Leave No TRACE: Black-box Detection of Copyrighted Dataset Usage in Large Language Models via Watermarking
- arxiv url: http://arxiv.org/abs/2510.02962v1
- Date: Fri, 03 Oct 2025 12:53:02 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-06 16:35:52.386023
- Title: Leave No TRACE: Black-box Detection of Copyrighted Dataset Usage in Large Language Models via Watermarking
- Title(参考訳): leave No TRACE: ウォーターマーキングによる大規模言語モデルにおける著作権付きデータセット使用のブラックボックス検出
- Authors: Jingqi Zhang, Ruibo Chen, Yingqing Yang, Peihua Mai, Heng Huang, Yan Pang,
- Abstract要約: 我々は,大規模な言語モデルにおける著作権付きデータセット使用量を完全にブラックボックスで検出するフレームワークであるTRACEを提案する。
textttTRACEは、プライベートキーでガイドされた歪みのない透かしでデータセットを書き換える。
さまざまなデータセットとモデルファミリにわたって、TRACEは一貫して重要な検出を実現している。
- 参考スコア(独自算出の注目度): 51.74368870268278
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large Language Models (LLMs) are increasingly fine-tuned on smaller, domain-specific datasets to improve downstream performance. These datasets often contain proprietary or copyrighted material, raising the need for reliable safeguards against unauthorized use. Existing membership inference attacks (MIAs) and dataset-inference methods typically require access to internal signals such as logits, while current black-box approaches often rely on handcrafted prompts or a clean reference dataset for calibration, both of which limit practical applicability. Watermarking is a promising alternative, but prior techniques can degrade text quality or reduce task performance. We propose TRACE, a practical framework for fully black-box detection of copyrighted dataset usage in LLM fine-tuning. \texttt{TRACE} rewrites datasets with distortion-free watermarks guided by a private key, ensuring both text quality and downstream utility. At detection time, we exploit the radioactivity effect of fine-tuning on watermarked data and introduce an entropy-gated procedure that selectively scores high-uncertainty tokens, substantially amplifying detection power. Across diverse datasets and model families, TRACE consistently achieves significant detections (p<0.05), often with extremely strong statistical evidence. Furthermore, it supports multi-dataset attribution and remains robust even after continued pretraining on large non-watermarked corpora. These results establish TRACE as a practical route to reliable black-box verification of copyrighted dataset usage. We will make our code available at: https://github.com/NusIoraPrivacy/TRACE.
- Abstract(参考訳): 大きな言語モデル(LLM)は、下流のパフォーマンスを改善するために、より小さなドメイン固有のデータセットに微調整されるようになっている。
これらのデータセットは、しばしばプロプライエタリまたは著作権のある素材を含んでおり、無許可使用に対する信頼性の高い保護の必要性を高めている。
既存のメンバーシップ推論攻撃(MIA)とデータセット推論手法は、通常、ログのような内部信号へのアクセスを必要とするが、現在のブラックボックスアプローチは手作りのプロンプトやキャリブレーションのためのクリーンな参照データセットに依存しており、どちらも実用性を制限する。
ウォーターマーキングは有望な代替手段だが、以前のテクニックはテキストの品質を低下させたり、タスクのパフォーマンスを低下させたりすることができる。
LLMファインチューニングにおける著作権付きデータセットの完全なブラックボックス検出のための実践的フレームワークであるTRACEを提案する。
\texttt{TRACE}は、プライベートキーでガイドされた歪みのない透かしでデータセットを書き換え、テキストの品質とダウンストリームユーティリティの両方を保証する。
検出時には,透かしデータに対する微調整の放射能効果を利用して,高不確かさトークンを選択的にスコアし,検出力を実質的に増幅するエントロピーゲート方式を導入する。
TRACEは様々なデータセットとモデルファミリにわたって、非常に強力な統計的証拠を持つ重要な検出(p<0.05)を一貫して達成している。
さらに、マルチデータセットの属性をサポートし、大規模な非ウォーターマークコーパスでの事前訓練を継続しても頑健である。
これらの結果から,TRACEは著作権データセット使用の信頼性の高いブラックボックス検証の実践的方法として確立された。
コードについては、https://github.com/NusIoraPrivacy/TRACE.comで公開します。
関連論文リスト
- CBW: Towards Dataset Ownership Verification for Speaker Verification via Clustering-based Backdoor Watermarking [85.68235482145091]
大規模音声データセットは貴重な知的財産となった。
本稿では,新しいデータセットのオーナシップ検証手法を提案する。
我々のアプローチはクラスタリングに基づくバックドア透かし(CBW)を導入している。
我々は,ベンチマークデータセットに対する広範な実験を行い,本手法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2025-03-02T02:02:57Z) - Detecting Dataset Abuse in Fine-Tuning Stable Diffusion Models for Text-to-Image Synthesis [3.8809673918404246]
認証されていない使用とトレースデータのリークを検出するために設計されたデータセットの透かしフレームワーク。
我々は、不正使用やトレースデータ漏洩を検出するために設計されたデータセット透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-27T16:34:48Z) - FreqyWM: Frequency Watermarking for the New Data Economy [8.51675079658644]
目に見えない透かしを符号化するためのデータセット内のいくつかのトークンの出現頻度を変調する新しい手法を提案する。
このような透かしを作成し検証するアルゴリズムを最適かつ高速に開発する。
論文 参考訳(メタデータ) (2023-12-27T12:17:59Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - Black-box Dataset Ownership Verification via Backdoor Watermarking [67.69308278379957]
我々は、リリースデータセットの保護を、(目立たしい)サードパーティモデルのトレーニングに採用されているかどうかの検証として定式化する。
バックドアの透かしを通じて外部パターンを埋め込んでオーナシップの検証を行い,保護することを提案する。
具体的には、有毒なバックドア攻撃(例えばBadNets)をデータセットのウォーターマーキングに利用し、データセット検証のための仮説テストガイダンスメソッドを設計する。
論文 参考訳(メタデータ) (2022-08-04T05:32:20Z) - On the Effectiveness of Dataset Watermarking in Adversarial Settings [14.095584034871658]
機械学習(ML)モデルのトレーニングに使用される(画像)データセットのオーナシップを実証するために,提案手法である放射能データについて検討する。
本研究では, 放射能データによるモデル抽出攻撃を効果的に回避できることを示し, モデル抽出に対して頑健なMLモデルのオーナシップ検証に使用できる可能性を示した。
論文 参考訳(メタデータ) (2022-02-25T05:51:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。