論文の概要: DWBench: Holistic Evaluation of Watermark for Dataset Copyright Auditing
- arxiv url: http://arxiv.org/abs/2602.13541v1
- Date: Sat, 14 Feb 2026 01:09:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.135991
- Title: DWBench: Holistic Evaluation of Watermark for Dataset Copyright Auditing
- Title(参考訳): DWBench: データセット著作権監査のための透かしの全体的評価
- Authors: Xiao Ren, Xinyi Yu, Linkang Du, Min Chen, Yuanchao Shu, Zhou Su, Yunjun Gao, Zhikun Zhang,
- Abstract要約: データセット透かし技術は、監査と使用の検証を約束する。
我々はDWBenchを開発した。DWBenchは、画像データセットのウォーターマーク手法を体系的に評価するための統一ベンチマークおよびオープンソースツールキットである。
そこで本研究では,詳細な透かし識別のためのサンプルの意義と,データセットレベルの監査における検証成功率の2つの新しい指標について述べる。
- 参考スコア(独自算出の注目度): 43.881484429055654
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The surging demand for large-scale datasets in deep learning has heightened the need for effective copyright protection, given the risks of unauthorized use to data owners. Although the dataset watermark technique holds promise for auditing and verifying usage, existing methods are hindered by inconsistent evaluations, which impede fair comparisons and assessments of real-world viability. To address this gap, we propose a two-layer taxonomy that categorizes methods by implementation (model-based vs. model-free injection; model-behavior vs. model-message verification), offering a structured framework for cross-task analysis. Then, we develop DWBench, a unified benchmark and open-source toolkit for systematically evaluating image dataset watermark techniques in classification and generation tasks. Using DWBench, we assess 25 representative methods under standardized conditions, perturbation-based robustness tests, multi-watermark coexistence, and multi-user interference. In addition to reporting the results of four commonly used metrics, we present the results of two new metrics: sample significance for fine-grained watermark distinguishability and verification success rate for dataset-level auditing, which enable accurate and reproducible benchmarking. Key findings reveal inherent trade-offs: no single method dominates all scenarios; classification and generation tasks require specialized approaches; and existing techniques exhibit instability at low watermark rates and in realistic multi-user settings, with elevated false positives or performance declines. We hope that DWBench can facilitate advances in watermark reliability and practicality, thus strengthening copyright safeguards in the face of widespread AI-driven data exploitation.
- Abstract(参考訳): ディープラーニングにおける大規模データセットの需要の高まりにより、データ所有者に不正使用のリスクがあるため、効果的な著作権保護の必要性が高まっている。
データセット透かし技術は、監査と使用の検証を約束するが、既存の手法は矛盾した評価によって妨げられ、現実の生存可能性の公正な比較と評価を妨げている。
このギャップに対処するため,モデルベース対モデルフリーインジェクション,モデルビヘイビア対モデルメッセージ検証)によりメソッドを分類し,クロスタスク解析のための構造化フレームワークを提供する2層分類法を提案する。
そこで我々は,分類および生成タスクにおける画像データセット透かし手法を体系的に評価するための,統一ベンチマークとオープンソースツールキットであるDWBenchを開発した。
DWBenchを用いて、標準条件下での25の代表的な手法、摂動に基づく頑健性試験、マルチウォーターマーク共存、マルチユーザ干渉を評価する。
4つの一般的な測定結果の報告に加えて,詳細な透かしの識別性に対するサンプルの意義と,正確な再現可能なベンチマークを可能にするデータセットレベルの監査における検証成功率という,2つの新しい測定結果も提示する。
一つの手法がすべてのシナリオを支配しておらず、分類と生成のタスクには特別なアプローチが必要であり、既存の手法では、偽陽性や性能低下が増大した、低透かし率や現実的なマルチユーザー設定で不安定を示す。
我々は、DWBenchが透かしの信頼性と実用性の向上を促進し、AIによるデータエクスプロイトが広まる中で著作権保護を強化することを願っている。
関連論文リスト
- SEAL: Subspace-Anchored Watermarks for LLM Ownership [12.022506016268112]
大規模言語モデルのためのサブスペース型透かしフレームワークSEALを提案する。
SEALはモデルの潜在表現空間に直接マルチビットシグネチャを埋め込んで、ホワイトボックスとブラックボックスの検証シナリオをサポートする。
我々は、SEALの優れた効率、忠実性、効率、堅牢性を示すために、複数のベンチマークデータセットと6つの著名なLCMに関する包括的な実験を行う。
論文 参考訳(メタデータ) (2025-11-14T14:44:11Z) - SWAP: Towards Copyright Auditing of Soft Prompts via Sequential Watermarking [58.475471437150674]
ソフトプロンプト(SWAP)のための逐次透かしを提案する。
SWAPは、特定のディフェンダー指定のアウト・オブ・ディストリビューション・クラスを通じて、透かしを符号化する。
11のデータセットの実験では、SWAPの有効性、無害性、および潜在的適応攻撃に対する堅牢性を示す。
論文 参考訳(メタデータ) (2025-11-05T13:48:48Z) - SSCL-BW: Sample-Specific Clean-Label Backdoor Watermarking for Dataset Ownership Verification [8.045712223215542]
本稿では,サンプル特異的クリーンラベルバックドア透かし(SSCL-BW)を提案する。
U-Netベースの透かしサンプルジェネレータをトレーニングすることにより,サンプル毎に独自の透かしを生成する。
ベンチマークデータセットを用いた実験は,提案手法の有効性と潜在的な透かし除去攻撃に対する頑健性を示す。
論文 参考訳(メタデータ) (2025-10-30T12:13:53Z) - CertDW: Towards Certified Dataset Ownership Verification via Conformal Prediction [48.82467166657901]
本稿では,最初の認証データセット透かし(CertDW)とCertDWベースの認証データセットオーナシップ検証手法を提案する。
共形予測に触発されて,主確率 (PP) と透かし頑健性 (WR) の2つの統計指標を導入する。
我々は、不審モデルのWR値が、透かしのないデータセットでトレーニングされた良性モデルのPP値を大幅に上回る場合に、PPとWRの間に証明可能な低い境界が存在することを証明した。
論文 参考訳(メタデータ) (2025-06-16T07:17:23Z) - CBW: Towards Dataset Ownership Verification for Speaker Verification via Clustering-based Backdoor Watermarking [85.68235482145091]
大規模音声データセットは貴重な知的財産となった。
本稿では,新しいデータセットのオーナシップ検証手法を提案する。
我々のアプローチはクラスタリングに基づくバックドア透かし(CBW)を導入している。
我々は,ベンチマークデータセットに対する広範な実験を行い,本手法の有効性とロバスト性を検証した。
論文 参考訳(メタデータ) (2025-03-02T02:02:57Z) - Hide in Plain Sight: Clean-Label Backdoor for Auditing Membership Inference [16.893873979953593]
本研究では,ステルスデータ監査のための新しいクリーンラベルバックドア方式を提案する。
我々のアプローチでは、ターゲットモデルの振る舞いを模倣するシャドウモデルによって生成される最適なトリガを用いる。
提案手法は,ブラックボックスアクセスによるロバストなデータ監査を可能にし,多様なデータセット間で高い攻撃成功率を達成する。
論文 参考訳(メタデータ) (2024-11-24T20:56:18Z) - Non-Transferable Learning: A New Approach for Model Verification and
Authorization [7.686781778077341]
オーナシップの認証と使用許可という2つの一般的な保護方法がある。
学習モデルにおける排他的データ表現をキャプチャする新しい手法であるNon-Transferable Learning (NTL)を提案する。
我々のNTLベースの認証アプローチは、不正なデータに対する使用性能を著しく低下させることで、データ中心の使用保護を提供します。
論文 参考訳(メタデータ) (2021-06-13T04:57:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。