論文の概要: SSCL-BW: Sample-Specific Clean-Label Backdoor Watermarking for Dataset Ownership Verification
- arxiv url: http://arxiv.org/abs/2510.26420v1
- Date: Thu, 30 Oct 2025 12:13:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-31 16:05:09.801795
- Title: SSCL-BW: Sample-Specific Clean-Label Backdoor Watermarking for Dataset Ownership Verification
- Title(参考訳): SSCL-BW:データセット所有者認証のためのクリーンラベルバックドア透かし
- Authors: Yingjia Wang, Ting Qiao, Xing Liu, Chongzuo Li, Sixing Wu, Jianbin Li,
- Abstract要約: 本稿では,サンプル特異的クリーンラベルバックドア透かし(SSCL-BW)を提案する。
U-Netベースの透かしサンプルジェネレータをトレーニングすることにより,サンプル毎に独自の透かしを生成する。
ベンチマークデータセットを用いた実験は,提案手法の有効性と潜在的な透かし除去攻撃に対する頑健性を示す。
- 参考スコア(独自算出の注目度): 8.045712223215542
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The rapid advancement of deep neural networks (DNNs) heavily relies on large-scale, high-quality datasets. However, unauthorized commercial use of these datasets severely violates the intellectual property rights of dataset owners. Existing backdoor-based dataset ownership verification methods suffer from inherent limitations: poison-label watermarks are easily detectable due to label inconsistencies, while clean-label watermarks face high technical complexity and failure on high-resolution images. Moreover, both approaches employ static watermark patterns that are vulnerable to detection and removal. To address these issues, this paper proposes a sample-specific clean-label backdoor watermarking (i.e., SSCL-BW). By training a U-Net-based watermarked sample generator, this method generates unique watermarks for each sample, fundamentally overcoming the vulnerability of static watermark patterns. The core innovation lies in designing a composite loss function with three components: target sample loss ensures watermark effectiveness, non-target sample loss guarantees trigger reliability, and perceptual similarity loss maintains visual imperceptibility. During ownership verification, black-box testing is employed to check whether suspicious models exhibit predefined backdoor behaviors. Extensive experiments on benchmark datasets demonstrate the effectiveness of the proposed method and its robustness against potential watermark removal attacks.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の急速な進歩は、大規模で高品質なデータセットに大きく依存している。
しかし、これらのデータセットの認可されていない商用利用は、データセット所有者の知的財産権を著しく侵害する。
既存のバックドアベースのデータセットのオーナシップ検証方法は、ラベルの不整合により、有毒ラベルの透かしが容易に検出できる一方で、クリーンラベルの透かしは、高解像度の画像に対して高い技術的複雑さと失敗に直面している。
さらに、どちらのアプローチも、検出と削除に弱い静的な透かしパターンを採用している。
これらの問題に対処するため,本研究では,サンプル特異的なクリーンラベルバックドア透かし(SSCL-BW)を提案する。
U-Netベースの透かしサンプルジェネレータをトレーニングすることにより,各サンプルに対してユニークな透かしを生成し,静的透かしパターンの脆弱性を克服する。
目的のサンプル損失は透かしの有効性を保証し、非目標のサンプル損失は信頼性を保証し、知覚的類似性損失は視覚的不受容性を維持する。
オーナーシップ検証では、不審なモデルが事前に定義されたバックドア動作を示すかどうかを確認するためにブラックボックステストが使用される。
ベンチマークデータセットの大規模な実験は、提案手法の有効性と、潜在的な透かし除去攻撃に対するロバスト性を示す。
関連論文リスト
- When There Is No Decoder: Removing Watermarks from Stable Diffusion Models in a No-box Setting [37.85082375268253]
本研究では,透かしの埋め込みをテキスト・ツー・イメージ生成と組み合わせたモデル固有透かしの堅牢性について検討する。
我々は、エッジ予測ベースの3つの攻撃戦略、ボックスのぼかし、ノーボックス設定で微調整ベースの攻撃を導入する。
我々の最高の攻撃は、透かし検出精度を約47.92%に低下させる。
論文 参考訳(メタデータ) (2025-07-04T15:22:20Z) - TAG-WM: Tamper-Aware Generative Image Watermarking via Diffusion Inversion Sensitivity [76.98973481600002]
本稿では,TAG-WMと命名されたタンパ認識画像ウォーターマーキング手法を提案する。
提案手法は、4つのキーモジュールからなる: 生成品質を保ちつつ、著作権と局所化の透かしを潜伏空間に埋め込むためのデュアルマークジョイントサンプリング (DMJS) アルゴリズム。
実験結果から,TAG-WMは歪み下においても,改質性および局所化能力の両面において最先端性能を達成できることが示された。
論文 参考訳(メタデータ) (2025-06-30T03:14:07Z) - PointNCBW: Towards Dataset Ownership Verification for Point Clouds via Negative Clean-label Backdoor Watermark [20.746346834429925]
我々は,点雲に対するクリーンラベルバックドアベースのデータセット透かしを提案し,有効性とステルス性の両方を保証する。
我々は、トリガーパターンを挿入する前に、形状的にも点的にも非ターゲットカテゴリの点雲を摂動する。
そのため、ウォーターマークされたデータセットでトレーニングされたモデルには、独特だがステルス的なバックドアの挙動がある。
論文 参考訳(メタデータ) (2024-08-10T09:31:58Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。