論文の概要: DeepTracer: Tracing Stolen Model via Deep Coupled Watermarks
- arxiv url: http://arxiv.org/abs/2511.08985v1
- Date: Thu, 13 Nov 2025 01:23:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-13 22:34:54.340333
- Title: DeepTracer: Tracing Stolen Model via Deep Coupled Watermarks
- Title(参考訳): DeepTracer: ディープカップリングされた透かしによるストレンモデルの追跡
- Authors: Yunfei Yang, Xiaojun Chen, Yuexin Xuan, Zhendong Zhao, Xin Zhao, He Li,
- Abstract要約: 本稿では,新しい透かしサンプル構築法と等級結合損失制約を利用する,堅牢な透かしフレームワークDeepTracerを紹介する。
DeepTracerは、ウォーターマークタスクとプライマリタスクとの間に高い結合モデルを持ち込み、敵がメインタスク機能を盗む際に隠れたウォーターマークタスクを学習させる。
モデルオーナシップ検証に使用される透かしキーを精巧に選択して,透かしの信頼性を高める,効果的な透かしサンプルフィルタリング機構を提案する。
- 参考スコア(独自算出の注目度): 14.552367035706283
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Model watermarking techniques can embed watermark information into the protected model for ownership declaration by constructing specific input-output pairs. However, existing watermarks are easily removed when facing model stealing attacks, and make it difficult for model owners to effectively verify the copyright of stolen models. In this paper, we analyze the root cause of the failure of current watermarking methods under model stealing scenarios and then explore potential solutions. Specifically, we introduce a robust watermarking framework, DeepTracer, which leverages a novel watermark samples construction method and a same-class coupling loss constraint. DeepTracer can incur a high-coupling model between watermark task and primary task that makes adversaries inevitably learn the hidden watermark task when stealing the primary task functionality. Furthermore, we propose an effective watermark samples filtering mechanism that elaborately select watermark key samples used in model ownership verification to enhance the reliability of watermarks. Extensive experiments across multiple datasets and models demonstrate that our method surpasses existing approaches in defending against various model stealing attacks, as well as watermark attacks, and achieves new state-of-the-art effectiveness and robustness.
- Abstract(参考訳): モデル透かし技術は、特定の入出力ペアを構築することで、保護されたモデルの所有権宣言に透かし情報を埋め込むことができる。
しかし、モデル盗難攻撃に直面した場合、既存の透かしは容易に除去され、モデル所有者が盗難モデルの著作権を効果的に検証することが困難になる。
本稿では,モデルステルスシナリオにおける現在の透かし手法の失敗の原因を解析し,潜在的な解を探索する。
具体的には,新しい透かしサンプル構築法と等級結合損失制約を利用する,堅牢な透かしフレームワークDeepTracerを導入する。
DeepTracerは、ウォーターマークタスクとプライマリタスクの間の高結合モデルを生成することができるため、プライマリタスク機能を盗む際に、敵が必然的に隠れたウォーターマークタスクを学習することが可能になる。
さらに,モデルのオーナシップ検証に使用される透かしキーサンプルを精巧に選択して,透かしの信頼性を高める,効果的な透かしサンプルフィルタリング機構を提案する。
複数のデータセットやモデルにまたがる大規模な実験により、本手法は様々なモデル盗難攻撃や透かし攻撃を防御する既存のアプローチを超越し、新しい最先端の有効性と堅牢性を実現することが実証された。
関連論文リスト
- Optimization-Free Universal Watermark Forgery with Regenerative Diffusion Models [50.73220224678009]
ウォーターマーキングは、人工知能モデルによって生成された合成画像の起源を検証するために使用できる。
近年の研究では, 対象画像から表層画像への透かしを, 対角的手法を用いてフォージできることが示されている。
本稿では,最適化フリーで普遍的な透かし偽造のリスクが大きいことを明らかにする。
我々のアプローチは攻撃範囲を大きく広げ、現在の透かし技術の安全性により大きな課題をもたらす。
論文 参考訳(メタデータ) (2025-06-06T12:08:02Z) - SEAL: Semantic Aware Image Watermarking [26.606008778795193]
本稿では,生成した画像のセマンティック情報を透かしに直接埋め込む新しい透かし手法を提案する。
キーパターンは、局所性に敏感なハッシュを用いて画像のセマンティック埋め込みから推測することができる。
以上の結果から,画像生成モデルによるリスクを軽減できる可能性が示唆された。
論文 参考訳(メタデータ) (2025-03-15T15:29:05Z) - RoboSignature: Robust Signature and Watermarking on Network Attacks [0.5461938536945723]
本稿では,モデルが意図した透かしを埋め込む能力を阻害する新たな逆調整攻撃を提案する。
本研究は, 発生システムにおける潜在的な脆弱性を予知し, 防御することの重要性を強調した。
論文 参考訳(メタデータ) (2024-12-22T04:36:27Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。