論文の概要: Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models
- arxiv url: http://arxiv.org/abs/2009.08697v2
- Date: Mon, 17 May 2021 06:23:29 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-17 02:41:29.569453
- Title: Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models
- Title(参考訳): 微調整だけでは不十分:dnnモデルのためのシンプルで効果的な透かし除去攻撃
- Authors: Shangwei Guo, Tianwei Zhang, Han Qiu, Yi Zeng, Tao Xiang, and Yang Liu
- Abstract要約: 我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
- 参考スコア(独自算出の注目度): 72.9364216776529
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Watermarking has become the tendency in protecting the intellectual property
of DNN models. Recent works, from the adversary's perspective, attempted to
subvert watermarking mechanisms by designing watermark removal attacks.
However, these attacks mainly adopted sophisticated fine-tuning techniques,
which have certain fatal drawbacks or unrealistic assumptions. In this paper,
we propose a novel watermark removal attack from a different perspective.
Instead of just fine-tuning the watermarked models, we design a simple yet
powerful transformation algorithm by combining imperceptible pattern embedding
and spatial-level transformations, which can effectively and blindly destroy
the memorization of watermarked models to the watermark samples. We also
introduce a lightweight fine-tuning strategy to preserve the model performance.
Our solution requires much less resource or knowledge about the watermarking
scheme than prior works. Extensive experimental results indicate that our
attack can bypass state-of-the-art watermarking solutions with very high
success rates. Based on our attack, we propose watermark augmentation
techniques to enhance the robustness of existing watermarks.
- Abstract(参考訳): 透かしはDNNモデルの知的特性を保護する傾向にある。
最近の研究は、敵の視点から、透かし除去攻撃を設計することで透かし機構を覆そうと試みている。
しかし、これらの攻撃は主に高度な微調整技術を採用しており、致命的な欠点や非現実的な仮定がある。
本稿では,異なる視点から新しい透かし除去攻撃を提案する。
透かしモデルのみを微調整する代わりに、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、透かしモデルから透かしサンプルへの記憶を効果的に、盲目的に破壊できる、単純かつ強力な変換アルゴリズムを設計する。
モデル性能を維持するための軽量な微調整戦略も導入する。
私たちのソリューションは、以前の作業よりも、ウォーターマーキングスキームに関するリソースや知識をはるかに少なくします。
広範な実験結果から,本攻撃は最先端のウォーターマーキングソリューションを極めて高い成功率でバイパスできることが示唆された。
本研究では,既存の透かしの堅牢性を高めるため,透かし強化手法を提案する。
関連論文リスト
- ESpeW: Robust Copyright Protection for LLM-based EaaS via Embedding-Specific Watermark [50.08021440235581]
組み込み・アズ・ア・サービス(Eding)はAIアプリケーションにおいて重要な役割を担っている。
編集はモデル抽出攻撃に対して脆弱であり、著作権保護の緊急の必要性を強調している。
そこで我々は,Edingの著作権保護を堅牢にするための新しい埋め込み専用透かし (ESpeW) 機構を提案する。
論文 参考訳(メタデータ) (2024-10-23T04:34:49Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Wide Flat Minimum Watermarking for Robust Ownership Verification of GANs [23.639074918667625]
ホワイトボックス攻撃に対するロバスト性を向上したGANのための新しいマルチビット・ボックスフリー透かし手法を提案する。
透かしは、GANトレーニング中に余分な透かし損失項を追加することで埋め込む。
その結果,透かしの存在が画像の品質に与える影響は無視できることがわかった。
論文 参考訳(メタデータ) (2023-10-25T18:38:10Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Invisible Image Watermarks Are Provably Removable Using Generative AI [47.25747266531665]
Invisibleの透かしは、所有者によってのみ検出可能な隠されたメッセージを埋め込むことで、画像の著作権を保護する。
我々は、これらの見えない透かしを取り除くために、再生攻撃のファミリーを提案する。
提案手法は,まず画像にランダムノイズを加えて透かしを破壊し,画像を再構成する。
論文 参考訳(メタデータ) (2023-06-02T23:29:28Z) - Certified Neural Network Watermarks with Randomized Smoothing [64.86178395240469]
本稿では,ディープラーニングモデルのための認証型透かし手法を提案する。
我々の透かしは、モデルパラメータが特定のl2しきい値以上変更されない限り、取り外し不可能であることが保証されている。
私たちの透かしは、従来の透かし法に比べて経験的に頑丈です。
論文 参考訳(メタデータ) (2022-07-16T16:06:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Piracy-Resistant DNN Watermarking by Block-Wise Image Transformation
with Secret Key [15.483078145498085]
提案手法は学習可能な変換画像を用いてモデルに透かしパターンを埋め込む。
海賊に耐性があるため、元のウォーターマークは海賊版ウォーターマークでは上書きできない。
その結果,高い透かし検出精度を維持しつつ,微調整や刈り込み攻撃に対して弾力性を示した。
論文 参考訳(メタデータ) (2021-04-09T08:21:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。