論文の概要: MIRA: Cracking Black-box Watermarking on Deep Neural Networks via Model
Inversion-based Removal Attacks
- arxiv url: http://arxiv.org/abs/2309.03466v1
- Date: Thu, 7 Sep 2023 03:16:03 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-08 14:30:36.985852
- Title: MIRA: Cracking Black-box Watermarking on Deep Neural Networks via Model
Inversion-based Removal Attacks
- Title(参考訳): MIRA: モデル反転に基づく除去攻撃による深層ニューラルネットワークのブラックボックス透かし
- Authors: Yifan Lu, Wenxuan Li, Mi Zhang, Xudong Pan, Min Yang
- Abstract要約: ブラックボックス透かし方式に対する新しいモデル反転型除去攻撃(textscMira)を提案する。
一般的に、攻撃パイプラインは保護されたモデルの内部を利用して、透かしメッセージを復元し、解放する。
textscMiraは,盗難モデルユーティリティの少なくとも90%を保存し,カバーされた透かしに対して強い透かし除去効果を発揮することを示す。
- 参考スコア(独自算出の注目度): 25.641458647180997
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: To protect the intellectual property of well-trained deep neural networks
(DNNs), black-box DNN watermarks, which are embedded into the prediction
behavior of DNN models on a set of specially-crafted samples, have gained
increasing popularity in both academy and industry. Watermark robustness is
usually implemented against attackers who steal the protected model and
obfuscate its parameters for watermark removal. Recent studies empirically
prove the robustness of most black-box watermarking schemes against known
removal attempts.
In this paper, we propose a novel Model Inversion-based Removal Attack
(\textsc{Mira}), which is watermark-agnostic and effective against most of
mainstream black-box DNN watermarking schemes. In general, our attack pipeline
exploits the internals of the protected model to recover and unlearn the
watermark message. We further design target class detection and recovered
sample splitting algorithms to reduce the utility loss caused by \textsc{Mira}
and achieve data-free watermark removal on half of the watermarking schemes. We
conduct comprehensive evaluation of \textsc{Mira} against ten mainstream
black-box watermarks on three benchmark datasets and DNN architectures.
Compared with six baseline removal attacks, \textsc{Mira} achieves strong
watermark removal effects on the covered watermarks, preserving at least $90\%$
of the stolen model utility, under more relaxed or even no assumptions on the
dataset availability.
- Abstract(参考訳): 高度に訓練された深層ニューラルネットワーク(DNN)の知的特性を保護するため,DNNモデルの予測行動に埋め込まれたブラックボックスDNN透かしが,専門的なサンプルのセットに組み込まれ,学界と産業の双方で人気が高まっている。
ウォーターマークの堅牢性は通常、保護されたモデルを盗み、ウォーターマーク除去のパラメータを難読化する攻撃者に対して実装される。
最近の研究では、既知の除去の試みに対するほとんどのブラックボックス透かしスキームの堅牢性が実証されている。
本稿では,主要なブラックボックスDNN透かし方式のほとんどに対して,透かしに依存しない新しいモデル反転型除去攻撃(\textsc{Mira})を提案する。
一般的に、攻撃パイプラインは保護されたモデルの内部を利用してウォーターマークメッセージを復元し、解き放つ。
さらに,ターゲットクラス検出とサンプル分割アルゴリズムの設計を行い,<textsc{mira>によるユーティリティ損失を低減し,透かしスキームの半分でデータフリーな透かし除去を実現する。
我々は,3つのベンチマークデータセットとDNNアーキテクチャを用いた10の主流ブラックボックス透かしに対して,textsc{Mira}の総合評価を行う。
6つのベースライン削除攻撃と比較すると、‘textsc{Mira} はカバーされた透かしに対して強い透かし除去効果を達成し、盗まれたモデルユーティリティの少なくとも 90 % を保存し、データセットの可用性をより緩やかに、あるいは全く仮定しない。
関連論文リスト
- DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - ClearMark: Intuitive and Robust Model Watermarking via Transposed Model
Training [50.77001916246691]
本稿では,人間の直感的な評価を目的とした最初のDNN透かし手法であるClearMarkを紹介する。
ClearMarkは目に見える透かしを埋め込んで、厳格な値閾値なしで人間の意思決定を可能にする。
8,544ビットの透かし容量は、現存する最強の作品に匹敵する。
論文 参考訳(メタデータ) (2023-10-25T08:16:55Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Did You Train on My Dataset? Towards Public Dataset Protection with
Clean-Label Backdoor Watermarking [54.40184736491652]
本稿では,公開データの保護のための一般的な枠組みとして機能するバックドアベースの透かし手法を提案する。
データセットに少数の透かしサンプルを挿入することにより、我々のアプローチは、ディフェンダーが設定した秘密関数を暗黙的に学習することを可能にする。
この隠れた機能は、データセットを違法に使用するサードパーティモデルを追跡するための透かしとして使用できる。
論文 参考訳(メタデータ) (2023-03-20T21:54:30Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z) - Removing Backdoor-Based Watermarks in Neural Networks with Limited Data [26.050649487499626]
ディープモデルの取引は、今日では非常に需要が高く、利益を上げている。
ナイーブ・トレーディング・スキームは 一般的に 著作権と信頼性の問題に関連する 潜在的なリスクを伴います
WILDと呼ばれる限られたデータを用いたバックドア型透かし除去フレームワークを提案する。
論文 参考訳(メタデータ) (2020-08-02T06:25:26Z) - Neural Network Laundering: Removing Black-Box Backdoor Watermarks from
Deep Neural Networks [17.720400846604907]
ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
本論文では,すべてのバックドア透かし法について,透かしの頑健さが当初の主張よりも著しく弱いことが確認された。
論文 参考訳(メタデータ) (2020-04-22T19:02:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。