論文の概要: Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation
- arxiv url: http://arxiv.org/abs/2303.09732v1
- Date: Fri, 17 Mar 2023 02:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:49:27.463903
- Title: Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation
- Title(参考訳): ニューラルネットワークによる深層学習モデルにおけるホワイトボックス透かしの再検討
- Authors: Yifan Yan, Xudong Pan, Mi Zhang, Min Yang
- Abstract要約: ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
- 参考スコア(独自算出の注目度): 24.07604618918671
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Copyright protection for deep neural networks (DNNs) is an urgent need for AI
corporations. To trace illegally distributed model copies, DNN watermarking is
an emerging technique for embedding and verifying secret identity messages in
the prediction behaviors or the model internals. Sacrificing less functionality
and involving more knowledge about the target DNN, the latter branch called
\textit{white-box DNN watermarking} is believed to be accurate, credible and
secure against most known watermark removal attacks, with emerging research
efforts in both the academy and the industry.
In this paper, we present the first systematic study on how the mainstream
white-box DNN watermarks are commonly vulnerable to neural structural
obfuscation with \textit{dummy neurons}, a group of neurons which can be added
to a target model but leave the model behavior invariant. Devising a
comprehensive framework to automatically generate and inject dummy neurons with
high stealthiness, our novel attack intensively modifies the architecture of
the target model to inhibit the success of watermark verification. With
extensive evaluation, our work for the first time shows that nine published
watermarking schemes require amendments to their verification procedures.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
違法に分散されたモデルコピーをトレースするために、DNN透かしは、予測行動やモデル内部に秘密のIDメッセージを埋め込んで検証するための新興技術である。
機能不足とターゲットdnnに関するさらなる知識を犠牲にして、後者のブランチである \textit{white-box dnn watermarking} は、多くの既知のウォーターマーク除去攻撃に対して正確で信頼性が高く、安全であると信じられており、アカデミーと業界の両方で新たな研究が進められている。
本稿では,標的モデルに付加できるがモデル行動に不変なニューロン群である \textit{dummy neurons} を用いて,主流のホワイトボックスdnnウォーターマークが神経構造難読化に対して一般的に脆弱であることを示す最初の体系的研究を行う。
ダミーニューロンを高ステルス性で自動生成・注入する包括的枠組みを考案し,本攻撃は標的モデルのアーキテクチャを集中的に修正し,透かし検証の成功を抑制する。
広範囲な評価により,9つの電子透かし方式が検証手順の修正を必要とすることが明らかとなった。
関連論文リスト
- DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - MIRA: Cracking Black-box Watermarking on Deep Neural Networks via Model
Inversion-based Removal Attacks [25.641458647180997]
ブラックボックス透かし方式に対する新しいモデル反転型除去攻撃(textscMira)を提案する。
一般的に、攻撃パイプラインは保護されたモデルの内部を利用して、透かしメッセージを復元し、解放する。
textscMiraは,盗難モデルユーティリティの少なくとも90%を保存し,カバーされた透かしに対して強い透かし除去効果を発揮することを示す。
論文 参考訳(メタデータ) (2023-09-07T03:16:03Z) - PCPT and ACPT: Copyright Protection and Traceability Scheme for DNN
Models [13.043683635373213]
ディープニューラルネットワーク(DNN)は人工知能(AI)分野で大きな成功を収めている。
DNNモデルは、簡単に違法にコピーしたり、再配布したり、犯罪者に虐待されたりすることができる。
論文 参考訳(メタデータ) (2022-06-06T12:12:47Z) - "And Then There Were None": Cracking White-box DNN Watermarks via
Invariant Neuron Transforms [29.76685892624105]
我々は,既存のホワイトボックス透かし方式のほとんど全てを破る,効果的な除去攻撃を初めて提示する。
私たちの攻撃では、トレーニングデータ配布や採用された透かしアルゴリズムに関する事前知識は必要ありません。
論文 参考訳(メタデータ) (2022-04-30T08:33:32Z) - TATTOOED: A Robust Deep Neural Network Watermarking Scheme based on
Spread-Spectrum Channel Coding [56.376997104843355]
本稿では,拡散スペクトルチャネル符号化に基づく,堅牢で効率的なDNN透かし技術であるTATTOOEDを提案する。
DNNから透かしを除去するために用いられるいくつかの最先端メカニズムに対して,TATTOOEDを広範囲に評価した。
以上の結果から,TATTOOEDは極端なシナリオにおいても,このような除去手法に対して堅牢であることがわかった。
論文 参考訳(メタデータ) (2022-02-12T16:05:06Z) - Fostering the Robustness of White-Box Deep Neural Network Watermarks by
Neuron Alignment [6.706652133049011]
本稿では,ニューロンを透かしが埋め込まれた時と同じ順序に整列させることで,透かしを正しく認識する手法を提案する。
これは、確立されたディープニューラルネットワークウォーターマーキングスキームの機能を大幅に促進する。
論文 参考訳(メタデータ) (2021-12-28T12:12:09Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。