論文の概要: Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation
- arxiv url: http://arxiv.org/abs/2303.09732v1
- Date: Fri, 17 Mar 2023 02:21:41 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-20 15:49:27.463903
- Title: Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation
- Title(参考訳): ニューラルネットワークによる深層学習モデルにおけるホワイトボックス透かしの再検討
- Authors: Yifan Yan, Xudong Pan, Mi Zhang, Min Yang
- Abstract要約: ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
- 参考スコア(独自算出の注目度): 24.07604618918671
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Copyright protection for deep neural networks (DNNs) is an urgent need for AI
corporations. To trace illegally distributed model copies, DNN watermarking is
an emerging technique for embedding and verifying secret identity messages in
the prediction behaviors or the model internals. Sacrificing less functionality
and involving more knowledge about the target DNN, the latter branch called
\textit{white-box DNN watermarking} is believed to be accurate, credible and
secure against most known watermark removal attacks, with emerging research
efforts in both the academy and the industry.
In this paper, we present the first systematic study on how the mainstream
white-box DNN watermarks are commonly vulnerable to neural structural
obfuscation with \textit{dummy neurons}, a group of neurons which can be added
to a target model but leave the model behavior invariant. Devising a
comprehensive framework to automatically generate and inject dummy neurons with
high stealthiness, our novel attack intensively modifies the architecture of
the target model to inhibit the success of watermark verification. With
extensive evaluation, our work for the first time shows that nine published
watermarking schemes require amendments to their verification procedures.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
違法に分散されたモデルコピーをトレースするために、DNN透かしは、予測行動やモデル内部に秘密のIDメッセージを埋め込んで検証するための新興技術である。
機能不足とターゲットdnnに関するさらなる知識を犠牲にして、後者のブランチである \textit{white-box dnn watermarking} は、多くの既知のウォーターマーク除去攻撃に対して正確で信頼性が高く、安全であると信じられており、アカデミーと業界の両方で新たな研究が進められている。
本稿では,標的モデルに付加できるがモデル行動に不変なニューロン群である \textit{dummy neurons} を用いて,主流のホワイトボックスdnnウォーターマークが神経構造難読化に対して一般的に脆弱であることを示す最初の体系的研究を行う。
ダミーニューロンを高ステルス性で自動生成・注入する包括的枠組みを考案し,本攻撃は標的モデルのアーキテクチャを集中的に修正し,透かし検証の成功を抑制する。
広範囲な評価により,9つの電子透かし方式が検証手順の修正を必要とすることが明らかとなった。
関連論文リスト
- FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks [5.937758152593733]
FreeMarkはディープニューラルネットワーク(DNN)を透かし出す新しいフレームワーク
従来の透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的に生成する。
FreeMarkは、高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
論文 参考訳(メタデータ) (2024-09-16T05:05:03Z) - DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - "And Then There Were None": Cracking White-box DNN Watermarks via
Invariant Neuron Transforms [29.76685892624105]
我々は,既存のホワイトボックス透かし方式のほとんど全てを破る,効果的な除去攻撃を初めて提示する。
私たちの攻撃では、トレーニングデータ配布や採用された透かしアルゴリズムに関する事前知識は必要ありません。
論文 参考訳(メタデータ) (2022-04-30T08:33:32Z) - Fostering the Robustness of White-Box Deep Neural Network Watermarks by
Neuron Alignment [6.706652133049011]
本稿では,ニューロンを透かしが埋め込まれた時と同じ順序に整列させることで,透かしを正しく認識する手法を提案する。
これは、確立されたディープニューラルネットワークウォーターマーキングスキームの機能を大幅に促進する。
論文 参考訳(メタデータ) (2021-12-28T12:12:09Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Deep Model Intellectual Property Protection via Deep Watermarking [122.87871873450014]
ディープニューラルネットワークは深刻なip侵害リスクにさらされている。
ターゲットの深層モデルを考えると、攻撃者がその全情報を知っていれば、微調整で簡単に盗むことができる。
低レベルのコンピュータビジョンや画像処理タスクで訓練されたディープネットワークを保護するための新しいモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-08T18:58:21Z) - Model Watermarking for Image Processing Networks [120.918532981871]
深層モデルの知的財産権を保護する方法は、非常に重要であるが、真に研究されていない問題である。
画像処理モデルを保護するための最初のモデル透かしフレームワークを提案する。
論文 参考訳(メタデータ) (2020-02-25T18:36:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。