論文の概要: Detect and remove watermark in deep neural networks via generative
adversarial networks
- arxiv url: http://arxiv.org/abs/2106.08104v1
- Date: Tue, 15 Jun 2021 12:45:22 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-16 14:54:23.236866
- Title: Detect and remove watermark in deep neural networks via generative
adversarial networks
- Title(参考訳): 生成逆ネットワークによる深部ニューラルネットワークの透かしの検出と除去
- Authors: Haoqi Wang, Mingfu Xue, Shichang Sun, Yushu Zhang, Jian Wang, Weiqiang
Liu
- Abstract要約: 本稿では,GAN(Generative Adversarial Network)を用いたディープニューラルネットワークにおける透かしの検出と除去手法を提案する。
第1フェーズでは、DNNモデルの透かしを検出・反転するために、GANとほとんどクリーンな画像を使用しません。
第2フェーズでは、逆バックドア画像に基づいて透かしDNNを微調整する。
- 参考スコア(独自算出の注目度): 10.058070050660104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep neural networks (DNN) have achieved remarkable performance in various
fields. However, training a DNN model from scratch requires a lot of computing
resources and training data. It is difficult for most individual users to
obtain such computing resources and training data. Model copyright infringement
is an emerging problem in recent years. For instance, pre-trained models may be
stolen or abuse by illegal users without the authorization of the model owner.
Recently, many works on protecting the intellectual property of DNN models have
been proposed. In these works, embedding watermarks into DNN based on backdoor
is one of the widely used methods. However, when the DNN model is stolen, the
backdoor-based watermark may face the risk of being detected and removed by an
adversary. In this paper, we propose a scheme to detect and remove watermark in
deep neural networks via generative adversarial networks (GAN). We demonstrate
that the backdoor-based DNN watermarks are vulnerable to the proposed GAN-based
watermark removal attack. The proposed attack method includes two phases. In
the first phase, we use the GAN and few clean images to detect and reverse the
watermark in the DNN model. In the second phase, we fine-tune the watermarked
DNN based on the reversed backdoor images. Experimental evaluations on the
MNIST and CIFAR10 datasets demonstrate that, the proposed method can
effectively remove about 98% of the watermark in DNN models, as the watermark
retention rate reduces from 100% to less than 2% after applying the proposed
attack. In the meantime, the proposed attack hardly affects the model's
performance. The test accuracy of the watermarked DNN on the MNIST and the
CIFAR10 datasets drops by less than 1% and 3%, respectively.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は様々な分野で顕著な性能を発揮している。
しかし、DNNモデルをゼロからトレーニングするには、多くのコンピューティングリソースとトレーニングデータが必要である。
ほとんどの個人ユーザがそのような計算リソースやトレーニングデータを取得することは困難である。
近年,モデル著作権侵害が問題となっている。
例えば、事前訓練されたモデルは、モデル所有者の許可なしに違法なユーザーによって盗まれたり悪用されることがある。
近年,DNNモデルの知的財産権保護に関する多くの研究が提案されている。
これらの研究において、バックドアに基づくDNNに透かしを埋め込むことは、広く使われている手法の1つである。
しかし、DNNモデルが盗まれた場合、バックドアベースの透かしは敵によって検出され削除されるリスクに直面する可能性がある。
本稿では,gan(generative adversarial networks)を用いた深層ニューラルネットワークにおける透かしの検出と除去を行う手法を提案する。
バックドアベースのDNN透かしは,提案したGANベースの透かし除去攻撃に対して脆弱であることを示す。
提案手法は2つのフェーズを含む。
第1フェーズでは、DNNモデルの透かしを検出・反転するために、GANとほとんどクリーンな画像を使用しません。
第2フェーズでは、逆バックドア画像に基づいて透かしDNNを微調整する。
mnistおよびcifar10データセットの実験的評価により,提案手法はdnnモデルにおける透かしの約98%を効果的に除去できることが示された。
一方、提案した攻撃はモデルの性能にはほとんど影響しない。
MNISTとCIFAR10データセットにおける透かしDNNのテスト精度はそれぞれ1%未満と3%以下に低下する。
関連論文リスト
- FreeMark: A Non-Invasive White-Box Watermarking for Deep Neural Networks [5.937758152593733]
FreeMarkはディープニューラルネットワーク(DNN)を透かし出す新しいフレームワーク
従来の透かし法とは異なり、FreeMarkは、勾配降下を用いた予め生成された透かしベクトルとホストモデルから秘密鍵を革新的に生成する。
FreeMarkは、高い透かし容量を維持しながら、様々な透かし除去攻撃に効果的に抵抗することを示した。
論文 参考訳(メタデータ) (2024-09-16T05:05:03Z) - A self-supervised CNN for image watermark removal [102.94929746450902]
画像透かし除去(SWCNN)における自己教師型畳み込みニューラルネットワーク(CNN)を提案する。
SWCNNは、透かし分布に従って、ペアのトレーニングサンプルではなく、基準透かし画像を構築するために、自己教師付き方式を使用している。
テクスチャ情報を考慮すると、画像透かし除去の視覚効果を改善するために混合損失を利用する。
論文 参考訳(メタデータ) (2024-03-09T05:59:48Z) - DeepEclipse: How to Break White-Box DNN-Watermarking Schemes [60.472676088146436]
既存のホワイトボックスの透かし除去方式とは大きく異なる難読化手法を提案する。
DeepEclipseは、下層の透かしスキームについて事前に知ることなく、透かし検出を回避できる。
評価の結果,DeepEclipseは複数のホワイトボックス透かし方式に優れていることがわかった。
論文 参考訳(メタデータ) (2024-03-06T10:24:47Z) - Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - On Function-Coupled Watermarks for Deep Neural Networks [15.478746926391146]
本稿では,透かし除去攻撃に対して効果的に防御できる新しいDNN透かし法を提案する。
私たちの重要な洞察は、透かしとモデル機能の結合を強化することです。
その結果,アグレッシブ・ウォーターマーク除去攻撃による100%透かし認証の成功率を示した。
論文 参考訳(メタデータ) (2023-02-08T05:55:16Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - Watermarking Graph Neural Networks based on Backdoor Attacks [10.844454900508566]
本稿では,グラフ分類タスクとノード分類タスクの両方に対して,グラフニューラルネットワーク(GNN)のための透かしフレームワークを提案する。
我々のフレームワークは、両方のタスクに対して非常に高い確率(約100ドル)でGNNモデルのオーナシップを検証することができる。
論文 参考訳(メタデータ) (2021-10-21T09:59:59Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。