論文の概要: Neural Network Laundering: Removing Black-Box Backdoor Watermarks from
Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2004.11368v1
- Date: Wed, 22 Apr 2020 19:02:47 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 17:57:27.538551
- Title: Neural Network Laundering: Removing Black-Box Backdoor Watermarks from
Deep Neural Networks
- Title(参考訳): ニューラルネットワークのアンダリング:ディープニューラルネットワークからブラックボックスバックドアウォーターマークを取り除く
- Authors: William Aiken, Hyoungshick Kim, Simon Woo
- Abstract要約: ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
本論文では,すべてのバックドア透かし法について,透かしの頑健さが当初の主張よりも著しく弱いことが確認された。
- 参考スコア(独自算出の注目度): 17.720400846604907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Creating a state-of-the-art deep-learning system requires vast amounts of
data, expertise, and hardware, yet research into embedding copyright protection
for neural networks has been limited. One of the main methods for achieving
such protection involves relying on the susceptibility of neural networks to
backdoor attacks, but the robustness of these tactics has been primarily
evaluated against pruning, fine-tuning, and model inversion attacks. In this
work, we propose a neural network "laundering" algorithm to remove black-box
backdoor watermarks from neural networks even when the adversary has no prior
knowledge of the structure of the watermark.
We are able to effectively remove watermarks used for recent defense or
copyright protection mechanisms while achieving test accuracies above 97% and
80% for both MNIST and CIFAR-10, respectively. For all backdoor watermarking
methods addressed in this paper, we find that the robustness of the watermark
is significantly weaker than the original claims. We also demonstrate the
feasibility of our algorithm in more complex tasks as well as in more realistic
scenarios where the adversary is able to carry out efficient laundering attacks
using less than 1% of the original training set size, demonstrating that
existing backdoor watermarks are not sufficient to reach their claims.
- Abstract(参考訳): 最先端のディープラーニングシステムを構築するには膨大なデータ、専門知識、ハードウェアが必要になるが、ニューラルネットワークの著作権保護に関する研究は限られている。
このような保護を達成する主要な方法の1つは、バックドア攻撃に対するニューラルネットワークの感受性に依存するが、これらの戦術の堅牢性は、主に刈り取り、微調整、モデル反転攻撃に対して評価されている。
本研究では,ニューラルネットワークからブラックボックスバックドアの透かしを除去する「洗浄」アルゴリズムを提案する。
mnistおよびcifar-10の97%以上,80%以上の精度で,最近の防御・著作権保護機構に使用される透かしを効果的に除去することができる。
そこで本論文では, バックドア透かし法において, 透かしのロバスト性は, 元々の主張よりも著しく弱いことがわかった。
また,本アルゴリズムがより複雑なタスクで実現可能であること,また,元のトレーニングセットサイズの1%未満で,敵が効率的な洗浄攻撃を行うことができるような現実的なシナリオにおいても,既存のバックドアウォーターマークがクレームに到達するには不十分であることを示す。
関連論文リスト
- Towards Robust Model Watermark via Reducing Parametric Vulnerability [57.66709830576457]
バックドアベースのオーナシップ検証が最近人気となり,モデルオーナがモデルをウォーターマークすることが可能になった。
本研究では,これらの透かし除去モデルを発見し,それらの透かし挙動を復元するミニマックス定式化を提案する。
本手法は,パラメトリックな変化と多数のウォーターマーク除去攻撃に対するモデル透かしの堅牢性を向上させる。
論文 参考訳(メタデータ) (2023-09-09T12:46:08Z) - Safe and Robust Watermark Injection with a Single OoD Image [90.71804273115585]
高性能なディープニューラルネットワークをトレーニングするには、大量のデータと計算リソースが必要である。
安全で堅牢なバックドア型透かし注入法を提案する。
我々は,透かし注入時のモデルパラメータのランダムな摂動を誘導し,一般的な透かし除去攻撃に対する防御を行う。
論文 参考訳(メタデータ) (2023-09-04T19:58:35Z) - OVLA: Neural Network Ownership Verification using Latent Watermarks [7.661766773170363]
本稿では,潜伏した透かしに基づくニューラルネットワークのオーナシップ検証のための新しい手法を提案する。
提案手法は,バックドア検出,バックドア除去,サロゲートモデル攻撃に対する強力な防御効果を示す。
論文 参考訳(メタデータ) (2023-06-15T17:45:03Z) - Rethinking White-Box Watermarks on Deep Learning Models under Neural
Structural Obfuscation [24.07604618918671]
ディープニューラルネットワーク(DNN)に対する著作権保護は、AI企業にとって緊急の必要性である。
ホワイトボックスの透かしは、最も知られている透かし除去攻撃に対して正確で、信頼性があり、安全であると考えられている。
主要なホワイトボックスの透かしは、一般的に、テクストダミーニューロンによる神経構造難読化に対して脆弱である。
論文 参考訳(メタデータ) (2023-03-17T02:21:41Z) - Untargeted Backdoor Watermark: Towards Harmless and Stealthy Dataset
Copyright Protection [69.59980270078067]
我々は,異常なモデル行動が決定論的でない,未目標のバックドア透かし方式を探索する。
また、提案した未ターゲットのバックドア透かしをデータセットのオーナシップ検証に利用する方法について論じる。
論文 参考訳(メタデータ) (2022-09-27T12:56:56Z) - "And Then There Were None": Cracking White-box DNN Watermarks via
Invariant Neuron Transforms [29.76685892624105]
我々は,既存のホワイトボックス透かし方式のほとんど全てを破る,効果的な除去攻撃を初めて提示する。
私たちの攻撃では、トレーニングデータ配布や採用された透かしアルゴリズムに関する事前知識は必要ありません。
論文 参考訳(メタデータ) (2022-04-30T08:33:32Z) - Knowledge-Free Black-Box Watermark and Ownership Proof for Image
Classification Neural Networks [9.117248639119529]
画像分類ニューラルネットワークのための知識のないブラックボックス透かし方式を提案する。
繊細なエンコーディングと検証のプロトコルは、スキームの敵に対する未知のセキュリティを確保するために設計されている。
実験により,提案した透かし方式の機能保存能力と安全性が実証された。
論文 参考訳(メタデータ) (2022-04-09T18:09:02Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - Fine-tuning Is Not Enough: A Simple yet Effective Watermark Removal
Attack for DNN Models [72.9364216776529]
我々は異なる視点から新しい透かし除去攻撃を提案する。
我々は、知覚不可能なパターン埋め込みと空間レベルの変換を組み合わせることで、単純だが強力な変換アルゴリズムを設計する。
我々の攻撃は、非常に高い成功率で最先端の透かしソリューションを回避できる。
論文 参考訳(メタデータ) (2020-09-18T09:14:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。