論文の概要: DeepiSign: Invisible Fragile Watermark to Protect the Integrityand
Authenticity of CNN
- arxiv url: http://arxiv.org/abs/2101.04319v1
- Date: Tue, 12 Jan 2021 06:42:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-04 11:02:07.912495
- Title: DeepiSign: Invisible Fragile Watermark to Protect the Integrityand
Authenticity of CNN
- Title(参考訳): DeepiSign:CNNの統合性と認証を保護するために、目に見えないフレジブルな透かし
- Authors: Alsharif Abuadbba, Hyoungshick Kim, Surya Nepal
- Abstract要約: CNNモデルの完全性と信頼性を確保するために,自己完結型タンパー防止法DeepiSignを提案する。
DeepiSignは、壊れやすい見えない透かしのアイデアを適用して、秘密とそのハッシュ値をCNNモデルに安全に埋め込みます。
理論的解析により,DeepiSignは各層に最大1KBのシークレットを隠蔽し,モデルの精度を最小限に抑えることができた。
- 参考スコア(独自算出の注目度): 37.98139322456872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks (CNNs) deployed in real-life applications such
as autonomous vehicles have shown to be vulnerable to manipulation attacks,
such as poisoning attacks and fine-tuning. Hence, it is essential to ensure the
integrity and authenticity of CNNs because compromised models can produce
incorrect outputs and behave maliciously. In this paper, we propose a
self-contained tamper-proofing method, called DeepiSign, to ensure the
integrity and authenticity of CNN models against such manipulation attacks.
DeepiSign applies the idea of fragile invisible watermarking to securely embed
a secret and its hash value into a CNN model. To verify the integrity and
authenticity of the model, we retrieve the secret from the model, compute the
hash value of the secret, and compare it with the embedded hash value. To
minimize the effects of the embedded secret on the CNN model, we use a
wavelet-based technique to transform weights into the frequency domain and
embed the secret into less significant coefficients. Our theoretical analysis
shows that DeepiSign can hide up to 1KB secret in each layer with minimal loss
of the model's accuracy. To evaluate the security and performance of DeepiSign,
we performed experiments on four pre-trained models (ResNet18, VGG16, AlexNet,
and MobileNet) using three datasets (MNIST, CIFAR-10, and Imagenet) against
three types of manipulation attacks (targeted input poisoning, output
poisoning, and fine-tuning). The results demonstrate that DeepiSign is
verifiable without degrading the classification accuracy, and robust against
representative CNN manipulation attacks.
- Abstract(参考訳): 自動運転車のような現実のアプリケーションでデプロイされる畳み込みニューラルネットワーク(cnns)は、毒殺攻撃や微調整といった操作攻撃に弱いことが示されている。
したがって、妥協されたモデルは不正な出力を生成し、悪意ある振る舞いをするので、CNNの完全性と信頼性を保証することが不可欠である。
本稿では,CNNモデルの整合性と信頼性を確保するために,DeepiSignと呼ばれる自己完結型タンパ保護手法を提案する。
DeepiSignは、秘密とハッシュ値をCNNモデルに安全に埋め込むために、脆弱な目に見えない透かしというアイデアを適用している。
モデルの完全性と信頼性を検証するために、モデルからシークレットを取得し、シークレットのハッシュ値を計算し、それを埋め込みハッシュ値と比較する。
CNNモデルに埋め込まれたシークレットの影響を最小限に抑えるため、ウェーブレットベースの手法を用いて重みを周波数領域に変換し、そのシークレットをより少ない有意な係数に埋め込む。
理論的解析により,DeepiSignは各層に最大1KBのシークレットを隠蔽し,モデルの精度を最小限に抑えることができた。
deepisignのセキュリティと性能を評価するために,3種類の操作攻撃(ターゲット入力中毒,アウトプット中毒,微調整)に対する3つのデータセット(mnist,cifar-10,imagenet)を用いて,事前学習した4つのモデル(resnet18,vgg16,alexnet,mobilenet)について実験を行った。
その結果,DeepiSignは分類精度を低下させることなく検証可能であり,CNNによる攻撃に対して堅牢であることがわかった。
関連論文リスト
- DeepiSign-G: Generic Watermark to Stamp Hidden DNN Parameters for Self-contained Tracking [15.394110881491773]
DeepiSign-Gは、CNNやRNNを含む主要なDNNアーキテクチャの包括的な検証のために設計された汎用的な透かし方式である。
従来のハッシュ技術とは異なり、DeepiSign-Gはモデルに直接メタデータを組み込むことができ、詳細な自己完結型トラッキングと検証を可能にする。
我々は,CNNモデル(VGG,ResNets,DenseNet)やRNN(テキスト感情分類器)など,さまざまなアーキテクチャにおけるDeepiSign-Gの適用性を実証する。
論文 参考訳(メタデータ) (2024-07-01T13:15:38Z) - AuthNet: Neural Network with Integrated Authentication Logic [19.56843040375779]
本稿では,認証ロジックをモデルの一部として統合する,AuthNetと呼ばれるネイティブ認証機構を提案する。
AuthNetは、あらゆる畳み込みニューラルネットワークと互換性があり、私たちの評価では、認証されていないユーザを拒否することで、AuthNetが目標を達成することに成功した。
論文 参考訳(メタデータ) (2024-05-24T10:44:22Z) - DeepTaster: Adversarial Perturbation-Based Fingerprinting to Identify
Proprietary Dataset Use in Deep Neural Networks [34.11970637801044]
我々は、被害者のデータを不正に使用して容疑者モデルを構築するシナリオに対処する、新しいフィンガープリント技術であるDeepTasterを紹介した。
これを実現するために、DeepTasterは摂動を伴う逆画像を生成し、それらをフーリエ周波数領域に変換し、これらの変換された画像を使用して被疑者モデルで使用されるデータセットを識別する。
論文 参考訳(メタデータ) (2022-11-24T11:10:54Z) - Neural network fragile watermarking with no model performance
degradation [28.68910526223425]
モデル性能の劣化を伴わない新しいニューラルネットワーク脆弱な透かしを提案する。
実験の結果,提案手法はモデル性能劣化を伴わずに,悪質な微調整を効果的に検出できることが示唆された。
論文 参考訳(メタデータ) (2022-08-16T07:55:20Z) - Exploring Structure Consistency for Deep Model Watermarking [122.38456787761497]
Deep Neural Network(DNN)の知的財産権(IP)は、代理モデルアタックによって簡単に盗まれる。
本稿では,新しい構造整合モデルウォーターマーキングアルゴリズムを設計した新しい透かし手法,すなわち構造整合性'を提案する。
論文 参考訳(メタデータ) (2021-08-05T04:27:15Z) - Reversible Watermarking in Deep Convolutional Neural Networks for
Integrity Authentication [78.165255859254]
整合性認証のための可逆透かしアルゴリズムを提案する。
可逆透かしを埋め込むことが分類性能に及ぼす影響は0.5%未満である。
同時に、可逆的な透かしを適用することでモデルの完全性を検証することができる。
論文 参考訳(メタデータ) (2021-04-09T09:32:21Z) - BreakingBED -- Breaking Binary and Efficient Deep Neural Networks by
Adversarial Attacks [65.2021953284622]
CNNのホワイトボックス攻撃やブラックボックス攻撃に対する堅牢性について検討する。
結果は、蒸留されたCNN、エージェントベースの最新のprunedモデル、およびバイナライズニューラルネットワークのために示されています。
論文 参考訳(メタデータ) (2021-03-14T20:43:19Z) - Adversarially robust deepfake media detection using fused convolutional
neural network predictions [79.00202519223662]
現在のディープフェイク検出システムは、目に見えないデータと戦っている。
ビデオから抽出した偽画像と実画像の分類には,CNN(Deep Convolutional Neural Network)モデルが3種類採用されている。
提案手法は96.5%の精度で最先端のモデルより優れている。
論文 参考訳(メタデータ) (2021-02-11T11:28:00Z) - Cooling-Shrinking Attack: Blinding the Tracker with Imperceptible Noises [87.53808756910452]
The method is proposed to deceive-of-the-the-art SiameseRPN-based tracker。
本手法は転送性に優れ,DaSiamRPN,DaSiamRPN-UpdateNet,DiMPなどの他のトップパフォーマンストラッカーを騙すことができる。
論文 参考訳(メタデータ) (2020-03-21T07:13:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。