論文の概要: DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification
- arxiv url: http://arxiv.org/abs/2403.06581v1
- Date: Mon, 11 Mar 2024 10:27:36 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-17 13:47:35.095316
- Title: DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification
- Title(参考訳): DNNShield: ディープニューラルネットワークオーナシップ検証のための識別子の埋め込み
- Authors: Jasper Stang, Torsten Krauß, Alexandra Dmitrienko,
- Abstract要約: 本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
- 参考スコア(独自算出の注目度): 46.47446944218544
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The surge in popularity of machine learning (ML) has driven significant investments in training Deep Neural Networks (DNNs). However, these models that require resource-intensive training are vulnerable to theft and unauthorized use. This paper addresses this challenge by introducing DNNShield, a novel approach for DNN protection that integrates seamlessly before training. DNNShield embeds unique identifiers within the model architecture using specialized protection layers. These layers enable secure training and deployment while offering high resilience against various attacks, including fine-tuning, pruning, and adaptive adversarial attacks. Notably, our approach achieves this security with minimal performance and computational overhead (less than 5\% runtime increase). We validate the effectiveness and efficiency of DNNShield through extensive evaluations across three datasets and four model architectures. This practical solution empowers developers to protect their DNNs and intellectual property rights.
- Abstract(参考訳): 機械学習(ML)の人気が高まり、Deep Neural Networks(DNN)のトレーニングに多大な投資をしている。
しかしながら、リソース集約的なトレーニングを必要とするこれらのモデルは、盗難や不正使用に対して脆弱である。
本稿では、DNN保護のための新しいアプローチであるDNNShieldを導入することで、この課題に対処する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
これらのレイヤはセキュアなトレーニングとデプロイメントを可能にし、微調整、プルーニング、適応的な敵攻撃など、さまざまな攻撃に対して高いレジリエンスを提供する。
特に、当社のアプローチは、パフォーマンスと計算オーバーヘッドを最小限に抑えながら、このセキュリティを実現する(ランタイムの5倍未満の増加)。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
この実用的なソリューションにより、開発者はDNNと知的財産権を保護することができる。
関連論文リスト
- Data Poisoning-based Backdoor Attack Framework against Supervised Learning Rules of Spiking Neural Networks [3.9444202574850755]
スパイキングニューラルネットワーク(SNN)は、低エネルギー消費と高ロバスト性で知られている。
本稿では,バックドア攻撃時の教師付き学習規則により訓練されたSNNの堅牢性について検討する。
論文 参考訳(メタデータ) (2024-09-24T02:15:19Z) - Deep Intellectual Property Protection: A Survey [70.98782484559408]
近年、ディープニューラルネットワーク(DNN)は革命的な進歩を遂げており、様々な分野で広く利用されている。
本研究の目的は,ディープウォーターマーキングとディープフィンガープリントの2つの主要なDNNIP保護手法を総合的に調査することである。
論文 参考訳(メタデータ) (2023-04-28T03:34:43Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - FitAct: Error Resilient Deep Neural Networks via Fine-Grained
Post-Trainable Activation Functions [0.05249805590164901]
ディープニューラルネットワーク(DNN)は、パーソナルヘルスケアデバイスや自動運転車などの安全クリティカルなシステムにますます導入されている。
本稿では,DNNの微粒化後のアクティベーション機能を実装することで,DNNのエラーレジリエンスを高めるための低コストなアプローチであるFitActを提案する。
論文 参考訳(メタデータ) (2021-12-27T07:07:50Z) - Robustness of Bayesian Neural Networks to White-Box Adversarial Attacks [55.531896312724555]
ベイジアンネットワーク(BNN)は、ランダム性を組み込むことで、敵の攻撃を扱うのに頑丈で適している。
我々はベイズ的推論(つまり変分ベイズ)をDenseNetアーキテクチャに融合させることで、BNN-DenseNetと呼ばれるBNNモデルを作成する。
逆向きに訓練されたBNNは、ほとんどの実験で非ベイズ的で逆向きに訓練されたBNNよりも優れています。
論文 参考訳(メタデータ) (2021-11-16T16:14:44Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。