論文の概要: Deep-Lock: Secure Authorization for Deep Neural Networks
- arxiv url: http://arxiv.org/abs/2008.05966v1
- Date: Thu, 13 Aug 2020 15:22:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-30 22:55:53.309787
- Title: Deep-Lock: Secure Authorization for Deep Neural Networks
- Title(参考訳): Deep-Lock: ディープニューラルネットワークのセキュアな認証
- Authors: Manaar Alam and Sayandeep Saha and Debdeep Mukhopadhyay and Sandip
Kundu
- Abstract要約: ディープニューラルネットワーク(DNN)モデルは、いくつかのビジネスモデルにおいて価値のある知的特性(IP)と見なされている。
このようなDNNモデルのIP盗難や不正使用の防止は、業界で重要な懸念事項となっている。
そこで本研究では,ロックされたモデルが正しい秘密鍵を適用した場合にのみ正しく機能することを保証する,汎用的で軽量なキーベースモデルロック方式を提案する。
- 参考スコア(独自算出の注目度): 11.468680701048527
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Trained Deep Neural Network (DNN) models are considered valuable Intellectual
Properties (IP) in several business models. Prevention of IP theft and
unauthorized usage of such DNN models has been raised as of significant concern
by industry. In this paper, we address the problem of preventing unauthorized
usage of DNN models by proposing a generic and lightweight key-based
model-locking scheme, which ensures that a locked model functions correctly
only upon applying the correct secret key. The proposed scheme, known as
Deep-Lock, utilizes S-Boxes with good security properties to encrypt each
parameter of a trained DNN model with secret keys generated from a master key
via a key scheduling algorithm. The resulting dense network of encrypted
weights is found robust against model fine-tuning attacks. Finally, Deep-Lock
does not require any intervention in the structure and training of the DNN
models, making it applicable for all existing software and hardware
implementations of DNN.
- Abstract(参考訳): 訓練されたディープニューラルネットワーク(DNN)モデルは、いくつかのビジネスモデルにおいて価値のある知的特性(IP)と見なされている。
このようなDNNモデルのIP盗難防止と不正使用は、業界によって大きな関心を集めている。
本稿では,鍵型モデルロック方式を提案することで,鍵型モデルが正しい秘密鍵を適用した場合にのみ正常に機能することを保証することで,DNNモデルの不正使用を防止する問題に対処する。
提案方式はDeep-Lockと呼ばれ、S-Boxesと優れたセキュリティ特性を利用して、訓練済みのDNNモデルのパラメータを鍵スケジューリングアルゴリズムを介してマスターキーから生成される秘密鍵で暗号化する。
結果として、暗号化された重みの密度の高いネットワークは、モデル微調整攻撃に対して堅牢である。
最後に、Deep-LockはDNNモデルの構造とトレーニングを一切必要とせず、DNNの既存のソフトウェアおよびハードウェア実装すべてに適用できる。
関連論文リスト
- DNNShield: Embedding Identifiers for Deep Neural Network Ownership Verification [46.47446944218544]
本稿では、ディープニューラルネットワーク(DNN)の保護のための新しいアプローチであるDNNShieldを紹介する。
DNNShieldは、特別な保護レイヤを使用して、モデルアーキテクチャにユニークな識別子を埋め込む。
3つのデータセットと4つのモデルアーキテクチャにわたる広範囲な評価を通じて、DNNShieldの有効性と効率を検証した。
論文 参考訳(メタデータ) (2024-03-11T10:27:36Z) - Securing Graph Neural Networks in MLaaS: A Comprehensive Realization of Query-based Integrity Verification [68.86863899919358]
我々は機械学習におけるGNNモデルをモデル中心の攻撃から保護するための画期的なアプローチを導入する。
提案手法は,GNNの完全性に対する包括的検証スキーマを含み,トランスダクティブとインダクティブGNNの両方を考慮している。
本稿では,革新的なノード指紋生成アルゴリズムを組み込んだクエリベースの検証手法を提案する。
論文 参考訳(メタデータ) (2023-12-13T03:17:05Z) - Deep Intellectual Property Protection: A Survey [70.98782484559408]
近年、ディープニューラルネットワーク(DNN)は革命的な進歩を遂げており、様々な分野で広く利用されている。
本研究の目的は,ディープウォーターマーキングとディープフィンガープリントの2つの主要なDNNIP保護手法を総合的に調査することである。
論文 参考訳(メタデータ) (2023-04-28T03:34:43Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - An Embarrassingly Simple Approach for Intellectual Property Rights
Protection on Recurrent Neural Networks [11.580808497808341]
本稿では,リカレントニューラルネットワーク(RNN)における知的財産保護のための実践的アプローチを提案する。
キーを埋め込むためのRNNアーキテクチャの繰り返しの性質に類似したGatekeeperの概念を紹介します。
白箱と黒箱の両方の保護スキームにおける曖昧さと除去攻撃に対して,我々の保護スキームは堅牢かつ効果的である。
論文 参考訳(メタデータ) (2022-10-03T07:25:59Z) - Robust and Lossless Fingerprinting of Deep Neural Networks via Pooled
Membership Inference [17.881686153284267]
ディープニューラルネットワーク(DNN)は、すでに多くのアプリケーション分野で大きな成功を収めており、私たちの社会に大きな変化をもたらしています。
DNNの知的財産権(IP)を侵害から保護する方法は、最も重要かつ非常に困難なトピックの1つである。
本稿では,DNNモデルのIPを保護するために,Emphpooled Memberation Inference (PMI) と呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-09-09T04:06:29Z) - DeepSteal: Advanced Model Extractions Leveraging Efficient Weight
Stealing in Memories [26.067920958354]
Deep Neural Networks(DNN)のプライバシに対する大きな脅威の1つは、モデル抽出攻撃である。
最近の研究によると、ハードウェアベースのサイドチャネル攻撃はDNNモデル(例えばモデルアーキテクチャ)の内部知識を明らかにすることができる。
本稿では,メモリサイドチャネル攻撃の助けを借りてDNN重みを効果的に盗む,高度なモデル抽出攻撃フレームワークであるDeepStealを提案する。
論文 参考訳(メタデータ) (2021-11-08T16:55:45Z) - HufuNet: Embedding the Left Piece as Watermark and Keeping the Right
Piece for Ownership Verification in Deep Neural Networks [16.388046449021466]
深部ニューラルネットワーク(DNN)を透かしする新しいソリューションを提案する。
HufuNetは、モデル微調整/pruning、カーネルのカットオフ/補完、機能相当の攻撃、不正所有クレームに対して非常に堅牢です。
論文 参考訳(メタデータ) (2021-03-25T06:55:22Z) - Deep Serial Number: Computational Watermarking for DNN Intellectual
Property Protection [53.40245698216239]
DSN(Deep Serial Number)はディープニューラルネットワーク(DNN)に特化した透かしアルゴリズムである。
従来のソフトウェアIPの保護においてシリアル番号に着想を得て,DNNに埋め込まれたシリアル番号の最初の実装を提案する。
論文 参考訳(メタデータ) (2020-11-17T21:42:40Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - CryptoSPN: Privacy-preserving Sum-Product Network Inference [84.88362774693914]
総生産ネットワーク(SPN)のプライバシ保護のためのフレームワークを提案する。
CryptoSPNは、中規模のSPNに対して秒の順序で高効率で正確な推論を行う。
論文 参考訳(メタデータ) (2020-02-03T14:49:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。