論文の概要: DeepPeep: Exploiting Design Ramifications to Decipher the Architecture
of Compact DNNs
- arxiv url: http://arxiv.org/abs/2007.15248v1
- Date: Thu, 30 Jul 2020 06:01:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-05 13:14:35.142040
- Title: DeepPeep: Exploiting Design Ramifications to Decipher the Architecture
of Compact DNNs
- Title(参考訳): DeepPeep: コンパクトDNNのアーキテクチャを解読する設計ラミフィケーションの爆発
- Authors: Nandan Kumar Jha, Sparsh Mittal, Binod Kumar, and Govardhan Mattela
- Abstract要約: DeepPeepは、コンパクトDNNにおけるビルディングブロックのアーキテクチャをリバースエンジニアリングするための2段階攻撃手法である。
セキュアなMobileNet-V1"は、推論遅延の大幅な削減と予測性能の改善を提供する。
- 参考スコア(独自算出の注目度): 2.3651168422805027
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The remarkable predictive performance of deep neural networks (DNNs) has led
to their adoption in service domains of unprecedented scale and scope. However,
the widespread adoption and growing commercialization of DNNs have underscored
the importance of intellectual property (IP) protection. Devising techniques to
ensure IP protection has become necessary due to the increasing trend of
outsourcing the DNN computations on the untrusted accelerators in cloud-based
services. The design methodologies and hyper-parameters of DNNs are crucial
information, and leaking them may cause massive economic loss to the
organization. Furthermore, the knowledge of DNN's architecture can increase the
success probability of an adversarial attack where an adversary perturbs the
inputs and alter the prediction.
In this work, we devise a two-stage attack methodology "DeepPeep" which
exploits the distinctive characteristics of design methodologies to
reverse-engineer the architecture of building blocks in compact DNNs. We show
the efficacy of "DeepPeep" on P100 and P4000 GPUs. Additionally, we propose
intelligent design maneuvering strategies for thwarting IP theft through the
DeepPeep attack and proposed "Secure MobileNet-V1". Interestingly, compared to
vanilla MobileNet-V1, secure MobileNet-V1 provides a significant reduction in
inference latency ($\approx$60%) and improvement in predictive performance
($\approx$2%) with very-low memory and computation overheads.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の顕著な予測性能は、前例のないスケールとスコープのサービスドメインに採用されている。
しかし、DNNの普及と商業化が進み、知的財産権(IP)保護の重要性が強調されている。
クラウドベースのサービスにおいて、信頼できないアクセラレータ上でDNN計算をアウトソーシングする傾向が高まっているため、IP保護を保証する技術開発が求められている。
DNNの設計手法とハイパーパラメータは重要な情報であり、それらを漏洩させることで組織に大きな経済的損失をもたらす可能性がある。
さらに、DNNアーキテクチャの知識は、敵が入力を摂動し、予測を変更する敵攻撃の成功確率を高めることができる。
本研究では,設計手法の特徴を生かした2段階攻撃手法"DeepPeep"を考案し,コンパクトDNNにおけるビルディングブロックのアーキテクチャをリバースエンジニアリングする。
P100 と P4000 GPU における "DeepPeep" の有効性を示す。
さらに,DeepPeep攻撃によるIP盗難防止のためのインテリジェントな設計操作戦略を提案し,"Secure MobileNet-V1"を提案する。
興味深いことに、vanilla mobilenet-v1と比較して、secure mobilenet-v1は推論レイテンシの大幅な削減(約60%)と、非常に低いメモリと計算オーバーヘッドを備えた予測パフォーマンスの改善(約2%)を提供する。
関連論文リスト
- Deep Intellectual Property Protection: A Survey [70.98782484559408]
近年、ディープニューラルネットワーク(DNN)は革命的な進歩を遂げており、様々な分野で広く利用されている。
本研究の目的は,ディープウォーターマーキングとディープフィンガープリントの2つの主要なDNNIP保護手法を総合的に調査することである。
論文 参考訳(メタデータ) (2023-04-28T03:34:43Z) - RL-DistPrivacy: Privacy-Aware Distributed Deep Inference for low latency
IoT systems [41.1371349978643]
本稿では,流通戦略の再考を通じて協調的深層推論の安全性を目標とするアプローチを提案する。
我々は、この手法を最適化として定式化し、コ推論のレイテンシとプライバシーレベルのデータのトレードオフを確立する。
論文 参考訳(メタデータ) (2022-08-27T14:50:00Z) - Exploring Architectural Ingredients of Adversarially Robust Deep Neural
Networks [98.21130211336964]
ディープニューラルネットワーク(DNN)は敵の攻撃に弱いことが知られている。
本稿では,ネットワーク幅と深さがDNNの強靭性に及ぼす影響について検討する。
論文 参考訳(メタデータ) (2021-10-07T23:13:33Z) - Neural Architecture Dilation for Adversarial Robustness [56.18555072877193]
畳み込みニューラルネットワークの欠点は、敵の攻撃に弱いことである。
本稿では, 良好な精度を有する背骨CNNの対角的堅牢性を向上させることを目的とする。
最小限の計算オーバーヘッドの下では、拡張アーキテクチャはバックボーンCNNの標準的な性能と親和性が期待できる。
論文 参考訳(メタデータ) (2021-08-16T03:58:00Z) - A Panda? No, It's a Sloth: Slowdown Attacks on Adaptive Multi-Exit
Neural Network Inference [6.320009081099895]
スローダウン攻撃は、マルチエクイットDNNの有効性を90-100%削減し、典型的なIoTデプロイメントにおいて1.5~5$times$のレイテンシを増幅する。
汎用的で再利用可能な摂動を構築でき、攻撃は現実的なブラックボックスのシナリオで有効であることを示す。
論文 参考訳(メタデータ) (2020-10-06T02:06:52Z) - Graph Backdoor [53.70971502299977]
GTAはグラフニューラルネットワーク(GNN)に対する最初のバックドア攻撃である。
GTAは、トポロジカル構造と記述的特徴の両方を含む特定の部分グラフとしてトリガーを定義する。
トランスダクティブ(ノード分類など)とインダクティブ(グラフ分類など)の両方のタスクに対してインスタンス化することができる。
論文 参考訳(メタデータ) (2020-06-21T19:45:30Z) - DeepHammer: Depleting the Intelligence of Deep Neural Networks through
Targeted Chain of Bit Flips [29.34622626909906]
量子化ディープニューラルネットワーク(DNN)に対するハードウェアベースの最初の攻撃を実演する。
DeepHammerは、数分で実行時にDNNの推論動作を修正することができる。
私たちの研究は、将来のディープラーニングシステムにセキュリティメカニズムを組み込む必要性を強調しています。
論文 参考訳(メタデータ) (2020-03-30T18:51:59Z) - Industrial Scale Privacy Preserving Deep Neural Network [23.690146141150407]
本稿では,産業規模のプライバシ保護型ニューラルネットワーク学習パラダイムを提案する。
実世界の不正検出データセットと金融危機予測データセットについて実験を行った。
論文 参考訳(メタデータ) (2020-03-11T10:15:37Z) - Learn2Perturb: an End-to-end Feature Perturbation Learning to Improve
Adversarial Robustness [79.47619798416194]
Learn2Perturbは、ディープニューラルネットワークの対角的堅牢性を改善するために、エンドツーエンドの機能摂動学習アプローチである。
予測最大化にインスパイアされ、ネットワークと雑音パラメータを連続的にトレーニングするために、交互にバックプロパゲーショントレーニングアルゴリズムが導入された。
論文 参考訳(メタデータ) (2020-03-02T18:27:35Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。