論文の概要: Decompiling x86 Deep Neural Network Executables
- arxiv url: http://arxiv.org/abs/2210.01075v1
- Date: Mon, 3 Oct 2022 16:48:18 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-04 17:48:09.009714
- Title: Decompiling x86 Deep Neural Network Executables
- Title(参考訳): x86のDeep Neural Network Executableのデコンパイル
- Authors: Zhibo Liu, Yuanyuan Yuan, Shuai Wang, Xiaofei Xie, Lei Ma
- Abstract要約: BTD(Bin to DNN)は、ディープニューラルネットワーク(DNN)実行用のデコンパイラである。
BTDは, DNN実行環境に対して, 逆例生成と知識盗難の2つの代表的な攻撃を促進できることを示す。
- 参考スコア(独自算出の注目度): 20.91585339813852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Due to their widespread use on heterogeneous hardware devices, deep learning
(DL) models are compiled into executables by DL compilers to fully leverage
low-level hardware primitives. This approach allows DL computations to be
undertaken at low cost across a variety of computing platforms, including CPUs,
GPUs, and various hardware accelerators. We present BTD (Bin to DNN), a
decompiler for deep neural network (DNN) executables. BTD takes DNN executables
and outputs full model specifications, including types of DNN operators,
network topology, dimensions, and parameters that are (nearly) identical to
those of the input models. BTD delivers a practical framework to process DNN
executables compiled by different DL compilers and with full optimizations
enabled on x86 platforms. It employs learning-based techniques to infer DNN
operators, dynamic analysis to reveal network architectures, and symbolic
execution to facilitate inferring dimensions and parameters of DNN operators.
Our evaluation reveals that BTD enables accurate recovery of full
specifications of complex DNNs with millions of parameters (e.g., ResNet). The
recovered DNN specifications can be re-compiled into a new DNN executable
exhibiting identical behavior to the input executable. We show that BTD can
boost two representative attacks, adversarial example generation and knowledge
stealing, against DNN executables. We also demonstrate cross-architecture
legacy code reuse using BTD, and envision BTD being used for other critical
downstream tasks like DNN security hardening and patching.
- Abstract(参考訳): 異種ハードウェアデバイスで広く使われているため、ディープラーニング(dl)モデルはdlコンパイラによって実行可能にコンパイルされ、低レベルのハードウェアプリミティブを十分に活用する。
このアプローチにより、cpu、gpu、様々なハードウェアアクセラレータを含む様々なコンピューティングプラットフォームで、dl計算を低コストで実行することができる。
本稿では、ディープニューラルネットワーク(DNN)実行ファイルの逆コンパイラであるBTD(Bin to DNN)を提案する。
BTDはDNNの実行可能ファイルを取得し、DNN演算子、ネットワークトポロジ、次元、および(ほぼ)入力モデルと同一のパラメータを含む完全なモデル仕様を出力する。
BTDは、異なるDLコンパイラでコンパイルされたDNN実行ファイルを処理するための実用的なフレームワークを提供する。
dnn演算子を推論する学習ベースの手法、ネットワークアーキテクチャを明らかにする動的解析、dnnオペレータの次元やパラメータを推論するためのシンボリックな実行を用いる。
我々の評価では、BTDは数百万のパラメータ(ResNetなど)を持つ複雑なDNNの完全な仕様の正確な回復を可能にする。
復元されたDNN仕様は、入力実行ファイルと同一の振る舞いを示す新しいDNN実行ファイルに再コンパイルすることができる。
BTDは, DNN実行環境に対して, 逆例生成と知識盗難の2つの代表的な攻撃を促進できることを示す。
また,btdを用いたアーキテクチャ上のレガシコードの再利用を実証し,dnnセキュリティ強化やパッチ適用など,他の重要なダウンストリームタスクにbtdが使用されることを想定した。
関連論文リスト
- SwapNet: Efficient Swapping for DNN Inference on Edge AI Devices Beyond
the Memory Budget [18.63754969602021]
エッジ人工知能(AI)デバイス上のディープニューラルネットワーク(DNN)は、さまざまな自律的なモバイルコンピューティングアプリケーションを可能にする。
モデル圧縮やクラウドオフロードといった既存のソリューションは、DNN推論のメモリフットプリントを減らす。
We developed SwapNet, a efficient block swapping ecosystem for edge AI devices。
論文 参考訳(メタデータ) (2024-01-30T05:29:49Z) - Compiled Models, Built-In Exploits: Uncovering Pervasive Bit-Flip Attack Surfaces in DNN Executables [18.123649165203652]
ビットフリップ攻撃(BFA)はディープニューラルネットワーク(DNN)を操作する
PyTorchのようなディープラーニング(DL)フレームワーク上で動作する高レベルのDNNモデルでは、モデル重み付けのビットをフリップするために広範囲なBFAが使用され、有効であることが示されている。
論文 参考訳(メタデータ) (2023-09-12T13:42:20Z) - DyCL: Dynamic Neural Network Compilation Via Program Rewriting and Graph
Optimization [8.701484095864744]
Toolは、既存のDLコンパイラがDyNNをうまくコンパイルできる一般的なアプローチである。
ツールは、動的ニューラルネットワークを複数のサブニューラルネットワークに変換することで、DyNNの動的性質に取り組む。
ツールによって生成されたコンパイル可能な実行ファイルはパフォーマンスが大幅に向上し、汎用DLフレームワーク上で実行されるオリジナルのDyNNよりも1.12times$から20.21times$高速に動作する。
論文 参考訳(メタデータ) (2023-07-11T01:53:19Z) - Sparsifying Binary Networks [3.8350038566047426]
バイナリニューラルネットワーク(BNN)は、完全精度のディープニューラルネットワーク(DNN)と同等の精度で複雑なタスクを解く能力を示した。
最近の改善にもかかわらず、非常に限られたリソースを持つ特定のデバイスで不十分な、固定的で制限された圧縮要因に悩まされている。
本稿では,BNNの疎性を導入した新しいモデルとトレーニング手法であるスパースバイナリニューラルネットワーク(SBNN)と,ネットワークの重みをバイナライズする新しい量子化関数を提案する。
論文 参考訳(メタデータ) (2022-07-11T15:54:41Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Quantized Neural Networks via {-1, +1} Encoding Decomposition and
Acceleration [83.84684675841167]
本稿では,量子化されたニューラルネットワーク(QNN)をマルチブランチバイナリネットワークに分解するために,-1,+1を用いた新しい符号化方式を提案する。
本稿では,大規模画像分類,オブジェクト検出,セマンティックセグメンテーションにおける提案手法の有効性を検証する。
論文 参考訳(メタデータ) (2021-06-18T03:11:15Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning
and Compiler Optimization [56.3111706960878]
ハイエンドなモバイルプラットフォームは、幅広いDeep Neural Network (DNN)アプリケーションのための主要なコンピューティングデバイスとして機能する。
これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムの推論実行に重大な課題をもたらす。
モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-22T03:18:23Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。