論文の概要: NeuroDeX: Unlocking Diverse Support in Decompiling Deep Neural Network Executables
- arxiv url: http://arxiv.org/abs/2509.06402v1
- Date: Mon, 08 Sep 2025 07:47:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:04.006262
- Title: NeuroDeX: Unlocking Diverse Support in Decompiling Deep Neural Network Executables
- Title(参考訳): NeuroDeX:decompiling Deep Neural Network Executablesにおけるディバースサポートのアンロック
- Authors: Yilin Li, Guozhu Meng, Mingyang Sun, Yanzhong Wang, Kun Sun, Hailong Chang, Yuekang Li,
- Abstract要約: ディープラーニングコンパイラは、エッジデバイスにデプロイするための実行ファイルにモデルを効率的にコンパイルするが、これらの実行ファイルはリバースエンジニアリングの脅威に直面する可能性がある。
従来の研究では、DNN実行ファイルの分解を試みたが、コンパイル最適化の処理や、量子化されたコンパイルモデルの解析といった課題に直面した。
我々はNuroDeXを,DNN実行ファイルの復号化における多様なサポートを解き放つために提案する。
- 参考スコア(独自算出の注目度): 25.83684938915853
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-device deep learning models have extensive real world demands. Deep learning compilers efficiently compile models into executables for deployment on edge devices, but these executables may face the threat of reverse engineering. Previous studies have attempted to decompile DNN executables, but they face challenges in handling compilation optimizations and analyzing quantized compiled models. In this paper, we present NeuroDeX to unlock diverse support in decompiling DNN executables. NeuroDeX leverages the semantic understanding capabilities of LLMs along with dynamic analysis to accurately and efficiently perform operator type recognition, operator attribute recovery and model reconstruction. NeuroDeX can recover DNN executables into high-level models towards compilation optimizations, different architectures and quantized compiled models. We conduct experiments on 96 DNN executables across 12 common DNN models. Extensive experimental results demonstrate that NeuroDeX can decompile non-quantized executables into nearly identical high-level models. NeuroDeX can recover functionally similar high-level models for quantized executables, achieving an average top-1 accuracy of 72%. NeuroDeX offers a more comprehensive and effective solution compared to previous DNN executables decompilers.
- Abstract(参考訳): デバイス上でのディープラーニングモデルには、広範囲な現実的要求がある。
ディープラーニングコンパイラは、エッジデバイスにデプロイするための実行ファイルにモデルを効率的にコンパイルするが、これらの実行ファイルはリバースエンジニアリングの脅威に直面する可能性がある。
従来の研究では、DNN実行ファイルの分解を試みたが、コンパイル最適化の処理や、量子化されたコンパイルモデルの解析といった課題に直面した。
本稿では,NuroDeXを用いて,DNN実行ファイルの復号化を支援する。
NeuroDeXは、LLMの意味理解機能と動的解析を活用し、演算子型認識、演算子属性回復、モデル再構成を正確かつ効率的に行う。
NeuroDeXは、コンパイル最適化、異なるアーキテクチャ、量子化されたコンパイルモデルのために、DNN実行ファイルを高レベルモデルにリカバリすることができる。
12の共通DNNモデルに対して96のDNN実行実験を行った。
大規模な実験結果から、NeuroDeXは非量子化実行ファイルをほぼ同一の高レベルモデルに分解できることが示された。
NeuroDeXは、量子化された実行ファイルに対して機能的に類似した高レベルモデルを復元することができ、平均トップ1の精度は72%に達する。
NeuroDeXは、以前のDNN実行ファイルデコンパイラと比較して、より包括的で効果的なソリューションを提供する。
関連論文リスト
- A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications [4.681322438383984]
本稿では,DNN証明書のニューロンレベル仕様をテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析によって実現されている。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
論文 参考訳(メタデータ) (2025-07-26T20:38:29Z) - Compiled Models, Built-In Exploits: Uncovering Pervasive Bit-Flip Attack Surfaces in DNN Executables [18.123649165203652]
ビットフリップ攻撃(BFA)はディープニューラルネットワーク(DNN)を操作する
PyTorchのようなディープラーニング(DL)フレームワーク上で動作する高レベルのDNNモデルでは、モデル重み付けのビットをフリップするために広範囲なBFAが使用され、有効であることが示されている。
論文 参考訳(メタデータ) (2023-09-12T13:42:20Z) - DyCL: Dynamic Neural Network Compilation Via Program Rewriting and Graph
Optimization [8.701484095864744]
Toolは、既存のDLコンパイラがDyNNをうまくコンパイルできる一般的なアプローチである。
ツールは、動的ニューラルネットワークを複数のサブニューラルネットワークに変換することで、DyNNの動的性質に取り組む。
ツールによって生成されたコンパイル可能な実行ファイルはパフォーマンスが大幅に向上し、汎用DLフレームワーク上で実行されるオリジナルのDyNNよりも1.12times$から20.21times$高速に動作する。
論文 参考訳(メタデータ) (2023-07-11T01:53:19Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Decompiling x86 Deep Neural Network Executables [20.91585339813852]
BTD(Bin to DNN)は、ディープニューラルネットワーク(DNN)実行用のデコンパイラである。
BTDは, DNN実行環境に対して, 逆例生成と知識盗難の2つの代表的な攻撃を促進できることを示す。
論文 参考訳(メタデータ) (2022-10-03T16:48:18Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - PolyDL: Polyhedral Optimizations for Creation of High Performance DL
primitives [55.79741270235602]
本稿では,Deep Learningプリミティブの高性能実装を自動的に生成するコンパイラアルゴリズムを提案する。
我々は多面体モデルを用いた新しいデータ再利用分析アルゴリズムを開発した。
また、このようなハイブリッドコンパイラとライブラリ使用の最小限のアプローチが、最先端のパフォーマンスをもたらすことを示す。
論文 参考訳(メタデータ) (2020-06-02T06:44:09Z) - Towards Real-Time DNN Inference on Mobile Platforms with Model Pruning
and Compiler Optimization [56.3111706960878]
ハイエンドなモバイルプラットフォームは、幅広いDeep Neural Network (DNN)アプリケーションのための主要なコンピューティングデバイスとして機能する。
これらのデバイス上の制約付き計算とストレージリソースは、リアルタイムの推論実行に重大な課題をもたらす。
モバイル端末上でのDNN実行を高速化するハードウェアフレンドリーな構造化モデルプルーニングとコンパイラ最適化手法を提案する。
論文 参考訳(メタデータ) (2020-04-22T03:18:23Z) - Widening and Squeezing: Towards Accurate and Efficient QNNs [125.172220129257]
量子化ニューラルネットワーク(QNN)は、非常に安価な計算とストレージオーバーヘッドのため、業界にとって非常に魅力的なものだが、その性能は、完全な精度パラメータを持つネットワークよりも悪い。
既存の手法の多くは、より効果的なトレーニング技術を利用して、特にバイナリニューラルネットワークの性能を高めることを目的としている。
本稿では,従来の完全精度ネットワークで高次元量子化機能に特徴を投影することで,この問題に対処する。
論文 参考訳(メタデータ) (2020-02-03T04:11:13Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。