論文の概要: A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications
- arxiv url: http://arxiv.org/abs/2507.20055v1
- Date: Sat, 26 Jul 2025 20:38:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:56.778388
- Title: A Tensor-Based Compiler and a Runtime for Neuron-Level DNN Certifier Specifications
- Title(参考訳): テンソル型コンパイラとニューロンレベルDNN認証仕様のランタイム
- Authors: Avaljot Singh, Yamin Chandini Sarita, Aditya Mishra, Ishaan Goyal, Gagandeep Singh, Charith Mendis,
- Abstract要約: 本稿では,DNN証明書のニューロンレベル仕様をテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析によって実現されている。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
- 参考スコア(独自算出の注目度): 4.681322438383984
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The uninterpretability of DNNs has led to the adoption of abstract interpretation-based certification as a practical means to establish trust in real-world systems that rely on DNNs. However, the current landscape supports only a limited set of certifiers, and developing new ones or modifying existing ones for different applications remains difficult. This is because the mathematical design of certifiers is expressed at the neuron level, while their implementations are optimized and executed at the tensor level. This mismatch creates a semantic gap between design and implementation, making manual bridging both complex and expertise-intensive -- requiring deep knowledge in formal methods, high-performance computing, etc. We propose a compiler framework that automatically translates neuron-level specifications of DNN certifiers into tensor-based, layer-level implementations. This is enabled by two key innovations: a novel stack-based intermediate representation (IR) and a shape analysis that infers the implicit tensor operations needed to simulate the neuron-level semantics. During lifting, the shape analysis creates tensors in the minimal shape required to perform the corresponding operations. The IR also enables domain-specific optimizations as rewrites. At runtime, the resulting tensor computations exhibit sparsity tied to the DNN architecture. This sparsity does not align well with existing formats. To address this, we introduce g-BCSR, a double-compression format that represents tensors as collections of blocks of varying sizes, each possibly internally sparse. Using our compiler and g-BCSR, we make it easy to develop new certifiers and analyze their utility across diverse DNNs. Despite its flexibility, the compiler achieves performance comparable to hand-optimized implementations.
- Abstract(参考訳): DNNの非解釈性は、DNNに依存する現実世界のシステムに対する信頼を確立するための実践的な手段として、抽象的解釈に基づく認証の採用につながった。
しかし、現在のランドスケープは限定的な認証のみをサポートしており、新しいものの開発や、異なるアプリケーションのために既存のものを変更することは難しいままである。
これは、証明器の数学的設計がニューロンレベルで表現され、その実装はテンソルレベルで最適化され実行されるためである。
このミスマッチは、設計と実装の間に意味的なギャップを生じさせ、複雑なものと専門知識の両方を手作業でブリッジする -- 形式的なメソッドや高性能コンピューティングなどにおいて深い知識を必要とします。
本稿では,DNN証明書のニューロンレベル仕様を自動的にテンソルベース層レベル実装に変換するコンパイラフレームワークを提案する。
これは、新しいスタックベースの中間表現(IR)と、ニューロンレベルのセマンティクスをシミュレートするために必要な暗黙のテンソル操作を推論する形状解析の2つの重要な革新によって実現されている。
昇降中、形状解析は対応する操作を実行するのに必要な最小の形状のテンソルを生成する。
IRはまた、書き直しとしてドメイン固有の最適化を可能にする。
実行時に、結果のテンソル計算はDNNアーキテクチャに結びついた空間性を示す。
このあいまいさは、既存のフォーマットとうまく一致しない。
これを解決するために, テンソルを様々なサイズのブロックの集合として表現する2次元圧縮形式であるg-BCSRを導入する。
コンパイラとg-BCSRを用いることで,新たな認証を開発し,多種多様なDNNにまたがる有用性を解析する。
その柔軟性にもかかわらず、コンパイラは手動で最適化された実装に匹敵するパフォーマンスを達成する。
関連論文リスト
- Implicit Language Models are RNNs: Balancing Parallelization and Expressivity [4.332158627306896]
状態空間モデル(SSM)とトランスフォーマーが言語モデリングのランドスケープを支配している。
固定点に収束するまで変換を行う暗黙のSSMを提案する。
提案手法は, 正規言語における状態追跡能力に優れ, トランスフォーマーやSSMよりも優れていることを示す。
論文 参考訳(メタデータ) (2025-02-10T19:59:31Z) - Asymmetric Certified Robustness via Feature-Convex Neural Networks [11.605936648692543]
ICNNを敵ネットワークに一般化できることを示す。
実験により、ネットワークはどの競争ベースラインよりもはるかに効率的であることが示されている。
論文 参考訳(メタデータ) (2023-02-03T19:17:28Z) - Convolutional Neural Operators for robust and accurate learning of PDEs [11.562748612983956]
本稿では、入力や出力として関数を処理する畳み込みニューラルネットワークの新しい適応法を提案する。
結果として生じるアーキテクチャは、畳み込みニューラル演算子(CNO)と呼ばれる。
普遍性定理を証明し、CNOが PDE で生じる作用素を所望の精度で近似できることを示す。
論文 参考訳(メタデータ) (2023-02-02T15:54:45Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Recurrent Bilinear Optimization for Binary Neural Networks [58.972212365275595]
BNNは、実数値重みとスケールファクターの内在的双線型関係を無視している。
私たちの仕事は、双線形の観点からBNNを最適化する最初の試みです。
我々は、様々なモデルやデータセット上で最先端のBNNに対して印象的な性能を示す頑健なRBONNを得る。
論文 参考訳(メタデータ) (2022-09-04T06:45:33Z) - Complexity-Driven CNN Compression for Resource-constrained Edge AI [1.6114012813668934]
本稿では,CNNの層レベルでの複雑さを生かして,新しい,計算効率の高いプルーニングパイプラインを提案する。
パラメータ認識(PA)、FLOP認識(FA)、メモリ認識(MA)の3つのモードを定義し、CNNの汎用圧縮を導入する。
論文 参考訳(メタデータ) (2022-08-26T16:01:23Z) - Self-Ensembling GAN for Cross-Domain Semantic Segmentation [107.27377745720243]
本稿では,セマンティックセグメンテーションのためのクロスドメインデータを利用した自己理解型生成逆数ネットワーク(SE-GAN)を提案する。
SE-GANでは、教師ネットワークと学生ネットワークは、意味分節マップを生成するための自己組織化モデルを構成する。
その単純さにもかかわらず、SE-GANは敵の訓練性能を大幅に向上させ、モデルの安定性を高めることができる。
論文 参考訳(メタデータ) (2021-12-15T09:50:25Z) - Sub-bit Neural Networks: Learning to Compress and Accelerate Binary
Neural Networks [72.81092567651395]
Sub-bit Neural Networks (SNN) は、BNNの圧縮と高速化に適した新しいタイプのバイナリ量子化設計である。
SNNは、微細な畳み込みカーネル空間におけるバイナリ量子化を利用するカーネル対応最適化フレームワークで訓練されている。
ビジュアル認識ベンチマークの実験とFPGA上でのハードウェア展開は、SNNの大きな可能性を検証する。
論文 参考訳(メタデータ) (2021-10-18T11:30:29Z) - Designing Interpretable Approximations to Deep Reinforcement Learning [14.007731268271902]
ディープニューラルネットワーク(DNN)は、アルゴリズムのパフォーマンスのバーを設定する。
実際にそのようなハイパフォーマンスなDNNを使うことは不可能かもしれない。
この研究は、所望のパフォーマンスレベルを保持するだけでなく、例えば、DNNで表される潜伏した知識を簡潔に説明できるような縮小モデルを特定することを目指している。
論文 参考訳(メタデータ) (2020-10-28T06:33:09Z) - BLK-REW: A Unified Block-based DNN Pruning Framework using Reweighted
Regularization Method [69.49386965992464]
本稿では, 汎用的かつ柔軟な構造化プルーニング次元と, 強力かつ効率的な再加重正規化手法を組み合わせたブロック型プルーニングフレームワークを提案する。
我々のフレームワークは普遍的であり、CNNとRNNの両方に適用できる。
リアルタイムモバイルアクセラレーションと精度の妥協のないCNNとRNNの共通カバレッジを実現するのはこれが初めてである。
論文 参考訳(メタデータ) (2020-01-23T03:30:56Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。