論文の概要: Explainable AI-Guided Efficient Approximate DNN Generation for Multi-Pod Systolic Arrays
- arxiv url: http://arxiv.org/abs/2503.16583v1
- Date: Thu, 20 Mar 2025 14:26:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-24 14:57:35.127853
- Title: Explainable AI-Guided Efficient Approximate DNN Generation for Multi-Pod Systolic Arrays
- Title(参考訳): マルチポッドシストリックアレイのための説明可能なAI誘導高効率DNN生成
- Authors: Ayesha Siddique, Khurram Khalil, Khaza Anuarul Hoque,
- Abstract要約: 近似ディープニューラルネットワーク(AxDNN)は、現実世界のデバイスにおけるエネルギー効率を高めることを約束している。
AxDNNにおけるこの強化エネルギー効率の背景にある重要な貢献の1つは、近似乗算器の使用である。
近似の非臨界層を同定する新しいXAI-Gen法を提案する。
その結果,XAI-Genは1-2%の精度でエネルギー消費量を最大7倍に抑えることができた。
- 参考スコア(独自算出の注目度): 0.0
- License:
- Abstract: Approximate deep neural networks (AxDNNs) are promising for enhancing energy efficiency in real-world devices. One of the key contributors behind this enhanced energy efficiency in AxDNNs is the use of approximate multipliers. Unfortunately, the simulation of approximate multipliers does not usually scale well on CPUs and GPUs. As a consequence, this slows down the overall simulation of AxDNNs aimed at identifying the appropriate approximate multipliers to achieve high energy efficiency with a minimum accuracy loss. To address this problem, we present a novel XAI-Gen methodology, which leverages the analytical model of the emerging hardware accelerator (e.g., Google TPU v4) and explainable artificial intelligence (XAI) to precisely identify the non-critical layers for approximation and quickly discover the appropriate approximate multipliers for AxDNN layers. Our results show that XAI-Gen achieves up to 7x lower energy consumption with only 1-2% accuracy loss. We also showcase the effectiveness of the XAI-Gen approach through a neural architecture search (XAI-NAS) case study. Interestingly, XAI-NAS achieves 40\% higher energy efficiency with up to 5x less execution time when compared to the state-of-the-art NAS methods for generating AxDNNs.
- Abstract(参考訳): 近似ディープニューラルネットワーク(AxDNN)は、現実世界のデバイスにおけるエネルギー効率を高めることを約束している。
AxDNNにおけるこの強化エネルギー効率の背景にある重要な貢献の1つは、近似乗算器の使用である。
残念ながら、近似乗算器のシミュレーションは通常、CPUやGPU上ではうまくスケールしない。
結果として、これはAxDNNの全体的なシミュレーションを遅くし、最小精度の損失で高エネルギー効率を達成するために適切な近似乗算器を特定することを目的としている。
この問題に対処するために,新たなXAI-Gen手法を提案する。ハードウェアアクセラレータ(例えば,Google TPU v4)の解析モデルと説明可能な人工知能(XAI)を用いて,近似の非臨界層を正確に同定し,AxDNN層の近似乗算器を迅速に発見する。
その結果,XAI-Genは1-2%の精度でエネルギー消費量を最大7倍に抑えることができた。
また,ニューラルアーキテクチャサーチ(XAI-NAS)によるXAI-Genアプローチの有効性を示す。
興味深いことに、XAI-NASは、AxDNNを生成する最先端NAS法と比較して、実行時間の最大5倍の40倍のエネルギー効率を達成する。
関連論文リスト
- The Eclipsing Binaries via Artificial Intelligence. II. Need for Speed in PHOEBE Forward Models [0.0]
現代の天文学では、収集されたデータの量は手動分析の能力を大きく上回っている。
AIは、フォワードモデルを生成するのに必要な時間から計算ボトルネックが発生するシミュレーションコードを最適化することができる。
我々は、100万以上の合成光曲線のデータセットに基づいてトレーニングされた、完全に接続されたフィードフォワード人工ニューラルネットワーク(ANN)を提案する。
論文 参考訳(メタデータ) (2024-12-16T15:00:15Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - NASA: Neural Architecture Search and Acceleration for Hardware Inspired
Hybrid Networks [24.95135135092478]
我々はNASAというニューラルアーキテクチャ検索・加速フレームワークを提案する。
自動乗算型DNN開発を可能にし、専用乗算型加速器を統合する。
実験は、達成可能な精度と効率のトレードオフの観点から、NASAのアルゴリズム・ハードウェアの共同設計フレームワークの利点を一貫して評価する。
論文 参考訳(メタデータ) (2022-10-24T16:03:42Z) - FPGA-based AI Smart NICs for Scalable Distributed AI Training Systems [62.20308752994373]
我々は、フィールドプログラマブルゲートアレイ(FPGA)を用いた分散AI訓練システムのための新しいスマートネットワークインタフェースカード(NIC)を提案する。
提案するFPGAベースのAIスマートNICは,従来のNICを用いたベースラインシステムと比較して,6ノードで1.6倍,32ノードで2.5倍の性能向上が期待できる。
論文 参考訳(メタデータ) (2022-04-22T21:57:00Z) - Hardware Approximate Techniques for Deep Neural Network Accelerators: A
Survey [4.856755747052137]
Deep Neural Networks(DNN)は非常に人気があり、機械学習(ML)における様々な認知タスクのパフォーマンスが高い。
近年のDNNの進歩は多くのタスクにおいて人間の精度を超えたが、計算の複雑さのコストがかかる。
本稿では,DNN加速器のハードウェア近似技術に関する包括的調査と解析を行う。
論文 参考訳(メタデータ) (2022-03-16T16:33:13Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - ANNETTE: Accurate Neural Network Execution Time Estimation with Stacked
Models [56.21470608621633]
本稿では,アーキテクチャ検索を対象ハードウェアから切り離すための時間推定フレームワークを提案する。
提案手法は,マイクロカーネルと多層ベンチマークからモデルの集合を抽出し,マッピングとネットワーク実行時間推定のためのスタックモデルを生成する。
生成した混合モデルの推定精度と忠実度, 統計モデルとルーフラインモデル, 評価のための洗練されたルーフラインモデルを比較した。
論文 参考訳(メタデータ) (2021-05-07T11:39:05Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z) - SmartExchange: Trading Higher-cost Memory Storage/Access for Lower-cost
Computation [97.78417228445883]
We present SmartExchange, a algorithm- hardware co-design framework for energy- efficient inference of Deep Neural Network (DNNs)。
そこで我々は,非零要素がすべてパワー・オブ・ツーである小さな基底行列と大きなスパース係数行列の積として,各重み行列を格納できる,特別に好ましいDNN重み構造を強制する新しいアルゴリズムを開発した。
さらに、SmartExchange強化重量をフル活用し、エネルギー効率と遅延性能の両方を改善するための専用のアクセラレータを設計する。
論文 参考訳(メタデータ) (2020-05-07T12:12:49Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。