論文の概要: Real-time Hyper-Dimensional Reconfiguration at the Edge using Hardware
Accelerators
- arxiv url: http://arxiv.org/abs/2206.05128v1
- Date: Fri, 10 Jun 2022 14:08:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-13 18:38:31.963923
- Title: Real-time Hyper-Dimensional Reconfiguration at the Edge using Hardware
Accelerators
- Title(参考訳): ハードウェアアクセラレータを用いたエッジのリアルタイム超次元再構成
- Authors: Indhumathi Kandaswamy, Saurabh Farkya, Zachary Daniels, Gooitzen van
der Wal, Aswin Raghavan, Yuzheng Zhang, Jun Hu, Michael Lomnitz, Michael
Isnardi, David Zhang, Michael Piacentino
- Abstract要約: HyDRATEは、ディープニューラルネット(DNN)と超次元(HD)コンピューティングアクセラレータを組み合わせることで、エッジでリアルタイムな再構成を行うことができる。
本稿では,アルゴリズム,訓練された量子化モデル生成,および乗算累積のない特徴抽出器の性能について述べる。
降下勾配のバックプロパゲーションを伴わないフィードフォワードHD分類器のみをリトレーニングすることで、フィールドにおける再構成性を実現する。
- 参考スコア(独自算出の注目度): 12.599871451119538
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this paper we present Hyper-Dimensional Reconfigurable Analytics at the
Tactical Edge (HyDRATE) using low-SWaP embedded hardware that can perform
real-time reconfiguration at the edge leveraging non-MAC (free of
floating-point MultiplyACcumulate operations) deep neural nets (DNN) combined
with hyperdimensional (HD) computing accelerators. We describe the algorithm,
trained quantized model generation, and simulated performance of a feature
extractor free of multiply-accumulates feeding a hyperdimensional logic-based
classifier. Then we show how performance increases with the number of
hyperdimensions. We describe the realized low-SWaP FPGA hardware and embedded
software system compared to traditional DNNs and detail the implemented
hardware accelerators. We discuss the measured system latency and power, noise
robustness due to use of learnable quantization and HD computing, actual versus
simulated system performance for a video activity classification task and
demonstration of reconfiguration on this same dataset. We show that
reconfigurability in the field is achieved by retraining only the feed-forward
HD classifier without gradient descent backpropagation (gradient-free), using
few-shot learning of new classes at the edge. Initial work performed used LRCN
DNN and is currently extended to use Two-stream DNN with improved performance.
- Abstract(参考訳): 本稿では,非mac(浮動小数点多重累積演算を含まない)のディープニューラルネット(dnn)とハイパー次元(hd)コンピューティングアクセラレータを組み合わせることで,エッジでリアルタイムな再構成を行うことのできる,低スワップ組込みハードウェアを用いた戦術エッジ(hydrate)における超次元再構成可能な解析手法を提案する。
超次元論理ベースの分類器を供給しない特徴抽出器のアルゴリズム,訓練された量子化モデル生成,およびシミュレーション性能について述べる。
次に,超次元数の増加に伴う性能向上を示す。
本稿では,従来のDNNと比較して実現された低SWaPFPGAハードウェアと組み込みソフトウェアシステムについて述べる。
本稿では,映像アクティビティ分類タスクにおける実システム性能とシミュレーションシステム性能,学習可能な量子化とhdコンピューティングによる雑音のロバスト性,同一データセットにおける再構成の実証について述べる。
そこで本研究では, 勾配降下バックプロパゲーションを必要とせず, フィードフォワードhd分類器のみをリトレーニングすることで, フィールドの再構成性が達成できることを示す。
最初の作業はRCN DNNを使用して行われ、現在は2ストリームのDNNに拡張され、性能が向上している。
関連論文リスト
- TCCT-Net: Two-Stream Network Architecture for Fast and Efficient Engagement Estimation via Behavioral Feature Signals [58.865901821451295]
本稿では,新しい2ストリーム機能融合 "Tensor-Convolution and Convolution-Transformer Network" (TCCT-Net) アーキテクチャを提案する。
時間空間領域における意味のあるパターンをよりよく学習するために、ハイブリッド畳み込み変換器を統合する「CT」ストリームを設計する。
並行して、時間周波数領域からリッチなパターンを効率的に抽出するために、連続ウェーブレット変換(CWT)を用いて情報を2次元テンソル形式で表現する「TC」ストリームを導入する。
論文 参考訳(メタデータ) (2024-04-15T06:01:48Z) - Harnessing Manycore Processors with Distributed Memory for Accelerated
Training of Sparse and Recurrent Models [43.1773057439246]
現在のAIトレーニングインフラストラクチャは、単一の命令多重データ(SIMD)とシストリック配列アーキテクチャによって支配されている。
分散ローカルメモリを用いた大規模並列多重命令型マルチデータアーキテクチャにおけるスパース・リカレントモデルトレーニングについて検討する。
論文 参考訳(メタデータ) (2023-11-07T23:18:35Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Fluid Batching: Exit-Aware Preemptive Serving of Early-Exit Neural
Networks on Edge NPUs [74.83613252825754]
スマートエコシステム(smart ecosystems)"は、スタンドアロンではなく、センセーションが同時に行われるように形成されています。
これはデバイス上の推論パラダイムを、エッジにニューラル処理ユニット(NPU)をデプロイする方向にシフトしている。
そこで本研究では,実行時のプリエンプションが到着・終了プロセスによってもたらされる動的性を考慮に入れた,新しい早期終了スケジューリングを提案する。
論文 参考訳(メタデータ) (2022-09-27T15:04:01Z) - DNN Training Acceleration via Exploring GPGPU Friendly Sparsity [16.406482603838157]
本稿では、従来のランダムなニューロンやシナプスのドロップアウトを、通常のオンラインの行ベースもしくはタイルベースのドロップアウトパターンに置き換える近似ランダムドロップアウトを提案する。
次に,SGDに基づく探索アルゴリズムを開発し,行ベースあるいはタイルベースのドロップアウトパターンの分布を生成し,潜在的な精度損失を補う。
また,入力特徴図をその感度に基づいて動的にドロップアウトし,前向きおよび後向きのトレーニングアクセラレーションを実現するための感度対応ドロップアウト手法を提案する。
論文 参考訳(メタデータ) (2022-03-11T01:32:03Z) - An Adaptive Device-Edge Co-Inference Framework Based on Soft
Actor-Critic [72.35307086274912]
高次元パラメータモデルと大規模数学的計算は、特にIoT(Internet of Things)デバイスにおける実行効率を制限する。
本稿では,ソフトポリシーの繰り返しによるエフェキシット点,エフェキシット点,エンフェキシット点を生成する離散的(SAC-d)のための新しい深層強化学習(DRL)-ソフトアクタ批判法を提案する。
レイテンシと精度を意識した報酬設計に基づいて、そのような計算は動的無線チャンネルや任意の処理のような複雑な環境によく適応でき、5G URLをサポートすることができる。
論文 参考訳(メタデータ) (2022-01-09T09:31:50Z) - Efficient Algorithms for Device Placement of DNN Graph Operators [12.871398348743591]
現代の機械学習ワークロードは、実行に非常にコストがかかる複雑な構造を持つ大規模なモデルを使用する。
複雑なモデルを実行するデバイスは、CPUに加えて、ハードウェアアクセラレータとして提供されるドメイン固有のアクセラレータが盛んになるにつれて、ますます異質になりつつある。
近年の研究では、モデルの並列性、すなわちニューラルネットワークの計算グラフを複数のデバイスに分割することで、大きな利益が得られることが示されている。
本稿では,DNN演算子のデバイス配置のコアとなる構造的最適化問題を,特に現代のパイプライン環境において,推論とトレーニングの両方のために同定し,分離する。
論文 参考訳(メタデータ) (2020-06-29T22:45:01Z) - Fully-parallel Convolutional Neural Network Hardware [0.7829352305480285]
本稿では,ハードウェアにArticial Neural Networks(ANN)を実装するための,新しい電力・面積効率アーキテクチャを提案する。
LENET-5として完全に並列なCNNを1つのFPGAに埋め込んでテストするのが初めてである。
論文 参考訳(メタデータ) (2020-06-22T17:19:09Z) - An Image Enhancing Pattern-based Sparsity for Real-time Inference on
Mobile Devices [58.62801151916888]
パターンと接続性を組み合わせた新しい空間空間,すなわちパターンベースの空間空間を導入し,高度に正確かつハードウェアに親しみやすいものにした。
新たなパターンベースの空間性に対する我々のアプローチは,モバイルプラットフォーム上での高効率DNN実行のためのコンパイラ最適化に自然に適合する。
論文 参考訳(メタデータ) (2020-01-20T16:17:36Z) - PatDNN: Achieving Real-Time DNN Execution on Mobile Devices with
Pattern-based Weight Pruning [57.20262984116752]
粗粒構造の内部に新しい次元、きめ細かなプルーニングパターンを導入し、これまで知られていなかった設計空間の点を明らかにした。
きめ細かいプルーニングパターンによって高い精度が実現されているため、コンパイラを使ってハードウェア効率を向上し、保証することがユニークな洞察である。
論文 参考訳(メタデータ) (2020-01-01T04:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。