論文の概要: Low-Latency Asynchronous Logic Design for Inference at the Edge
- arxiv url: http://arxiv.org/abs/2012.03402v1
- Date: Mon, 7 Dec 2020 00:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:46:13.353726
- Title: Low-Latency Asynchronous Logic Design for Inference at the Edge
- Title(参考訳): エッジにおける推論のための低遅延非同期論理設計
- Authors: Adrian Wheeldon, Alex Yakovlev, Rishad Shafik, Jordan Morris
- Abstract要約: 本稿では,自己時間型早期伝播型非同期推論回路の面積と電力オーバーヘッドの低減手法を提案する。
タイミングに対する自然なレジリエンスと論理的な基盤のため、回路は環境や供給電圧の変動に耐性がある。
提案回路の平均レイテンシは同期実装と比較して10倍低減される。
- 参考スコア(独自算出の注目度): 0.9831489366502301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern internet of things (IoT) devices leverage machine learning inference
using sensed data on-device rather than offloading them to the cloud. Commonly
known as inference at-the-edge, this gives many benefits to the users,
including personalization and security. However, such applications demand high
energy efficiency and robustness. In this paper we propose a method for reduced
area and power overhead of self-timed early-propagative asynchronous inference
circuits, designed using the principles of learning automata. Due to natural
resilience to timing as well as logic underpinning, the circuits are tolerant
to variations in environment and supply voltage whilst enabling the lowest
possible latency. Our method is exemplified through an inference datapath for a
low power machine learning application. The circuit builds on the Tsetlin
machine algorithm further enhancing its energy efficiency. Average latency of
the proposed circuit is reduced by 10x compared with the synchronous
implementation whilst maintaining similar area. Robustness of the proposed
circuit is proven through post-synthesis simulation with 0.25 V to 1.2 V
supply. Functional correctness is maintained and latency scales with gate delay
as voltage is decreased.
- Abstract(参考訳): 現代のモノのインターネット(IoT)デバイスは、クラウドにオフロードするのではなく、デバイス上の知覚されたデータを使用して機械学習の推論を利用する。
一般的にInference at theedgeとして知られており、パーソナライゼーションやセキュリティなど、多くのメリットをユーザに提供する。
しかし、そのような応用は高いエネルギー効率と堅牢性を必要とする。
本稿では,オートマトン学習の原則を用いて設計した自己時間型早期伝播型非同期推論回路の面積と電力オーバーヘッドを低減する手法を提案する。
タイミングに対する自然な回復力と論理基盤により、回路は環境や供給電圧の変動に耐性があり、最小のレイテンシが可能となる。
提案手法は低消費電力機械学習アプリケーションのための推論データパスを用いて実演する。
この回路は、Tsetlinマシンアルゴリズムに基づいて、そのエネルギー効率をさらに高める。
提案回路の平均レイテンシは、類似領域を維持しながら同期実装と比較して10倍低減される。
提案回路のロバスト性は、0.25Vから1.2Vの合成後シミュレーションによって証明される。
機能的補正は維持され、電圧が低下するにつれてゲート遅延を伴うレイテンシがスケールする。
関連論文リスト
- PreRoutGNN for Timing Prediction with Order Preserving Partition: Global
Circuit Pre-training, Local Delay Learning and Attentional Cell Modeling [84.34811206119619]
本稿では,事前のタイミング予測に対する2段階のアプローチを提案する。
まず、回路網リストからグローバルグラフ埋め込みを学習するグラフオートエンコーダを事前学習するためのグローバル回路トレーニングを提案する。
第2に、GCN上のメッセージパッシングのための新しいノード更新方式を、学習したグラフ埋め込みと回路グラフのトポロジ的ソートシーケンスに従って使用する。
21個の実世界の回路の実験では、スラック予測のための新しいSOTA R2が0.93で達成され、以前のSOTA法では0.59をはるかに上回っている。
論文 参考訳(メタデータ) (2024-02-27T02:23:07Z) - Transfer learning-based physics-informed convolutional neural network
for simulating flow in porous media with time-varying controls [0.0]
多孔質媒質中の二相流をシミュレートする物理インフォームド畳み込みニューラルネットワークを提案する。
有限体積スキームは流れの方程式を識別するために用いられる。
N ノイマン境界条件は半離散方程式にシームレスに組み込まれる。
論文 参考訳(メタデータ) (2023-10-10T05:29:33Z) - Latency-aware Unified Dynamic Networks for Efficient Image Recognition [72.8951331472913]
LAUDNetは動的ネットワークの理論的および実用的な効率ギャップを橋渡しするフレームワークである。
3つの主要な動的パラダイム - 適応型計算、動的層スキップ、動的チャネルスキップ - を統合している。
これにより、V100,3090やTX2 GPUのようなプラットフォーム上で、ResNetのようなモデルの遅延を50%以上削減できる。
論文 参考訳(メタデータ) (2023-08-30T10:57:41Z) - Neuromorphic analog circuits for robust on-chip always-on learning in
spiking neural networks [1.9809266426888898]
混合信号ニューロモルフィックシステムは、極端コンピューティングタスクを解決するための有望なソリューションである。
彼らのスパイクニューラルネットワーク回路は、連続的にセンサーデータをオンラインに処理するために最適化されている。
我々は,短期的アナログ力学と長期的三状態離散化機構を備えたオンチップ学習回路を設計する。
論文 参考訳(メタデータ) (2023-07-12T11:14:25Z) - Lyapunov-Driven Deep Reinforcement Learning for Edge Inference Empowered
by Reconfigurable Intelligent Surfaces [30.1512069754603]
本稿では,ワイヤレスエッジにおけるエネルギー効率,低レイテンシ,高精度な推論のための新しいアルゴリズムを提案する。
本稿では,新しいデータを一連のデバイスで連続的に生成・収集し,動的キューシステムを通じて処理するシナリオについて考察する。
論文 参考訳(メタデータ) (2023-05-18T12:46:42Z) - Dynamic Network-Assisted D2D-Aided Coded Distributed Learning [59.29409589861241]
本稿では,デバイス間のロードバランシングのための新しいデバイス・ツー・デバイス(D2D)支援型符号化学習手法(D2D-CFL)を提案する。
最小処理時間を達成するための最適圧縮率を導出し、収束時間との接続を確立する。
提案手法は,ユーザが継続的にトレーニングデータを生成するリアルタイム協調アプリケーションに有用である。
論文 参考訳(メタデータ) (2021-11-26T18:44:59Z) - Self-timed Reinforcement Learning using Tsetlin Machine [1.104960878651584]
本稿では、推論データパスの遅延解析とともに、Tsetlinマシンアルゴリズムの学習データパスのためのハードウェア設計を提案する。
結果として、パーソナライズされたヘルスケアやバッテリ駆動のIoTデバイスといったアプリケーションにおける非同期設計の利点が示されている。
論文 参考訳(メタデータ) (2021-09-02T11:24:23Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - Wirelessly Powered Federated Edge Learning: Optimal Tradeoffs Between
Convergence and Power Transfer [42.30741737568212]
無線電力伝送(WPT)を用いた電力機器の解法を提案する。
本研究の目的は、無線で駆動するFEEL(WP-FEEL)システムの導入に関するガイドラインの導出である。
その結果、WPTプロビジョニングに関する有用なガイドラインを提供し、学習パフォーマンスの保証を提供します。
論文 参考訳(メタデータ) (2021-02-24T15:47:34Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。