論文の概要: Low-Latency Asynchronous Logic Design for Inference at the Edge
- arxiv url: http://arxiv.org/abs/2012.03402v1
- Date: Mon, 7 Dec 2020 00:40:52 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 20:46:13.353726
- Title: Low-Latency Asynchronous Logic Design for Inference at the Edge
- Title(参考訳): エッジにおける推論のための低遅延非同期論理設計
- Authors: Adrian Wheeldon, Alex Yakovlev, Rishad Shafik, Jordan Morris
- Abstract要約: 本稿では,自己時間型早期伝播型非同期推論回路の面積と電力オーバーヘッドの低減手法を提案する。
タイミングに対する自然なレジリエンスと論理的な基盤のため、回路は環境や供給電圧の変動に耐性がある。
提案回路の平均レイテンシは同期実装と比較して10倍低減される。
- 参考スコア(独自算出の注目度): 0.9831489366502301
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern internet of things (IoT) devices leverage machine learning inference
using sensed data on-device rather than offloading them to the cloud. Commonly
known as inference at-the-edge, this gives many benefits to the users,
including personalization and security. However, such applications demand high
energy efficiency and robustness. In this paper we propose a method for reduced
area and power overhead of self-timed early-propagative asynchronous inference
circuits, designed using the principles of learning automata. Due to natural
resilience to timing as well as logic underpinning, the circuits are tolerant
to variations in environment and supply voltage whilst enabling the lowest
possible latency. Our method is exemplified through an inference datapath for a
low power machine learning application. The circuit builds on the Tsetlin
machine algorithm further enhancing its energy efficiency. Average latency of
the proposed circuit is reduced by 10x compared with the synchronous
implementation whilst maintaining similar area. Robustness of the proposed
circuit is proven through post-synthesis simulation with 0.25 V to 1.2 V
supply. Functional correctness is maintained and latency scales with gate delay
as voltage is decreased.
- Abstract(参考訳): 現代のモノのインターネット(IoT)デバイスは、クラウドにオフロードするのではなく、デバイス上の知覚されたデータを使用して機械学習の推論を利用する。
一般的にInference at theedgeとして知られており、パーソナライゼーションやセキュリティなど、多くのメリットをユーザに提供する。
しかし、そのような応用は高いエネルギー効率と堅牢性を必要とする。
本稿では,オートマトン学習の原則を用いて設計した自己時間型早期伝播型非同期推論回路の面積と電力オーバーヘッドを低減する手法を提案する。
タイミングに対する自然な回復力と論理基盤により、回路は環境や供給電圧の変動に耐性があり、最小のレイテンシが可能となる。
提案手法は低消費電力機械学習アプリケーションのための推論データパスを用いて実演する。
この回路は、Tsetlinマシンアルゴリズムに基づいて、そのエネルギー効率をさらに高める。
提案回路の平均レイテンシは、類似領域を維持しながら同期実装と比較して10倍低減される。
提案回路のロバスト性は、0.25Vから1.2Vの合成後シミュレーションによって証明される。
機能的補正は維持され、電圧が低下するにつれてゲート遅延を伴うレイテンシがスケールする。
関連論文リスト
- Digital Twin-Assisted Federated Learning with Blockchain in Multi-tier Computing Systems [67.14406100332671]
産業用 4.0 システムでは、リソース制約のあるエッジデバイスが頻繁にデータ通信を行う。
本稿では,デジタルツイン (DT) とフェデレーション付きデジタルツイン (FL) 方式を提案する。
提案手法の有効性を数値解析により検証した。
論文 参考訳(メタデータ) (2024-11-04T17:48:02Z) - Resource Efficient Asynchronous Federated Learning for Digital Twin Empowered IoT Network [29.895766751146155]
Digital twin(DT)は、IoT(Internet of Things)デバイスのリアルタイムステータスと動的トポロジマッピングを提供する。
我々は,非同期フェデレーション学習(FL)に基づく軽量DT強化IoTネットワークに適した動的リソーススケジューリングアルゴリズムを開発した。
具体的には,エネルギー消費と遅延の両方を包含する多目的関数を最小化する。
論文 参考訳(メタデータ) (2024-08-26T14:28:51Z) - Fourier Controller Networks for Real-Time Decision-Making in Embodied Learning [42.862705980039784]
Transformerは、時間変化のある特徴をモデル化するための強化学習を約束している。
データ効率の低下と推論遅延の低さに悩まされている。
本稿では,周波数領域の新しい視点から課題を考察する。
論文 参考訳(メタデータ) (2024-05-30T09:43:59Z) - Time-Series Forecasting and Sequence Learning Using Memristor-based Reservoir System [2.6473021051027534]
我々は,効率的な時間的データ処理とオンライン学習を兼ね備えたmemristorベースのエコー状態ネットワークアクセラレータを開発した。
提案した設計は、負荷エネルギー消費と気象条件の予測など、実世界のタスクを含む様々なデータセットを用いてベンチマークされる。
このシステムはデバイス故障に対して10%以下で合理的な堅牢性を示すことが観察された。
論文 参考訳(メタデータ) (2024-05-22T05:07:56Z) - Resistive Memory-based Neural Differential Equation Solver for Score-based Diffusion Model [55.116403765330084]
スコアベースの拡散のような現在のAIGC法は、迅速性と効率性の点で依然として不足している。
スコアベース拡散のための時間連続型およびアナログ型インメモリ型ニューラル微分方程式解法を提案する。
我々は180nmの抵抗型メモリインメモリ・コンピューティング・マクロを用いて,我々の解を実験的に検証した。
論文 参考訳(メタデータ) (2024-04-08T16:34:35Z) - PreRoutGNN for Timing Prediction with Order Preserving Partition: Global
Circuit Pre-training, Local Delay Learning and Attentional Cell Modeling [84.34811206119619]
本稿では,事前のタイミング予測に対する2段階のアプローチを提案する。
まず、回路網リストからグローバルグラフ埋め込みを学習するグラフオートエンコーダを事前学習するためのグローバル回路トレーニングを提案する。
第2に、GCN上のメッセージパッシングのための新しいノード更新方式を、学習したグラフ埋め込みと回路グラフのトポロジ的ソートシーケンスに従って使用する。
21個の実世界の回路の実験では、スラック予測のための新しいSOTA R2が0.93で達成され、以前のSOTA法では0.59をはるかに上回っている。
論文 参考訳(メタデータ) (2024-02-27T02:23:07Z) - Neuromorphic analog circuits for robust on-chip always-on learning in
spiking neural networks [1.9809266426888898]
混合信号ニューロモルフィックシステムは、極端コンピューティングタスクを解決するための有望なソリューションである。
彼らのスパイクニューラルネットワーク回路は、連続的にセンサーデータをオンラインに処理するために最適化されている。
我々は,短期的アナログ力学と長期的三状態離散化機構を備えたオンチップ学習回路を設計する。
論文 参考訳(メタデータ) (2023-07-12T11:14:25Z) - Self-timed Reinforcement Learning using Tsetlin Machine [1.104960878651584]
本稿では、推論データパスの遅延解析とともに、Tsetlinマシンアルゴリズムの学習データパスのためのハードウェア設計を提案する。
結果として、パーソナライズされたヘルスケアやバッテリ駆動のIoTデバイスといったアプリケーションにおける非同期設計の利点が示されている。
論文 参考訳(メタデータ) (2021-09-02T11:24:23Z) - Energy-Efficient Model Compression and Splitting for Collaborative
Inference Over Time-Varying Channels [52.60092598312894]
本稿では,エッジノードとリモートノード間のモデル圧縮と時間変化モデル分割を利用して,エッジデバイスにおける総エネルギーコストを削減する手法を提案する。
提案手法は, 検討されたベースラインと比較して, エネルギー消費が最小限であり, 排出コストが$CO$となる。
論文 参考訳(メタデータ) (2021-06-02T07:36:27Z) - EdgeBERT: Sentence-Level Energy Optimizations for Latency-Aware
Multi-Task NLP Inference [82.1584439276834]
BERTのようなトランスフォーマーベースの言語モデルでは、自然言語処理(NLP)タスクの精度が大幅に向上する。
We present EdgeBERT, a in-deepth algorithm- hardware co-design for latency-aware energy optimization for multi-task NLP。
論文 参考訳(メタデータ) (2020-11-28T19:21:47Z) - Training End-to-End Analog Neural Networks with Equilibrium Propagation [64.0476282000118]
本稿では,勾配降下による終端から終端までのアナログニューラルネットワークの学習法を提案する。
数学的には、アナログニューラルネットワークのクラス(非線形抵抗性ネットワークと呼ばれる)がエネルギーベースモデルであることが示される。
我々の研究は、オンチップ学習をサポートする、超高速でコンパクトで低消費電力のニューラルネットワークの新世代の開発を導くことができる。
論文 参考訳(メタデータ) (2020-06-02T23:38:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。