論文の概要: Frequency-Encoded Deep Learning with Speed-of-Light Dominated Latency
- arxiv url: http://arxiv.org/abs/2207.06883v1
- Date: Fri, 8 Jul 2022 16:37:13 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-17 17:01:24.191212
- Title: Frequency-Encoded Deep Learning with Speed-of-Light Dominated Latency
- Title(参考訳): 光速支配遅延を用いた周波数符号化深層学習
- Authors: Ronald Davis III, Zaijun Chen, Ryan Hamerly, and Dirk Englund
- Abstract要約: 本稿では,周波数領域のデータを符号化して行列ベクトル積を単一ショットで計算する乗法的アナログ周波数変換光学ニューラルネットワーク(MAFT-ONN)を提案する。
これは音声や無線信号のような時間波形のアナログ推論に適した最初のハードウェアアクセラレータであり、帯域幅制限スループットと光速制限レイテンシを実現している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The ability of deep neural networks to perform complex tasks more accurately
than manually-crafted solutions has created a substantial demand for more
complex models processing larger amounts of data. However, the traditional
computing architecture has reached a bottleneck in processing performance due
to data movement from memory to computing. Considerable efforts have been made
towards custom hardware acceleration, among which are optical neural networks
(ONNs). These excel at energy efficient linear operations but struggle with
scalability and the integration of linear and nonlinear functions. Here, we
introduce our multiplicative analog frequency transform optical neural network
(MAFT-ONN) that encodes the data in the frequency domain to compute
matrix-vector products in a single-shot using a single photoelectric
multiplication, and then implements the nonlinear activation for all neurons
using a single electro-optic modulator. We experimentally demonstrate a 3-layer
DNN with our architecture using a simple hardware setup assembled with
commercial components. Additionally, this is the first DNN hardware accelerator
suitable for analog inference of temporal waveforms like voice or radio
signals, achieving bandwidth-limited throughput and speed-of-light limited
latency. Our results demonstrate a highly scalable ONN with a straightforward
path to surpassing the current computing bottleneck, in addition to enabling
new possibilities for high-performance analog deep learning of temporal
waveforms.
- Abstract(参考訳): ディープニューラルネットワークが手作業によるソリューションよりも複雑なタスクを正確に実行する能力は、大量のデータを処理するより複雑なモデルにかなりの需要をもたらしている。
しかし、従来のコンピューティングアーキテクチャは、メモリからコンピューティングへのデータ移動による処理性能のボトルネックに達している。
オプティカルニューラルネットワーク(ONN)を含む、カスタムハードウェアアクセラレーションに向けた重要な取り組みが実施された。
これらはエネルギー効率のよい線形演算に優れているが、拡張性と線形関数と非線形関数の統合に苦しむ。
本稿では、周波数領域内のデータを符号化し、単一光電乗法を用いて単一ショットで行列ベクトル生成物を計算し、単一電気光学変調器を用いて全ニューロンの非線形活性化を実装する乗法アナログ周波数変換光ニューラルネットワーク(maft-onn)を提案する。
商用コンポーネントを組み込んだ単純なハードウェア構成を用いて,アーキテクチャを用いた3層DNNを実験的に実証した。
さらに、これは音声や無線信号のような時間波形のアナログ推論に適した最初のDNNハードウェアアクセラレータであり、帯域幅制限スループットと光速制限レイテンシを実現している。
本結果は,時間波形の高速アナログ深層学習を実現することに加えて,現在の計算ボトルネックを克服するための直接的な経路を持つ,スケーラブルなONNを示す。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Multiscale fusion enhanced spiking neural network for invasive BCI neural signal decoding [13.108613110379961]
本稿では,MFSNN(Multiscale Fusion Spiking Neural Network)を用いた新しいアプローチを提案する。
MFSNNは、人間の視覚知覚に見られる並列処理とマルチスケール機能融合をエミュレートし、リアルタイム、効率的、エネルギーを節約する神経信号復号を可能にする。
MFSNNは、GRUなどの従来のニューラルネットワーク手法を精度と計算効率の両方で超越している。
論文 参考訳(メタデータ) (2024-09-14T09:53:30Z) - Deep Learning for Low-Latency, Quantum-Ready RF Sensing [2.5393702482222813]
近年の研究では、無線周波数(RF)信号のソフトウェア処理を強化するためにディープラーニングを適用することが期待されている。
本稿では,RF信号分類のための量子可読機械学習手法の実装について述べる。
論文 参考訳(メタデータ) (2024-04-27T17:22:12Z) - 1-bit Quantized On-chip Hybrid Diffraction Neural Network Enabled by Authentic All-optical Fully-connected Architecture [4.594367761345624]
本研究では,行列乗算をDNNに組み込んだ新しいアーキテクチャであるHybrid Diffraction Neural Network(HDNN)を紹介する。
特異位相変調層と振幅変調層を用いて、トレーニングされたニューラルネットワークは、数字認識タスクにおいて96.39%と89%の顕著な精度を示した。
論文 参考訳(メタデータ) (2024-04-11T02:54:17Z) - ADC/DAC-Free Analog Acceleration of Deep Neural Networks with Frequency
Transformation [2.7488316163114823]
本稿では,アナログ領域の周波数ベーステンソル変換を用いた周波数領域ニューラルネットワークのエネルギー効率向上手法を提案する。
提案手法は,変換行列のトレーニング可能なパラメータを不要にすることで,よりコンパクトなセルを実現する。
16$times$16のクロスバーで8ビット入力処理を行い,Watt当たりの1602テラ演算のエネルギー効率を実現する。
論文 参考訳(メタデータ) (2023-09-04T19:19:39Z) - Speed Limits for Deep Learning [67.69149326107103]
熱力学の最近の進歩は、初期重量分布から完全に訓練されたネットワークの最終分布への移動速度の制限を可能にする。
線形および線形化可能なニューラルネットワークに対して,これらの速度制限に対する解析式を提供する。
NTKスペクトルとラベルのスペクトル分解に関するいくつかの妥当なスケーリング仮定を考えると、学習はスケーリングの意味で最適である。
論文 参考訳(メタデータ) (2023-07-27T06:59:46Z) - Intelligence Processing Units Accelerate Neuromorphic Learning [52.952192990802345]
スパイキングニューラルネットワーク(SNN)は、エネルギー消費と遅延の観点から、桁違いに改善されている。
我々は、カスタムSNN PythonパッケージsnnTorchのIPU最適化リリースを提示する。
論文 参考訳(メタデータ) (2022-11-19T15:44:08Z) - Single-Shot Optical Neural Network [55.41644538483948]
深層ニューラルネットワークに必要な計算資源を削減するために,「重定常」アナログ光学・電子ハードウェアが提案されている。
我々は、スケーラブルで1層当たり単発の重み付き光学プロセッサを提案する。
論文 参考訳(メタデータ) (2022-05-18T17:49:49Z) - Time-coded Spiking Fourier Transform in Neuromorphic Hardware [4.432142139656578]
本研究では,Fourier変換と数学的に等価な時間ベースのスパイクニューラルネットワークを提案する。
我々はニューロモルフィックチップLoihiにネットワークを実装し、自動車周波数変調連続波レーダを用いた5つの実シナリオの実験を行った。
論文 参考訳(メタデータ) (2022-02-25T12:15:46Z) - Two-Timescale End-to-End Learning for Channel Acquisition and Hybrid
Precoding [94.40747235081466]
本研究では,ミリ波(mmWave)大規模マルチインプット多重出力(MIMO)システムのためのエンドツーエンドの深層学習に基づくジョイントトランスシーバ設計アルゴリズムを提案する。
我々は受信したパイロットを受信機でフィードバックビットにマッピングし、さらに送信機でハイブリッドプリコーダにフィードバックビットをマッピングするDNNアーキテクチャを開発した。
論文 参考訳(メタデータ) (2021-10-22T20:49:02Z) - One-step regression and classification with crosspoint resistive memory
arrays [62.997667081978825]
高速で低エネルギーのコンピュータは、エッジでリアルタイム人工知能を実現するために要求されている。
ワンステップ学習は、ボストンの住宅のコスト予測と、MNIST桁認識のための2層ニューラルネットワークのトレーニングによって支援される。
結果は、クロスポイントアレイ内の物理計算、並列計算、アナログ計算のおかげで、1つの計算ステップで得られる。
論文 参考訳(メタデータ) (2020-05-05T08:00:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。