論文の概要: Silicon photonic subspace neural chip for hardware-efficient deep
learning
- arxiv url: http://arxiv.org/abs/2111.06705v1
- Date: Thu, 11 Nov 2021 06:34:05 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-15 14:51:55.089133
- Title: Silicon photonic subspace neural chip for hardware-efficient deep
learning
- Title(参考訳): ハードウェア効率の深いディープラーニングのためのシリコンフォトニックサブスペースニューラルチップ
- Authors: Chenghao Feng, Jiaqi Gu, Hanqing Zhu, Zhoufeng Ying, Zheng Zhao, David
Z. Pan and Ray T. Chen
- Abstract要約: 光ニューラルネットワーク(ONN)は次世代のニューロコンピューティングの候補として期待されている。
ハードウェア効率の良いフォトニックサブスペースニューラルネットワークアーキテクチャを考案する。
我々は,バタフライ型プログラマブルシリコンフォトニック集積回路上でPSNNを実験的に実証した。
- 参考スコア(独自算出の注目度): 11.374005508708995
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As deep learning has shown revolutionary performance in many artificial
intelligence applications, its escalating computation demand requires hardware
accelerators for massive parallelism and improved throughput. The optical
neural network (ONN) is a promising candidate for next-generation
neurocomputing due to its high parallelism, low latency, and low energy
consumption. Here, we devise a hardware-efficient photonic subspace neural
network (PSNN) architecture, which targets lower optical component usage, area
cost, and energy consumption than previous ONN architectures with comparable
task performance. Additionally, a hardware-aware training framework is provided
to minimize the required device programming precision, lessen the chip area,
and boost the noise robustness. We experimentally demonstrate our PSNN on a
butterfly-style programmable silicon photonic integrated circuit and show its
utility in practical image recognition tasks.
- Abstract(参考訳): ディープラーニングは多くの人工知能アプリケーションで革命的なパフォーマンスを示しているため、計算要求のエスカレートには、大量の並列処理とスループット向上のためのハードウェアアクセラレータが必要である。
光ニューラルネットワーク(onn)は、高並列性、低レイテンシ、低エネルギー消費のため、次世代ニューロコンピューティングの有望な候補である。
本稿では,従来のonnアーキテクチャに比べて光学部品使用率,面積コスト,エネルギー消費量の低減を目標とした,ハードウェア効率の高いフォトニックサブスペースニューラルネットワーク(psnn)アーキテクチャを考案する。
さらに、必要なデバイスプログラミング精度を最小化し、チップ面積を小さくし、ノイズ堅牢性を高めるため、ハードウェア対応のトレーニングフレームワークが提供される。
我々は,バタフライ型プログラマブルシリコンフォトニック集積回路を用いたPSNN実験を行い,その実用的画像認識における有用性を示した。
関連論文リスト
- Spyx: A Library for Just-In-Time Compiled Optimization of Spiking Neural
Networks [0.08965418284317034]
Spiking Neural Networks(SNN)は、小さくて低消費電力なハードウェアフットプリントによるエネルギー効率の向上を提供する。
本稿では、JAXで設計された新しい軽量SNNシミュレーションおよび最適化ライブラリSpyxを紹介する。
論文 参考訳(メタデータ) (2024-02-29T09:46:44Z) - Neural Network Methods for Radiation Detectors and Imaging [1.6395318070400589]
機械学習、特にディープニューラルネットワーク(DNN)の最近の進歩により、放射線検出器や撮像ハードウェアの新たな最適化と性能向上スキームが実現されている。
本稿では、光子源におけるデータ生成の概要、画像処理タスクのためのディープラーニングベースの方法、ディープラーニングアクセラレーションのためのハードウェアソリューションについて述べる。
論文 参考訳(メタデータ) (2023-11-09T20:21:51Z) - Free-Space Optical Spiking Neural Network [0.0]
自由空間光深絞り畳み込みニューラルネットワーク(OSCNN)について紹介する。
この手法は人間の眼の計算モデルからインスピレーションを得ている。
以上の結果から,電子的ONNと比較して,レイテンシと消費電力を最小に抑えた有望な性能を示す。
論文 参考訳(メタデータ) (2023-11-08T09:41:14Z) - SpikingJelly: An open-source machine learning infrastructure platform
for spike-based intelligence [51.6943465041708]
スパイキングニューラルネットワーク(SNN)は、高エネルギー効率のニューロモルフィックチップに脳にインスパイアされたインテリジェンスを実現することを目的としている。
我々は、ニューロモルフィックデータセットの事前処理、深層SNNの構築、パラメータの最適化、およびニューロモルフィックチップへのSNNのデプロイのためのフルスタックツールキットをコントリビュートする。
論文 参考訳(メタデータ) (2023-10-25T13:15:17Z) - Energy-Efficient Deployment of Machine Learning Workloads on
Neuromorphic Hardware [0.11744028458220425]
ディープラーニングハードウェアアクセラレータがいくつかリリースされ、ディープニューラルネットワーク(DNN)が消費する電力と面積の削減に特化している。
個別の時系列データで動作するスパイクニューラルネットワーク(SNN)は、特殊なニューロモルフィックイベントベース/非同期ハードウェアにデプロイすると、大幅な電力削減を実現することが示されている。
本研究では,事前学習したDNNをSNNに変換するための一般的なガイドを提供するとともに,ニューロモルフィックハードウェア上でのSNNの展開を改善するためのテクニックも提示する。
論文 参考訳(メタデータ) (2022-10-10T20:27:19Z) - Deep Learning for Real Time Satellite Pose Estimation on Low Power Edge
TPU [58.720142291102135]
本稿では,ニューラルネットワークアーキテクチャを利用したポーズ推定ソフトウェアを提案する。
我々は、低消費電力の機械学習アクセラレーターが宇宙での人工知能の活用を可能にしていることを示す。
論文 参考訳(メタデータ) (2022-04-07T08:53:18Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Photonics for artificial intelligence and neuromorphic computing [52.77024349608834]
フォトニック集積回路は超高速な人工ニューラルネットワークを可能にした。
フォトニックニューロモルフィックシステムはナノ秒以下のレイテンシを提供する。
これらのシステムは、機械学習と人工知能の需要の増加に対応する可能性がある。
論文 参考訳(メタデータ) (2020-10-30T21:41:44Z) - MS-RANAS: Multi-Scale Resource-Aware Neural Architecture Search [94.80212602202518]
我々は,MS-RANAS(Multi-Scale Resource-Aware Neural Architecture Search)を提案する。
我々は,検索コストの削減を図るために,ワンショットのアーキテクチャ探索手法を採用した。
我々は精度-速度トレードオフの観点から最先端の結果を得る。
論文 参考訳(メタデータ) (2020-09-29T11:56:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。