論文の概要: LiteCON: An All-Photonic Neuromorphic Accelerator for Energy-efficient
Deep Learning (Preprint)
- arxiv url: http://arxiv.org/abs/2206.13861v1
- Date: Tue, 28 Jun 2022 09:56:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-02 12:15:17.108290
- Title: LiteCON: An All-Photonic Neuromorphic Accelerator for Energy-efficient
Deep Learning (Preprint)
- Title(参考訳): litecon: エネルギー効率の高いディープラーニング(プレプリント)のためのオールフォトニックニューロモルフィックアクセラレータ
- Authors: Dharanidhar Dang, Bill Lin, Debashis Sahoo
- Abstract要約: LiteCONはアナログフォトニクスCNNアクセラレーターである。
LiteCONは、CNNスループット、エネルギー効率、計算効率を最大32倍、37倍、および5倍改善する。
- 参考スコア(独自算出の注目度): 5.774955258841543
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning is highly pervasive in today's data-intensive era. In
particular, convolutional neural networks (CNNs) are being widely adopted in a
variety of fields for superior accuracy. However, computing deep CNNs on
traditional CPUs and GPUs brings several performance and energy pitfalls.
Several novel approaches based on ASIC, FPGA, and resistive-memory devices have
been recently demonstrated with promising results. Most of them target only the
inference (testing) phase of deep learning. There have been very limited
attempts to design a full-fledged deep learning accelerator capable of both
training and inference. It is due to the highly compute and memory-intensive
nature of the training phase. In this paper, we propose LiteCON, a novel analog
photonics CNN accelerator. LiteCON uses silicon microdisk-based convolution,
memristor-based memory, and dense-wavelength-division-multiplexing for
energy-efficient and ultrafast deep learning. We evaluate LiteCON using a
commercial CAD framework (IPKISS) on deep learning benchmark models including
LeNet and VGG-Net. Compared to the state-of-the-art, LiteCON improves the CNN
throughput, energy efficiency, and computational efficiency by up to 32x, 37x,
and 5x respectively with trivial accuracy degradation.
- Abstract(参考訳): ディープラーニングは、今日のデータ集約時代において非常に普及している。
特に畳み込みニューラルネットワーク(cnns)は、精度を高めるために様々な分野で広く採用されている。
しかし、従来のcpuとgpuで深いcnnを計算することは、いくつかのパフォーマンスとエネルギーの落とし穴をもたらす。
近年,ASIC,FPGA,抵抗メモリデバイスをベースとした新しい手法が提案されている。
その多くは、ディープラーニングの推論(テスト)フェーズのみを対象としています。
トレーニングと推論の両方が可能な、本格的なディープラーニングアクセラレータの設計には、非常に限定的な試みがあります。
これは、トレーニングフェーズの高度に計算され、メモリ集約的な性質のためです。
本稿では,新しいアナログフォトニクスcnn加速器liteconを提案する。
LiteCONは、エネルギー効率と超高速深層学習にシリコンマイクロディスクベースの畳み込み、メムリスタベースのメモリ、高密度波長分割多重化を用いる。
LeNetやVGG-Netといったディープラーニングベンチマークモデル上で,商用CADフレームワーク(IPKISS)を用いてLiteCONを評価した。
最先端と比較して、LiteCONはCNNのスループット、エネルギー効率、計算効率をそれぞれ32x、37x、および5xまで改善し、精度を低下させる。
関連論文リスト
- FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Learning from Event Cameras with Sparse Spiking Convolutional Neural
Networks [0.0]
畳み込みニューラルネットワーク(CNN)は現在、コンピュータビジョン問題のデファクトソリューションとなっている。
イベントカメラとスピーキングニューラルネットワーク(SNN)を用いたエンドツーエンドの生物学的インスパイアされたアプローチを提案する。
この手法は、一般的なディープラーニングフレームワークPyTorchを使用して、イベントデータに直接スパーススパイクニューラルネットワークのトレーニングを可能にする。
論文 参考訳(メタデータ) (2021-04-26T13:52:01Z) - Learning on Hardware: A Tutorial on Neural Network Accelerators and
Co-Processors [0.0]
ディープニューラルネットワーク(dnn)は、複雑なタスクを解決可能にするために、多くのパラメータを考慮に入れることができるという利点がある。
コンピュータビジョンや音声認識では、一般的なアルゴリズムよりも精度が高く、タスクによっては人間の専門家よりも精度が高いものもあります。
近年のDNNの進展に伴い、疾患の診断や自動運転など、多くの応用分野が活用されています。
論文 参考訳(メタデータ) (2021-04-19T12:50:27Z) - BPLight-CNN: A Photonics-based Backpropagation Accelerator for Deep
Learning [0.0]
ディープラーニングネットワークのトレーニングには、バックプロパゲーションアルゴリズム(BP)を使用しながら、ディープネットワークのさまざまな層にわたる継続的な重み付け更新が含まれる。
BPLight-CNNは、エンドツーエンドのトレーニングと予測のための世界初のフォトニックおよびメミスタベースのCNNアーキテクチャです。
論文 参考訳(メタデータ) (2021-02-19T20:00:21Z) - SmartDeal: Re-Modeling Deep Network Weights for Efficient Inference and
Training [82.35376405568975]
ディープニューラルネットワーク(DNN)は重いパラメータ化を伴い、ストレージ用の外部動的ランダムアクセスメモリ(DRAM)につながります。
We present SmartDeal (SD), a algorithm framework to trade high-cost memory storage/ access for lower-cost compute。
SDは貯蔵および訓練エネルギーの10.56xそして4.48x減少、最先端の訓練のベースラインと比較される無視可能な正確さの損失をもたらすことを示します。
論文 参考訳(メタデータ) (2021-01-04T18:54:07Z) - Binary Graph Neural Networks [69.51765073772226]
グラフニューラルネットワーク(gnns)は、不規則データに対する表現学習のための強力で柔軟なフレームワークとして登場した。
本稿では,グラフニューラルネットワークのバイナライゼーションのための異なる戦略を提示し,評価する。
モデルの慎重な設計とトレーニングプロセスの制御によって、バイナリグラフニューラルネットワークは、挑戦的なベンチマークの精度において、適度なコストでトレーニングできることを示しています。
論文 参考訳(メタデータ) (2020-12-31T18:48:58Z) - FracTrain: Fractionally Squeezing Bit Savings Both Temporally and
Spatially for Efficient DNN Training [81.85361544720885]
アクティベーション、ウェイト、グラデーションの精度を徐々に高めるプログレッシブ分数量子化を統合したFracTrainを提案します。
FracTrainはDNNトレーニングの計算コストとハードウェア量子化エネルギー/レイテンシを削減し、同等以上の精度(-0.12%+1.87%)を達成する。
論文 参考訳(メタデータ) (2020-12-24T05:24:10Z) - ShiftAddNet: A Hardware-Inspired Deep Network [87.18216601210763]
ShiftAddNetはエネルギー効率のよい乗算レスディープニューラルネットワークである。
エネルギー効率のよい推論とトレーニングの両方につながるが、表現能力は損なわれない。
ShiftAddNetは、DNNのトレーニングと推論において、80%以上のハードウェア量子化されたエネルギーコストを積極的に削減し、同等またはより良い精度を提供する。
論文 参考訳(メタデータ) (2020-10-24T05:09:14Z) - Training Deep Neural Networks with Constrained Learning Parameters [4.917317902787792]
ディープラーニングタスクのかなりの部分はエッジコンピューティングシステムで実行される。
我々は, Combinatorial Neural Network Training Algorithm (CNNTrA)を提案する。
CoNNTrAは、MNIST、Iris、ImageNetデータセット上で、第三次学習パラメータでディープラーニングモデルをトレーニングする。
以上の結果から,CNNTrAモデルはメモリを32倍に削減し,バックプロパゲーションモデルと同程度の誤差を有することがわかった。
論文 参考訳(メタデータ) (2020-09-01T16:20:11Z) - Optimizing Memory Placement using Evolutionary Graph Reinforcement
Learning [56.83172249278467]
大規模検索空間を対象とした進化グラフ強化学習(EGRL)を提案する。
我々は、推論のために、Intel NNP-Iチップ上で、我々のアプローチを直接訓練し、検証する。
また,NNP-Iコンパイラと比較して28~78%の高速化を実現している。
論文 参考訳(メタデータ) (2020-07-14T18:50:12Z) - Brief Announcement: On the Limits of Parallelizing Convolutional Neural
Networks on GPUs [0.45740558095423056]
深層ニューラルネットワーク(DNN)のトレーニングは、大量のパラメータを学習しなければならないため、GPU上でも時間を要するプロセスである。
我々は、トレーニング時間を短縮するために、最先端の非線形ネットワークにおいて、このリッチ並列性を活用する必要性と潜在的な利点を論じる。
論文 参考訳(メタデータ) (2020-05-28T07:51:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。