論文の概要: Real-time Multi-Task Diffractive Deep Neural Networks via
Hardware-Software Co-design
- arxiv url: http://arxiv.org/abs/2012.08906v2
- Date: Thu, 1 Apr 2021 20:15:41 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-03 03:05:33.121043
- Title: Real-time Multi-Task Diffractive Deep Neural Networks via
Hardware-Software Co-design
- Title(参考訳): ハードウェア・ソフトウェア共同設計によるリアルタイムマルチタスク回折深層ニューラルネットワーク
- Authors: Yingjie Li, Ruiyang Chen, Berardi Sensale Rodriguez, Weilu Gao, and
Cunxi Yu
- Abstract要約: 本研究は,d$2$nnsでロバストかつノイズ耐性のあるマルチタスク学習を実現する,新しいハードウェアソフトウェア共同設計手法を提案する。
私たちの実験結果は、汎用性とハードウェア効率の大幅な改善を示し、提案されたマルチタスクD$2$NNアーキテクチャの堅牢性を実証します。
- 参考スコア(独自算出の注目度): 1.6066483376871004
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Deep neural networks (DNNs) have substantial computational requirements,
which greatly limit their performance in resource-constrained environments.
Recently, there are increasing efforts on optical neural networks and optical
computing based DNNs hardware, which bring significant advantages for deep
learning systems in terms of their power efficiency, parallelism and
computational speed. Among them, free-space diffractive deep neural networks
(D$^2$NNs) based on the light diffraction, feature millions of neurons in each
layer interconnected with neurons in neighboring layers. However, due to the
challenge of implementing reconfigurability, deploying different DNNs
algorithms requires re-building and duplicating the physical diffractive
systems, which significantly degrades the hardware efficiency in practical
application scenarios. Thus, this work proposes a novel hardware-software
co-design method that enables robust and noise-resilient Multi-task Learning in
D$^2$NNs. Our experimental results demonstrate significant improvements in
versatility and hardware efficiency, and also demonstrate the robustness of
proposed multi-task D$^2$NN architecture under wide noise ranges of all system
components. In addition, we propose a domain-specific regularization algorithm
for training the proposed multi-task architecture, which can be used to
flexibly adjust the desired performance for each task.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)は、リソース制約のある環境での性能を大幅に制限する、相当な計算要件を持つ。
近年、光ニューラルネットワークと光コンピューティングベースのDNNハードウェアへの取り組みが活発化しており、その電力効率、並列性、計算速度の観点から、ディープラーニングシステムに大きな利点をもたらしている。
中でも、光回折に基づく自由空間微分深部ニューラルネットワーク(D$^2$NNs)は、近隣の層でニューロンと接続される各層に数百万のニューロンを特徴付ける。
しかし、再構成性を実装するという課題のため、異なるDNNアルゴリズムをデプロイするには物理拡散システムの再構築と複製が必要であるため、実用的なアプリケーションシナリオではハードウェア効率が大幅に低下する。
そこで本研究では,d$^2$nnsでロバストかつノイズ耐性のあるマルチタスク学習を実現する,新しいハードウェアソフトウェア共同設計手法を提案する。
実験により,汎用性とハードウェア効率の大幅な向上と,全システムコンポーネントの広いノイズ範囲下でのマルチタスクD$2$NNアーキテクチャの堅牢性を示す。
さらに,提案するマルチタスクアーキテクチャをトレーニングするためのドメイン固有正規化アルゴリズムを提案する。
関連論文リスト
- Neuromorphic Wireless Split Computing with Multi-Level Spikes [69.73249913506042]
ニューロモルフィックコンピューティングでは、スパイクニューラルネットワーク(SNN)が推論タスクを実行し、シーケンシャルデータを含むワークロードの大幅な効率向上を提供する。
ハードウェアとソフトウェアの最近の進歩は、スパイクニューロン間で交換された各スパイクに数ビットのペイロードを埋め込むことにより、推論精度をさらに高めることを示した。
本稿では,マルチレベルSNNを用いた無線ニューロモルフィック分割計算アーキテクチャについて検討する。
論文 参考訳(メタデータ) (2024-11-07T14:08:35Z) - Sparsity-Aware Hardware-Software Co-Design of Spiking Neural Networks: An Overview [1.0499611180329804]
スパイキングニューラルネットワーク(SNN)は、生物学的ニューラルネットワークのスパースでイベント駆動的な性質にインスパイアされ、超低消費電力人工知能の可能性を秘めている。
スパースSNNのハードウェア・ソフトウェア共同設計について検討し,スパース表現,ハードウェアアーキテクチャ,トレーニング技術がハードウェア効率に与える影響について検討する。
本研究の目的は,スパースSNNの計算的優位性をフル活用した,組込みニューロモルフィックシステムへの道筋を解明することである。
論文 参考訳(メタデータ) (2024-08-26T17:22:11Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - Free-Space Optical Spiking Neural Network [0.0]
自由空間光深絞り畳み込みニューラルネットワーク(OSCNN)について紹介する。
この手法は人間の眼の計算モデルからインスピレーションを得ている。
以上の結果から,電子的ONNと比較して,レイテンシと消費電力を最小に抑えた有望な性能を示す。
論文 参考訳(メタデータ) (2023-11-08T09:41:14Z) - A Multi-Head Ensemble Multi-Task Learning Approach for Dynamical
Computation Offloading [62.34538208323411]
共有バックボーンと複数の予測ヘッド(PH)を組み合わせたマルチヘッドマルチタスク学習(MEMTL)手法を提案する。
MEMTLは、追加のトレーニングデータを必要とせず、推測精度と平均平方誤差の両方でベンチマーク手法より優れている。
論文 参考訳(メタデータ) (2023-09-02T11:01:16Z) - Rubik's Optical Neural Networks: Multi-task Learning with Physics-aware
Rotation Architecture [14.55785957623462]
この研究は、光システムの物理的特性を利用して複数のフィードフォワード関数を符号化する新しいONNアーキテクチャ、すなわち textitRubikONN を提示する。
実験の結果, 最先端の手法と比較して, 限界精度でエネルギーとコスト効率が4ドル以上向上していることがわかった。
論文 参考訳(メタデータ) (2023-04-25T16:51:12Z) - Split-Et-Impera: A Framework for the Design of Distributed Deep Learning
Applications [8.434224141580758]
Split-Et-Imperaは、ディープネットワークの解釈可能性の原則に基づいて、ニューラルネットワークのベストスプリットポイントのセットを決定する。
異なるニューラルネットワーク再構成の迅速な評価のための通信認識シミュレーションを実行する。
これは、アプリケーションのサービス要件の品質と、正確性とレイテンシ時間の観点からのパフォーマンスのベストマッチを示唆している。
論文 参考訳(メタデータ) (2023-03-22T13:00:00Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Learning Frequency-aware Dynamic Network for Efficient Super-Resolution [56.98668484450857]
本稿では、離散コサイン変換(dct)領域の係数に応じて入力を複数の部分に分割する新しい周波数認識動的ネットワークについて検討する。
実際、高周波部は高価な操作で処理され、低周波部は計算負荷を軽減するために安価な操作が割り当てられる。
ベンチマークSISRモデルおよびデータセット上での実験は、周波数認識動的ネットワークが様々なSISRニューラルネットワークに使用できることを示している。
論文 参考訳(メタデータ) (2021-03-15T12:54:26Z) - Hardware and Software Optimizations for Accelerating Deep Neural
Networks: Survey of Current Trends, Challenges, and the Road Ahead [14.313423044185583]
本稿では,deep neural network (dnn) のような脳にインスパイアされた2つのモデルの重要な特性について紹介する。
DLモデルの単一推論は数十億の乗算および累積演算を必要とする可能性があるため、DLは非常に計算量とエネルギーを消費する。
論文 参考訳(メタデータ) (2020-12-21T10:27:48Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。