論文の概要: Non-negative isomorphic neural networks for photonic neuromorphic
accelerators
- arxiv url: http://arxiv.org/abs/2310.01084v1
- Date: Mon, 2 Oct 2023 10:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:21:41.919598
- Title: Non-negative isomorphic neural networks for photonic neuromorphic
accelerators
- Title(参考訳): フォトニックニューロモルフィック加速器のための非負異形ニューラルネットワーク
- Authors: Manos Kirtas, Nikolaos Passalis, Nikolaos Pleros, Anastasios Tefas
- Abstract要約: 本稿では,ニューロモルフィックハードウェアの要件を満たす正則ニューラルネットワークの非負同型等価値を求める手法を提案する。
また、非負の方法でそのような同型ネットワークのトレーニングを可能にする符号保存最適化手法も導入する。
- 参考スコア(独自算出の注目度): 35.76919128432547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic photonic accelerators are becoming increasingly popular, since
they can significantly improve computation speed and energy efficiency, leading
to femtojoule per MAC efficiency. However, deploying existing DL models on such
platforms is not trivial, since a great range of photonic neural network
architectures relies on incoherent setups and power addition operational
schemes that cannot natively represent negative quantities. This results in
additional hardware complexity that increases cost and reduces energy
efficiency. To overcome this, we can train non-negative neural networks and
potentially exploit the full range of incoherent neuromorphic photonic
capabilities. However, existing approaches cannot achieve the same level of
accuracy as their regular counterparts, due to training difficulties, as also
recent evidence suggests. To this end, we introduce a methodology to obtain the
non-negative isomorphic equivalents of regular neural networks that meet
requirements of neuromorphic hardware, overcoming the aforementioned
limitations. Furthermore, we also introduce a sign-preserving optimization
approach that enables training of such isomorphic networks in a non-negative
manner.
- Abstract(参考訳): ニューロモルフィックフォトニック加速器は、計算速度とエネルギー効率を大幅に改善し、MAC効率にフェムトジュールをもたらすため、人気が高まっている。
しかし、このようなプラットフォームに既存のDLモデルをデプロイするのは簡単ではない。多くのフォトニックニューラルネットワークアーキテクチャは、負の量をネイティブに表現できない不整合セットアップと電力付加運用方式に依存している。
これにより、ハードウェアの複雑さが増し、コストが増加し、エネルギー効率が低下する。
これを克服するために、非負のニューラルネットワークをトレーニングし、非一貫性のニューロモルフィックフォトニック機能を最大限に活用することができる。
しかし, 既存の手法では, トレーニングの難しさから, 通常の手法と同等の精度を達成できないことが近年の証拠として示唆されている。
そこで本研究では,ニューロモルフィックハードウェアの要件を満たす正則ニューラルネットワークの非負同相同値を得る手法を提案する。
さらに,このような同型ネットワークを非負の方法でトレーニングできる符号保存最適化手法を提案する。
関連論文リスト
- Exploring Structural Nonlinearity in Binary Polariton-Based Neuromorphic Architectures [0.0]
ネットワークのレイアウトから導かれる構造的非線形性は,複雑な計算作業を円滑に行う上で重要な役割を担っていることを示す。
この個々のニューロン特性からネットワークアーキテクチャへのシフトは、ニューロモルフィックコンピューティングの効率性と適用性に大きな進歩をもたらす可能性がある。
論文 参考訳(メタデータ) (2024-11-09T09:29:46Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Advancing Spatio-Temporal Processing in Spiking Neural Networks through Adaptation [6.233189707488025]
本稿では、適応LIFニューロンとそのネットワークの動的、計算的、および学習特性について分析する。
適応LIFニューロンのネットワークの優越性は、複雑な時系列の予測と生成にまで及んでいることを示す。
論文 参考訳(メタデータ) (2024-08-14T12:49:58Z) - Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Deep Spiking Auto-encoders without Bursting or Dying Neurons
through Regularization [9.34612743192798]
スパイクニューラルネットワークは、計算神経科学における次世代の脳モデルに対する有望なアプローチである。
膜電位に基づくバックプロパゲーションを用いたエンドツーエンド学習を、スパイクする畳み込みオートエンコーダに適用する。
膜電位とスパイク出力に正規化を適用することで、死と破裂の両方のニューロンをうまく回避できることを示す。
論文 参考訳(メタデータ) (2021-09-22T21:27:40Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。