論文の概要: Non-negative isomorphic neural networks for photonic neuromorphic
accelerators
- arxiv url: http://arxiv.org/abs/2310.01084v1
- Date: Mon, 2 Oct 2023 10:54:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 22:21:41.919598
- Title: Non-negative isomorphic neural networks for photonic neuromorphic
accelerators
- Title(参考訳): フォトニックニューロモルフィック加速器のための非負異形ニューラルネットワーク
- Authors: Manos Kirtas, Nikolaos Passalis, Nikolaos Pleros, Anastasios Tefas
- Abstract要約: 本稿では,ニューロモルフィックハードウェアの要件を満たす正則ニューラルネットワークの非負同型等価値を求める手法を提案する。
また、非負の方法でそのような同型ネットワークのトレーニングを可能にする符号保存最適化手法も導入する。
- 参考スコア(独自算出の注目度): 35.76919128432547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Neuromorphic photonic accelerators are becoming increasingly popular, since
they can significantly improve computation speed and energy efficiency, leading
to femtojoule per MAC efficiency. However, deploying existing DL models on such
platforms is not trivial, since a great range of photonic neural network
architectures relies on incoherent setups and power addition operational
schemes that cannot natively represent negative quantities. This results in
additional hardware complexity that increases cost and reduces energy
efficiency. To overcome this, we can train non-negative neural networks and
potentially exploit the full range of incoherent neuromorphic photonic
capabilities. However, existing approaches cannot achieve the same level of
accuracy as their regular counterparts, due to training difficulties, as also
recent evidence suggests. To this end, we introduce a methodology to obtain the
non-negative isomorphic equivalents of regular neural networks that meet
requirements of neuromorphic hardware, overcoming the aforementioned
limitations. Furthermore, we also introduce a sign-preserving optimization
approach that enables training of such isomorphic networks in a non-negative
manner.
- Abstract(参考訳): ニューロモルフィックフォトニック加速器は、計算速度とエネルギー効率を大幅に改善し、MAC効率にフェムトジュールをもたらすため、人気が高まっている。
しかし、このようなプラットフォームに既存のDLモデルをデプロイするのは簡単ではない。多くのフォトニックニューラルネットワークアーキテクチャは、負の量をネイティブに表現できない不整合セットアップと電力付加運用方式に依存している。
これにより、ハードウェアの複雑さが増し、コストが増加し、エネルギー効率が低下する。
これを克服するために、非負のニューラルネットワークをトレーニングし、非一貫性のニューロモルフィックフォトニック機能を最大限に活用することができる。
しかし, 既存の手法では, トレーニングの難しさから, 通常の手法と同等の精度を達成できないことが近年の証拠として示唆されている。
そこで本研究では,ニューロモルフィックハードウェアの要件を満たす正則ニューラルネットワークの非負同相同値を得る手法を提案する。
さらに,このような同型ネットワークを非負の方法でトレーニングできる符号保存最適化手法を提案する。
関連論文リスト
- Message Passing Variational Autoregressive Network for Solving Intractable Ising Models [6.261096199903392]
自己回帰型ニューラルネットワーク、畳み込み型ニューラルネットワーク、リカレントニューラルネットワーク、グラフニューラルネットワークなど、多くのディープニューラルネットワークがIsingモデルの解決に使用されている。
本稿では、スピン変数間の相互作用を効果的に活用できるメッセージパッシング機構を備えた変分自己回帰アーキテクチャを提案する。
新しいネットワークは、アニーリングフレームワークの下で訓練され、いくつかの原型スピンハミルトニアンの解法、特に低温での大きなスピン系において、既存の方法よりも優れている。
論文 参考訳(メタデータ) (2024-04-09T11:27:07Z) - Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Polariton lattices as binarized neuromorphic networks [0.0]
本研究では, 励起子-偏光子縮合格子に基づく新規なニューロモルフィックネットワークアーキテクチャを導入し, 非共鳴光ポンピングにより複雑に相互接続し, エネルギー化する。
このネットワークは、ペア結合された凝縮体の空間コヒーレンスによって促進される各ニューロンがバイナリ操作を行うバイナリ・フレームワークを採用している。
ネットワークの性能は手書き文字認識のためのMNISTデータセットを用いて評価され、既存の偏極性ニューロモルフィックシステムよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-14T08:32:41Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Training Deep Spiking Auto-encoders without Bursting or Dying Neurons
through Regularization [9.34612743192798]
スパイクニューラルネットワークは、計算神経科学における次世代の脳モデルに対する有望なアプローチである。
膜電位に基づくバックプロパゲーションを用いたエンドツーエンド学習を、スパイクする畳み込みオートエンコーダに適用する。
膜電位とスパイク出力に正規化を適用することで、死と破裂の両方のニューロンをうまく回避できることを示す。
論文 参考訳(メタデータ) (2021-09-22T21:27:40Z) - Nonlinear computations in spiking neural networks through multiplicative
synapses [3.1498833540989413]
非線形計算は、スパイクニューラルネットワークでうまく実装できる。
これは教師付きトレーニングを必要とし、その結果の接続性は解釈が難しい。
いくつかの非線形力学系において, 必要な接続性を直接導出する方法を示す。
論文 参考訳(メタデータ) (2020-09-08T16:47:27Z) - Operational vs Convolutional Neural Networks for Image Denoising [25.838282412957675]
畳み込みニューラルネットワーク(CNN)は近年,適応学習能力により画像デノナイズ技術として好まれている。
データ変換のコアに新たな非線形性を埋め込むための柔軟性を向上するヘテロジニアスネットワークモデルを提案する。
ONNとCNNの比較評価は、線形演算子に富んだONNが等価かつよく知られた深層構成のCNNに対して優れたノイズ発生性能を達成できるという決定的な証拠が得られる。
論文 参考訳(メタデータ) (2020-09-01T12:15:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。