論文の概要: Function Regression using Spiking DeepONet
- arxiv url: http://arxiv.org/abs/2205.10130v1
- Date: Tue, 17 May 2022 15:22:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-06 06:39:19.601072
- Title: Function Regression using Spiking DeepONet
- Title(参考訳): Spiking DeepONetを用いた関数回帰
- Authors: Adar Kahana, Qian Zhang, Leonard Gleyzer, George Em Karniadakis
- Abstract要約: 本稿では,関数の入力領域と連続出力値をスパイクとして表現することの難しさから,回帰処理を行うSNNベースの手法を提案する。
私たちはスパイクの振る舞いを学ぶために、演算子を学習するために設計されたニューラルネットワークであるDeepONetを使用しています。
スパイクフレームワークでDeepONetを使用する方法をいくつか提案し、異なるベンチマークの精度とトレーニング時間を提示する。
- 参考スコア(独自算出の注目度): 2.935661780430872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: One of the main broad applications of deep learning is function regression.
However, despite their demonstrated accuracy and robustness, modern neural
network architectures require heavy computational resources to train. One
method to mitigate or even resolve this inefficiency has been to draw further
inspiration from the brain and reformulate the learning process in a more
biologically-plausible way, developing what are known as Spiking Neural
Networks (SNNs), which have been gaining traction in recent years. In this
paper we present an SNN-based method to perform regression, which has been a
challenge due to the inherent difficulty in representing a function's input
domain and continuous output values as spikes. We use a DeepONet - neural
network designed to learn operators - to learn the behavior of spikes. Then, we
use this approach to do function regression. We propose several methods to use
a DeepONet in the spiking framework, and present accuracy and training time for
different benchmarks.
- Abstract(参考訳): ディープラーニングの主な応用の1つは、関数回帰である。
しかし、その正確性と堅牢性が実証されたにもかかわらず、現代のニューラルネットワークアーキテクチャは、トレーニングに重い計算リソースを必要とする。
この非効率性を緩和または解決する1つの方法は、脳からさらなるインスピレーションを導き、より生物学的に証明可能な方法で学習プロセスを再構築することであり、近年注目を集めているスパイキングニューラルネットワーク(SNN)として知られるものを開発することである。
本稿では,関数の入力領域と連続出力値をスパイクとして表現することが本質的に困難であることから,回帰を行うsnベースの手法を提案する。
私たちは、スパイクの振る舞いを学ぶために、オペレーターを学習するために設計されたdeeponet(ニューラルネットワーク)を使用します。
次に、この手法を用いて関数回帰を行う。
本研究では,spikingフレームワークでdeeponetを使用する方法をいくつか提案し,ベンチマークの精度とトレーニング時間を提示する。
関連論文リスト
- Deep Multi-Threshold Spiking-UNet for Image Processing [51.88730892920031]
本稿では,SNN(Spike Neural Networks)とU-Netアーキテクチャを組み合わせた,画像処理のためのスパイキング-UNetの概念を紹介する。
効率的なスパイキング-UNetを実現するためには,スパイクによる高忠実度情報伝播の確保と,効果的なトレーニング戦略の策定という2つの課題に直面する。
実験の結果,画像のセグメンテーションとデノイングにおいて,スパイキングUNetは非スパイキングと同等の性能を発揮することがわかった。
論文 参考訳(メタデータ) (2023-07-20T16:00:19Z) - Addressing caveats of neural persistence with deep graph persistence [54.424983583720675]
神経の持続性に影響を与える主な要因は,ネットワークの重みのばらつきと大きな重みの空間集中である。
単一層ではなく,ニューラルネットワーク全体へのニューラルネットワークの持続性に基づくフィルタリングの拡張を提案する。
これにより、ネットワーク内の永続的なパスを暗黙的に取り込み、分散に関連する問題を緩和するディープグラフの永続性測定が得られます。
論文 参考訳(メタデータ) (2023-07-20T13:34:11Z) - Using Linear Regression for Iteratively Training Neural Networks [4.873362301533824]
ニューラルネットワークの重みとバイアスを学習するための単純な線形回帰に基づくアプローチを提案する。
このアプローチは、より大きく、より複雑なアーキテクチャに向けられている。
論文 参考訳(メタデータ) (2023-07-11T11:53:25Z) - Benign Overfitting for Two-layer ReLU Convolutional Neural Networks [60.19739010031304]
ラベルフリップ雑音を持つ2層ReLU畳み込みニューラルネットワークを学習するためのアルゴリズム依存型リスクバウンダリを確立する。
緩やかな条件下では、勾配降下によってトレーニングされたニューラルネットワークは、ほぼゼロに近いトレーニング損失とベイズ最適試験リスクを達成できることを示す。
論文 参考訳(メタデータ) (2023-03-07T18:59:38Z) - Desire Backpropagation: A Lightweight Training Algorithm for Multi-Layer
Spiking Neural Networks based on Spike-Timing-Dependent Plasticity [13.384228628766236]
スパイキングニューラルネットワーク(SNN)は、従来の人工ニューラルネットワークの代替となる。
本研究は,隠されたニューロンを含むすべてのニューロンの所望のスパイク活性を導出する方法である欲求バックプロパゲーションを提示する。
我々はMNISTとFashion-MNISTを分類するために3層ネットワークを訓練し、それぞれ98.41%と87.56%の精度に達した。
論文 参考訳(メタデータ) (2022-11-10T08:32:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Robust and Active Learning for Deep Neural Network Regression [19.79821832440184]
本稿では、回帰に使用するディープニューラルネットワーク(DNN)の局所誤差最大化器を検出する勾配に基づく手法について述べる。
ローカルエラー最大化器が発見された場合、DNNは、アクティブラーニングの方法で微調整または再訓練される。
論文 参考訳(メタデータ) (2021-07-28T01:48:51Z) - Rectified Linear Postsynaptic Potential Function for Backpropagation in
Deep Spiking Neural Networks [55.0627904986664]
スパイキングニューラルネットワーク(SNN)は、時間的スパイクパターンを用いて情報を表現し、伝達する。
本稿では,情報符号化,シナプス可塑性,意思決定におけるスパイクタイミングダイナミクスの寄与について検討し,将来のDeepSNNやニューロモルフィックハードウェアシステムの設計への新たな視点を提供する。
論文 参考訳(メタデータ) (2020-03-26T11:13:07Z) - Lossless Compression of Deep Neural Networks [17.753357839478575]
ディープニューラルネットワークは、画像や言語認識など、多くの予測モデリングタスクで成功している。
モバイルデバイスのような限られた計算資源の下でこれらのネットワークをデプロイすることは困難である。
生成した出力を変更せずに、ニューラルネットワークの単位と層を除去するアルゴリズムを導入する。
論文 参考訳(メタデータ) (2020-01-01T15:04:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。