論文の概要: Neuroscience inspired scientific machine learning (Part-2): Variable
spiking wavelet neural operator
- arxiv url: http://arxiv.org/abs/2311.14710v1
- Date: Wed, 15 Nov 2023 09:02:01 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-03 13:39:16.071753
- Title: Neuroscience inspired scientific machine learning (Part-2): Variable
spiking wavelet neural operator
- Title(参考訳): 神経科学による科学機械学習(その2) : 可変スパイクウェーブレットニューラル演算子
- Authors: Shailesh Garg and Souvik Chakraborty
- Abstract要約: メカニクス応用のためのAIアルゴリズムの理論的実装と実践的実装のギャップを埋めるために、VS-WNO(Variable Spiking Wavelet Neural Operator)を提案する。
提案したVS-WNOは、ニューラルネットワークのエネルギー要求を減らすことを約束するスパイクニューラルネットワークの原理に基づいている。
- 参考スコア(独自算出の注目度): 2.1756081703276
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We propose, in this paper, a Variable Spiking Wavelet Neural Operator
(VS-WNO), which aims to bridge the gap between theoretical and practical
implementation of Artificial Intelligence (AI) algorithms for mechanics
applications. With recent developments like the introduction of neural
operators, AI's potential for being used in mechanics applications has
increased significantly. However, AI's immense energy and resource requirements
are a hurdle in its practical field use case. The proposed VS-WNO is based on
the principles of spiking neural networks, which have shown promise in reducing
the energy requirements of the neural networks. This makes possible the use of
such algorithms in edge computing. The proposed VS-WNO utilizes variable
spiking neurons, which promote sparse communication, thus conserving energy,
and its use is further supported by its ability to tackle regression tasks,
often faced in the field of mechanics. Various examples dealing with partial
differential equations, like Burger's equation, Allen Cahn's equation, and
Darcy's equation, have been shown. Comparisons have been shown against wavelet
neural operator utilizing leaky integrate and fire neurons (direct and encoded
inputs) and vanilla wavelet neural operator utilizing artificial neurons. The
results produced illustrate the ability of the proposed VS-WNO to converge to
ground truth while promoting sparse communication.
- Abstract(参考訳): 本稿では,メカニクス応用のためのAIアルゴリズムの理論的実装と実践的実装のギャップを埋めることを目的とした,可変スパイキングウェーブレットニューラル演算子(VS-WNO)を提案する。
ニューラル演算子の導入など最近の進歩により、メカニクスアプリケーションでAIが使用される可能性は大きく向上した。
しかし、AIの膨大なエネルギーとリソース要件は、実践的な現場ユースケースにおいてハードルとなっている。
提案するvs-wnoはスパイキングニューラルネットワークの原理に基づいており、ニューラルネットワークのエネルギー要件を減らすことが期待されている。
これにより、エッジコンピューティングにおけるそのようなアルゴリズムの利用が可能になる。
提案したVS-WNOは、スパース通信を促進する可変スパイキングニューロンを用いてエネルギーを保存し、その利用は、しばしば力学の分野で直面する回帰課題に取り組む能力によってさらに支持される。
バーガー方程式、アレン・カーンの方程式、ダーシー方程式などの偏微分方程式を扱う様々な例が示されている。
漏洩積分および火炎ニューロン(直接および符号化入力)を用いたウェーブレットニューラルオペレータと人工ニューロンを用いたバニラウェーブレットニューラルオペレータとの比較が示されている。
提案したVS-WNOは,疎通信を推進しながら,真理に収束する能力を示した。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Neuroscience inspired scientific machine learning (Part-1): Variable
spiking neuron for regression [2.1756081703276]
本稿では、VSN(Variable Spiking Neuron)と呼ばれる新しいスパイクニューロンを紹介する。
生物学的ニューロンによるLeaky Integrate and Fire Spiking Neurons(LIF-SN)の学習による冗長な発射の低減
論文 参考訳(メタデータ) (2023-11-15T08:59:06Z) - Toward stochastic neural computing [11.955322183964201]
本稿では,ノイズ入力のストリームをスパイキングニューロンの集団によって変換し,処理するニューラルコンピューティングの理論を提案する。
本手法をIntelのLoihiニューロモルフィックハードウェアに適用する。
論文 参考訳(メタデータ) (2023-05-23T12:05:35Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Physics-Informed Neural Operators [3.9181541460605116]
ニューラルネットワークは一般非線形作用素を近似することができ、例えば、対流拡散反応偏微分方程式における数学的作用素の組合せによって明示的に表される。
最初の神経オペレータは、厳密な近似理論に基づいて2019年に提案されたDeepオペレータネットワーク(DeepONet)である。
ブラックボックスシステムでは、ニューラル演算子のトレーニングはデータ駆動であるが、支配方程式が分かっていれば、物理インフォームド・ニューラル演算子を開発するトレーニング中に損失関数に組み込むことができる。
論文 参考訳(メタデータ) (2022-07-08T12:29:09Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Training Feedback Spiking Neural Networks by Implicit Differentiation on
the Equilibrium State [66.2457134675891]
スパイキングニューラルネットワーク(英: Spiking Neural Network、SNN)は、ニューロモルフィックハードウェア上でエネルギー効率の高い実装を可能にする脳にインスパイアされたモデルである。
既存のほとんどの手法は、人工ニューラルネットワークのバックプロパゲーションフレームワークとフィードフォワードアーキテクチャを模倣している。
本稿では,フォワード計算の正逆性に依存しない新しいトレーニング手法を提案する。
論文 参考訳(メタデータ) (2021-09-29T07:46:54Z) - Neural Operator: Learning Maps Between Function Spaces [75.93843876663128]
本稿では,無限次元関数空間間を写像する演算子,いわゆるニューラル演算子を学習するためのニューラルネットワークの一般化を提案する。
提案したニューラル作用素に対して普遍近似定理を証明し、任意の非線形連続作用素を近似することができることを示す。
ニューラル作用素に対する重要な応用は、偏微分方程式の解作用素に対する代理写像を学習することである。
論文 参考訳(メタデータ) (2021-08-19T03:56:49Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Neuromorphic Processing and Sensing: Evolutionary Progression of AI to
Spiking [0.0]
スパイキングニューラルネットワークアルゴリズムは、計算と電力要求の一部を利用して高度な人工知能を実装することを約束する。
本稿では,スパイクに基づくニューロモルフィック技術の理論的研究について解説し,ハードウェアプロセッサ,ソフトウェアプラットフォーム,ニューロモルフィックセンシングデバイスの現状について概説する。
プログレクションパスは、現在の機械学習スペシャリストがスキルセットを更新し、現在の世代のディープニューラルネットワークからSNNへの分類または予測モデルを作成するために舗装されている。
論文 参考訳(メタデータ) (2020-07-10T20:54:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。