論文の概要: A Hybrid Training Algorithm for Continuum Deep Learning Neuro-Skin
Neural Network
- arxiv url: http://arxiv.org/abs/2302.01819v1
- Date: Fri, 3 Feb 2023 15:54:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-02-06 15:41:50.167141
- Title: A Hybrid Training Algorithm for Continuum Deep Learning Neuro-Skin
Neural Network
- Title(参考訳): 連続体深層学習ニューロスキンニューラルネットワークのためのハイブリッド学習アルゴリズム
- Authors: Mehrdad Shafiei Dizaji
- Abstract要約: Deep Learning NeuroSkin Neural Networkは、著者らが最近発表した新しいタイプのニューラルネットワークである。
神経骨格は有限要素を用いてモデル化される。有限要素の各要素は細胞を表す。
神経骨格は望ましい反応を提示できないが、徐々に所望のレベルに改善することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this brief paper, a learning algorithm is developed for Deep Learning
NeuroSkin Neural Network to improve their learning properties. Neuroskin is a
new type of neural network presented recently by the authors. It is comprised
of a cellular membrane which has a neuron attached to each cell. The neuron is
the cells nucleus. A neuroskin is modelled using finite elements. Each element
of the finite element represents a cell. Each cells neuron has dendritic fibers
which connects it to the nodes of the cell. On the other hand, its axon is
connected to the nodes of a number of different neurons. The neuroskin is
trained to contract upon receiving an input. The learning takes place during
updating iterations using sensitivity analysis. It is shown that while the
neuroskin cannot present the desirable response, it improves gradually to the
desired level.
- Abstract(参考訳): 本稿では,Deep Learning NeuroSkin Neural Networkのための学習アルゴリズムを開発し,学習特性を改善する。
Neuroskinは、著者らが最近発表した新しいタイプのニューラルネットワークである。
細胞膜からなり、各細胞にニューロンが結合している。
ニューロンは細胞核である。
神経骨格は有限要素を用いてモデル化される。
有限要素の各要素はセルを表す。
各細胞ニューロンは樹状線維を持ち、それを細胞のノードに接続する。
一方、軸索は複数の異なるニューロンのノードに接続されている。
神経スキンは入力を受けると収縮するように訓練される。
学習は、感度分析を使用してイテレーションの更新中に行われる。
神経スキンは望ましい反応を示すことができないが、徐々に所望のレベルまで改善することが示されている。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Towards a Foundation Model for Brain Age Prediction using coVariance
Neural Networks [102.75954614946258]
時間的年齢に関する脳年齢の増加は、神経変性と認知低下に対する脆弱性の増加を反映している。
NeuroVNNは、時系列年齢を予測するために、健康な人口の回帰モデルとして事前訓練されている。
NeuroVNNは、脳の年齢に解剖学的解釈性を加え、任意の脳のアトラスに従って計算されたデータセットへの転移を可能にする「スケールフリー」特性を持つ。
論文 参考訳(メタデータ) (2024-02-12T14:46:31Z) - Joint Learning Neuronal Skeleton and Brain Circuit Topology with Permutation Invariant Encoders for Neuron Classification [33.47541392305739]
本稿では,スケルトンから得られるニューロンの形態情報と神経回路から得られるニューロン間のトポロジ情報を組み合わせたNeuNetフレームワークを提案する。
我々は、ヒト大脳皮質とショウジョウバエ脳の体積電子顕微鏡(VEM)画像からニューロン分類タスクのための2つの新しいデータセットを再処理し、リリースする。
論文 参考訳(メタデータ) (2023-12-22T08:31:11Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - SeReNe: Sensitivity based Regularization of Neurons for Structured
Sparsity in Neural Networks [13.60023740064471]
SeReNeはスパーストポロジを構造で学習する方法である。
ニューロンの感度をネットワーク出力の変動として定義する。
コスト関数のニューロン感度を正規化用語に含めることで、低感度でニューロンをプーンすることができる。
論文 参考訳(メタデータ) (2021-02-07T10:53:30Z) - Training of Deep Learning Neuro-Skin Neural Network [0.0]
Deep Learning Neuro-Skin Neural Networkは、著者らが最近発表した新しいタイプのニューラルネットワークである。
神経骨格は有限要素を用いてモデル化される。有限要素の各要素は細胞を表す。
神経骨格は望ましい反応を提示できないが、徐々に所望のレベルに改善することが示されている。
論文 参考訳(メタデータ) (2020-07-03T18:51:45Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z) - Learning Neural Activations [2.842794675894731]
人工ニューラルネットワークにおける各ニューロンの活性化関数がデータのみから学習されるとどうなるかを検討する。
これは、各ニューロンの活性化機能を、元のネットワーク内のすべてのニューロンによって共有される小さなニューラルネットワークとしてモデル化することで達成される。
論文 参考訳(メタデータ) (2019-12-27T15:52:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。