論文の概要: Connected Hidden Neurons (CHNNet): An Artificial Neural Network for
Rapid Convergence
- arxiv url: http://arxiv.org/abs/2305.10468v1
- Date: Wed, 17 May 2023 14:00:38 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 18:35:04.269877
- Title: Connected Hidden Neurons (CHNNet): An Artificial Neural Network for
Rapid Convergence
- Title(参考訳): Connected Hidden Neurons (CHNNet): 高速収束のためのニューラルネットワーク
- Authors: Rafiad Sadat Shahir, Zayed Humayun, Mashrufa Akter Tamim, Shouri Saha,
Md. Golam Rabiul Alam
- Abstract要約: 我々は,同じ隠蔽層に存在する隠蔽ニューロンを相互接続する,より堅牢なニューラルネットワークモデルを提案する。
浅層および深層ネットワークにおける完全連結層としてのモデル実験により,本モデルが収束率を著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 0.4199844472131921
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The core purpose of developing artificial neural networks was to mimic the
functionalities of biological neural networks. However, unlike biological
neural networks, traditional artificial neural networks are often structured
hierarchically, which can impede the flow of information between neurons as the
neurons in the same layer have no connections between them. Hence, we propose a
more robust model of artificial neural networks where the hidden neurons,
residing in the same hidden layer, are interconnected, enabling the neurons to
learn complex patterns and speeding up the convergence rate. With the
experimental study of our proposed model as fully connected layers in shallow
and deep networks, we demonstrate that the model results in a significant
increase in convergence rate.
- Abstract(参考訳): 人工ニューラルネットワークの開発の目的は、生物学的ニューラルネットワークの機能の模倣であった。
しかし、生物学的ニューラルネットワークとは異なり、従来の人工ニューラルネットワークは階層的に構築されることが多く、同一層のニューロンがそれらの間の接続を持たないため、ニューロン間の情報の流れを阻害する可能性がある。
そこで本研究では,同じ隠れ層に存在する隠れたニューロンが相互に結合し,複雑なパターンを学習し,収束速度を高速化する,ニューラルネットワークのより堅牢なモデルを提案する。
浅層および深層ネットワークの完全連結層として提案するモデルについて実験的に検討した結果,モデルが収束率を著しく増加させることが示された。
関連論文リスト
- Artificial Kuramoto Oscillatory Neurons [65.16453738828672]
しきい値単位の動的代替として人工内蔵ニューロン(AKOrN)を導入する。
このアイデアは、幅広いタスクにまたがってパフォーマンス改善をもたらすことを示しています。
これらの経験的結果は、神経表現の最も基本的なレベルにおいて、私たちの仮定の重要性を示していると信じている。
論文 参考訳(メタデータ) (2024-10-17T17:47:54Z) - Web Neural Network with Complete DiGraphs [8.2727500676707]
現在のニューラルネットワークは、神経細胞、畳み込み、再発などの脳構造を曖昧に模倣する構造を持っている。
本稿では、ニューロン接続にサイクルを導入し、他のネットワーク層でよく見られるシーケンシャルな性質を除去することにより、新たな構造特性を付加する。
さらに、モデルには、ニューラルネットワークにインスパイアされた連続的な入力と出力があり、ネットワークは最終結果を返すのではなく、分類のプロセスを学ぶことができる。
論文 参考訳(メタデータ) (2024-01-07T05:12:10Z) - Expressivity of Spiking Neural Networks [15.181458163440634]
本研究では,ニューロンの発射時間内に情報を符号化したスパイクニューラルネットワークの能力について検討する。
ReLUネットワークとは対照的に、スパイクニューラルネットワークは連続関数と不連続関数の両方を実現することができる。
論文 参考訳(メタデータ) (2023-08-16T08:45:53Z) - Mitigating Communication Costs in Neural Networks: The Role of Dendritic
Nonlinearity [28.243134476634125]
本研究では,ニューラルネットワークにおける非線形デンドライトの重要性について検討した。
その結果,樹状構造の統合はモデル容量と性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2023-06-21T00:28:20Z) - Dive into the Power of Neuronal Heterogeneity [8.6837371869842]
進化戦略(ES)を用いて、スパイキングニューラルネットワーク(SNN)を最適化し、ランダムネットワークにおける異種ニューロンのより堅牢な最適化を実現するためのバックプロパゲーションベースの手法が直面する課題を示す。
膜時間定数は神経異質性において重要な役割を担っており、その分布は生物学的実験で観察されたものと類似している。
論文 参考訳(メタデータ) (2023-05-19T07:32:29Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Functional Connectome: Approximating Brain Networks with Artificial
Neural Networks [1.952097552284465]
訓練されたディープニューラルネットワークは、合成生物学的ネットワークによって実行される計算を高精度に捉えることができることを示す。
訓練されたディープニューラルネットワークは、新しい環境でゼロショットの一般化を実行可能であることを示す。
本研究は, システム神経科学における新規かつ有望な方向性を明らかにする。
論文 参考訳(メタデータ) (2022-11-23T13:12:13Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。