論文の概要: Random Heterogeneous Neurochaos Learning Architecture for Data Classification
- arxiv url: http://arxiv.org/abs/2410.23351v1
- Date: Wed, 30 Oct 2024 18:00:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-01 17:01:16.128469
- Title: Random Heterogeneous Neurochaos Learning Architecture for Data Classification
- Title(参考訳): データ分類のためのランダム不均一ニューロカオス学習アーキテクチャ
- Authors: Remya Ajai A S, Nithin Nagaraj,
- Abstract要約: カオスベースのニューラルネットワークであるNeurochaos Learning(NL)は先日,Generalized L"uroth Series(GLS)やロジスティックマップをニューロンとして使用した。
はじめに、様々なカオスニューロンをランダムに入力層に配置するNLのランダムな異種拡張を提案する。
従来の機械学習(ML)手法と組み合わせたランダム不均一神経カオス学習(RHNL)アーキテクチャの性能評価を行った。
- 参考スコア(独自算出の注目度): 1.534667887016089
- License:
- Abstract: Inspired by the human brain's structure and function, Artificial Neural Networks (ANN) were developed for data classification. However, existing Neural Networks, including Deep Neural Networks, do not mimic the brain's rich structure. They lack key features such as randomness and neuron heterogeneity, which are inherently chaotic in their firing behavior. Neurochaos Learning (NL), a chaos-based neural network, recently employed one-dimensional chaotic maps like Generalized L\"uroth Series (GLS) and Logistic map as neurons. For the first time, we propose a random heterogeneous extension of NL, where various chaotic neurons are randomly placed in the input layer, mimicking the randomness and heterogeneous nature of human brain networks. We evaluated the performance of the newly proposed Random Heterogeneous Neurochaos Learning (RHNL) architectures combined with traditional Machine Learning (ML) methods. On public datasets, RHNL outperformed both homogeneous NL and fixed heterogeneous NL architectures in nearly all classification tasks. RHNL achieved high F1 scores on the Wine dataset (1.0), Bank Note Authentication dataset (0.99), Breast Cancer Wisconsin dataset (0.99), and Free Spoken Digit Dataset (FSDD) (0.98). These RHNL results are among the best in the literature for these datasets. We investigated RHNL performance on image datasets, where it outperformed stand-alone ML classifiers. In low training sample regimes, RHNL was the best among stand-alone ML. Our architecture bridges the gap between existing ANN architectures and the human brain's chaotic, random, and heterogeneous properties. We foresee the development of several novel learning algorithms centered around Random Heterogeneous Neurochaos Learning in the coming days.
- Abstract(参考訳): 人間の脳の構造と機能にインスパイアされたニューラルネットワーク(ANN)は、データ分類のために開発された。
しかし、ディープニューラルネットワークを含む既存のニューラルネットワークは、脳の豊富な構造を模倣していない。
ランダム性やニューロンの不均一性といった重要な特徴は欠如しており、その発火行動は本質的にカオスである。
カオスベースのニューラルネットワークであるNeurochaos Learning(NL)は先日,Generalized L\"uroth Series(GLS)やロジスティックマップをニューロンとして使用した。
はじめに,人間の脳ネットワークのランダム性や不均一性を模倣して,様々なカオスニューロンを入力層にランダムに配置する,NLのランダムな異種拡張を提案する。
従来の機械学習手法と組み合わせたRHNLアーキテクチャの性能評価を行った。
公開データセットでは、RHNLは、ほぼすべての分類タスクにおいて、均質なNLと固定異質なNLアーキテクチャの両方に優れていた。
RHNLはワインデータセット(1.0)、バンクノート認証データセット(0.99)、乳がんウィスコンシンデータセット(0.99)、フリースポットディジットデータセット(0.98)で高いF1スコアを達成した。
これらのRHNL結果は、これらのデータセットの文献の中で最高のものの一つである。
画像データセット上でのRHNL性能について検討した。
低トレーニング標本では,RHNLはスタンドアロンMLの中で最も高かった。
我々のアーキテクチャは、既存のANNアーキテクチャと人間の脳のカオス、ランダム、異種の性質のギャップを埋める。
我々は今後,ランダム不均質神経カオス学習を中心とした新しい学習アルゴリズムの開発を予想する。
関連論文リスト
- Graph Neural Networks for Learning Equivariant Representations of Neural Networks [55.04145324152541]
本稿では,ニューラルネットワークをパラメータの計算グラフとして表現することを提案する。
我々のアプローチは、ニューラルネットワークグラフを多種多様なアーキテクチャでエンコードする単一モデルを可能にする。
本稿では,暗黙的ニューラル表現の分類や編集など,幅広いタスクにおける本手法の有効性を示す。
論文 参考訳(メタデータ) (2024-03-18T18:01:01Z) - Heterogeneous Recurrent Spiking Neural Network for Spatio-Temporal
Classification [13.521272923545409]
Spi Neural Networksは、人工知能の第3波の脳にインスパイアされた学習モデルとしてしばしば評価される。
本稿では,ビデオ認識タスクのための教師なし学習を用いたヘテロジニアススパイキングニューラルネットワーク(HRSNN)を提案する。
本研究では,時間的バックプロパゲーション訓練による教師付きSNNに類似した性能を実現することができるが,少ない計算量で実現可能であることを示す。
論文 参考訳(メタデータ) (2022-09-22T16:34:01Z) - The Separation Capacity of Random Neural Networks [78.25060223808936]
標準ガウス重みと一様分布バイアスを持つ十分に大きな2層ReLUネットワークは、この問題を高い確率で解くことができることを示す。
我々は、相互複雑性という新しい概念の観点から、データの関連構造を定量化する。
論文 参考訳(メタデータ) (2021-07-31T10:25:26Z) - Comparisons among different stochastic selection of activation layers
for convolutional neural networks for healthcare [77.99636165307996]
ニューラルネットワークのアンサンブルを用いて生体医用画像の分類を行う。
ReLU, leaky ReLU, Parametric ReLU, ELU, Adaptive Piecewice Linear Unit, S-Shaped ReLU, Swish, Mish, Mexican Linear Unit, Parametric Deformable Linear Unit, Soft Root Sign。
論文 参考訳(メタデータ) (2020-11-24T01:53:39Z) - A Neurochaos Learning Architecture for Genome Classification [0.0]
本稿では,データから特徴を抽出するために使用するニューロンがカオスマップであるニューロカオス学習アーキテクチャを提案する。
ChaosFEX機能は、分類のために線形カーネルを持つサポートベクターマシンに送られる。
我々はSARS-CoV-2のゲノム配列を他のウイルスから分類する問題について考察する。
論文 参考訳(メタデータ) (2020-10-12T19:07:02Z) - Exploiting Heterogeneity in Operational Neural Networks by Synaptic
Plasticity [87.32169414230822]
最近提案されたネットワークモデルであるオペレーショナルニューラルネットワーク(ONN)は、従来の畳み込みニューラルネットワーク(CNN)を一般化することができる。
本研究では, 生体ニューロンにおける本質的な学習理論を示すSynaptic Plasticityパラダイムに基づいて, ネットワークの隠蔽ニューロンに対する最強演算子集合の探索に焦点をあてる。
高難易度問題に対する実験結果から、神経細胞や層が少なくても、GISベースのONNよりも優れた学習性能が得られることが示された。
論文 参考訳(メタデータ) (2020-08-21T19:03:23Z) - Locality Guided Neural Networks for Explainable Artificial Intelligence [12.435539489388708]
LGNN(Locality Guided Neural Network)と呼ばれる,バック伝搬のための新しいアルゴリズムを提案する。
LGNNはディープネットワークの各層内の隣接ニューロン間の局所性を保っている。
実験では,CIFAR100 上の画像分類のための様々な VGG と Wide ResNet (WRN) ネットワークを訓練した。
論文 参考訳(メタデータ) (2020-07-12T23:45:51Z) - Self-Organized Operational Neural Networks with Generative Neurons [87.32169414230822]
ONNは、任意の非線型作用素をカプセル化できる一般化されたニューロンモデルを持つ異種ネットワークである。
我々は,各接続の結節演算子を適応(最適化)できる生成ニューロンを有する自己組織型ONN(Self-ONNs)を提案する。
論文 参考訳(メタデータ) (2020-04-24T14:37:56Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。