論文の概要: Univariate Radial Basis Function Layers: Brain-inspired Deep Neural
Layers for Low-Dimensional Inputs
- arxiv url: http://arxiv.org/abs/2311.16148v2
- Date: Fri, 2 Feb 2024 19:04:02 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-07 03:54:08.492342
- Title: Univariate Radial Basis Function Layers: Brain-inspired Deep Neural
Layers for Low-Dimensional Inputs
- Title(参考訳): 単変量放射基底関数層:低次元入力のための脳誘発深部神経層
- Authors: Daniel Jost, Basavasagar Patil, Xavier Alameda-Pineda, Chris Reinke
- Abstract要約: 多くの実世界の問題は、標準のMLP(Multi-Layer Perceptrons)がデフォルトの選択となる低次元の入力を持つ。
代替として,Univariate Radial Basis Function (U-RBF) と呼ばれる新しい層を提案する。
脳の感覚ニューロンと同様に、U-RBF層は個々の入力次元を異なる入力値に依存するニューロンの集団で処理する。
- 参考スコア(独自算出の注目度): 17.890514654687898
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep Neural Networks (DNNs) became the standard tool for function
approximation with most of the introduced architectures being developed for
high-dimensional input data. However, many real-world problems have
low-dimensional inputs for which standard Multi-Layer Perceptrons (MLPs) are
the default choice. An investigation into specialized architectures is missing.
We propose a novel DNN layer called Univariate Radial Basis Function (U-RBF)
layer as an alternative. Similar to sensory neurons in the brain, the U-RBF
layer processes each individual input dimension with a population of neurons
whose activations depend on different preferred input values. We verify its
effectiveness compared to MLPs in low-dimensional function regressions and
reinforcement learning tasks. The results show that the U-RBF is especially
advantageous when the target function becomes complex and difficult to
approximate.
- Abstract(参考訳): Deep Neural Networks (DNN) は関数近似の標準ツールとなり、高次元の入力データのためにほとんどのアーキテクチャが開発された。
しかし、現実世界の多くの問題は、標準のMLP(Multi-Layer Perceptrons)がデフォルトの選択となる低次元入力を持つ。
専門アーキテクチャに関する調査は欠落している。
代替として,Univariate Radial Basis Function (U-RBF) と呼ばれる新しいDNN層を提案する。
脳の感覚ニューロンと同様に、U-RBF層は個々の入力次元を異なる入力値に依存するニューロンの集団で処理する。
低次元関数回帰および強化学習タスクにおけるMLPと比較しての有効性を検証する。
その結果,対象関数が複雑になり近似が困難になると,U-RBFは特に有利であることがわかった。
関連論文リスト
- A Multi-In and Multi-Out Dendritic Neuron Model and its Optimization [20.308485340250662]
マルチ出力タスクに対処する新しいマルチイン・マルチアウト樹状ニューロンモデル(MODN)を提案する。
我々の中核となる考え方は、それぞれの出力を回帰するために所望のデンドライトを適応的に選択するために、ソマ層にフィルタリング行列を導入することである。
このような行列は学習可能なように設計されているため、MODNはそれぞれのデンドライトと出力の関係を探索することができる。
論文 参考訳(メタデータ) (2023-09-14T15:28:41Z) - Supervised Feature Selection with Neuron Evolution in Sparse Neural
Networks [17.12834153477201]
スパースニューラルネットワークを用いた資源効率の高い新しい特徴選択法を提案する。
スクラッチからトレーニングされたスパースニューラルネットワークの入力層から、不定形的特徴を徐々に抜き取ることにより、NeuroFSは、機能の情報的サブセットを効率的に導き出す。
NeuroFSは、最先端の教師付き特徴選択モデルの中で最上位のスコアを達成している。
論文 参考訳(メタデータ) (2023-03-10T17:09:55Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Auto-PINN: Understanding and Optimizing Physics-Informed Neural
Architecture [77.59766598165551]
物理インフォームドニューラルネットワーク(PINN)は、ディープラーニングのパワーを科学計算にもたらし、科学と工学の実践に革命をもたらしている。
本稿では,ニューラル・アーキテクチャ・サーチ(NAS)手法をPINN設計に適用したAuto-PINNを提案する。
標準PDEベンチマークを用いた包括的事前実験により、PINNの構造と性能の関係を探索することができる。
論文 参考訳(メタデータ) (2022-05-27T03:24:31Z) - DEMAND: Deep Matrix Approximately NonlinearDecomposition to Identify
Meta, Canonical, and Sub-Spatial Pattern of functional Magnetic Resonance
Imaging in the Human Brain [8.93274096260726]
本研究では,SDL(Sparse Dictionary Learning)やDNN(Deep Neural Networks)といった浅い線形モデルを活用するために,Deep A roughly Decomposition(DEMAND)という新しい非線形行列分解法を提案する。
DEMANDは、人間の脳の再現可能な代謝、正準的、および部分空間的特徴を、他の仲間の方法論よりも効率的に明らかにすることができる。
論文 参考訳(メタデータ) (2022-05-20T15:55:01Z) - Deep Neural Network Classifier for Multi-dimensional Functional Data [4.340040784481499]
我々は,多次元関数型データを分類するFDNN(Functional Deep Neural Network)と呼ばれる新しい手法を提案する。
具体的には、将来のデータ関数のクラスラベルを予測するために使用されるトレーニングデータの原則コンポーネントに基づいて、ディープニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2022-05-17T19:22:48Z) - Level set learning with pseudo-reversible neural networks for nonlinear
dimension reduction in function approximation [8.28646586439284]
本稿では,関数近似のための学習レベルセット(DRiLLS)を用いた次元削減手法を提案する。
提案手法は,高次元の入力変数を高次元のアクティブ変数に効果的に変換する擬似可逆ニューラルネットワーク(PRNN)モジュールである。
PRNNは、RevNetの使用によりNLL法に存在する非線形変換の可逆性制約を緩和するだけでなく、各サンプルの影響を適応的に重み付けし、学習された能動変数に対する関数の感度を制御する。
論文 参考訳(メタデータ) (2021-12-02T17:25:34Z) - Non-Gradient Manifold Neural Network [79.44066256794187]
ディープニューラルネットワーク(DNN)は通常、勾配降下による最適化に数千のイテレーションを要します。
非次最適化に基づく新しい多様体ニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2021-06-15T06:39:13Z) - Rank-R FNN: A Tensor-Based Learning Model for High-Order Data
Classification [69.26747803963907]
Rank-R Feedforward Neural Network (FNN)は、そのパラメータにCanonical/Polyadic分解を課すテンソルベースの非線形学習モデルである。
まず、入力をマルチリニアアレイとして扱い、ベクトル化の必要性を回避し、すべてのデータ次元に沿って構造情報を十分に活用することができる。
Rank-R FNNの普遍的な近似と学習性の特性を確立し、実世界のハイパースペクトルデータセットのパフォーマンスを検証する。
論文 参考訳(メタデータ) (2021-04-11T16:37:32Z) - Evolving Normalization-Activation Layers [100.82879448303805]
我々は、うまく機能しない候補層を迅速にフィルタリングする効率的な拒絶プロトコルを開発した。
EvoNormsは、新しい正規化活性化層であり、新しい構造を持ち、時には驚くべき構造を持つ。
我々の実験は、EvoNormsがResNets、MobileNets、EfficientNetsなどの画像分類モデルでうまく機能していることを示している。
論文 参考訳(メタデータ) (2020-04-06T19:52:48Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。