論文の概要: APTx Neuron: A Unified Trainable Neuron Architecture Integrating Activation and Computation
- arxiv url: http://arxiv.org/abs/2507.14270v3
- Date: Mon, 28 Jul 2025 13:04:47 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 14:15:47.03845
- Title: APTx Neuron: A Unified Trainable Neuron Architecture Integrating Activation and Computation
- Title(参考訳): APTx Neuron: 活性化と計算を統合した統一トレーニング可能なニューロンアーキテクチャ
- Authors: Ravin Kumar,
- Abstract要約: 非線形活性化と線形変換を1つのトレーニング可能な表現に統合する,新しい統合型ニューラルネットワークユニットを提案する。
我々は、約332Kのトレーニング可能なパラメータを用いて、11エポック内の96.69%のテスト精度を達成し、MNISTデータセット上でAPTxニューロンベースのアーキテクチャを検証する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We propose the APTx Neuron, a novel, unified neural computation unit that integrates non-linear activation and linear transformation into a single trainable expression. The APTx Neuron is derived from the APTx activation function, thereby eliminating the need for separate activation layers and making the architecture both computationally efficient and elegant. The proposed neuron follows the functional form $y = \sum_{i=1}^{n} ((\alpha_i + \tanh(\beta_i x_i)) \cdot \gamma_i x_i) + \delta$, where all parameters $\alpha_i$, $\beta_i$, $\gamma_i$, and $\delta$ are trainable. We validate our APTx Neuron-based architecture on the MNIST dataset, achieving up to 96.69% test accuracy within 11 epochs using approximately 332K trainable parameters. The results highlight the superior expressiveness and computational efficiency of the APTx Neuron compared to traditional neurons, pointing toward a new paradigm in unified neuron design and the architectures built upon it.
- Abstract(参考訳): 我々は、非線形活性化と線形変換を単一のトレーニング可能な表現に統合する、新しい統合ニューラルネットワークユニットであるAPTx Neuronを提案する。
APTxニューロンは、APTxアクティベーション関数から派生し、分離されたアクティベーション層の必要性を排除し、アーキテクチャを計算的に効率的かつエレガントなものにする。
提案したニューロンは、関数形式 $y = \sum_{i=1}^{n} ((\alpha_i + \tanh(\beta_i x_i)) \cdot \gamma_i x_i) + \delta$ に従っており、全てのパラメータ $\alpha_i$, $\beta_i$, $\gamma_i$, $\delta$ はトレーニング可能である。
我々は、約332Kのトレーニング可能なパラメータを用いて、11エポック内の96.69%のテスト精度を達成し、MNISTデータセット上でAPTxニューロンベースのアーキテクチャを検証する。
その結果、従来のニューロンと比較して、APTxニューロンの表現性や計算効率が優れており、統合ニューロン設計の新しいパラダイムと、その上に構築されたアーキテクチャを指している。
関連論文リスト
- Interpolation with deep neural networks with non-polynomial activations: necessary and sufficient numbers of neurons [0.0]
我々は、活性化関数が点ではなく点において実数である限り、$Theta(sqrtnd')$ニューロンは十分であることを示す。
これは、パワーを失うことなく、アクティベーション関数を問題依存的に自由に選択できることを意味する。
論文 参考訳(メタデータ) (2024-05-22T15:29:45Z) - No One-Size-Fits-All Neurons: Task-based Neurons for Artificial Neural Networks [25.30801109401654]
人間の脳はタスクベースのニューロンのユーザなので、人工ネットワークの設計はタスクベースのアーキテクチャ設計からタスクベースのニューロン設計に移行できるだろうか?
本稿では,タスクベースニューロンのプロトタイピングのための2段階のフレームワークを提案する。
実験により、提案されたタスクベースのニューロン設計は実現可能であるだけでなく、他の最先端モデルと競合する性能を提供することが示された。
論文 参考訳(メタデータ) (2024-05-03T09:12:46Z) - WaLiN-GUI: a graphical and auditory tool for neuron-based encoding [73.88751967207419]
ニューロモルフィックコンピューティングはスパイクベースのエネルギー効率の高い通信に依存している。
本研究では, スパイクトレインへのサンプルベースデータの符号化に適した構成を同定するツールを開発した。
WaLiN-GUIはオープンソースとドキュメントが提供されている。
論文 参考訳(メタデータ) (2023-10-25T20:34:08Z) - Efficient Vectorized Backpropagation Algorithms for Training Feedforward Networks Composed of Quadratic Neurons [1.474723404975345]
本稿では,1つの二次ニューロンを用いたXOR問題の解法を提案する。
これは$mathcalC$境界クラスタからなる任意のデータセットが、$mathcalC$二次ニューロンの単一の層でのみ分離可能であることを示している。
論文 参考訳(メタデータ) (2023-10-04T15:39:57Z) - The Expressive Leaky Memory Neuron: an Efficient and Expressive Phenomenological Neuron Model Can Solve Long-Horizon Tasks [64.08042492426992]
本稿では,脳皮質ニューロンの生物学的モデルであるExpressive Memory(ELM)ニューロンモデルを紹介する。
ELMニューロンは、上記の入力-出力関係を1万以下のトレーニング可能なパラメータと正確に一致させることができる。
本稿では,Long Range Arena(LRA)データセットなど,時間構造を必要とするタスクで評価する。
論文 参考訳(メタデータ) (2023-06-14T13:34:13Z) - Increasing biases can be more efficient than increasing weights [33.05856234084821]
ユニットは、あるユニットから次のユニットに渡されるときに、非破壊的な情報を保存することの重要性を強調します。
重みよりもバイアスの増加に焦点を当てることで、ニューラルネットワークモデルの性能が大幅に向上する可能性があることを示す。
論文 参考訳(メタデータ) (2023-01-03T01:36:31Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。