論文の概要: Expressivity Enhancement with Efficient Quadratic Neurons for
Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2306.07294v1
- Date: Sat, 10 Jun 2023 11:25:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-14 16:37:52.412819
- Title: Expressivity Enhancement with Efficient Quadratic Neurons for
Convolutional Neural Networks
- Title(参考訳): 畳み込みニューラルネットワークのための高能率2次ニューロンによる表現性向上
- Authors: Chuangtao Chen and Grace Li Zhang and Xunzhao Yin and Cheng Zhuo and
Ulf Schlichtmann and Bing Li
- Abstract要約: パラメータと計算コストのオーバーヘッドのみを無視して非線形性を維持するために,効率的な二次ニューロン構造を提案する。
提案した二次ニューロンは、以前の研究から得られた線状ニューロンと非線状ニューロンの両方と比較して、分類タスクの精度が高く、効率が良い。
- 参考スコア(独自算出の注目度): 8.858828703989344
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Convolutional neural networks (CNNs) have been successfully applied in a
range of fields such as image classification and object segmentation. To
improve their expressivity, various techniques, such as novel CNN
architectures, have been explored. However, the performance gain from such
techniques tends to diminish. To address this challenge, many researchers have
shifted their focus to increasing the non-linearity of neurons, the fundamental
building blocks of neural networks, to enhance the network expressivity.
Nevertheless, most of these approaches incur a large number of parameters and
thus formidable computation cost inevitably, impairing their efficiency to be
deployed in practice. In this work, an efficient quadratic neuron structure is
proposed to preserve the non-linearity with only negligible parameter and
computation cost overhead. The proposed quadratic neuron can maximize the
utilization of second-order computation information to improve the network
performance. The experimental results have demonstrated that the proposed
quadratic neuron can achieve a higher accuracy and a better computation
efficiency in classification tasks compared with both linear neurons and
non-linear neurons from previous works.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、画像分類やオブジェクトセグメンテーションなど、さまざまな分野に適用されている。
表現性を向上するため、新しいCNNアーキテクチャなど様々な技術が研究されている。
しかし、このような技術による性能向上は減少する傾向にある。
この課題に対処するため、多くの研究者は、ニューラルネットワークの基本的な構成要素であるニューロンの非線形性を高めることに焦点を移した。
しかしながら、これらのアプローチの多くは多数のパラメータを発生させ、必然的に計算コストを抑え、実行時に効率を損なう。
本研究では, パラメータと計算コストのオーバーヘッドだけで非線形性を保つために, 効率的な二次ニューロン構造を提案する。
提案する二次ニューロンは,2次計算情報の利用を最大化し,ネットワーク性能を向上させる。
実験の結果,提案する二次ニューロンは,従来の研究から得られた線形ニューロンと非線形ニューロンと比較して,分類タスクにおいて高い精度と計算効率を達成できることがわかった。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Automated Natural Language Explanation of Deep Visual Neurons with Large
Models [43.178568768100305]
本稿では,大きな基礎モデルを持つニューロンの意味的説明を生成するための,新しいポストホックフレームワークを提案する。
我々のフレームワークは、様々なモデルアーキテクチャやデータセット、自動化されたスケーラブルなニューロン解釈と互換性があるように設計されています。
論文 参考訳(メタデータ) (2023-10-16T17:04:51Z) - To Spike or Not To Spike: A Digital Hardware Perspective on Deep
Learning Acceleration [4.712922151067433]
ディープラーニングモデルがスケールするにつれて、コンピュータビジョンから自然言語処理まで、ドメイン間の競争が激化する。
生物学的脳のパワー効率は、大規模深層学習(DL)モデルよりも優れている。
ニューロモルフィックコンピューティングは、DLモデルの効率を改善するために、脳の操作を模倣しようとする。
論文 参考訳(メタデータ) (2023-06-27T19:04:00Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Exploiting Noise as a Resource for Computation and Learning in Spiking
Neural Networks [32.0086664373154]
本研究では,雑音型スパイクニューラルネットワーク(NSNN)とノイズ駆動学習規則(NDL)を紹介する。
NSNNは、スケーラブルでフレキシブルで信頼性の高い計算をもたらす理論的なフレームワークを提供する。
論文 参考訳(メタデータ) (2023-05-25T13:21:26Z) - Efficient, probabilistic analysis of combinatorial neural codes [0.0]
ニューラルネットワークは、個々のニューロンの活動の組み合わせの形で入力を符号化する。
これらのニューラルネットワークは、その高次元性としばしば大量のデータのため、計算上の課題を示す。
従来の手法を小さな例に適用し,実験によって生成された大きなニューラルコードに適用する。
論文 参考訳(メタデータ) (2022-10-19T11:58:26Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - Extrapolation and Spectral Bias of Neural Nets with Hadamard Product: a
Polynomial Net Study [55.12108376616355]
NTKの研究は典型的なニューラルネットワークアーキテクチャに特化しているが、アダマール製品(NNs-Hp)を用いたニューラルネットワークには不完全である。
本研究では,ニューラルネットワークの特別なクラスであるNNs-Hpに対する有限幅Kの定式化を導出する。
我々は,カーネル回帰予測器と関連するNTKとの等価性を証明し,NTKの適用範囲を拡大する。
論文 参考訳(メタデータ) (2022-09-16T06:36:06Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z) - Spiking Neural Networks Hardware Implementations and Challenges: a
Survey [53.429871539789445]
スパイキングニューラルネットワークは、ニューロンとシナプスの操作原理を模倣する認知アルゴリズムである。
スパイキングニューラルネットワークのハードウェア実装の現状について述べる。
本稿では,これらのイベント駆動アルゴリズムの特性をハードウェアレベルで活用するための戦略について論じる。
論文 参考訳(メタデータ) (2020-05-04T13:24:00Z) - Non-linear Neurons with Human-like Apical Dendrite Activations [81.18416067005538]
XOR論理関数を100%精度で学習し, 標準的なニューロンに後続のアピーカルデンドライト活性化(ADA)が認められた。
コンピュータビジョン,信号処理,自然言語処理の6つのベンチマークデータセットについて実験を行った。
論文 参考訳(メタデータ) (2020-02-02T21:09:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。