論文の概要: Threshold Neuron: A Brain-inspired Artificial Neuron for Efficient On-device Inference
- arxiv url: http://arxiv.org/abs/2412.13902v1
- Date: Wed, 18 Dec 2024 14:42:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-19 13:23:36.479791
- Title: Threshold Neuron: A Brain-inspired Artificial Neuron for Efficient On-device Inference
- Title(参考訳): 閾値ニューロン(Threshold Neuron) : デバイス上での効率的な推論のための脳誘発人工ニューロン
- Authors: Zihao Zheng, Yuanchun Li, Jiayu Chen, Peng Zhou, Xiang Chen, Yunxin Liu,
- Abstract要約: 本稿では,新しい人工ニューロンモデルThreshold Neuronsを提案する。
従来の人工ニューロンと同様のニューラルネットワークを構築しながら,ハードウェア実装の複雑さを大幅に低減する。
本研究では,Threshold Neuronsを用いたニューラルネットワークの有効性を検証し,カーネルレベルでは7.51倍から8.19倍の省電力を実現し,カーネルレベルでは3.89倍から4.33倍の省電力を実現した。
- 参考スコア(独自算出の注目度): 17.95548501630064
- License:
- Abstract: Enhancing the computational efficiency of on-device Deep Neural Networks (DNNs) remains a significant challengein mobile and edge computing. As we aim to execute increasingly complex tasks with constrained computational resources, much of the research has focused on compressing neural network structures and optimizing systems. Although many studies have focused on compressing neural network structures and parameters or optimizing underlying systems, there has been limited attention on optimizing the fundamental building blocks of neural networks: the neurons. In this study, we deliberate on a simple but important research question: Can we design artificial neurons that offer greater efficiency than the traditional neuron paradigm? Inspired by the threshold mechanisms and the excitation-inhibition balance observed in biological neurons, we propose a novel artificial neuron model, Threshold Neurons. Using Threshold Neurons, we can construct neural networks similar to those with traditional artificial neurons, while significantly reducing hardware implementation complexity. Our extensive experiments validate the effectiveness of neural networks utilizing Threshold Neurons, achieving substantial power savings of 7.51x to 8.19x and area savings of 3.89x to 4.33x at the kernel level, with minimal loss in precision. Furthermore, FPGA-based implementations of these networks demonstrate 2.52x power savings and 1.75x speed enhancements at the system level. The source code will be made available upon publication.
- Abstract(参考訳): オンデバイスディープニューラルネットワーク(DNN)の計算効率を向上させることは、モバイルとエッジコンピューティングにおいて重要な課題である。
制約のある計算資源でますます複雑なタスクを実行することを目指していますが、研究の多くはニューラルネットワーク構造を圧縮し、システムを最適化することに重点を置いています。
多くの研究は、ニューラルネットワークの構造とパラメータの圧縮や基盤システムの最適化に重点を置いているが、ニューラルネットワークの基本的な構成要素であるニューロンの最適化には注意が向けられている。
本研究では,従来のニューロンパラダイムよりも高効率な人工ニューロンを設計できるのか?
生体ニューロンにおけるしきい値機構と興奮抑制バランスに着想を得て,新しい人工ニューロンモデルThreshold Neuronsを提案する。
Threshold Neuronsを使用することで、従来の人工ニューロンと同様のニューラルネットワークを構築することができ、ハードウェア実装の複雑さを著しく低減できる。
我々は、Threshold Neuronsを用いたニューラルネットワークの有効性を検証し、カーネルレベルでは7.51倍から8.19倍の省電力化、カーネルレベルでは3.89倍から4.33倍の省電力化を実現し、精度の低下を最小限に抑えた。
さらに、FPGAベースの実装では、システムレベルで2.52倍の省電力化と1.75倍の高速化を実現している。
ソースコードは公開時に公開される予定だ。
関連論文リスト
- Single Neuromorphic Memristor closely Emulates Multiple Synaptic
Mechanisms for Energy Efficient Neural Networks [71.79257685917058]
我々はこれらのシナプス機能を本質的にエミュレートするSrTiO3に基づく膜状ナノデバイスを実証する。
これらのメムリスタは、安定かつエネルギー効率の良い運転を可能にする非定常低導電系で機能する。
論文 参考訳(メタデータ) (2024-02-26T15:01:54Z) - Computational and Storage Efficient Quadratic Neurons for Deep Neural
Networks [10.379191500493503]
実験により、提案した二次ニューロン構造は、様々なタスクにおいて優れた計算効率と記憶効率を示すことが示された。
本研究は、2次計算情報の高度活用によって区別される2次ニューロンアーキテクチャを導入する。
論文 参考訳(メタデータ) (2023-06-10T11:25:31Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Learning to Act through Evolution of Neural Diversity in Random Neural
Networks [9.387749254963595]
ほとんどの人工ニューラルネットワーク(ANN)では、神経計算は通常すべてのニューロン間で共有される活性化関数に抽象化される。
本稿では,複雑な計算を行うことができる多様なニューロンの集合を実現するために,神経中心パラメータの最適化を提案する。
論文 参考訳(メタデータ) (2023-05-25T11:33:04Z) - Towards NeuroAI: Introducing Neuronal Diversity into Artificial Neural
Networks [20.99799416963467]
ヒトの脳では、神経の多様性はあらゆる生物学的知的行動に有効である。
本稿では,まず,生物ニューロンの多様性と情報伝達・処理の特徴について論じる。
論文 参考訳(メタデータ) (2023-01-23T02:23:45Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Spiking neural network for nonlinear regression [68.8204255655161]
スパイクニューラルネットワークは、メモリとエネルギー消費を大幅に削減する可能性を持っている。
彼らは、次世代のニューロモルフィックハードウェアによって活用できる時間的および神経的疎結合を導入する。
スパイキングニューラルネットワークを用いた回帰フレームワークを提案する。
論文 参考訳(メタデータ) (2022-10-06T13:04:45Z) - A Resource-efficient Spiking Neural Network Accelerator Supporting
Emerging Neural Encoding [6.047137174639418]
スパイキングニューラルネットワーク(SNN)は、その低消費電力乗算自由コンピューティングにより、最近勢いを増している。
SNNは、大規模なモデルのための人工知能ニューラルネットワーク(ANN)と同様の精度に達するために、非常に長いスパイク列車(1000台まで)を必要とする。
ニューラルエンコーディングでSNNを効率的にサポートできる新しいハードウェアアーキテクチャを提案する。
論文 参考訳(メタデータ) (2022-06-06T10:56:25Z) - POPPINS : A Population-Based Digital Spiking Neuromorphic Processor with
Integer Quadratic Integrate-and-Fire Neurons [50.591267188664666]
2つの階層構造を持つ180nmプロセス技術において,集団に基づくディジタルスパイキングニューロモルフィックプロセッサを提案する。
提案手法は,生体模倣型ニューロモルフィックシステム,低消費電力,低遅延推論処理アプリケーションの開発を可能にする。
論文 参考訳(メタデータ) (2022-01-19T09:26:34Z) - Mapping and Validating a Point Neuron Model on Intel's Neuromorphic
Hardware Loihi [77.34726150561087]
インテルの第5世代ニューロモルフィックチップ「Loihi」の可能性について検討する。
Loihiは、脳内のニューロンをエミュレートするスパイキングニューラルネットワーク(SNN)という新しいアイデアに基づいている。
Loihiは従来のシミュレーションを非常に効率的に再現し、ネットワークが大きくなるにつれて、時間とエネルギーの両方のパフォーマンスにおいて顕著にスケールする。
論文 参考訳(メタデータ) (2021-09-22T16:52:51Z) - Effective and Efficient Computation with Multiple-timescale Spiking
Recurrent Neural Networks [0.9790524827475205]
本稿では,新しいタイプの適応スパイクリカレントニューラルネットワーク(SRNN)が,最先端の性能を実現する方法を示す。
我々は、従来のRNNよりも難しいタスクにおいて、SRNNの100倍のエネルギー改善を計算します。
論文 参考訳(メタデータ) (2020-05-24T01:04:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。