論文の概要: Efficient Eye-based Emotion Recognition via Neural Architecture Search of Time-to-First-Spike-Coded Spiking Neural Networks
- arxiv url: http://arxiv.org/abs/2512.02459v1
- Date: Tue, 02 Dec 2025 06:35:49 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-03 21:04:45.750163
- Title: Efficient Eye-based Emotion Recognition via Neural Architecture Search of Time-to-First-Spike-Coded Spiking Neural Networks
- Title(参考訳): 時間-1次スパイク符号化型スパイクニューラルネットワークのニューラルネットワークによる効率的な目に基づく感情認識
- Authors: Qianhui Liu, Jing Yang, Miao Yu, Trevor E. Carlson, Gang Pan, Haizhou Li, Zhumin Chen,
- Abstract要約: Time-to-first-Spike (TTFS)で符号化されたスパイクニューラルネットワーク(SNN)は、アイベースの感情認識に有望なソリューションを提供する。
TTFS-ERは、目に基づく感情認識のためにTTFS SNN用に設計された最初のニューラルネットワーク検索フレームワークである。
ニューロモルフィックハードウェア上に展開すると、TNAS-ERは48ミリ秒の低レイテンシと0.05Jのエネルギー消費を達成する。
- 参考スコア(独自算出の注目度): 52.617096567601344
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Eye-based emotion recognition enables eyewear devices to perceive users' emotional states and support emotion-aware interaction, yet deploying such functionality on their resource-limited embedded hardware remains challenging. Time-to-first-spike (TTFS)-coded spiking neural networks (SNNs) offer a promising solution, as each neuron emits at most one binary spike, resulting in extremely sparse and energy-efficient computation. While prior works have primarily focused on improving TTFS SNN training algorithms, the impact of network architecture has been largely overlooked. In this paper, we propose TNAS-ER, the first neural architecture search (NAS) framework tailored to TTFS SNNs for eye-based emotion recognition. TNAS-ER presents a novel ANN-assisted search strategy that leverages a ReLU-based ANN counterpart sharing an identity mapping with the TTFS SNN to guide architecture optimization. TNAS-ER employs an evolutionary algorithm, with weighted and unweighted average recall jointly defined as fitness objectives for emotion recognition. Extensive experiments demonstrate that TNAS-ER achieves high recognition performance with significantly improved efficiency. Furthermore, when deployed on neuromorphic hardware, TNAS-ER attains a low latency of 48 ms and an energy consumption of 0.05 J, confirming its superior energy efficiency and strong potential for practical applications.
- Abstract(参考訳): アイベースの感情認識により、アイウェアデバイスはユーザーの感情状態を認識し、感情認識インタラクションをサポートすることができるが、リソースに制限された組み込みハードウェアにそのような機能をデプロイすることは困難である。
タイム・ツー・ファーストスパイク(TTFS)符号化スパイクニューラルネットワーク(SNN)は、各ニューロンが少なくとも1つのバイナリスパイクを放出し、非常にスパースでエネルギー効率のよい計算をもたらす、有望なソリューションを提供する。
以前の作業は主にTTFS SNNトレーニングアルゴリズムの改善に重点を置いていたが、ネットワークアーキテクチャの影響はほとんど見過ごされてきた。
本稿では、視線に基づく感情認識のためのTTFS SNNに適した、最初のニューラルネットワーク検索(NAS)フレームワークであるTNAS-ERを提案する。
TNAS-ERは、アーキテクチャ最適化を導くために、TTFS SNNとIDマッピングを共有するReLUベースのANNを利用する新しいANN支援検索戦略を提案する。
TNAS-ERは、感情認識のための適合目標として、重み付けと非重み付き平均リコールを併用した進化的アルゴリズムを採用している。
大規模な実験により、TNAS-ERは高い認識性能を示し、効率が大幅に向上した。
さらに、ニューロモルフィックハードウェア上に展開すると、TNAS-ERは48ミリ秒の低レイテンシと0.05Jのエネルギー消費を実現し、その優れたエネルギー効率と実用的な応用の可能性を確認する。
関連論文リスト
- LightSNN: Lightweight Architecture Search for Sparse and Accurate Spiking Neural Networks [1.0485739694839666]
スパイキングニューラルネットワーク(SNN)は、そのエネルギー効率、固有の活性化空間、エッジデバイスにおけるリアルタイム処理に適していると高く評価されている。
現在のほとんどのSNNメソッドは、従来の人工知能ニューラルネットワーク(ANN)に似たアーキテクチャを採用している。
本稿では,高速かつ効率的なニューラルネットワークアーキテクチャ探索(NAS)技術であるLightSNNについて述べる。
論文 参考訳(メタデータ) (2025-03-27T16:38:13Z) - Spiking Meets Attention: Efficient Remote Sensing Image Super-Resolution with Attention Spiking Neural Networks [86.28783985254431]
従来の人工ニューラルネットワーク(ANN)の代替手段としてスパイキングニューラルネットワーク(SNN)が登場
本稿では,AID,DOTA,DIORなどのリモートセンシングベンチマークにおいて,最先端の性能を実現するSpikeSRを提案する。
論文 参考訳(メタデータ) (2025-03-06T09:06:06Z) - NeuroNAS: Enhancing Efficiency of Neuromorphic In-Memory Computing for Intelligent Mobile Agents through Hardware-Aware Spiking Neural Architecture Search [6.006032394972252]
スパイキングニューラルネットワーク(SNN)は、イベントベースの計算を活用して、超低消費電力/エネルギー機械学習アルゴリズムを実現する。
NeuroNASは、インテリジェントな移動体エージェントのためのエネルギー効率の良いニューロモルフィックMCを開発するための新しいフレームワークである。
論文 参考訳(メタデータ) (2024-06-30T09:51:58Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - Training Energy-Efficient Deep Spiking Neural Networks with
Time-to-First-Spike Coding [29.131030799324844]
スパイキングニューラルネットワーク(SNN)は人間の脳の動作を模倣する。
ディープラーニングでは、ディープニューラルネットワーク(DNN)が深刻な問題になっている。
本稿では,TTFS符号化を用いたエネルギー効率の高い深部SNNの学習手法を提案する。
論文 参考訳(メタデータ) (2021-06-04T16:02:27Z) - You Only Spike Once: Improving Energy-Efficient Neuromorphic Inference
to ANN-Level Accuracy [51.861168222799186]
スパイキングニューラルネットワーク(英: Spiking Neural Networks、SNN)は、神経型ネットワークの一種である。
SNNはスパースであり、重量はごくわずかであり、通常、より電力集約的な乗算および累積演算の代わりに追加操作のみを使用する。
本研究では,TTFS符号化ニューロモルフィックシステムの限界を克服することを目的としている。
論文 参考訳(メタデータ) (2020-06-03T15:55:53Z) - SiamSNN: Siamese Spiking Neural Networks for Energy-Efficient Object
Tracking [20.595208488431766]
SiamSNNは、視覚オブジェクト追跡ベンチマークであるTB2013, VOT2016, GOT-10kにおいて、短いレイテンシと低い精度の損失を達成する最初のディープSNNトラッカーである。
SiamSNNは、ニューロモルフィックチップTrueNorth上で低エネルギー消費とリアルタイムを実現する。
論文 参考訳(メタデータ) (2020-03-17T08:49:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。