論文の概要: SNN4Agents: A Framework for Developing Energy-Efficient Embodied Spiking Neural Networks for Autonomous Agents
- arxiv url: http://arxiv.org/abs/2404.09331v1
- Date: Sun, 14 Apr 2024 19:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 14:28:37.577311
- Title: SNN4Agents: A Framework for Developing Energy-Efficient Embodied Spiking Neural Networks for Autonomous Agents
- Title(参考訳): SNN4Agents: 自律エージェントのためのエネルギー効率の良いスパイクニューラルネットワーク構築のためのフレームワーク
- Authors: Rachmad Vidya Wicaksana Putra, Alberto Marchisio, Muhammad Shafique,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、イベントベースのカメラやデータ変換前処理からのスパイクを使用して、スパース計算を効率的に行う。
本稿では,自律エージェントアプリケーションを対象としたエネルギー効率のよいSNNを設計するための最適化手法からなるSNN4Agentsを提案する。
- 参考スコア(独自算出の注目度): 6.110543738208028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent trends have shown that autonomous agents, such as Autonomous Ground Vehicles (AGVs), Unmanned Aerial Vehicles (UAVs), and mobile robots, effectively improve human productivity in solving diverse tasks. However, since these agents are typically powered by portable batteries, they require extremely low power/energy consumption to operate in a long lifespan. To solve this challenge, neuromorphic computing has emerged as a promising solution, where bio-inspired Spiking Neural Networks (SNNs) use spikes from event-based cameras or data conversion pre-processing to perform sparse computations efficiently. However, the studies of SNN deployments for autonomous agents are still at an early stage. Hence, the optimization stages for enabling efficient embodied SNN deployments for autonomous agents have not been defined systematically. Toward this, we propose a novel framework called SNN4Agents that consists of a set of optimization techniques for designing energy-efficient embodied SNNs targeting autonomous agent applications. Our SNN4Agents employs weight quantization, timestep reduction, and attention window reduction to jointly improve the energy efficiency, reduce the memory footprint, optimize the processing latency, while maintaining high accuracy. In the evaluation, we investigate use cases of event-based car recognition, and explore the trade-offs among accuracy, latency, memory, and energy consumption. The experimental results show that our proposed framework can maintain high accuracy (i.e., 84.12% accuracy) with 68.75% memory saving, 3.58x speed-up, and 4.03x energy efficiency improvement as compared to the state-of-the-art work for NCARS dataset, thereby enabling energy-efficient embodied SNN deployments for autonomous agents.
- Abstract(参考訳): 近年、自律型地上車両(AGVs)、無人航空車両(UAVs)、移動ロボットなどの自律型エージェントが、多様なタスクの解決において、人間の生産性を効果的に向上させることが示されている。
しかしながら、これらのエージェントは一般的に携帯型電池で駆動されるため、長い寿命で運用するには非常に低電力/エネルギー消費を必要とする。
この課題を解決するために、バイオインスパイアされたスパイキングニューラルネットワーク(SNN)は、イベントベースのカメラやデータ変換前処理からのスパイクを使用して、スパース計算を効率的に行う、有望なソリューションとして、ニューロモルフィックコンピューティングが登場した。
しかしながら、自律エージェントのためのSNNデプロイメントの研究はまだ初期段階にある。
したがって、自律エージェントのための効率的なSNNデプロイメントを実現するための最適化段階は、体系的に定義されていない。
そこで本研究では,自律エージェントアプリケーションを対象としたエネルギー効率のよいSNNを設計するための最適化手法からなる,SNN4Agentsと呼ばれる新しいフレームワークを提案する。
我々のSNN4Agentsは、ウェイト量子化、タイムステップ削減、アテンションウインドウ削減を利用して、エネルギー効率を共同で改善し、メモリフットプリントを削減し、処理遅延を最適化し、高精度を維持している。
本評価では,イベントベースカー認識の使用事例を調査し,精度,レイテンシ,メモリ,エネルギー消費のトレードオフについて検討する。
実験の結果,提案フレームワークは,NAARSデータセットの最先端処理と比較して,68.75%のメモリ節約,3.58倍のスピードアップ,4.03倍のエネルギー効率向上を達成でき,自律エージェントのエネルギー効率の高いSNN配置を実現することができることがわかった。
関連論文リスト
- DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - SpikeNAS: A Fast Memory-Aware Neural Architecture Search Framework for Spiking Neural Network-based Autonomous Agents [6.006032394972252]
スパイキングニューラルネットワークは、高精度で超低消費電力/エネルギー計算を提供する。
SpikeNASは、SNNのための新しい高速メモリ対応ニューラルアーキテクチャ検索フレームワークである。
その結果,SpikeNASは検索時間を改善するとともに,最先端技術と比較して精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-02-17T16:33:54Z) - etuner: A Redundancy-Aware Framework for Efficient Continual Learning Application on Edge Devices [47.365775210055396]
推論精度、微調整実行時間、エネルギー効率を最適化する効率的なエッジ連続学習フレームワークであるETunerを提案する。
実験結果から,ETunerは全体の微調整実行時間を64%削減し,エネルギー消費量を56%削減し,即時モデル微調整アプローチよりも平均推定精度を1.75%向上した。
論文 参考訳(メタデータ) (2024-01-30T02:41:05Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - EPIM: Efficient Processing-In-Memory Accelerators based on Epitome [78.79382890789607]
畳み込みのような機能を提供する軽量神経オペレータであるEpitomeを紹介する。
ソフトウェア側では,PIMアクセラレータ上でのエピトームのレイテンシとエネルギを評価する。
ハードウェア効率を向上させるため,PIM対応層設計手法を提案する。
論文 参考訳(メタデータ) (2023-11-12T17:56:39Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - TopSpark: A Timestep Optimization Methodology for Energy-Efficient
Spiking Neural Networks on Autonomous Mobile Agents [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパース計算と効率的なオンライン学習による低消費電力/エネルギー処理を提供する。
TopSparkは、適応タイムステップの削減を利用して、トレーニングと推論の両方でエネルギー効率の良いSNN処理を可能にする新しい手法である。
論文 参考訳(メタデータ) (2023-03-03T10:20:45Z) - The Hardware Impact of Quantization and Pruning for Weights in Spiking
Neural Networks [0.368986335765876]
パラメータの量子化とプルーニングは、モデルサイズを圧縮し、メモリフットプリントを削減し、低レイテンシ実行を容易にする。
本研究では,身近な身近なジェスチャー認識システムであるSNNに対して,孤立度,累積的に,そして同時にプルーニングと量子化の様々な組み合わせについて検討する。
本研究では,3次重みまで精度の低下に悩まされることなく,攻撃的パラメータ量子化に対処可能であることを示す。
論文 参考訳(メタデータ) (2023-02-08T16:25:20Z) - Mantis: Enabling Energy-Efficient Autonomous Mobile Agents with Spiking
Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパース計算と効率的なオンライン学習による低消費電力/エネルギー消費を提供する。
本稿では,自律型移動エージェントにSNNを体系的に採用するマンティス手法を提案する。
論文 参考訳(メタデータ) (2022-12-24T00:00:53Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - FSpiNN: An Optimization Framework for Memory- and Energy-Efficient
Spiking Neural Networks [14.916996986290902]
スパイキングニューラルネットワーク(SNN)は、スパイクタイピング依存の可塑性(STDP)ルールのために教師なし学習機能を提供する。
しかし、最先端のSNNは高い精度を達成するために大きなメモリフットプリントを必要とする。
トレーニングおよび推論処理のためのメモリ効率とエネルギー効率のよいSNNを得るための最適化フレームワークFSpiNNを提案する。
論文 参考訳(メタデータ) (2020-07-17T09:40:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。