論文の概要: Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control
- arxiv url: http://arxiv.org/abs/2505.24161v1
- Date: Fri, 30 May 2025 03:08:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-02 19:47:52.743306
- Title: Proxy Target: Bridging the Gap Between Discrete Spiking Neural Networks and Continuous Control
- Title(参考訳): Proxy Target:離散スパイクニューラルネットワークと連続制御のギャップを埋める
- Authors: Zijie Xu, Tong Bu, Zecheng Hao, Jianhao Ding, Zhaofei Yu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェアによる低レイテンシかつエネルギー効率の意思決定を提供する。
近年の研究では、強化学習(RL)アルゴリズムがSNNに適しているかどうかを概観している。
離散SNNと連続制御のギャップを埋める新しいプロキシターゲットフレームワークを提案する。
- 参考スコア(独自算出の注目度): 26.105497272647977
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Spiking Neural Networks (SNNs) offer low-latency and energy-efficient decision making through neuromorphic hardware, making them compelling for Reinforcement Learning (RL) in resource-constrained edge devices. Recent studies in this field directly replace Artificial Neural Networks (ANNs) by SNNs in existing RL frameworks, overlooking whether the RL algorithm is suitable for SNNs. However, most RL algorithms in continuous control are designed tailored to ANNs, including the target network soft updates mechanism, which conflict with the discrete, non-differentiable dynamics of SNN spikes. We identify that this mismatch destabilizes SNN training in continuous control tasks. To bridge this gap between discrete SNN and continuous control, we propose a novel proxy target framework. The continuous and differentiable dynamics of the proxy target enable smooth updates, bypassing the incompatibility of SNN spikes, stabilizing the RL algorithms. Since the proxy network operates only during training, the SNN retains its energy efficiency during deployment without inference overhead. Extensive experiments on continuous control benchmarks demonstrate that compared to vanilla SNNs, the proxy target framework enables SNNs to achieve up to 32% higher performance across different spiking neurons. Notably, we are the first to surpass ANN performance in continuous control with simple Leaky-Integrate-and-Fire (LIF) neurons. This work motivates a new class of SNN-friendly RL algorithms tailored to SNN's characteristics, paving the way for neuromorphic agents that combine high performance with low power consumption.
- Abstract(参考訳): Spiking Neural Networks(SNN)は、ニューロモルフィックハードウェアによる低レイテンシかつエネルギー効率の意思決定を提供する。
この分野での最近の研究は、既存のRLフレームワークにおけるSNNによる人工ニューラルネットワーク(ANN)を直接置き換え、RLアルゴリズムがSNNに適しているかどうかを見極めている。
しかし、連続制御におけるほとんどのRLアルゴリズムは、SNNスパイクの離散的で微分不可能なダイナミクスと矛盾するターゲットネットワークソフト更新機構を含む、ANNに合わせて設計されている。
このミスマッチは連続制御タスクにおけるSNNトレーニングを不安定化する。
離散SNNと連続制御のこのギャップを埋めるため、我々は新しいプロキシターゲットフレームワークを提案する。
プロキシターゲットの連続的かつ微分可能なダイナミクスは、SNNスパイクの不互換性を回避し、RLアルゴリズムを安定化することで、スムーズな更新を可能にする。
プロキシネットワークはトレーニング中のみ動作するため、SNNは推論オーバーヘッドなしにデプロイメント中のエネルギー効率を維持する。
連続制御ベンチマークに関する大規模な実験は、バニラSNNと比較して、プロキシターゲットフレームワークにより、SNNは異なるスパイキングニューロン間で最大32%高いパフォーマンスを達成することができることを示した。
特に、単純なLeaky-Integrate-and-Fire(LIF)ニューロンによる連続制御において、ANNのパフォーマンスを初めて上回った。
この研究は、SNNの特徴に合わせた新しいSNNフレンドリーなRLアルゴリズムのクラスを動機付け、高性能と低消費電力を組み合わせたニューロモルフィックエージェントの道を開く。
関連論文リスト
- Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - LC-TTFS: Towards Lossless Network Conversion for Spiking Neural Networks
with TTFS Coding [55.64533786293656]
我々は,AIタスクにおいて,ANNのアクティベーション値とSNNのスパイク時間とのほぼ完全なマッピングを実現することができることを示す。
この研究は、電力制約のあるエッジコンピューティングプラットフォームに超低消費電力のTTFSベースのSNNをデプロイする方法を舗装している。
論文 参考訳(メタデータ) (2023-10-23T14:26:16Z) - High-performance deep spiking neural networks with 0.3 spikes per neuron [9.01407445068455]
バイオインスパイアされたスパイクニューラルネットワーク(SNN)を人工ニューラルネットワーク(ANN)より訓練することは困難である
深部SNNモデルのトレーニングは,ANNと全く同じ性能が得られることを示す。
我々のSNNは1ニューロンあたり0.3スパイク以下で高性能な分類を行い、エネルギー効率の良い実装に役立てる。
論文 参考訳(メタデータ) (2023-06-14T21:01:35Z) - Optimising Event-Driven Spiking Neural Network with Regularisation and Cutoff [31.61525648918492]
スパイキングニューラルネットワーク(SNN)は、ニューラルネットワークのより近い模倣を提供する。
現在のSNNは一定期間にわたって推測するように訓練されている。
本稿では,効率的な推論を実現するため,推論中にいつでもSNNを停止できるSNNのカットオフを提案する。
論文 参考訳(メタデータ) (2023-01-23T16:14:09Z) - Examining the Robustness of Spiking Neural Networks on Non-ideal
Memristive Crossbars [4.184276171116354]
ニューラルネットワークの低消費電力代替としてスパイキングニューラルネットワーク(SNN)が登場している。
本研究では,SNNの性能に及ぼすクロスバー非理想性と本質性の影響について検討した。
論文 参考訳(メタデータ) (2022-06-20T07:07:41Z) - Training High-Performance Low-Latency Spiking Neural Networks by
Differentiation on Spike Representation [70.75043144299168]
スパイキングニューラルネットワーク(SNN)は、ニューロモルフィックハードウェア上に実装された場合、有望なエネルギー効率のAIモデルである。
非分化性のため、SNNを効率的に訓練することは困難である。
本稿では,ハイパフォーマンスを実現するスパイク表現法(DSR)の差分法を提案する。
論文 参考訳(メタデータ) (2022-05-01T12:44:49Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Pruning of Deep Spiking Neural Networks through Gradient Rewiring [41.64961999525415]
スパイキングニューラルネットワーク(SNN)は、その生物学的妥当性とニューロモルフィックチップの高エネルギー効率により、非常に重要視されている。
ほとんどの既存の方法は、ANNsとSNNsの違いを無視するSNNsに人工ニューラルネットワーク(ANNs)のプルーニングアプローチを直接適用する。
本稿では,ネットワーク構造を無訓練でシームレスに最適化可能な,snsの接続性と重み付けの合同学習アルゴリズムgradle rewiring (gradr)を提案する。
論文 参考訳(メタデータ) (2021-05-11T10:05:53Z) - Optimal Conversion of Conventional Artificial Neural Networks to Spiking
Neural Networks [0.0]
spiking neural networks (snns) は生物学に触発されたニューラルネットワーク (anns) である。
しきい値バランスとソフトリセット機構を組み合わせることで、重みをターゲットSNNに転送する新しい戦略パイプラインを提案する。
提案手法は,SNNのエネルギーとメモリの制限によるサポートを向上し,組込みプラットフォームに組み込むことが期待できる。
論文 参考訳(メタデータ) (2021-02-28T12:04:22Z) - Progressive Tandem Learning for Pattern Recognition with Deep Spiking
Neural Networks [80.15411508088522]
スパイキングニューラルネットワーク(SNN)は、低レイテンシと高い計算効率のために、従来の人工知能ニューラルネットワーク(ANN)よりも優位性を示している。
高速かつ効率的なパターン認識のための新しいANN-to-SNN変換およびレイヤワイズ学習フレームワークを提案する。
論文 参考訳(メタデータ) (2020-07-02T15:38:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。