論文の概要: Population-Coded Spiking Neural Networks for High-Dimensional Robotic Control
- arxiv url: http://arxiv.org/abs/2510.10516v1
- Date: Sun, 12 Oct 2025 09:27:25 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-14 18:06:29.984625
- Title: Population-Coded Spiking Neural Networks for High-Dimensional Robotic Control
- Title(参考訳): 高次元ロボット制御のための集団符号化スパイクニューラルネットワーク
- Authors: Kanishkha Jaisankar, Xiaoyang Jiang, Feifan Liao, Jeethu Sreenivas Amuthan,
- Abstract要約: 本稿では,集団符号化スパイキングニューラルネットワーク(SNN)と深層強化学習(DRL)を組み合わせた新しい枠組みを提案する。
我々は,従来のニューラルネットワーク(ANN)と比較して最大96.10%の省エネを実現し,比較制御性能を維持した。
これらの結果は、資源制約されたアプリケーションにおけるエネルギー効率、高性能なロボット制御のための有望なソリューションとして、人口コード付きSNNを位置づけている。
- 参考スコア(独自算出の注目度): 0.9916299448089259
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Energy-efficient and high-performance motor control remains a critical challenge in robotics, particularly for high-dimensional continuous control tasks with limited onboard resources. While Deep Reinforcement Learning (DRL) has achieved remarkable results, its computational demands and energy consumption limit deployment in resource-constrained environments. This paper introduces a novel framework combining population-coded Spiking Neural Networks (SNNs) with DRL to address these challenges. Our approach leverages the event-driven, asynchronous computation of SNNs alongside the robust policy optimization capabilities of DRL, achieving a balance between energy efficiency and control performance. Central to this framework is the Population-coded Spiking Actor Network (PopSAN), which encodes high-dimensional observations into neuronal population activities and enables optimal policy learning through gradient-based updates. We evaluate our method on the Isaac Gym platform using the PixMC benchmark with complex robotic manipulation tasks. Experimental results on the Franka robotic arm demonstrate that our approach achieves energy savings of up to 96.10% compared to traditional Artificial Neural Networks (ANNs) while maintaining comparable control performance. The trained SNN policies exhibit robust finger position tracking with minimal deviation from commanded trajectories and stable target height maintenance during pick-and-place operations. These results position population-coded SNNs as a promising solution for energy-efficient, high-performance robotic control in resource-constrained applications, paving the way for scalable deployment in real-world robotics systems.
- Abstract(参考訳): エネルギー効率と高性能モーター制御は、ロボット工学、特にオンボードリソースの限られた高次元連続制御タスクにおいて、依然として重要な課題である。
深層強化学習(Dreep Reinforcement Learning, DRL)は目覚ましい成果を上げているが、その計算要求とエネルギー消費制限は資源制約のある環境への展開を制限している。
本稿では,これらの課題に対処するために,集団符号化スパイキングニューラルネットワーク(SNN)とDRLを組み合わせた新しい枠組みを提案する。
提案手法は,SNNのイベント駆動型非同期計算とDRLの堅牢なポリシー最適化機能を利用して,エネルギー効率と制御性能のバランスをとる。
このフレームワークの中心にPopulation-coded Spiking Actor Network (PopSAN)がある。
複雑なロボット操作タスクを用いたPixMCベンチマークを用いて,Isaac Gymプラットフォーム上での手法の評価を行った。
Frankaロボットアームの実験結果から,従来のニューラルネットワーク(ANN)と比較して最大96.10%の省エネを実現し,同等の制御性能を維持した。
訓練されたSNNポリシーでは、指の位置追跡が最小限に抑えられ、ピック・アンド・プレイス操作時の目標高度維持が安定している。
これらの結果は、資源制約されたアプリケーションにおけるエネルギー効率、高性能なロボット制御のための有望なソリューションとして、人口コード付きSNNを位置づけ、現実世界のロボットシステムにおけるスケーラブルな展開の道を開いた。
関連論文リスト
- Learning to Control Dynamical Agents via Spiking Neural Networks and Metropolis-Hastings Sampling [1.0533738606966752]
Spiking Neural Networks(SNN)は、リアルタイム制御システムのための従来のDeep Neural Networks(DNN)に代わる、生物学的にインスパイアされたエネルギー効率の高い代替手段を提供する。
ベイズ推論手法であるメトロポリス・ハスティングスサンプリングを用いて,RL環境における動的エージェント制御のためのSNNのトレーニングを行う最初のフレームワークについて紹介する。
論文 参考訳(メタデータ) (2025-07-13T08:50:00Z) - Decision SpikeFormer: Spike-Driven Transformer for Decision Making [11.652964678824382]
オフライン強化学習(RL)は、直接環境の相互作用を避けるために、事前に収集したデータのみにポリシートレーニングを可能にする。
シークエンスモデリングによるオフラインRLに取り組むために設計された最初のスパイク駆動トランスフォーマーモデルであるDSFormerを紹介する。
D4RLベンチマークの総合的な結果は、DSFormerがSNNとANNのどちらよりも優れており、78.4%の省エネを実現していることを示している。
論文 参考訳(メタデータ) (2025-04-04T07:42:36Z) - SpikeRL: A Scalable and Energy-efficient Framework for Deep Spiking Reinforcement Learning [1.6999370482438731]
SpikeRLは、DeepRLベースのSNNのためのスケーラブルでエネルギー効率のよいフレームワークである。
新しいSpikeRLの実装は、最先端のDeepRL-SNN法よりも4.26倍高速で、2.25倍エネルギー効率が高い。
論文 参考訳(メタデータ) (2025-02-21T05:28:42Z) - DNN Partitioning, Task Offloading, and Resource Allocation in Dynamic Vehicular Networks: A Lyapunov-Guided Diffusion-Based Reinforcement Learning Approach [49.56404236394601]
本稿では,Vehicular Edge Computingにおける共同DNNパーティショニング,タスクオフロード,リソース割り当ての問題を定式化する。
我々の目標は、時間とともにシステムの安定性を保証しながら、DNNベースのタスク完了時間を最小化することである。
拡散モデルの革新的利用を取り入れたマルチエージェント拡散に基づく深層強化学習(MAD2RL)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-06-11T06:31:03Z) - A Cloud-Edge Framework for Energy-Efficient Event-Driven Control: An Integration of Online Supervised Learning, Spiking Neural Networks and Local Plasticity Rules [0.0]
本稿では,複雑な制御系における計算とエネルギーの制約に対処する新しいクラウドエッジフレームワークを提案する。
生物学的に妥当な学習法を局所的可塑性規則と組み合わせることで、スパイキングニューラルネットワーク(SNN)の効率性、スケーラビリティ、低レイテンシを活用する。
この設計は、植物に直接クラウドベースのコントローラからの制御信号を複製し、絶え間なく植物とクラウドの通信が不要になる。
論文 参考訳(メタデータ) (2024-04-12T22:34:17Z) - LitE-SNN: Designing Lightweight and Efficient Spiking Neural Network through Spatial-Temporal Compressive Network Search and Joint Optimization [48.41286573672824]
スパイキングニューラルネットワーク(SNN)は人間の脳の情報処理機構を模倣し、エネルギー効率が高い。
本稿では,空間圧縮と時間圧縮の両方を自動ネットワーク設計プロセスに組み込むLitE-SNNという新しい手法を提案する。
論文 参考訳(メタデータ) (2024-01-26T05:23:11Z) - Fully Spiking Actor Network with Intra-layer Connections for
Reinforcement Learning [51.386945803485084]
エージェントが制御する多次元決定論的ポリシーを学習する必要があるタスクに焦点をあてる。
既存のスパイクベースのRL法は、SNNの出力として発火率を取り、完全に接続された層を通して連続的なアクション空間(つまり決定論的なポリシー)を表すように変換する。
浮動小数点行列操作を伴わない完全にスパイクするアクターネットワークを開発するため,昆虫に見られる非スパイク介在ニューロンからインスピレーションを得た。
論文 参考訳(メタデータ) (2024-01-09T07:31:34Z) - Energy-Efficient On-Board Radio Resource Management for Satellite
Communications via Neuromorphic Computing [59.40731173370976]
本研究は,エネルギー効率のよい脳誘発機械学習モデルのオンボード無線リソース管理への応用について検討する。
関連するワークロードでは、Loihi 2に実装されたスパイクニューラルネットワーク(SNN)の方が精度が高く、CNNベースのリファレンスプラットフォームと比較して消費電力が100ドル以上削減される。
論文 参考訳(メタデータ) (2023-08-22T03:13:57Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - Deep Reinforcement Learning with Population-Coded Spiking Neural Network
for Continuous Control [0.0]
深層強化学習(DRL)を用いた深層批評家ネットワークと連携して訓練された集団符号化スパイキングアクターネットワーク(PopSAN)を提案する。
我々は、トレーニング済みのPopSANをIntelのLoihiニューロモルフィックチップにデプロイし、本手法をメインストリームのDRLアルゴリズムと比較し、連続的な制御を行った。
本研究はニューロモルフィックコントローラの効率性をサポートし,エネルギー効率とロバスト性の両方が重要である場合,我々のハイブリッドRLをディープラーニングの代替として提案する。
論文 参考訳(メタデータ) (2020-10-19T16:20:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。