論文の概要: ES-Parkour: Advanced Robot Parkour with Bio-inspired Event Camera and Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2503.09985v2
- Date: Wed, 19 Mar 2025 06:27:43 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-20 15:24:27.287222
- Title: ES-Parkour: Advanced Robot Parkour with Bio-inspired Event Camera and Spiking Neural Network
- Title(参考訳): ES-Parkour:バイオインスパイアされたイベントカメラとスパイクニューラルネットワークを備えた高度なロボットパーク
- Authors: Qiang Zhang, Jiahang Cao, Jingkai Sun, Yecheng Shao, Gang Han, Wen Zhao, Yijie Guo, Renjing Xu,
- Abstract要約: スパイキングニューラルネットワーク(SNN)とイベントカメラを導入し、挑戦的な4つのパーキングタスクを実行する。
我々の研究はロボット強化学習を推進し、需要のある環境における新しい可能性を開く。
- 参考スコア(独自算出の注目度): 14.200991507172775
- License:
- Abstract: In recent years, quadruped robotics has advanced significantly, particularly in perception and motion control via reinforcement learning, enabling complex motions in challenging environments. Visual sensors like depth cameras enhance stability and robustness but face limitations, such as low operating frequencies relative to joint control and sensitivity to lighting, which hinder outdoor deployment. Additionally, deep neural networks in sensor and control systems increase computational demands. To address these issues, we introduce spiking neural networks (SNNs) and event cameras to perform a challenging quadruped parkour task. Event cameras capture dynamic visual data, while SNNs efficiently process spike sequences, mimicking biological perception. Experimental results demonstrate that this approach significantly outperforms traditional models, achieving excellent parkour performance with just 11.7% of the energy consumption of an artificial neural network (ANN)-based model, yielding an 88.3% energy reduction. By integrating event cameras with SNNs, our work advances robotic reinforcement learning and opens new possibilities for applications in demanding environments.
- Abstract(参考訳): 近年、四足歩行ロボットは、特に強化学習による知覚と運動制御において著しく進歩し、挑戦的な環境における複雑な動きを可能にしている。
深度カメラのような視覚センサーは安定性と堅牢性を高めるが、ジョイントコントロールに対する動作周波数の低さや照明に対する感度など、屋外の配置を妨げている。
さらに、センサーと制御システムのディープニューラルネットワークは、計算要求を増加させる。
これらの問題に対処するために、スパイクニューラルネットワーク(SNN)とイベントカメラを導入し、挑戦的な4つのパーキングタスクを実行する。
イベントカメラは動的な視覚データをキャプチャし、SNNは生物学的知覚を模倣してスパイクシーケンスを効率的に処理する。
実験の結果、このアプローチは従来のモデルよりも大幅に優れており、ANN(Artificial Neural Network)ベースのモデルの11.7%のエネルギー消費で優れたパール性能を実現し、88.3%のエネルギー削減を実現している。
イベントカメラとSNNを統合することで、ロボット強化学習を推進し、需要のある環境における新しい可能性を開く。
関連論文リスト
- Retina-Inspired Object Motion Segmentation for Event-Cameras [0.0]
イベントカメラは、標準的なアクティブなピクセルカメラをはるかに超える高時間解像度の革命的技術として登場した。
本研究は、視覚的特徴を抽出する追加の網膜機能の可能性を示す。
論文 参考訳(メタデータ) (2024-08-18T12:28:26Z) - Fully Spiking Neural Network for Legged Robots [6.974746966671198]
脚のあるロボットのためのスパイキングニューラルネットワーク(SNN)は、シミュレーションされた地形において例外的な性能を示す。
SNNは推論速度とエネルギー消費の自然な利点を提供する。
本研究では,他の学習モデルにシームレスに統合可能な脚付きロボットのための高効率SNNを提案する。
論文 参考訳(メタデータ) (2023-10-08T05:48:30Z) - EV-Catcher: High-Speed Object Catching Using Low-latency Event-based
Neural Networks [107.62975594230687]
イベントカメラが優れており、高速移動物体の衝突位置を正確に推定するアプリケーションを実証する。
イベントデータを低レイテンシでエンコードするために,Binary Event History Image(BEHI)と呼ばれる軽量なイベント表現を導入する。
計算制約のある組込みプラットフォーム上でも最大13m/sの速さで, 異なる場所をターゲットとした球のキャッチにおいて, 81%の成功率を達成することができることを示す。
論文 参考訳(メタデータ) (2023-04-14T15:23:28Z) - Deep Neural Network Architecture Search for Accurate Visual Pose
Estimation aboard Nano-UAVs [69.19616451596342]
小型無人航空機(UAV)は、新興かつトレンドのトピックである。
我々は、新しいニューラルネットワーク探索(NAS)技術を活用し、視覚的ポーズ推定タスクのために複数の畳み込みニューラルネットワーク(CNN)を自動的に識別する。
その結果,10Hz@10mWおよび50Hz@90mWの実時間オンボード推算速度を達成しつつ,フィールド内制御誤差を32%低減し,現状を改善できた。
論文 参考訳(メタデータ) (2023-03-03T14:02:09Z) - Deep Reinforcement Learning with Spiking Q-learning [51.386945803485084]
スパイクニューラルネットワーク(SNN)は、少ないエネルギー消費で人工知能(AI)を実現することが期待されている。
SNNと深部強化学習(RL)を組み合わせることで、現実的な制御タスクに有望なエネルギー効率の方法を提供する。
論文 参考訳(メタデータ) (2022-01-21T16:42:11Z) - FPGA-optimized Hardware acceleration for Spiking Neural Networks [69.49429223251178]
本研究は,画像認識タスクに適用したオフライントレーニングによるSNN用ハードウェアアクセラレータの開発について述べる。
この設計はXilinx Artix-7 FPGAをターゲットにしており、利用可能なハードウェアリソースの40%を合計で使用している。
分類時間を3桁に短縮し、ソフトウェアと比較すると精度にわずか4.5%の影響を与えている。
論文 参考訳(メタデータ) (2022-01-18T13:59:22Z) - Silicon photonic subspace neural chip for hardware-efficient deep
learning [11.374005508708995]
光ニューラルネットワーク(ONN)は次世代のニューロコンピューティングの候補として期待されている。
ハードウェア効率の良いフォトニックサブスペースニューラルネットワークアーキテクチャを考案する。
我々は,バタフライ型プログラマブルシリコンフォトニック集積回路上でPSNNを実験的に実証した。
論文 参考訳(メタデータ) (2021-11-11T06:34:05Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z) - Spike-FlowNet: Event-based Optical Flow Estimation with Energy-Efficient
Hybrid Neural Networks [40.44712305614071]
本稿では,SNNとANNを統合したディープハイブリッドニューラルネットワークアーキテクチャであるSpike-FlowNetを提案する。
このネットワークは、MVSEC(Multi-Vehicle Stereo Event Camera)データセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
論文 参考訳(メタデータ) (2020-03-14T20:37:21Z) - Event-Based Angular Velocity Regression with Spiking Networks [51.145071093099396]
スパイキングニューラルネットワーク(SNN)は、数値ではなく時間スパイクとして伝達される情報を処理する。
本稿では,イベントカメラから与えられた事象の時間回帰問題を初めて提案する。
角速度回帰を行うためにSNNをうまく訓練できることが示される。
論文 参考訳(メタデータ) (2020-03-05T17:37:16Z) - A Spiking Neural Network Emulating the Structure of the Oculomotor
System Requires No Learning to Control a Biomimetic Robotic Head [0.0]
バイオミメティック・ロボットヘッドのプロトタイプの心臓にニューロモルフィック・オキュロモータ・コントローラが配置されている。
コントローラは、すべてのデータがスパイクニューラルネットワーク(SNN)によって符号化され、処理されるという意味でユニークなものです。
ロボットの目標追跡能力について報告し、その眼球運動学は人間の眼研究で報告されたものと類似していることを示し、生物学的に制約された学習を用いて、その性能をさらに向上させることができることを示す。
論文 参考訳(メタデータ) (2020-02-18T13:03:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。