論文の概要: Bio-inspired Gait Imitation of Hexapod Robot Using Event-Based Vision
Sensor and Spiking Neural Network
- arxiv url: http://arxiv.org/abs/2004.05450v1
- Date: Sat, 11 Apr 2020 17:55:34 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 12:50:46.505006
- Title: Bio-inspired Gait Imitation of Hexapod Robot Using Event-Based Vision
Sensor and Spiking Neural Network
- Title(参考訳): イベントベース視覚センサとスパイクニューラルネットワークを用いた六脚ロボットの歩行模倣
- Authors: Justin Ting, Yan Fang, Ashwin Sanjay Lele, Arijit Raychowdhury
- Abstract要約: 人間のような一部の動物は、学習をスピードアップするために周囲の個体を模倣します。
この模倣に基づく学習の複雑な問題は、視覚データと筋運動の関連性を形成する。
本稿では、ニューロモルフィックコンピューティングとイベントベースビジョンに基づくバイオインスパイアされたフィードフォワードアプローチを提案し、歩行模倣問題に対処する。
- 参考スコア(独自算出の注目度): 2.4603302139672003
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning how to walk is a sophisticated neurological task for most animals.
In order to walk, the brain must synthesize multiple cortices, neural circuits,
and diverse sensory inputs. Some animals, like humans, imitate surrounding
individuals to speed up their learning. When humans watch their peers, visual
data is processed through a visual cortex in the brain. This complex problem of
imitation-based learning forms associations between visual data and muscle
actuation through Central Pattern Generation (CPG). Reproducing this imitation
phenomenon on low power, energy-constrained robots that are learning to walk
remains challenging and unexplored. We propose a bio-inspired feed-forward
approach based on neuromorphic computing and event-based vision to address the
gait imitation problem. The proposed method trains a "student" hexapod to walk
by watching an "expert" hexapod moving its legs. The student processes the flow
of Dynamic Vision Sensor (DVS) data with a one-layer Spiking Neural Network
(SNN). The SNN of the student successfully imitates the expert within a small
convergence time of ten iterations and exhibits energy efficiency at the
sub-microjoule level.
- Abstract(参考訳): 歩くことを学ぶことは、ほとんどの動物にとって高度な神経学的課題である。
歩くためには、脳は複数の皮質、神経回路、様々な感覚入力を合成しなければならない。
人間のような一部の動物は、周囲の個体を模倣して学習をスピードアップさせる。
人間が仲間を見るとき、視覚データは脳の視覚皮質を通して処理される。
この模倣に基づく学習の複雑な問題は、中央パターン生成(CPG)による視覚データと筋活動の関連を形作る。
この模倣現象を低電力で再現し、歩行を学んでいるエネルギーに制約されたロボットは、挑戦的かつ未熟なままである。
本稿では,歩行模倣問題に対処するために,ニューロモーフィックコンピューティングとイベントベースビジョンに基づくバイオインスパイアフィードフォワードアプローチを提案する。
提案手法は「頑丈な」六脚歩行を訓練し,「熟練した」六脚歩行を観察する。
学生は、1層スパイキングニューラルネットワーク(SNN)を用いてダイナミックビジョンセンサー(DVS)データのフローを処理する。
学生のSNNは10回の小さな収束時間内に専門家を模倣し、サブマイクロジュールレベルでエネルギー効率を示す。
関連論文リスト
- Orangutan: A Multiscale Brain Emulation-Based Artificial Intelligence Framework for Dynamic Environments [2.8137865669570297]
本稿では,脳に触発された新しいAIフレームワーク,Orangutanを紹介する。
複数のスケールで生体脳の構造と計算機構をシミュレートする。
物体観察時の人眼球運動をシミュレートする感覚運動モデルを開発した。
論文 参考訳(メタデータ) (2024-06-18T01:41:57Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Achieving More Human Brain-Like Vision via Human EEG Representational Alignment [1.811217832697894]
非侵襲脳波に基づく人間の脳活動に対応する視覚モデル「Re(presentational)Al(ignment)net」を提案する。
我々の革新的な画像から脳への多層符号化フレームワークは、複数のモデル層を最適化することにより、人間の神経のアライメントを向上する。
我々の発見は、ReAlnetが人工と人間の視覚のギャップを埋め、より脳に似た人工知能システムへの道を歩むブレークスルーを表していることを示唆している。
論文 参考訳(メタデータ) (2024-01-30T18:18:41Z) - Neural feels with neural fields: Visuo-tactile perception for in-hand
manipulation [57.60490773016364]
マルチフィンガーハンドの視覚と触覚を組み合わせることで,手動操作時の物体の姿勢と形状を推定する。
提案手法であるNeuralFeelsは,ニューラルネットワークをオンラインで学習することでオブジェクトの形状を符号化し,ポーズグラフ問題を最適化して共同で追跡する。
私たちの結果は、タッチが少なくとも、洗練され、そして最も最良のものは、手動操作中に視覚的推定を曖昧にすることを示しています。
論文 参考訳(メタデータ) (2023-12-20T22:36:37Z) - Fully neuromorphic vision and control for autonomous drone flight [5.358212984063069]
イベントベースのビジョンとスパイクニューラルネットワークは、同様の特徴を示すことを約束する。
本稿では,ドローン飛行を制御するための完全学習型ニューロモルフィックパイプラインを提案する。
結果は,1回の飛行でより小さなネットワークを実現するためのニューロモルフィックセンシングと処理の可能性を示している。
論文 参考訳(メタデータ) (2023-03-15T17:19:45Z) - Adapting Brain-Like Neural Networks for Modeling Cortical Visual
Prostheses [68.96380145211093]
皮質補綴は視覚野に移植された装置で、電気的にニューロンを刺激することで失った視力を回復しようとする。
現在、これらのデバイスが提供する視覚は限られており、刺激による視覚知覚を正確に予測することはオープンな課題である。
我々は、視覚システムの有望なモデルとして登場した「脳様」畳み込みニューラルネットワーク(CNN)を活用することで、この問題に対処することを提案する。
論文 参考訳(メタデータ) (2022-09-27T17:33:19Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Deep Auto-encoder with Neural Response [8.797970797884023]
ニューラルレスポンス(DAE-NR)を用いたディープオートエンコーダと呼ばれるハイブリッドモデルを提案する。
DAE-NRは、視覚野からの情報をANNに組み込んで、より優れた画像再構成と、生物学的および人工ニューロン間の高い神経表現類似性を実現する。
DAE-NRは, 共同学習によって(画像再構成の性能の向上) 生体ニューロンと人工ニューロンとの表現的類似性の向上が可能であることを実証した。
論文 参考訳(メタデータ) (2021-11-30T11:44:17Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuroevolution of a Recurrent Neural Network for Spatial and Working
Memory in a Simulated Robotic Environment [57.91534223695695]
我々は,ラットで観察される行動と神経活動を再現する進化的アルゴリズムを用いて,生物学的に有意なリカレントニューラルネットワーク(RNN)でウェイトを進化させた。
提案手法は, 進化したRNNの動的活動が, 興味深く複雑な認知行動をどのように捉えているかを示す。
論文 参考訳(メタデータ) (2021-02-25T02:13:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。