論文の概要: From Data-Fitting to Discovery: Interpreting the Neural Dynamics of
Motor Control through Reinforcement Learning
- arxiv url: http://arxiv.org/abs/2305.11107v1
- Date: Thu, 18 May 2023 16:52:27 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 14:00:30.693671
- Title: From Data-Fitting to Discovery: Interpreting the Neural Dynamics of
Motor Control through Reinforcement Learning
- Title(参考訳): データフィッティングから発見へ:強化学習によるモータ制御のニューラルダイナミクスの解釈
- Authors: Eugene R. Rush, Kaushik Jayaram, J. Sean Humbert
- Abstract要約: 足の移動を行う仮想ロボットの構造的神経活動について検討した。
歩行訓練されたエンボディードエージェントは、タングリングを避けるスムーズなダイナミックスを示す。
- 参考スコア(独自算出の注目度): 3.6159844753873087
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In motor neuroscience, artificial recurrent neural networks models often
complement animal studies. However, most modeling efforts are limited to
data-fitting, and the few that examine virtual embodied agents in a
reinforcement learning context, do not draw direct comparisons to their
biological counterparts. Our study addressing this gap, by uncovering
structured neural activity of a virtual robot performing legged locomotion that
directly support experimental findings of primate walking and cycling. We find
that embodied agents trained to walk exhibit smooth dynamics that avoid
tangling -- or opposing neural trajectories in neighboring neural space -- a
core principle in computational neuroscience. Specifically, across a wide suite
of gaits, the agent displays neural trajectories in the recurrent layers are
less tangled than those in the input-driven actuation layers. To better
interpret the neural separation of these elliptical-shaped trajectories, we
identify speed axes that maximizes variance of mean activity across different
forward, lateral, and rotational speed conditions.
- Abstract(参考訳): 運動神経科学において、人工リカレントニューラルネットワークモデルはしばしば動物研究を補完する。
しかし、ほとんどのモデリング努力はデータ適合に限られており、強化学習の文脈で仮想的なエンボディドエージェントを調べる数少ないものは、生物学的なエージェントと直接比較するものではない。
本研究は,霊長類歩行とサイクリングの実験的な発見を直接支援する足歩行を行う仮想ロボットの構造的神経活動を明らかにすることで,このギャップに対処する。
歩行を訓練された身体的なエージェントは、隣接する神経空間における絡み合いや対向する神経路を避ける滑らかなダイナミクスを示すことが、計算神経科学の核となる原則であることがわかった。
具体的には、幅広い歩行群にまたがって、リカレント層における神経路が入力駆動アクチュエーション層よりも絡み合っていないことを示す。
これらの楕円形軌跡の神経分離をよりよく解釈するために,前方・横・回転の異なる速度条件における平均活性の分散を最大化する速度軸を同定する。
関連論文リスト
- Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - A Goal-Driven Approach to Systems Neuroscience [2.6451153531057985]
人間と動物は、動的環境において様々な興味深い行動を示す。
私たちの脳が、こうした行動を可能にするために、どのようにしてこの密集した感覚情報を積極的に再構築するかは不明です。
我々は、ニューラルサーキットの統一構造モデルと機能モデルを生み出すことを約束する新しい解釈可能性の定義を提供する。
論文 参考訳(メタデータ) (2023-11-05T16:37:53Z) - Neuroformer: Multimodal and Multitask Generative Pretraining for Brain
Data [3.712362524473752]
最先端のシステム神経科学実験は大規模なマルチモーダルデータを生み出し、これらのデータセットは分析のための新しいツールを必要とする。
視覚領域と言語領域における大きな事前学習モデルの成功に触発されて、我々は大規模な細胞分解性神経スパイクデータの解析を自己回帰生成問題に再構成した。
我々はまず、シミュレーションデータセットでNeuroformerを訓練し、本質的なシミュレートされた神経回路の動作を正確に予測し、方向を含む基盤となる神経回路の接続性を推定した。
論文 参考訳(メタデータ) (2023-10-31T20:17:32Z) - Contrastive-Signal-Dependent Plasticity: Forward-Forward Learning of
Spiking Neural Systems [73.18020682258606]
我々は、ニューロンの個々の層が並列に機能する、スパイキングニューロンユニットからなる神経模倣アーキテクチャを開発する。
コントラスト信号依存塑性(CSDP)と呼ばれるイベントベース前方学習の一般化を提案する。
いくつかのパターンデータセットに対する実験結果から,CSDPプロセスは分類と再構成の両方が可能な動的再帰スパイクネットワークのトレーニングに有効であることが示された。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - STNDT: Modeling Neural Population Activity with a Spatiotemporal
Transformer [19.329190789275565]
我々は、個々のニューロンの応答を明示的にモデル化するNDTベースのアーキテクチャであるSpatioTemporal Neural Data Transformer (STNDT)を紹介する。
本モデルは,4つのニューラルデータセット間での神経活動の推定において,アンサンブルレベルでの最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-06-09T18:54:23Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Neuronal Learning Analysis using Cycle-Consistent Adversarial Networks [4.874780144224057]
我々は、-CycleGANと呼ばれる深層生成モデルを用いて、前学習と後学習の神経活動の間の未知のマッピングを学習する。
我々は,カルシウム蛍光信号を前処理し,訓練し,評価するためのエンドツーエンドパイプラインを開発し,その結果の深層学習モデルを解釈する手法を開発した。
論文 参考訳(メタデータ) (2021-11-25T13:24:19Z) - Dynamic Neural Diversification: Path to Computationally Sustainable
Neural Networks [68.8204255655161]
訓練可能なパラメータが制限された小さなニューラルネットワークは、多くの単純なタスクに対してリソース効率の高い候補となる。
学習過程において隠れた層内のニューロンの多様性を探索する。
ニューロンの多様性がモデルの予測にどのように影響するかを分析する。
論文 参考訳(メタデータ) (2021-09-20T15:12:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。