論文の概要: A Spiking Neural Network Learning Markov Chain
- arxiv url: http://arxiv.org/abs/2209.09572v1
- Date: Tue, 20 Sep 2022 09:31:01 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-21 18:01:04.948033
- Title: A Spiking Neural Network Learning Markov Chain
- Title(参考訳): マルコフ連鎖を学習するスパイクニューラルネットワーク
- Authors: Mikhail Kiselev
- Abstract要約: 私は、先験状態遷移確率が未知のマルコフ連鎖として世界力学を定式化する。
私はそれを連続時間で解いたので、マルコフ連鎖のすべての状態の持続時間が異なる可能性があり、未知である。
特別に設計された構造と局所的なシナプス可塑性規則を持つSNNによって、このタスクがどのように達成できるかを実証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: In this paper, the question how spiking neural network (SNN) learns and fixes
in its internal structures a model of external world dynamics is explored. This
question is important for implementation of the model-based reinforcement
learning (RL), the realistic RL regime where the decisions made by SNN and
their evaluation in terms of reward/punishment signals may be separated by
significant time interval and sequence of intermediate evaluation-neutral world
states. In the present work, I formalize world dynamics as a Markov chain with
unknown a priori state transition probabilities, which should be learnt by the
network. To make this problem formulation more realistic, I solve it in
continuous time, so that duration of every state in the Markov chain may be
different and is unknown. It is demonstrated how this task can be accomplished
by an SNN with specially designed structure and local synaptic plasticity
rules. As an example, we show how this network motif works in the simple but
non-trivial world where a ball moves inside a square box and bounces from its
walls with a random new direction and velocity.
- Abstract(参考訳): 本稿では, スパイキングニューラルネットワーク (SNN) が内部構造をどのように学習し, 修正するかを, 外部世界ダイナミクスのモデルとして検討する。
この問題はモデルベース強化学習(rl)の実施において重要であり、snによる決定とその報酬・加減信号による評価を重要な時間間隔と中間評価・中立世界状態のシーケンスで分けることができる。
本研究では,ネットワークによって学習されるべき事前状態遷移確率の未知なマルコフ連鎖として,世界力学を定式化する。
この問題をより現実的にするために、私はそれを連続時間で解き、マルコフ連鎖の全ての状態の持続時間が異なる可能性があり、未知である。
特別に設計された構造と局所的なシナプス可塑性規則を持つSNNによって、このタスクがどのように達成できるかを実証した。
例えば、このネットワークモチーフは、ボールが正方形の箱の中を動き、ランダムな新しい方向と速度で壁から跳ね返る、単純だが自明でない世界でどのように機能するかを示す。
関連論文リスト
- Dynamical stability and chaos in artificial neural network trajectories along training [3.379574469735166]
浅いニューラルネットワークのネットワーク軌跡をこのレンズを通して解析することにより,このプロセスの動的特性について検討する。
我々は,学習率の仕組みによって,規則的かつカオス的な行動のヒントを見いだす。
この研究は、力学系理論、ネットワーク理論、機械学習のアイデアの交叉受精にも貢献している。
論文 参考訳(メタデータ) (2024-04-08T17:33:11Z) - Recurrent networks recognize patterns with low-dimensional oscillations [0.0]
本研究では、SETカードゲームにインスパイアされた簡単なタスクで訓練されたリカレントニューラルネットワーク(RNN)を解釈することにより、パターン認識のための新しい動的メカニズムを提案する。
我々は、訓練されたRNNを、有限状態オートマトン(FSA)の遷移に類似した方法で、低次元極限サイクルにおける位相シフトによるパターンの認識であると解釈した。
論文 参考訳(メタデータ) (2023-10-11T21:25:12Z) - From NeurODEs to AutoencODEs: a mean-field control framework for
width-varying Neural Networks [68.8204255655161]
本稿では,動的に駆動する制御フィールドをベースとした,AutoencODEと呼ばれる新しいタイプの連続時間制御システムを提案する。
損失関数が局所凸な領域では,多くのアーキテクチャが復元可能であることを示す。
論文 参考訳(メタデータ) (2023-07-05T13:26:17Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Spiking Generative Adversarial Networks With a Neural Network
Discriminator: Local Training, Bayesian Models, and Continual Meta-Learning [31.78005607111787]
スパイキングパターンを再現するためにニューラルネットワークを訓練することは、ニューロモルフィックコンピューティングにおける中心的な問題である。
この研究は、個々のスパイキング信号ではなく、スパイキング信号にマッチするようにSNNを訓練することを提案する。
論文 参考訳(メタデータ) (2021-11-02T17:20:54Z) - Multi-Tones' Phase Coding (MTPC) of Interaural Time Difference by
Spiking Neural Network [68.43026108936029]
雑音の多い実環境下での正確な音像定位のための純粋スパイクニューラルネットワーク(SNN)に基づく計算モデルを提案する。
このアルゴリズムを,マイクロホンアレイを用いたリアルタイムロボットシステムに実装する。
実験の結果, 平均誤差方位は13度であり, 音源定位に対する他の生物学的に妥当なニューロモルフィックアプローチの精度を上回っていることがわかった。
論文 参考訳(メタデータ) (2020-07-07T08:22:56Z) - Modeling from Features: a Mean-field Framework for Over-parameterized
Deep Neural Networks [54.27962244835622]
本稿では、オーバーパラメータ化ディープニューラルネットワーク(DNN)のための新しい平均場フレームワークを提案する。
このフレームワークでは、DNNは連続的な極限におけるその特徴に対する確率測度と関数によって表現される。
本稿では、標準DNNとResidual Network(Res-Net)アーキテクチャを通してフレームワークを説明する。
論文 参考訳(メタデータ) (2020-07-03T01:37:16Z) - Stochastic Graph Neural Networks [123.39024384275054]
グラフニューラルネットワーク(GNN)は、分散エージェント調整、制御、計画に応用したグラフデータの非線形表現をモデル化する。
現在のGNNアーキテクチャは理想的なシナリオを前提として,環境やヒューマンファクタ,あるいは外部攻撃によるリンク変動を無視している。
これらの状況において、GNNは、トポロジカルなランダム性を考慮していない場合、その分散タスクに対処することができない。
論文 参考訳(メタデータ) (2020-06-04T08:00:00Z) - How Chaotic Are Recurrent Neural Networks? [22.236891108918396]
リカレントニューラルネットワーク(RNN)は非線形力学系である。
テキスト生成などの実アプリケーションにおいて,バニラや長期記憶(LSTM)RNNはトレーニングプロセスに沿ってカオスな動作を示さないことを示す。
論文 参考訳(メタデータ) (2020-04-28T21:14:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。