論文の概要: Synchronization and semantization in deep spiking networks
- arxiv url: http://arxiv.org/abs/2508.12975v1
- Date: Mon, 18 Aug 2025 14:51:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-19 14:49:11.383528
- Title: Synchronization and semantization in deep spiking networks
- Title(参考訳): 深層スパイキングネットワークにおける同期とセマント化
- Authors: Jonas Oberste-Frielinghaus, Anno C. Kurth, Julian Göltz, Laura Kriener, Junji Ito, Mihai A. Petrovici, Sonja Grün,
- Abstract要約: 近年の研究では、スパイキングネットワークは、誤り訂正塑性によって複雑な機能を学べることが示されているが、結果として生じる構造や力学はいまだに研究されていない。
スパイク時間符号化を用いた視覚入力分類において,視覚階層の概念的類似として多層スパイキングネットワークを訓練する。
学習後, 異なる時間的活動パターンの発達を観察し, 入力パターンは構築によって同期するが, 初期層の活動は時間とともに拡散し, クラスが徐々に抽出されるにつれて, 鋭いパルスに再収束する。
同期性の出現は徐々に異なる経路の形成を伴い、段階的なセマント化を反映する
- 参考スコア(独自算出の注目度): 0.9411751957919126
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent studies have shown how spiking networks can learn complex functionality through error-correcting plasticity, but the resulting structures and dynamics remain poorly studied. To elucidate how these models may link to observed dynamics in vivo and thus how they may ultimately explain cortical computation, we need a better understanding of their emerging patterns. We train a multi-layer spiking network, as a conceptual analog of the bottom-up visual hierarchy, for visual input classification using spike-time encoding. After learning, we observe the development of distinct spatio-temporal activity patterns. While input patterns are synchronous by construction, activity in early layers first spreads out over time, followed by re-convergence into sharp pulses as classes are gradually extracted. The emergence of synchronicity is accompanied by the formation of increasingly distinct pathways, reflecting the gradual semantization of input activity. We thus observe hierarchical networks learning spike latency codes to naturally acquire activity patterns characterized by synchronicity and separability, with pronounced excitatory pathways ascending through the layers. This provides a rigorous computational hypothesis for the experimentally observed synchronicity in the visual system as a natural consequence of deep learning in cortex.
- Abstract(参考訳): 近年の研究では、スパイキングネットワークは、誤り訂正塑性によって複雑な機能を学べることが示されているが、結果として生じる構造や力学はいまだに研究されていない。
これらのモデルが生体内で観察された力学とどのように結びつくのかを解明するためには、それらの出現パターンをより深く理解する必要がある。
スパイク時間符号化を用いた視覚入力分類において,ボトムアップ視覚階層の概念的類似として多層スパイキングネットワークを訓練する。
学習後,異なる時空間活動パターンの発達を観察する。
入力パターンは構築によって同期するが、初期層のアクティビティは、最初は時間とともに広がり、続いてクラスが徐々に抽出されるにつれて、シャープパルスに再収束する。
同期性の出現は、入力活動の段階的なセマント化を反映して、次第に異なる経路の形成を伴う。
そこで我々は,スパイク遅延符号を学習した階層的ネットワークを観察し,同期性や分離性に特徴付けられる活動パターンを自然に取得する。
これは、大脳皮質における深層学習の自然な結果として、視覚系における実験的に観察された同期性に対する厳密な計算仮説を提供する。
関連論文リスト
- New Evidence of the Two-Phase Learning Dynamics of Neural Networks [59.55028392232715]
時間ウィンドウ全体にわたってネットワーク状態を比較するインターバルワイズ・パースペクティブを導入する。
摂動に対するネットワークの応答はカオスから安定への移行を示す。
また、この遷移点の後に、モデルの関数軌道は狭い円錐形の部分集合に制限される。
論文 参考訳(メタデータ) (2025-05-20T04:03:52Z) - Hypernym Bias: Unraveling Deep Classifier Training Dynamics through the Lens of Class Hierarchy [44.99833362998488]
分類問題における学習過程はラベルクラスタリングのレンズを通して理解することができると論じる。
具体的には、トレーニングの初期段階において、ネットワークが上位(高位)のカテゴリーを区別する傾向があることを観察する。
学習中に特徴多様体の進化を追跡する新しいフレームワークを導入し、クラス関係の階層構造がどのように現れるかを明らかにする。
論文 参考訳(メタデータ) (2025-02-17T18:47:01Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - Discovering group dynamics in coordinated time series via hierarchical recurrent switching-state models [5.250223406627639]
我々は、複数の相互作用する実体(つまり「エージェント」)から生じる時系列の集合に対する計算学的に効率的なモデルを求める。
個人間の時間パターンの最近のモデルでは、個々の実体の軌跡に影響を与える可能性のある明示的なシステムレベルの集団行動が組み込まれていない。
我々は、遅延系レベル離散状態マルコフ連鎖を用いて、遅延系レベルチェーンにトップダウンの影響を与え、各観測時系列の排出を制御している。
論文 参考訳(メタデータ) (2024-01-26T16:06:01Z) - A Waddington landscape for prototype learning in generalized Hopfield
networks [0.0]
一般化ホップフィールドネットワークの学習力学について検討する。
細胞が分化するにつれて、運河や低次元のダイナミックスと強い類似性が観察される。
論文 参考訳(メタデータ) (2023-12-04T21:28:14Z) - Latent Traversals in Generative Models as Potential Flows [113.4232528843775]
我々は,学習された動的ポテンシャルランドスケープを持つ潜在構造をモデル化することを提案する。
物理、最適輸送、神経科学にインスパイアされたこれらの潜在的景観は、物理的に現実的な偏微分方程式として学習される。
本手法は,最先端のベースラインよりも定性的かつ定量的に歪んだ軌跡を実現する。
論文 参考訳(メタデータ) (2023-04-25T15:53:45Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Dynamical Equations With Bottom-up Self-Organizing Properties Learn
Accurate Dynamical Hierarchies Without Any Loss Function [15.122944754472435]
本稿では,正負のフィードバックループを持つ非線形ダイナミクスの領域内でパターンが定義される学習システムを提案する。
実験により、このようなシステムは時間的から空間的相関をマッピングすることができ、階層構造をシーケンシャルデータから学習することができることが明らかになった。
論文 参考訳(メタデータ) (2023-02-04T10:00:14Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Latent Equilibrium: A unified learning theory for arbitrarily fast
computation with arbitrarily slow neurons [0.7340017786387767]
遅いコンポーネントのネットワークにおける推論と学習のための新しいフレームワークであるLatent Equilibriumを紹介する。
我々は, ニューロンとシナプスのダイナミクスを, 将来的なエネルギー関数から導出する。
本稿では,大脳皮質微小循環の詳細なモデルに我々の原理を適用する方法について述べる。
論文 参考訳(メタデータ) (2021-10-27T16:15:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。