論文の概要: Complexity of Activity Patterns in a Bio-Inspired Hopfield-Type Network in Different Topologies
- arxiv url: http://arxiv.org/abs/2509.18758v1
- Date: Tue, 23 Sep 2025 07:53:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.758007
- Title: Complexity of Activity Patterns in a Bio-Inspired Hopfield-Type Network in Different Topologies
- Title(参考訳): 異なるトポロジにおけるバイオインスパイアされたホップフィールド型ネットワークにおける活動パターンの複雑さ
- Authors: Marco Cafiso, Paolo Paradisi,
- Abstract要約: 本稿では,生物学的にインスパイアされたホップフィールド型ニューラルネットワークモデルの時間的複雑性(TC)解析について述べる。
時間的複雑性の特徴を調べたところ、明らかに異なる動的パターンが同様の時間的複雑性の挙動を示すことが判明した。
特に、複雑な動的プロファイルのほとんどは、スケールのないネットワーク構成で一貫して観察された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural network models capable of storing memory have been extensively studied in computer science and computational neuroscience. The Hopfield network is a prototypical example of a model designed for associative, or content-addressable, memory and has been analyzed in many forms. Further, ideas and methods from complex network theory have been incorporated into artificial neural networks and learning, emphasizing their structural properties. Nevertheless, the temporal dynamics also play a vital role in biological neural networks, whose temporal structure is a crucial feature to examine. Biological neural networks display complex intermittency and, thus, can be studied through the lens of the temporal complexity (TC) theory. The TC approach look at the metastability of self-organized states, characterized by a power-law decay in the inter-event time distribution and in the total activity distribution or a scaling behavior in the corresponding event-driven diffusion processes. In this study, we present a temporal complexity (TC) analysis of a biologically-inspired Hopfield-type neural network model. We conducted a comparative assessment between scale-free and random network topologies, with particular emphasis on their global activation patterns. Our parametric analysis revealed comparable dynamical behaviors across both neural network architectures. Furthermore, our investigation into temporal complexity characteristics uncovered that seemingly distinct dynamical patterns exhibit similar temporal complexity behaviors. In particular, similar power-law decay in the activity distribution and similar complexity levels are observed in both topologies, but with a much reduced noise in the scale-free topology. Notably, most of the complex dynamical profiles were consistently observed in scale-free network configurations, thus confirming the crucial role of hubs in neural network dynamics.
- Abstract(参考訳): 記憶を記憶できるニューラルネットワークモデルは、コンピュータ科学と計算神経科学で広く研究されている。
ホップフィールド・ネットワーク(Hopfield network)は、連想的、あるいはコンテンツ順応可能なメモリ用に設計されたモデルの原型的な例であり、様々な形で分析されてきた。
さらに、複雑なネットワーク理論のアイデアや手法は、ニューラルネットワークと学習に取り入れられ、それらの構造的特性を強調している。
それでも、時間的ダイナミクスは、時間的構造を調べる重要な特徴である生物学的ニューラルネットワークにおいて重要な役割を担っている。
生物学的ニューラルネットワークは複雑な断続性を示し、したがって時間複雑性(TC)理論のレンズを通して研究することができる。
TCアプローチでは, イベント駆動拡散過程において, イベント間時間分布および全活動分布, スケーリング挙動において, パワーロッド崩壊を特徴とする自己組織状態のメタスタビリティを考察した。
本研究では,生物学的にインスパイアされたホップフィールド型ニューラルネットワークモデルの時間的複雑性(TC)解析について述べる。
本研究では,大規模ネットワークトポロジとランダムネットワークトポロジの比較評価を行い,特にグローバルなアクティベーションパターンに着目した。
パラメトリック分析により、両方のニューラルネットワークアーキテクチャで比較可能な動的挙動が明らかになった。
さらに, 時間的複雑性特性について検討した結果, 明らかに異なる動的パターンが同様の時間的複雑性挙動を示すことが明らかとなった。
特に、活動分布における同様のパワー-ロー崩壊と類似の複雑性レベルが両方のトポロジーで観測されるが、スケールフリートポロジーではノイズが大幅に減少する。
特に、複雑な動的プロファイルのほとんどは、スケールのないネットワーク構成で一貫して観察されており、ニューラルネットワークのダイナミクスにおいてハブが重要な役割を担っていることが確認された。
関連論文リスト
- Time Series Analysis of Spiking Neural Systems via Transfer Entropy and Directed Persistent Homology [0.0]
本稿では、トランスファーエントロピー(TE)と永続ホモロジー(PH)を統合したニューラルネットワーク時系列分析フレームワークを提案する。
TEはニューロン間の方向の影響を定量化し、動的相互作用を反映した重み付き有向グラフを生成する。
この枠組みを,論理ゲートタスクを訓練した合成スパイクネットワーク,構造化および摂動入力に曝露した画像分類ネットワーク,行動事象を付加したマウス皮質記録に適用した。
論文 参考訳(メタデータ) (2025-08-26T14:01:53Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Contrastive Learning in Memristor-based Neuromorphic Systems [55.11642177631929]
スパイクニューラルネットワークは、現代のバックプロパゲーションによって訓練されたディープネットワークに直面する重要な制約の多くを横取りする、ニューロンベースのモデルの重要なファミリーとなっている。
本研究では,前向き・後向き学習のニューロモルフィック形式であるコントラッシブ・シグナル依存型塑性(CSDP)の概念実証を設計し,検討する。
論文 参考訳(メタデータ) (2024-09-17T04:48:45Z) - Autaptic Synaptic Circuit Enhances Spatio-temporal Predictive Learning of Spiking Neural Networks [23.613277062707844]
Spiking Neural Networks (SNNs) は、生物学的ニューロンで見られる統合ファイアリーク機構をエミュレートする。
既存のSNNは、主にIntegrate-and-Fire Leaky(LIF)モデルに依存している。
本稿では,S-patioTemporal Circuit (STC) モデルを提案する。
論文 参考訳(メタデータ) (2024-06-01T11:17:27Z) - Probing Biological and Artificial Neural Networks with Task-dependent
Neural Manifolds [12.037840490243603]
本稿では,ニューラルネットワークの内部機構について,ニューラル集団幾何学のレンズを用いて検討する。
学習目的の違いが,これらのモデルの組織戦略の違いにどのように影響するかを定量的に評価する。
これらの分析は、ニューラルネットワークにおける機械的および規範的理論を神経集団幾何学を通してブリッジする強力な方向を示す。
論文 参考訳(メタデータ) (2023-12-21T20:40:51Z) - How neural networks learn to classify chaotic time series [77.34726150561087]
本研究では,通常の逆カオス時系列を分類するために訓練されたニューラルネットワークの内部動作について検討する。
入力周期性とアクティベーション周期の関係は,LKCNNモデルの性能向上の鍵となる。
論文 参考訳(メタデータ) (2023-06-04T08:53:27Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spatiotemporal Patterns in Neurobiology: An Overview for Future
Artificial Intelligence [0.0]
我々は,ネットワーク相互作用から生じる機能を明らかにする上で,計算モデルが重要なツールであると主張している。
ここでは、スパイキングニューロン、統合ニューロン、発火ニューロンを含むいくつかのモデルのクラスについてレビューする。
これらの研究は、人工知能アルゴリズムの今後の発展と、脳のプロセスの理解の検証に役立つことを願っている。
論文 参考訳(メタデータ) (2022-03-29T10:28:01Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Complexity for deep neural networks and other characteristics of deep
feature representations [0.0]
ニューラルネットワークの計算の非線形性を定量化する複雑性の概念を定義する。
トレーニング対象ネットワークとトレーニング対象ネットワークの動的特性の両面から,これらのオブザーバブルについて検討する。
論文 参考訳(メタデータ) (2020-06-08T17:59:30Z) - Recurrent Neural Network Learning of Performance and Intrinsic
Population Dynamics from Sparse Neural Data [77.92736596690297]
本稿では,RNNの入出力動作だけでなく,内部ネットワークのダイナミクスも学習できる新しいトレーニング戦略を提案する。
提案手法は、RNNを訓練し、生理学的にインスパイアされた神経モデルの内部ダイナミクスと出力信号を同時に再現する。
注目すべきは、トレーニングアルゴリズムがニューロンの小さなサブセットの活性に依存する場合であっても、内部動力学の再現が成功することである。
論文 参考訳(メタデータ) (2020-05-05T14:16:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。