論文の概要: Decoding Cortical Microcircuits: A Generative Model for Latent Space Exploration and Controlled Synthesis
- arxiv url: http://arxiv.org/abs/2506.11062v1
- Date: Thu, 29 May 2025 16:39:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-22 23:32:14.531615
- Title: Decoding Cortical Microcircuits: A Generative Model for Latent Space Exploration and Controlled Synthesis
- Title(参考訳): 皮質微小回路の復号化:潜時宇宙探査と制御合成のための生成モデル
- Authors: Xingyu Liu, Yubin Li, Guozhang Chen,
- Abstract要約: 脳を理解し、人工知能を構築するという中心的な考え方は、構造が機能を決定することである。
しかし、脳の複雑な構造が、限られた遺伝子命令からどのように生じるかは、依然として重要な疑問である。
この研究は、ニューラルネットワークの設計原理を調査し、構造がどのように機能をもたらすかを探求する新しい方法を提供する。
- 参考スコア(独自算出の注目度): 11.702970031377307
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A central idea in understanding brains and building artificial intelligence is that structure determines function. Yet, how the brain's complex structure arises from a limited set of genetic instructions remains a key question. The ultra high-dimensional detail of neural connections vastly exceeds the information storage capacity of genes, suggesting a compact, low-dimensional blueprint must guide brain development. Our motivation is to uncover this blueprint. We introduce a generative model, to learn this underlying representation from detailed connectivity maps of mouse cortical microcircuits. Our model successfully captures the essential structural information of these circuits in a compressed latent space. We found that specific, interpretable directions within this space directly relate to understandable network properties. Building on this, we demonstrate a novel method to controllably generate new, synthetic microcircuits with desired structural features by navigating this latent space. This work offers a new way to investigate the design principles of neural circuits and explore how structure gives rise to function, potentially informing the development of more advanced artificial neural networks.
- Abstract(参考訳): 脳を理解し、人工知能を構築するという中心的な考え方は、構造が機能を決定することである。
しかし、脳の複雑な構造が、限られた遺伝子命令からどのように生じるかは、依然として重要な疑問である。
超高次元の神経接続の詳細は、遺伝子の情報保存能力を大きく超え、コンパクトで低次元の青写真は脳の発達を導く必要があることを示唆している。
私たちのモチベーションは、この青写真を明らかにすることです。
我々は,マウス大脳皮質微小管の細部接続マップから,この基礎となる表現を学習するための生成モデルを提案する。
我々のモデルは、圧縮された潜在空間において、これらの回路の本質的構造情報を捕捉することに成功した。
この空間内の特定の解釈可能な方向が、理解可能なネットワーク特性に直接関連していることがわかりました。
そこで我々は,この潜伏空間をナビゲートすることで,所望の構造を持つ新しい合成マイクロ回路を制御可能とする新しい手法を提案する。
この研究は、ニューラルネットワークの設計原理を調査し、構造がどのように機能をもたらし、より高度な人工ニューラルネットワークの開発を後押しする新しい方法を提供する。
関連論文リスト
- Unveiling and Steering Connectome Organization with Interpretable Latent Variables [11.702970031377307]
本研究では,ショウジョウバエのコネクトームFlyWireからのサブグラフ抽出と,神経回路の解釈可能な低次元表現を導出するための生成モデルを提案する。
この研究は、脳のアーキテクチャを理解するための新しいツールと、バイオインスパイアされた人工ニューラルネットワークを設計するための潜在的な道筋を提供する。
論文 参考訳(メタデータ) (2025-05-19T11:54:40Z) - Spatial embedding promotes a specific form of modularity with low entropy and heterogeneous spectral dynamics [0.0]
空間的に埋め込まれたリカレントニューラルネットワークは、学習よりもネットワークの構造と機能を組み合わせた組織をどのように形成するかを研究するための有望な道を提供する。
我々は,これらの制約を,速度とスパイクニューラルネットワークの両面にわたって,ニューラルウェイトと固有スペクトルのエントロピー測定によって研究することが可能であることを示す。
この作業は、ニューラルネットワークにおける制約付き学習の理解を深め、コーディングスキームやタスクを越えて、同時に構造的および機能的目的に対するソリューションをタンデムで達成する必要がある。
論文 参考訳(メタデータ) (2024-09-26T10:00:05Z) - Brain-Inspired Machine Intelligence: A Survey of
Neurobiologically-Plausible Credit Assignment [65.268245109828]
本稿では,神経生物学にインスパイアされた,あるいは動機付けられた人工ニューラルネットワークにおける信用割当を行うアルゴリズムについて検討する。
我々は、脳にインスパイアされた学習スキームを6つの一般的なファミリーにまとめ、これらを誤りのバックプロパゲーションの文脈で検討する。
本研究の成果は,神経ミメティックシステムとその構成的学習プロセスの今後の発展を促進することを目的としている。
論文 参考訳(メタデータ) (2023-12-01T05:20:57Z) - A Neuro-mimetic Realization of the Common Model of Cognition via Hebbian
Learning and Free Energy Minimization [55.11642177631929]
大規模なニューラル生成モデルは、意味的に豊富なテキストのパスを合成したり、複雑な画像を生成することができる。
我々はコモン・モデル・オブ・コグニティブ・ニューラル・ジェネレーティブ・システムについて論じる。
論文 参考訳(メタデータ) (2023-10-14T23:28:48Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Spatiotemporal Patterns in Neurobiology: An Overview for Future
Artificial Intelligence [0.0]
我々は,ネットワーク相互作用から生じる機能を明らかにする上で,計算モデルが重要なツールであると主張している。
ここでは、スパイキングニューロン、統合ニューロン、発火ニューロンを含むいくつかのモデルのクラスについてレビューする。
これらの研究は、人工知能アルゴリズムの今後の発展と、脳のプロセスの理解の検証に役立つことを願っている。
論文 参考訳(メタデータ) (2022-03-29T10:28:01Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - On the Exploitation of Neuroevolutionary Information: Analyzing the Past
for a More Efficient Future [60.99717891994599]
本稿では,神経進化過程から情報を抽出し,メタモデルを構築するアプローチを提案する。
本稿では, 異なる特徴を有する生成的対向ネットワークの神経進化的探索における最良の構造について検討する。
論文 参考訳(メタデータ) (2021-05-26T20:55:29Z) - A multi-agent model for growing spiking neural networks [0.0]
このプロジェクトでは、学習メカニズムとして、スパイキングニューラルネットワークのニューロン間の接続を拡大するためのルールについて検討している。
シミュレーション環境での結果は、与えられたパラメータセットに対して、テストされた関数を再現するトポロジに到達可能であることを示した。
このプロジェクトはまた、モデルパラメーターに最適な値を得るために、遺伝的アルゴリズムのようなテクニックを使用するための扉を開く。
論文 参考訳(メタデータ) (2020-09-21T15:11:29Z) - Towards a Neural Model for Serial Order in Frontal Cortex: a Brain
Theory from Memory Development to Higher-Level Cognition [53.816853325427424]
そこで本研究では,未熟な前頭前野 (PFC) が側頭葉信号の階層的パターンを検出する主要な機能を利用していることを提案する。
我々の仮説では、PFCは順序パターンの形で時間的配列の階層構造を検出し、それらを脳の異なる部分で階層的に情報をインデックスするために利用する。
これにより、抽象的な知識を操作し、時間的に順序付けられた情報を計画するための言語対応の脳にツールを提供する。
論文 参考訳(メタデータ) (2020-05-22T14:29:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。