論文の概要: Decomposing stimulus-specific sensory neural information via diffusion models
- arxiv url: http://arxiv.org/abs/2505.11309v1
- Date: Fri, 16 May 2025 14:34:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-19 14:36:15.279957
- Title: Decomposing stimulus-specific sensory neural information via diffusion models
- Title(参考訳): 拡散モデルによる刺激特異的感覚神経情報の分解
- Authors: Steeve Laquitaine, Simone Azeglio, Carlo Paris, Ulisse Ferrari, Matthew Chalk,
- Abstract要約: 有意義な刺激的分解が満足すべき公理, 付加性, 肯定性, 局所性を導入する。
我々の分解は拡散モデルを用いて効率的に推定することができ、複雑で構造的で自然主義的な刺激までスケールアップすることができる。
我々のアプローチは、生物学的および人工的なニューラルシステムの両方で表現を探索するためのスケーラブルで解釈可能なツールを提供する。
- 参考スコア(独自算出の注目度): 0.41942958779358674
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: To understand sensory coding, we must ask not only how much information neurons encode, but also what that information is about. This requires decomposing mutual information into contributions from individual stimuli and stimulus features fundamentally ill-posed problem with infinitely many possible solutions. We address this by introducing three core axioms, additivity, positivity, and locality that any meaningful stimulus-wise decomposition should satisfy. We then derive a decomposition that meets all three criteria and remains tractable for high-dimensional stimuli. Our decomposition can be efficiently estimated using diffusion models, allowing for scaling up to complex, structured and naturalistic stimuli. Applied to a model of visual neurons, our method quantifies how specific stimuli and features contribute to encoded information. Our approach provides a scalable, interpretable tool for probing representations in both biological and artificial neural systems.
- Abstract(参考訳): 感覚コーディングを理解するためには、ニューロンがどの程度の情報をエンコードしているかだけでなく、その情報が何を意味するのかを問う必要がある。
このためには、相互情報を個々の刺激からの寄与に分解することが必要であり、刺激は無限に多くの可能な解を持つ基本的に不適切な問題を特徴付ける。
この問題に対処するためには、3つのコア公理、付加性、肯定性、局所性を導入する。
次に、3つの基準すべてを満たす分解を導出し、高次元の刺激に対して牽引可能である。
我々の分解は拡散モデルを用いて効率的に推定することができ、複雑で構造的で自然主義的な刺激までスケールアップすることができる。
視覚ニューロンのモデルに適用し,特定の刺激や特徴がエンコードされた情報にどのように寄与するかを定量化する。
我々のアプローチは、生物学的および人工的なニューラルシステムの両方で表現を探索するためのスケーラブルで解釈可能なツールを提供する。
関連論文リスト
- Enhancing learning in spiking neural networks through neuronal heterogeneity and neuromodulatory signaling [52.06722364186432]
人工ニューラルネットワーク(ANN)の強化のための生物学的インフォームドフレームワークを提案する。
提案したデュアルフレームアプローチは、多様なスパイキング動作をエミュレートするためのスパイキングニューラルネットワーク(SNN)の可能性を強調している。
提案手法は脳にインスパイアされたコンパートメントモデルとタスク駆動型SNN, バイオインスピレーション, 複雑性を統合している。
論文 参考訳(メタデータ) (2024-07-05T14:11:28Z) - Deep Latent Variable Modeling of Physiological Signals [0.8702432681310401]
潜時変動モデルを用いた生理モニタリングに関する高次元問題について検討する。
まず、光学的に得られた信号を入力として、心の電気波形を生成するための新しい状態空間モデルを提案する。
次に,確率的グラフィカルモデルの強みと深い敵対学習を組み合わせた脳信号モデリング手法を提案する。
第3に,生理的尺度と行動の合同モデリングのための枠組みを提案する。
論文 参考訳(メタデータ) (2024-05-29T17:07:33Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Identifying Interpretable Visual Features in Artificial and Biological
Neural Systems [3.604033202771937]
ニューラルネットワークの単一ニューロンはしばしば、個々の直感的に意味のある特徴を表すものとして解釈される。
多くのニューロンは$textitmixed selectivity$、すなわち複数の無関係な特徴を示す。
本稿では、視覚的解釈可能性の定量化と、ネットワークアクティベーション空間における意味のある方向を見つけるためのアプローチを提案する。
論文 参考訳(メタデータ) (2023-10-17T17:41:28Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - The Causal Neural Connection: Expressiveness, Learnability, and
Inference [125.57815987218756]
構造因果モデル (Structuor causal model, SCM) と呼ばれるオブジェクトは、調査中のシステムのランダムな変動のメカニズムと源の集合を表す。
本稿では, 因果的階層定理 (Thm. 1, Bareinboim et al., 2020) がまだニューラルモデルに対して成り立っていることを示す。
我々はニューラル因果モデル(NCM)と呼ばれる特殊なタイプのSCMを導入し、因果推論に必要な構造的制約をエンコードする新しいタイプの帰納バイアスを定式化する。
論文 参考訳(メタデータ) (2021-07-02T01:55:18Z) - Compositional Explanations of Neurons [52.71742655312625]
本稿では, 合成論理的概念を同定し, 深部表現におけるニューロンの説明手順について述べる。
本稿では,視覚と自然言語処理のモデルにおける解釈可能性に関するいくつかの疑問に答えるために,この手順を用いる。
論文 参考訳(メタデータ) (2020-06-24T20:37:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。