論文の概要: Uncovering Semantic Selectivity of Latent Groups in Higher Visual Cortex with Mutual Information-Guided Diffusion
- arxiv url: http://arxiv.org/abs/2510.02182v1
- Date: Thu, 02 Oct 2025 16:33:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 16:59:21.214019
- Title: Uncovering Semantic Selectivity of Latent Groups in Higher Visual Cortex with Mutual Information-Guided Diffusion
- Title(参考訳): 相互情報誘導拡散を用いた高次視覚野における潜伏群選択性の解明
- Authors: Yule Wang, Joseph Yu, Chengrui Li, Weihan Li, Anqi Wu,
- Abstract要約: ニューラル潜伏部分空間に符号化された視覚的意味属性を可視化し、検証するMIG-Visを提案する。
2つのマカクの下側頭葉(IT)大脳皮質からのマルチセッションニューラルスパイクデータセット上でMIG-Visを検証する。
- 参考スコア(独自算出の注目度): 19.983291706164923
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Understanding how neural populations in higher visual areas encode object-centered visual information remains a central challenge in computational neuroscience. Prior works have investigated representational alignment between artificial neural networks and the visual cortex. Nevertheless, these findings are indirect and offer limited insights to the structure of neural populations themselves. Similarly, decoding-based methods have quantified semantic features from neural populations but have not uncovered their underlying organizations. This leaves open a scientific question: "how feature-specific visual information is distributed across neural populations in higher visual areas, and whether it is organized into structured, semantically meaningful subspaces." To tackle this problem, we present MIG-Vis, a method that leverages the generative power of diffusion models to visualize and validate the visual-semantic attributes encoded in neural latent subspaces. Our method first uses a variational autoencoder to infer a group-wise disentangled neural latent subspace from neural populations. Subsequently, we propose a mutual information (MI)-guided diffusion synthesis procedure to visualize the specific visual-semantic features encoded by each latent group. We validate MIG-Vis on multi-session neural spiking datasets from the inferior temporal (IT) cortex of two macaques. The synthesized results demonstrate that our method identifies neural latent groups with clear semantic selectivity to diverse visual features, including object pose, inter-category transformations, and intra-class content. These findings provide direct, interpretable evidence of structured semantic representation in the higher visual cortex and advance our understanding of its encoding principles.
- Abstract(参考訳): 高い視覚領域の神経集団がどのようにオブジェクト中心の視覚情報を符号化するかを理解することは、計算神経科学における中心的な課題である。
先行研究は、人工ニューラルネットワークと視覚野との表現的アライメントを調査してきた。
しかしながら、これらの発見は間接的であり、神経集団自体の構造に対する限られた洞察を与えている。
同様に、復号法は神経集団から意味的特徴を定量化したが、その基盤となる組織は明らかにされていない。
これは「機能固有の視覚情報は、より高い視覚領域の神経集団にどのように分散し、構造的、意味論的に意味のある部分空間に組織化されているか」という科学的疑問を残している。
この問題に対処するために,神経潜伏部分空間に符号化された視覚的意味属性を可視化し,検証するために拡散モデルの生成力を利用するMIG-Visを提案する。
提案手法はまず, 集団的非絡み合ったニューラル潜伏部分空間をニューラルネットワーク集団から推定するために, 変分オートエンコーダを用いる。
次に,各潜伏群で符号化された視覚的特徴を可視化する相互情報(MI)誘導拡散合成手法を提案する。
2つのマカクの下側頭葉(IT)大脳皮質からのマルチセッションニューラルスパイクデータセット上でMIG-Visを検証する。
提案手法は,物体のポーズ,カテゴリ間変換,クラス内内容など,視覚的特徴に明確な意味的選択性を持つニューラル潜伏群を同定する。
これらの知見は、高次視覚野における構造的意味表現の直接的、解釈可能な証拠を提供し、その符号化原理の理解を前進させる。
関連論文リスト
- Concept-Guided Interpretability via Neural Chunking [64.6429903327095]
ニューラルネットワークは、トレーニングデータの規則性を反映した生の集団活動のパターンを示す。
神経集団レベルで繰り返しチャンクを抽出する3つの方法を提案する。
私たちの研究は、認知原則と自然主義的データの構造の両方を活用する、解釈可能性の新しい方向性を指し示しています。
論文 参考訳(メタデータ) (2025-05-16T13:49:43Z) - From Eye to Mind: brain2text Decoding Reveals the Neural Mechanisms of Visual Semantic Processing [0.3069335774032178]
自然画像のテキスト記述にfMRI信号を直接デコードすることで、パラダイムシフトを導入する。
視覚的入力なしで訓練された新しいディープラーニングモデルは、最先端のセマンティックデコーディング性能を実現する。
神経解剖学的には、MT+、腹側視皮質、下頭頂皮質などの高次視覚領域が重要な役割を担っている。
論文 参考訳(メタデータ) (2025-03-15T07:28:02Z) - Discovering Chunks in Neural Embeddings for Interpretability [53.80157905839065]
本稿では, チャンキングの原理を応用して, 人工神経集団活動の解釈を提案する。
まず、この概念を正則性を持つ人工シーケンスを訓練したリカレントニューラルネットワーク(RNN)で実証する。
我々は、これらの状態に対する摂動が関連する概念を活性化または阻害すると共に、入力における概念に対応する同様の繰り返し埋め込み状態を特定する。
論文 参考訳(メタデータ) (2025-02-03T20:30:46Z) - Brain Mapping with Dense Features: Grounding Cortical Semantic Selectivity in Natural Images With Vision Transformers [5.265058307999745]
本稿では,自然界における空間分布型視覚概念とニューラルセレクティビティを関連付ける方法であるBrainSAILを紹介する。
BrainSAILは、事前訓練された視覚モデルから意味的に一貫性があり、密集した空間的特徴を利用する。
カテゴリー選択性のある大脳皮質領域におけるBrainSAILの評価を行った。
論文 参考訳(メタデータ) (2024-10-07T17:59:45Z) - Finding Shared Decodable Concepts and their Negations in the Brain [4.111712524255376]
我々は、自然視画像観察中に脳の反応をCLIP埋め込みにマッピングする非常に正確なコントラストモデルを訓練する。
次に、DBSCANクラスタリングアルゴリズムの新たな適応を用いて、参加者固有のコントラストモデルパラメータをクラスタリングする。
各SDCクラスタに最も多く,最も関連付けられていない画像を調べることで,各SDCのセマンティック特性についてさらなる知見が得られる。
論文 参考訳(メタデータ) (2024-05-27T21:28:26Z) - Prune and distill: similar reformatting of image information along rat
visual cortex and deep neural networks [61.60177890353585]
深部畳み込み神経ネットワーク(CNN)は、脳の機能的類似、視覚野の腹側流の優れたモデルを提供することが示されている。
ここでは、CNNまたは視覚野の内部表現で知られているいくつかの顕著な統計的パターンについて考察する。
我々は、CNNと視覚野が、オブジェクト表現の次元展開/縮小と画像情報の再構成と、同様の密接な関係を持っていることを示す。
論文 参考訳(メタデータ) (2022-05-27T08:06:40Z) - Feature visualization for convolutional neural network models trained on
neuroimaging data [0.0]
畳み込みニューラルネットワーク(CNN)の機能可視化による最初の結果を示す。
我々は、MRIデータに基づく性分類や人為的病変分類など、さまざまなタスクのためにCNNを訓練した。
得られた画像は、その形状を含む人工的な病変の学習概念を明らかにするが、性分類タスクにおける抽象的な特徴を解釈することは困難である。
論文 参考訳(メタデータ) (2022-03-24T15:24:38Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Drop, Swap, and Generate: A Self-Supervised Approach for Generating
Neural Activity [33.06823702945747]
我々はSwap-VAEと呼ばれる神経活動の不整合表現を学習するための新しい教師なしアプローチを導入する。
このアプローチは、生成モデリングフレームワークとインスタンス固有のアライメント損失を組み合わせたものです。
我々は、行動に関連付けられた関連する潜在次元に沿って、ニューラルネットワークをアンタングルする表現を構築することが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-03T16:39:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。