論文の概要: Task learning increases information redundancy of neural responses in macaque visual cortex
- arxiv url: http://arxiv.org/abs/2603.07369v1
- Date: Sat, 07 Mar 2026 22:41:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-10 15:13:14.382954
- Title: Task learning increases information redundancy of neural responses in macaque visual cortex
- Title(参考訳): タスク学習は、マカク視覚野における神経応答の情報冗長性を増加させる
- Authors: Shizhao Liu, Anton Pletenev, Ralf M. Haefner, Adam C. Snyder,
- Abstract要約: ある仮説は、学習が神経表現の冗長性を減少させ効率を向上させることを示唆している。
もう一つの仮説は、ベイズ推定に基づいて、学習がニューロンに情報を分散することで冗長性を高めることを予測している。
サルが視覚的識別タスクを習うと,大脳皮質野V4の個体群反応を追跡することにより,これらの仮説を検証した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: How does the brain optimize sensory information for decision-making in new tasks? One hypothesis suggests learning reduces redundancy in neural representations to improve efficiency, while another, based on Bayesian inference, predicts learning increases redundancy by distributing information across neurons. We tested these hypotheses by tracking population responses in macaque cortical area V4 as monkeys learned visual discrimination tasks. We found strong support for the Bayesian predictions: task learning increased redundancy in neural responses over weeks of training and within single trials. This redundancy did not reduce information but instead increased the information carried by individual neurons. These insights suggest sensory processing in the brain reflects a generative rather than discriminative inference process.
- Abstract(参考訳): 脳は新しいタスクにおける意思決定のために感覚情報をどう最適化するか?
ある仮説は、学習が神経表現の冗長性を減少させ効率を向上させることを示唆し、別の仮説はベイズ推定に基づいて、学習がニューロンに情報を分散することで冗長性を高めることを予測している。
サルが視覚的識別タスクを習うと,大脳皮質野V4の個体群反応を追跡することにより,これらの仮説を検証した。
タスク学習は、数週間のトレーニングと単一のトライアルにおいて、ニューラルレスポンスの冗長性を高めました。
この冗長性は情報を減らすのではなく、個々のニューロンが持つ情報を増やした。
これらの知見は、脳内の感覚処理は、識別的推論プロセスではなく、生成的過程を反映していることを示唆している。
関連論文リスト
- Know Thyself by Knowing Others: Learning Neuron Identity from Population Context [9.798773806523114]
本稿では,ニューロンレベルの表現学習のための最初の体系的スケーリング分析について述べる。
プレトレーニングで使用する動物数の増加は、下流のパフォーマンスを継続的に向上させることを示す。
結果は、多様で多様なニューラルネットワークが、動物全体にわたって一般化されるニューロンのアイデンティティに関する情報をモデルが回復する様子を強調している。
論文 参考訳(メタデータ) (2025-12-01T02:28:04Z) - Hebbian Learning based Orthogonal Projection for Continual Learning of
Spiking Neural Networks [74.3099028063756]
我々は,側方接続とヘビアン学習に基づくニューラル操作を用いた新しい手法を開発した。
我々は,反復する側方接続におけるヘビアン学習と反ヘビアン学習が,神経活動の主部分空間を効果的に抽出できることを示した。
我々の手法は、ほとんど忘れることなくニューラルネットワークをスパイクするために一貫して解決する。
論文 参考訳(メタデータ) (2024-02-19T09:29:37Z) - Learn to integrate parts for whole through correlated neural variability [8.173681663544757]
感覚知覚は感覚ニューロンの反応に起因し、特定の知覚物体の物理的特性に関連付けられた知覚信号の集まりに反応する。
これらの神経反応から脳がどのように知覚情報を抽出するかを明らかにすることは、計算神経科学と機械学習の両方において重要な課題である。
本稿では,知覚情報を知覚ニューロンの相関変数に符号化し,下流ニューロンの発火速度に変換する統計力学理論を提案する。
論文 参考訳(メタデータ) (2024-01-01T13:05:29Z) - Fine-tuned vs. Prompt-tuned Supervised Representations: Which Better
Account for Brain Language Representations? [30.495681024162835]
我々は、ニューラルデコーディングにおいて、プロンプト調整された表現と微調整された表現を比較した。
より脳に一貫性のあるチューニング手法では、脳データと相関する表現が得られます。
これは、私たちの脳が浅い構文情報よりもきめ細かい概念情報を符号化していることを示している。
論文 参考訳(メタデータ) (2023-10-03T07:34:30Z) - The Dormant Neuron Phenomenon in Deep Reinforcement Learning [26.09145694804957]
深層強化学習において,エージェントのネットワークが不活性ニューロンの増加に悩まされる休眠性ニューロン現象を同定する。
本稿では, ドミナントニューロンを学習中にリサイクルする簡易かつ効果的な方法(ReDo)を提案する。
実験により、ReDoは休眠ニューロン数を減らし、ネットワークの表現力を維持し、性能を向上することを示した。
論文 参考訳(メタデータ) (2023-02-24T21:20:18Z) - NeuroExplainer: Fine-Grained Attention Decoding to Uncover Cortical
Development Patterns of Preterm Infants [73.85768093666582]
我々はNeuroExplainerと呼ばれる説明可能な幾何学的深層ネットワークを提案する。
NeuroExplainerは、早産に伴う幼児の皮質発達パターンの解明に使用される。
論文 参考訳(メタデータ) (2023-01-01T12:48:12Z) - Constraints on the design of neuromorphic circuits set by the properties
of neural population codes [61.15277741147157]
脳内では、情報はコード化され、伝達され、行動を伝えるために使用される。
ニューロモルフィック回路は、脳内のニューロンの集団が使用するものと互換性のある方法で情報を符号化する必要がある。
論文 参考訳(メタデータ) (2022-12-08T15:16:04Z) - Cortico-cerebellar networks as decoupling neural interfaces [1.1879716317856945]
脳は信用代入問題を著しく解決する。
ニューラルネットワークにまたがってクレジットを割り当てるには、原則として、特定のニューラルネットワーク計算が完了するのを待つ必要がある。
ディープラーニングの手法は、フォワードとフィードバックのフェーズの両方で、同様のロックの制約に悩まされる。
そこで本研究では、大脳皮質がDNIと同様のロック問題を解くのに役立つ特化脳野である小脳を提案する。
論文 参考訳(メタデータ) (2021-10-21T22:02:38Z) - And/or trade-off in artificial neurons: impact on adversarial robustness [91.3755431537592]
ネットワークに十分な数のOR様ニューロンが存在すると、分類の脆さと敵の攻撃に対する脆弱性が増加する。
そこで我々は,AND様ニューロンを定義し,ネットワーク内での割合を増大させる対策を提案する。
MNISTデータセットによる実験結果から,本手法はさらなる探索の方向として有望であることが示唆された。
論文 参考訳(メタデータ) (2021-02-15T08:19:05Z) - Neuron-based explanations of neural networks sacrifice completeness and interpretability [67.53271920386851]
我々は、ImageNetで事前訓練されたAlexNetに対して、ニューロンに基づく説明法が完全性と解釈可能性の両方を犠牲にすることを示す。
我々は、最も重要な主成分が、最も重要なニューロンよりも完全で解釈可能な説明を提供することを示す。
この結果から,AlexNet などのネットワークに対する説明手法は,ニューロンを埋め込みの基盤として使用するべきではないことが示唆された。
論文 参考訳(メタデータ) (2020-11-05T21:26:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。