論文の概要: MEIcoder: Decoding Visual Stimuli from Neural Activity by Leveraging Most Exciting Inputs
- arxiv url: http://arxiv.org/abs/2510.20762v1
- Date: Thu, 23 Oct 2025 17:35:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:18.439065
- Title: MEIcoder: Decoding Visual Stimuli from Neural Activity by Leveraging Most Exciting Inputs
- Title(参考訳): MEIcoder:最も興奮する入力を活用することで、視覚刺激を神経活動から切り離す
- Authors: Jan Sobotka, Luca Baroni, Ján Antolík,
- Abstract要約: 我々は、ニューロン特異的な最もエキサイティングな入力(MEIs)を活用する生物情報復号法であるMEIcoderを紹介する。
Meicoderは一次視覚野(V1)の単一細胞活動からの視覚刺激の再構築における最先端性能を達成する
我々はMEIcoderが1000-2,500個のニューロンから1000点未満の訓練データポイントから高忠実な自然像を再構成可能であることを示す。
- 参考スコア(独自算出の注目度): 3.632189127068905
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Decoding visual stimuli from neural population activity is crucial for understanding the brain and for applications in brain-machine interfaces. However, such biological data is often scarce, particularly in primates or humans, where high-throughput recording techniques, such as two-photon imaging, remain challenging or impossible to apply. This, in turn, poses a challenge for deep learning decoding techniques. To overcome this, we introduce MEIcoder, a biologically informed decoding method that leverages neuron-specific most exciting inputs (MEIs), a structural similarity index measure loss, and adversarial training. MEIcoder achieves state-of-the-art performance in reconstructing visual stimuli from single-cell activity in primary visual cortex (V1), especially excelling on small datasets with fewer recorded neurons. Using ablation studies, we demonstrate that MEIs are the main drivers of the performance, and in scaling experiments, we show that MEIcoder can reconstruct high-fidelity natural-looking images from as few as 1,000-2,500 neurons and less than 1,000 training data points. We also propose a unified benchmark with over 160,000 samples to foster future research. Our results demonstrate the feasibility of reliable decoding in early visual system and provide practical insights for neuroscience and neuroengineering applications.
- Abstract(参考訳): 神経集団活動から視覚刺激をデコードすることは、脳の理解と脳と機械のインターフェイスへの応用に不可欠である。
しかし、このような生物学的データは、特に霊長類やヒトでは、特に2光子イメージングのような高出力記録技術は、適用が困難または不可能なままである。
これは、深層学習の復号化技術に挑戦する。
そこで本研究では,ニューロン特異的な最も興奮的な入力(MEIs),構造的類似度指標の損失,敵対的トレーニングを活用する生体情報復号法であるMEIcoderを紹介する。
MEIcoderは、一次視覚野(V1)の単一細胞活動から視覚刺激を再構成する際の最先端のパフォーマンスを実現している。
アブレーション法を用いて、MEIがパフォーマンスの主要因であることを示し、スケーリング実験において、MEIcoderは1000-2,500個のニューロンから1000点未満のトレーニングデータポイントから高忠実な自然像を再構成可能であることを示した。
また、将来の研究を促進するために、160,000以上のサンプルを用いた統一されたベンチマークも提案する。
本研究は,早期視覚システムにおける信頼性復号化の実現可能性を示し,神経科学および神経工学応用のための実践的洞察を提供する。
関連論文リスト
- Adaptive Decoding via Hierarchical Neural Information Gradients in Mouse Visual Tasks [7.199942082447265]
階層的なディープニューラルネットワーク(DNN)は、複雑なデータの中核的な特徴をマイニングするためのツールとして重要な役割を果たしています。
適応トポロジカルビジョン変換器(AT-ViT)と呼ばれる脳領域間の適応トポロジカルデコーディングの手法を提案する。
多くの実験において,視覚課題における階層型ネットワークにおける提案手法の重要性が示された。
論文 参考訳(メタデータ) (2025-10-10T15:00:59Z) - Whole-brain Transferable Representations from Large-Scale fMRI Data Improve Task-Evoked Brain Activity Decoding [3.416130444086009]
本稿では,大規模なfMRIデータセットから変換可能な表現を学習する変換器モデルSTDA-SwiFTを提案する。
本研究では,タスク誘発活動の下流復号性能を大幅に向上することを示す。
我々の研究は、fMRIデータから脳活動を復号する際の課題を克服するために、トランスファーラーニングを実行可能なアプローチとして示している。
論文 参考訳(メタデータ) (2025-07-30T04:36:58Z) - fMRI-PTE: A Large-scale fMRI Pretrained Transformer Encoder for
Multi-Subject Brain Activity Decoding [54.17776744076334]
本稿では,fMRI事前学習のための革新的オートエンコーダであるfMRI-PTEを提案する。
我々のアプローチでは、fMRI信号を統合された2次元表現に変換し、次元の整合性を確保し、脳の活動パターンを保存する。
コントリビューションには、fMRI-PTEの導入、革新的なデータ変換、効率的なトレーニング、新しい学習戦略、そして我々のアプローチの普遍的な適用性が含まれる。
論文 参考訳(メタデータ) (2023-11-01T07:24:22Z) - Contrast, Attend and Diffuse to Decode High-Resolution Images from Brain
Activities [31.448924808940284]
2相fMRI表現学習フレームワークを提案する。
第1フェーズでは、double-contrastive Mask Auto-encoderを提案してfMRI機能学習者を事前訓練し、識別表現を学習する。
第2フェーズでは、イメージオートエンコーダからのガイダンスで視覚的再構成に最も有用な神経活性化パターンに参加するように、特徴学習者に調整する。
論文 参考訳(メタデータ) (2023-05-26T19:16:23Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - Convolutional Neural Generative Coding: Scaling Predictive Coding to
Natural Images [79.07468367923619]
畳み込み型神経生成符号化(Conv-NGC)を開発した。
我々は、潜伏状態マップを段階的に洗練する柔軟な神経生物学的動機付けアルゴリズムを実装した。
本研究は,脳にインスパイアされたニューラル・システムによる再建と画像復調の課題に対する効果について検討する。
論文 参考訳(メタデータ) (2022-11-22T06:42:41Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。