論文の概要: BaRISTA: Brain Scale Informed Spatiotemporal Representation of Human Intracranial Neural Activity
- arxiv url: http://arxiv.org/abs/2512.12135v1
- Date: Sat, 13 Dec 2025 02:19:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-16 17:54:56.138781
- Title: BaRISTA: Brain Scale Informed Spatiotemporal Representation of Human Intracranial Neural Activity
- Title(参考訳): BaRISTA:ヒト頭蓋内神経活動の時空間的表現
- Authors: Lucine L. Oganesian, Saba Hashemi, Maryam M. Shanechi,
- Abstract要約: 本稿では,ニューラルアクティビティの新しいテンポラルトランスフォーマーモデルとそれに対応する自己教師付き潜在再構成タスクを提案する。
トークン符号化とマスク再構成の両方の空間スケールの調整は、下流の復号化に大きな影響を及ぼすことを示す。
本手法は,正確なチャネルレベルのニューラル再構成を維持しつつ,領域レベルのトークン符号化を可能にする。
- 参考スコア(独自算出の注目度): 1.2744523252873352
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Intracranial recordings have opened a unique opportunity to simultaneously measure activity across multiregional networks in the human brain. Recent works have focused on developing transformer-based neurofoundation models of such recordings that can generalize across subjects and datasets. However, these recordings exhibit highly complex spatiotemporal interactions across diverse spatial scales, from the single-channel scale to the scale of brain regions. As such, there remain critical open questions regarding how best to encode spatial information and how to design self-supervision tasks that enable the learning of brain network patterns and enhance downstream decoding performance using such high-dimensional, multiregional recordings. To allow for exploring these questions, we propose a new spatiotemporal transformer model of multiregional neural activity and a corresponding self-supervised masked latent reconstruction task, designed to enable flexibility in the spatial scale used for token encoding and masking. Applying this model on publicly available multiregional intracranial electrophysiology (iEEG) data, we demonstrate that adjusting the spatial scale for both token encoding and masked reconstruction significantly impacts downstream decoding. Further, we find that spatial encoding at larger scales than channel-level encoding, which is commonly used in existing iEEG transformer models, improves downstream decoding performance. Finally, we demonstrate that our method allows for region-level token encoding while also maintaining accurate channel-level neural reconstruction. Taken together, our modeling framework enables exploration of the spatial scales used for token encoding and masking, reveals their importance towards self-supervised pretraining of neurofoundation models of multiregional human brain activity, and enhances downstream decoding performance.
- Abstract(参考訳): 頭蓋内記録は、人間の脳内の複数の領域のネットワークで同時に活動を測定するユニークな機会を開いた。
最近の研究は、被験者やデータセットにまたがる一般化が可能な、トランスフォーマーベースのニューロファウンデーションモデルの開発に重点を置いている。
しかし、これらの記録は、単一チャネルスケールから脳領域スケールまで、様々な空間スケールにわたる非常に複雑な時空間相互作用を示す。
そのため、空間情報のエンコード方法や、脳ネットワークパターンの学習と下流復号性能の向上を可能にする自己超越タスクの設計方法について、このような高次元マルチリージョン記録を用いて、重要なオープンな疑問が残る。
これらの課題を探索するために,トークン符号化とマスキングに使用される空間スケールの柔軟性を実現するために,多領域の神経活動の時空間変換モデルとそれに対応する自己監督型マスク付き潜時再構成タスクを提案する。
このモデルを利用可能な多領域脳内電気生理学(iEEG)データに適用することにより、トークンエンコーディングとマスクされた再構成の両方の空間スケールの調整が下流デコーディングに大きな影響を与えることを示す。
さらに、既存のiEEGトランスモデルでよく使われているチャネルレベルの符号化よりも大規模な空間符号化により、下流復号性能が向上することが判明した。
最後に,提案手法は,正確なチャネルレベルのニューラル再構成を維持しつつ,領域レベルのトークン符号化を可能にすることを実証する。
本手法は,トークン符号化とマスキングに使用される空間スケールの探索を可能にし,マルチリージョン脳活動の神経基盤モデルの自己指導的事前訓練への重要性を明らかにし,下流復号性能を向上させる。
関連論文リスト
- Deep Neural Encoder-Decoder Model to Relate fMRI Brain Activity with Naturalistic Stimuli [2.7149743794003913]
そこで本研究では,脳活動のエンコードとデコードを行う,エンド・ツー・エンドのディープ・ニューラル・エンコーダ・デコーダモデルを提案する。
我々はアーキテクチャに時間的畳み込み層を導入し、自然界の刺激とfMRIの時間分解能ギャップを効果的に埋めることを可能にする。
論文 参考訳(メタデータ) (2025-07-16T08:08:48Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - Du-IN: Discrete units-guided mask modeling for decoding speech from Intracranial Neural signals [5.283718601431859]
エレクトロコルチコグラフィー(ECoG)を用いた脳-コンピュータインタフェースは,医療応用における高性能音声復号化を約束している。
離散コーデックス誘導マスクモデリングにより,領域レベルのトークンに基づくコンテキスト埋め込みを抽出するDu-INモデルを開発した。
本モデルでは,61ワードの分類タスクにおいて,すべてのベースラインを越えながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-19T06:00:36Z) - A Hybrid Neural Coding Approach for Pattern Recognition with Spiking
Neural Networks [53.31941519245432]
脳にインスパイアされたスパイクニューラルネットワーク(SNN)は、パターン認識タスクを解く上で有望な能力を示している。
これらのSNNは、情報表現に一様神経コーディングを利用する同質ニューロンに基づいている。
本研究では、SNNアーキテクチャは異種符号化方式を組み込むよう、均質に設計されるべきである、と論じる。
論文 参考訳(メタデータ) (2023-05-26T02:52:12Z) - Contrastive-Signal-Dependent Plasticity: Self-Supervised Learning in Spiking Neural Circuits [61.94533459151743]
この研究は、スパイキングネットワークのシナプスを調整するための神経生物学的に動機づけられたスキームを設計することの課題に対処する。
我々の実験シミュレーションは、繰り返しスパイクネットワークを訓練する際、他の生物学的に証明可能なアプローチに対して一貫した優位性を示す。
論文 参考訳(メタデータ) (2023-03-30T02:40:28Z) - Improving Neural Predictivity in the Visual Cortex with Gated Recurrent
Connections [0.0]
我々は,腹側視覚ストリームのユビキタスな特徴である横方向のリカレント接続を考慮したアーキテクチャに焦点を移し,適応的受容場を創出することを目指している。
本研究は,我々のアプローチの堅牢性と活性化の生物学的忠実性を高めるために,特定のデータ拡張技術を用いている。
論文 参考訳(メタデータ) (2022-03-22T17:27:22Z) - Data-driven emergence of convolutional structure in neural networks [83.4920717252233]
識別タスクを解くニューラルネットワークが、入力から直接畳み込み構造を学習できることを示す。
データモデルを慎重に設計することにより、このパターンの出現は、入力の非ガウス的、高次局所構造によって引き起こされることを示す。
論文 参考訳(メタデータ) (2022-02-01T17:11:13Z) - Spatial Dependency Networks: Neural Layers for Improved Generative Image
Modeling [79.15521784128102]
画像生成装置(デコーダ)を構築するための新しいニューラルネットワークを導入し、可変オートエンコーダ(VAE)に適用する。
空間依存ネットワーク(sdns)では、ディープニューラルネットの各レベルにおける特徴マップを空間的にコヒーレントな方法で計算する。
空間依存層による階層型vaeのデコーダの強化は密度推定を大幅に改善することを示す。
論文 参考訳(メタデータ) (2021-03-16T07:01:08Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。