論文の概要: Condition-Invariant fMRI Decoding of Speech Intelligibility with Deep State Space Model
- arxiv url: http://arxiv.org/abs/2511.01868v1
- Date: Tue, 21 Oct 2025 09:04:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-09 16:58:40.0456
- Title: Condition-Invariant fMRI Decoding of Speech Intelligibility with Deep State Space Model
- Title(参考訳): 深部空間モデルによる音声明瞭度の条件不変fMRI復号
- Authors: Ching-Chih Sung, Shuntaro Suzuki, Francis Pingfan Chien, Komei Sugiura, Yu Tsao,
- Abstract要約: 音声の知能性の神経基盤を明らかにすることは、計算神経科学とデジタル音声処理において重要である。
最近のニューロイメージング研究は、知性は単純な音響を超えた皮質活動を調節することを示した。
本稿では,fMRI信号から可視性を復号化するための新しいアーキテクチャを提案する。
- 参考スコア(独自算出の注目度): 14.428950312699149
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Clarifying the neural basis of speech intelligibility is critical for computational neuroscience and digital speech processing. Recent neuroimaging studies have shown that intelligibility modulates cortical activity beyond simple acoustics, primarily in the superior temporal and inferior frontal gyri. However, previous studies have been largely confined to clean speech, leaving it unclear whether the brain employs condition-invariant neural codes across diverse listening environments. To address this gap, we propose a novel architecture built upon a deep state space model for decoding intelligibility from fMRI signals, specifically tailored to their high-dimensional temporal structure. We present the first attempt to decode intelligibility across acoustically distinct conditions, showing our method significantly outperforms classical approaches. Furthermore, region-wise analysis highlights contributions from auditory, frontal, and parietal regions, and cross-condition transfer indicates the presence of condition-invariant neural codes, thereby advancing understanding of abstract linguistic representations in the brain.
- Abstract(参考訳): 音声の知能性の神経基盤を明らかにすることは、計算神経科学とデジタル音声処理において重要である。
最近のニューロイメージング研究は、知性は単純な音響以上の皮質活動、主に側頭前頭回と下頭前頭回を調節することを示した。
しかし、これまでの研究は主にクリーン音声に限られており、脳が様々な聴取環境で条件不変のニューラルコードを使用しているかどうかは不明のままである。
このギャップに対処するために,fMRI信号から可視性を復号する深部空間モデルを構築した新しいアーキテクチャを提案する。
音響的に異なる条件下でのインテリジェンスを復号化するための最初の試みについて述べる。
さらに、地域的分析は、聴覚、前頭葉、頭頂部からの貢献を強調し、条件間移動は、条件不変の神経コードの存在を示し、脳における抽象言語表現の理解を深める。
関連論文リスト
- Disentangling Neurodegeneration with Brain Age Gap Prediction Models: A Graph Signal Processing Perspective [89.99666725996975]
脳年齢ギャップ予測(BAGP)モデルは、データから予測される脳年齢と時系列年齢との差を推定する。
本稿では、BAGPの概要と、グラフ信号処理(GSP)の最近の進歩に基づく、このアプリケーションのための原則化されたフレームワークを紹介する。
VNNは強力な理論的基盤と操作的解釈可能性を提供し、脳年齢差予測の堅牢な推定を可能にする。
論文 参考訳(メタデータ) (2025-10-14T17:44:45Z) - Neuro2Semantic: A Transfer Learning Framework for Semantic Reconstruction of Continuous Language from Human Intracranial EEG [11.531598524209969]
頭蓋内脳波(iEEG)記録から知覚音声の意味内容を再構築する新しい枠組みであるNeuro2Semanticを紹介する。
まず、LSTMベースのアダプタが、トレーニング済みのテキスト埋め込みとニューラルネットワークをアライメントし、次に、修正モジュールがこれらのアライメントされた埋め込みから直接、連続した自然なテキストを生成する。
Neuro2Semanticは、30分以内のニューラルデータで強力なパフォーマンスを達成し、ローデータ設定における最新の最先端メソッドよりも優れています。
論文 参考訳(メタデータ) (2025-05-31T04:17:19Z) - BrainStratify: Coarse-to-Fine Disentanglement of Intracranial Neural Dynamics [8.36470471250669]
ニューラルアクティビティから直接音声をデコードすることは、脳-コンピュータインターフェース(BCI)研究における中心的な目標である。
近年、脳内野電位記録(SEEG)やECoG(ElectroCorticoGraphy)など、頭蓋内野電位記録(intracranial field potential recordings)の利用により、エキサイティングな進歩がなされている。
i)タスク関連神経信号はsEEG電極に分散し、(ii)タスク関連神経信号をsEEGとECoの両方で絡み合うことが多い。
論文 参考訳(メタデータ) (2025-05-26T19:36:39Z) - Brain2Text Decoding Model Reveals the Neural Mechanisms of Visual Semantic Processing [0.17188280334580194]
本稿では,fMRI信号を直接自然な画像のテキスト記述にデコードする新しいフレームワークを提案する。
視覚情報なしで訓練された新しいディープラーニングモデルは、最先端のセマンティックデコーディング性能を実現する。
論文 参考訳(メタデータ) (2025-03-15T07:28:02Z) - Towards Unified Neural Decoding of Perceived, Spoken and Imagined Speech from EEG Signals [1.33134751838052]
本研究では,非侵襲的ニューラルネットワーク復号法におけるディープラーニングモデルの有効性について検討した。
それは、知覚、過度、ささやき、想像されたスピーチなど、異なる音声パラダイムの区別に焦点を当てた。
論文 参考訳(メタデータ) (2024-11-14T07:20:08Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Du-IN: Discrete units-guided mask modeling for decoding speech from Intracranial Neural signals [5.283718601431859]
エレクトロコルチコグラフィー(ECoG)を用いた脳-コンピュータインタフェースは,医療応用における高性能音声復号化を約束している。
離散コーデックス誘導マスクモデリングにより,領域レベルのトークンに基づくコンテキスト埋め込みを抽出するDu-INモデルを開発した。
本モデルでは,61ワードの分類タスクにおいて,すべてのベースラインを越えながら最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-19T06:00:36Z) - Exploring neural oscillations during speech perception via surrogate gradient spiking neural networks [59.38765771221084]
本稿では、ディープラーニングフレームワークと互換性があり、スケーラブルな、生理学的にインスパイアされた音声認識アーキテクチャを提案する。
本研究では, 終末から終末までの勾配降下訓練が, 中枢スパイク神経ネットワークにおける神経振動の出現に繋がることを示す。
本研究は, スパイク周波数適応やリカレント接続などのフィードバック機構が, 認識性能を向上させるために, 神経活動の調節と同期に重要な役割を担っていることを明らかにする。
論文 参考訳(メタデータ) (2024-04-22T09:40:07Z) - MindBridge: A Cross-Subject Brain Decoding Framework [60.58552697067837]
脳の復号化は、獲得した脳信号から刺激を再構築することを目的としている。
現在、脳の復号化はモデルごとのオブジェクトごとのパラダイムに限られている。
我々は,1つのモデルのみを用いることで,オブジェクト間脳デコーディングを実現するMindBridgeを提案する。
論文 参考訳(メタデータ) (2024-04-11T15:46:42Z) - Self-supervised models of audio effectively explain human cortical
responses to speech [71.57870452667369]
我々は、自己教師型音声表現学習の進歩に乗じて、人間の聴覚システムの最先端モデルを作成する。
これらの結果から,ヒト大脳皮質における音声処理の異なる段階に関連する情報の階層構造を,自己教師型モデルで効果的に把握できることが示唆された。
論文 参考訳(メタデータ) (2022-05-27T22:04:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。