論文の概要: An Approach to Simultaneous Acquisition of Real-Time MRI Video, EEG, and Surface EMG for Articulatory, Brain, and Muscle Activity During Speech Production
- arxiv url: http://arxiv.org/abs/2603.04840v1
- Date: Thu, 05 Mar 2026 05:46:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-06 22:06:11.09324
- Title: An Approach to Simultaneous Acquisition of Real-Time MRI Video, EEG, and Surface EMG for Articulatory, Brain, and Muscle Activity During Speech Production
- Title(参考訳): 発声時の調音・脳・筋活動に対するリアルタイムMRI、脳波、表面筋電図の同時取得の試み
- Authors: Jihwan Lee, Parsa Razmara, Kevin Huang, Sean Foley, Aditya Kommineni, Haley Hsu, Woojae Jeong, Prakash Kumar, Xuan Shi, Yoonjeong Lee, Tiantian Feng, Takfarinas Medani, Ye Tian, Sudarsana Reddy Kadiri, Krishna S. Nayak, Dani Byrd, Louis Goldstein, Richard M. Leahy, Shrikanth Narayanan,
- Abstract要約: リアルタイム(動的)MRI,脳波,表面筋電図の同時取得を初めて行った。
この獲得パラダイムはMRIによる電磁波干渉や筋原性アーティファクトなど、重要な技術的課題を提示している。
ひとたび完全に開発されると、このフレームワークは、音声神経科学と脳とコンピュータのインターフェースの進歩につながる洞察に、前例のない窓口を提供する。
- 参考スコア(独自算出の注目度): 43.973656225402074
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Speech production is a complex process spanning neural planning, motor control, muscle activation, and articulatory kinematics. While the acoustic speech signal is the most accessible product of the speech production act, it does not directly reveal its causal neurophysiological substrates. We present the first simultaneous acquisition of real-time (dynamic) MRI, EEG, and surface EMG, capturing several key aspects of the speech production chain: brain signals, muscle activations, and articulatory movements. This multimodal acquisition paradigm presents substantial technical challenges, including MRI-induced electromagnetic interference and myogenic artifacts. To mitigate these, we introduce an artifact suppression pipeline tailored to this tri-modal setting. Once fully developed, this framework is poised to offer an unprecedented window into speech neuroscience and insights leading to brain-computer interface advances.
- Abstract(参考訳): 音声生成は、神経計画、運動制御、筋肉の活性化、関節キネマティクスにまたがる複雑なプロセスである。
音声信号は発声行為の最もアクセシブルな生成物であるが、その因果神経生理学的基質を直接明らかにするものではない。
我々は,脳信号,筋活動,関節運動などの音声生成連鎖のいくつかの重要な側面を捉え,リアルタイム(動的)MRI,脳波,表面筋電図の同時取得を初めて行った。
このマルチモーダル取得パラダイムは、MRIによる電磁波干渉や筋原性アーティファクトなど、重要な技術的課題を提示する。
これらを緩和するために、この3つのモード設定に合わせたアーティファクト抑圧パイプラインを導入する。
ひとたび完全に開発されると、このフレームワークは、音声神経科学と脳とコンピュータのインターフェースの進歩につながる洞察に、前例のない窓口を提供する。
関連論文リスト
- WaveMind: Towards a Conversational EEG Foundation Model Aligned to Textual and Visual Modalities [55.00677513249723]
脳波信号は認知過程と固有の神経状態の両方を同時に符号化する。
我々は、EEG信号とその対応するモダリティを統一意味空間にマッピングし、一般化された解釈を実現する。
結果として得られたモデルは、柔軟でオープンな会話をサポートしながら、堅牢な分類精度を示す。
論文 参考訳(メタデータ) (2025-09-26T06:21:51Z) - Voxel-Level Brain States Prediction Using Swin Transformer [65.9194533414066]
本稿では, 4D Shifted Window (Swin) Transformer をエンコーダとして用い, 時間的情報を効率よく学習し, 畳み込みデコーダを用いて入力fMRIデータと同じ空間的, 時間的解像度で脳状態の予測を可能にするアーキテクチャを提案する。
前回の23.04s fMRI時系列に基づいて7.2sの安静時脳活動を予測すると,高い精度が得られた。
これは、人間の脳の時間的構造が高解像度でSwin Transformerモデルによって学習できることを示す有望な証拠である。
論文 参考訳(メタデータ) (2025-06-13T04:14:38Z) - Speech Audio Generation from dynamic MRI via a Knowledge Enhanced Conditional Variational Autoencoder [6.103954504752016]
本研究では,2段階の「知識強化+変分推論」フレームワークを提案する。
我々の知る限り、これはダイナミックMRIビデオシーケンスから直接音声を合成する最初の試みの1つである。
論文 参考訳(メタデータ) (2025-03-09T12:40:16Z) - Ethics of Generating Synthetic MRI Vocal Tract Views from the Face [0.3755082744150184]
本稿では,外部-内部相関モデル(E2ICM)の倫理的意義について考察する。
E2ICMは顔の動きを使って内部構成を推測し、MRIの費用対効果を支える技術を提供する。
我々は、Pix2PixGANを用いて、外部の調音データから擬似MRIビューを生成し、このアプローチの有効性を実証する。
論文 参考訳(メタデータ) (2024-07-11T11:12:48Z) - MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Animate Your Thoughts: Decoupled Reconstruction of Dynamic Natural Vision from Slow Brain Activity [13.04953215936574]
脳活動から人間のダイナミックビジョンを再構築する2段階モデルMind-Animatorを提案する。
fMRIの段階では,fMRIから意味的,構造的,運動的特徴を分離する。
機能とビデオの段階では、これらの機能はインフレータブル拡散(Stable Diffusion)を使ってビデオに統合される。
論文 参考訳(メタデータ) (2024-05-06T08:56:41Z) - NeuroCine: Decoding Vivid Video Sequences from Human Brain Activties [23.893490180665996]
本稿では,fMRIデータを復号化するための新たな二相フレームワークであるNeuroCineを紹介する。
公開されているfMRIデータセットでテストした結果,有望な結果が得られた。
このモデルが既存の脳構造や機能と一致し,その生物学的妥当性と解釈可能性を示すことが示唆された。
論文 参考訳(メタデータ) (2024-02-02T17:34:25Z) - Volumetric Reconstruction Resolves Off-Resonance Artifacts in Static and
Dynamic PROPELLER MRI [76.60362295758596]
磁気共鳴イメージング(MRI)におけるオフ共鳴アーティファクトは、画像ボリューム内のスピンの実際の共鳴周波数が空間情報を符号化するのに使用される期待周波数と異なる場合に発生する視覚歪みである。
本稿では,2次元MRI再構成問題を3次元に引き上げ,このオフ共鳴をモデル化するための「スペクトル」次元を導入することで,これらのアーチファクトを解決することを提案する。
論文 参考訳(メタデータ) (2023-11-22T05:44:51Z) - Leveraging sinusoidal representation networks to predict fMRI signals
from EEG [3.3121941932506473]
本稿では,マルチチャネル脳波から直接fMRI信号を予測できる新しいアーキテクチャを提案する。
本モデルは,脳波の周波数情報を学習するための正弦波表現ネットワーク(SIREN)を実装して実現している。
我々は,脳波-fMRI同時データセットを8被験者で評価し,脳皮質下 fMRI 信号の予測の可能性について検討した。
論文 参考訳(メタデータ) (2023-11-06T03:16:18Z) - Joint fMRI Decoding and Encoding with Latent Embedding Alignment [77.66508125297754]
我々はfMRIデコーディングと符号化の両方に対処する統合フレームワークを導入する。
本モデルでは、fMRI信号から視覚刺激を同時に回復し、統合された枠組み内の画像から脳活動を予測する。
論文 参考訳(メタデータ) (2023-03-26T14:14:58Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - EEG to fMRI Synthesis: Is Deep Learning a candidate? [0.913755431537592]
この研究は、脳波(EEG)ビューデータからfMRIデータを合成するために、Neural Processingから最先端の原理を使用する方法について、初めて包括的な情報を提供する。
オートエンコーダ,ジェネレータネットワーク,ペアワイズラーニングなど,最先端の合成手法の比較を行った。
結果は、fMRI脳画像マッピングに対する脳波の実現可能性を強調し、機械学習における現在の進歩の役割を指摘し、パフォーマンスをさらに向上するために、今後のコントリビューションの関連性を示す。
論文 参考訳(メタデータ) (2020-09-29T16:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。