論文の概要: MEBM-Speech: Multi-scale Enhanced BrainMagic for Robust MEG Speech Detection
- arxiv url: http://arxiv.org/abs/2603.02255v1
- Date: Fri, 27 Feb 2026 13:15:42 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.467537
- Title: MEBM-Speech: Multi-scale Enhanced BrainMagic for Robust MEG Speech Detection
- Title(参考訳): MEBM-Speech:ロバストMEG音声検出のためのマルチスケール強化ブレインマジック
- Authors: Li Songyi, Zheng Linze, Liang Jinghua, Zhang Zifeng,
- Abstract要約: 本稿では,脳磁図(MEG)信号から音声活動を検出するニューラルデコーダMEBM-Speechを提案する。
BrainMagicのバックボーン上に構築されたMEBM-Speechは、3つの補完的な時間的モデリング機構を統合している。
モデルはMEG信号の連続確率的復号を行い、音声と沈黙状態のきめ細かい検出を可能にする。
- 参考スコア(独自算出の注目度): 0.27998963147546146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose MEBM-Speech, a multi-scale enhanced neural decoder for speech activity detection from non-invasive magnetoencephalography (MEG) signals. Built upon the BrainMagic backbone, MEBM-Speech integrates three complementary temporal modeling mechanisms: a multi-scale convolutional module for short-term pattern extraction, a bidirectional LSTM (BiLSTM) for long-range context modeling, and a depthwise separable convolutional layer for efficient cross-scale feature fusion. A lightweight temporal jittering strategy and average pooling further improve onset robustness and boundary stability. The model performs continuous probabilistic decoding of MEG signals, enabling fine-grained detection of speech versus silence states - an ability crucial for both cognitive neuroscience and clinical applications. Comprehensive evaluations on the LibriBrain Competition 2025 Track1 benchmark demonstrate strong performance, achieving an average F1 macro of 89.3% on the validation set and comparable results on the official test leaderboard. These findings highlight the effectiveness of multi-scale temporal representation learning for robust MEG-based speech decoding.
- Abstract(参考訳): 我々は,非侵襲脳磁図(MEG)信号から音声活動を検出するマルチスケール拡張型ニューラルデコーダMEBM-Speechを提案する。
BrainMagicのバックボーン上に構築されたMEBM-Speechは、短期パターン抽出のためのマルチスケールの畳み込みモジュール、長距離コンテキストモデリングのための双方向LSTM(BiLSTM)、効率的なクロススケール特徴融合のための奥行き分離可能な畳み込み層という、3つの補完的な時間的モデリング機構を統合している。
軽量な時間的ジッタリング戦略と平均プールにより、オンセットロバスト性とバウンダリ安定性がさらに向上する。
このモデルはMEG信号の連続的確率的復号を行い、音声とサイレント状態のきめ細かい検出を可能にし、認知神経科学と臨床応用の両方に不可欠な能力である。
LibriBrain Competition 2025 Track1ベンチマークの総合的な評価は、検証セットで平均89.3%のF1マクロと、公式のテストリーダーボードで同等の結果を達成し、強力なパフォーマンスを示している。
これらの結果から,頑健なMEG音声復号における多段階時間表現学習の有効性が示唆された。
関連論文リスト
- MEBM-Phoneme: Multi-scale Enhanced BrainMagic for End-to-End MEG Phoneme Classification [0.27998963147546146]
MEBM-Phonemeは、非侵襲性脳磁図(MEG)信号から音素を分類するための神経デコーダである。
BrainMagicのバックボーン上に構築されたMEBM-Phonemeは、短期的な畳み込みモジュールを統合して、ネイティブの中間エンコーダを拡張する。
LibriBrain コンペティション 2025 Track2 の概要は、強靭な一般化を示し、競合音素復号精度を実現している。
論文 参考訳(メタデータ) (2026-02-27T13:02:33Z) - Multimodal Visual Surrogate Compression for Alzheimer's Disease Classification [69.87877580725768]
MVSC(Multimodal Visual Surrogate Compression)は、大規模な3D sMRIボリュームをコンパクトな2D機能に圧縮し、適応させることを学ぶ。
MVSCには2つの重要なコンポーネントがある: テキストガイダンスの下でグローバルなクロススライスコンテキストをキャプチャするボリュームコンテキストと、テキストエンハンスでパッチワイズな方法でスライスレベルの情報を集約するAdaptive Slice Fusionモジュール。
論文 参考訳(メタデータ) (2026-01-29T13:05:46Z) - Digital FAST: An AI-Driven Multimodal Framework for Rapid and Early Stroke Screening [0.7136933021609076]
本研究では,F.A.S.T.アセスメントで収集したデータをもとに,高速かつ非侵襲的な2次脳卒中自動スクリーニングのための多モード深層学習フレームワークを提案する。
提案手法は, 表情, 音声信号, 上体動作からの相補的な情報を統合し, 診断の堅牢性を高める。
論文 参考訳(メタデータ) (2026-01-17T03:35:39Z) - DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - NeuroRVQ: Multi-Scale EEG Tokenization for Generative Large Brainwave Models [66.91449452840318]
我々は、コードブックベースのトークン化装置を中心としたスケーラブルな大脳波モデル(LBM)であるNeuroRVQを紹介する。
我々のトークンライザは, (i) フル周波数のニューラルスペクトルを捕捉するマルチスケール特徴抽出モジュール, (ii) 高精細符号化のための階層的残留ベクトル量子化(RVQ)コードブック, (iii) 効率的なトレーニングのためのEEG信号位相および振幅認識損失関数を統合する。
実験の結果,NeuroRVQは再建誤差を低くし,様々な下流タスクにおいて既存のLBMよりも優れることがわかった。
論文 参考訳(メタデータ) (2025-10-15T01:26:52Z) - From Promise to Practical Reality: Transforming Diffusion MRI Analysis with Fast Deep Learning Enhancement [35.368152968098194]
FastFOD-Netは、FODを優れたパフォーマンスで強化し、臨床使用のためのトレーニング/推論効率を提供するエンドツーエンドのディープラーニングフレームワークである。
この研究は、拡散MRIの強化のための深層学習に基づく手法を、より広く採用し、臨床信頼を構築することを促進する。
論文 参考訳(メタデータ) (2025-08-13T17:56:29Z) - RL-U$^2$Net: A Dual-Branch UNet with Reinforcement Learning-Assisted Multimodal Feature Fusion for Accurate 3D Whole-Heart Segmentation [0.624829068285122]
機能アライメントのための強化学習により強化されたデュアルブランチU-Netアーキテクチャを提案する。
このモデルは、デュアルブランチU字型ネットワークを用いて、CTとMRIのパッチを並列に処理し、新しいRL-XAlignモジュールを導入する。
公開されているMM-WHS 2017データセットの実験結果は、提案されたRL-U$2$Netが既存の最先端メソッドより優れていることを示している。
論文 参考訳(メタデータ) (2025-08-04T16:12:06Z) - Multimodal Fusion at Three Tiers: Physics-Driven Data Generation and Vision-Language Guidance for Brain Tumor Segmentation [8.695435245976482]
本稿では,脳腫瘍の正確なセグメンテーションを実現する3層融合アーキテクチャを提案する。
この方法は、画素、特徴、意味レベルで情報を段階的に処理する。
我々は,脳腫瘍(BraTS)2020,2021,2023データセットの検証を行った。
論文 参考訳(メタデータ) (2025-07-14T06:32:59Z) - Hierarchical Deep Feature Fusion and Ensemble Learning for Enhanced Brain Tumor MRI Classification [3.776159955137874]
脳磁気共鳴画像(MRI)の包括的前処理とデータ拡張を組み込んだフレームワーク
新規性は二重レベルのアンサンブル戦略(特徴レベルのアンサンブル、分類器レベルのアンサンブル)にある。
2つのパブリックなKaggle MRI脳腫瘍データセットの実験は、このアプローチが最先端の手法を大幅に超えることを示した。
論文 参考訳(メタデータ) (2025-06-14T05:53:54Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [46.47343031985037]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Unveiling Incomplete Modality Brain Tumor Segmentation: Leveraging Masked Predicted Auto-Encoder and Divergence Learning [6.44069573245889]
脳腫瘍のセグメンテーションは、特にマルチモーダルMRI(Multi-modal magnetic resonance imaging)における重要な課題である。
本稿では,不完全なモダリティデータから頑健な特徴学習を可能にする,マスク付き予測事前学習方式を提案する。
微調整段階において、我々は知識蒸留技術を用いて、完全なモダリティデータと欠落したモダリティデータの間に特徴を整列させ、同時にモデルロバスト性を向上する。
論文 参考訳(メタデータ) (2024-06-12T20:35:16Z) - Cross-modality Guidance-aided Multi-modal Learning with Dual Attention
for MRI Brain Tumor Grading [47.50733518140625]
脳腫瘍は世界で最も致命的ながんの1つであり、子供や高齢者に非常に多い。
本稿では,MRI脳腫瘍グレーディングの課題に対処するために,新たな多モード学習法を提案する。
論文 参考訳(メタデータ) (2024-01-17T07:54:49Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。