論文の概要: MEBM-Phoneme: Multi-scale Enhanced BrainMagic for End-to-End MEG Phoneme Classification
- arxiv url: http://arxiv.org/abs/2603.02254v1
- Date: Fri, 27 Feb 2026 13:02:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-04 21:38:10.465997
- Title: MEBM-Phoneme: Multi-scale Enhanced BrainMagic for End-to-End MEG Phoneme Classification
- Title(参考訳): MEBM-Phoneme:エンド・ツー・エンドMEG音素分類のためのマルチスケール脳マジック
- Authors: Liang Jinghua, Zhang Zifeng, Li Songyi, Zheng Linze,
- Abstract要約: MEBM-Phonemeは、非侵襲性脳磁図(MEG)信号から音素を分類するための神経デコーダである。
BrainMagicのバックボーン上に構築されたMEBM-Phonemeは、短期的な畳み込みモジュールを統合して、ネイティブの中間エンコーダを拡張する。
LibriBrain コンペティション 2025 Track2 の概要は、強靭な一般化を示し、競合音素復号精度を実現している。
- 参考スコア(独自算出の注目度): 0.27998963147546146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose MEBM-Phoneme, a multi-scale enhanced neural decoder for phoneme classification from non-invasive magnetoencephalography (MEG) signals. Built upon the BrainMagic backbone, MEBM-Phoneme integrates a short-term multi-scale convolutional module to augment the native mid-term encoder, with fused representations via depthwise separable convolution for efficient cross-scale integration. A convolutional attention layer dynamically weights temporal dependencies to refine feature aggregation. To address class imbalance and session-specific distributional shifts, we introduce a stacking-based local validation set alongside weighted cross-entropy loss and random temporal augmentation. Comprehensive evaluations on LibriBrain Competition 2025 Track2 demonstrate robust generalization, achieving competitive phoneme decoding accuracy on the validation and official test leaderboard. These results underscore the value of hierarchical temporal modeling and training stabilization for advancing MEG-based speech perception analysis.
- Abstract(参考訳): 非侵襲脳磁図(MEG)信号から音素分類のためのマルチスケール拡張型ニューラルデコーダMEBM-Phonemeを提案する。
BrainMagicのバックボーン上に構築されたMEBM-Phonemeは、短期的なマルチスケールの畳み込みモジュールを統合して、ネイティブの中間エンコーダを拡張し、深度的に分離可能な畳み込みによる融合表現により、効率的なクロススケール統合を実現している。
畳み込み注意層は、時間依存を動的に重み付け、特徴集約を洗練させる。
クラス不均衡とセッション固有の分布シフトに対処するため、重み付きクロスエントロピー損失とランダム時間拡張を伴うスタックリングに基づく局所的検証セットを導入する。
LibriBrainコンペティション2025 Track2の総合的な評価は、堅牢な一般化を示し、検証と公式テストリーダーボード上での競合音素復号精度を実現している。
これらの結果は,MEGに基づく音声知覚分析の進歩に向けた階層的時間的モデリングと訓練安定化の価値を裏付けるものである。
関連論文リスト
- Polynomial Mixing for Efficient Self-supervised Speech Encoders [50.58463928808225]
Polynomial Mixer (PoM) はマルチヘッド自己注意の代替品である。
PoMは下流音声認識タスクでその性能を達成する。
論文 参考訳(メタデータ) (2026-02-28T14:45:55Z) - MEBM-Speech: Multi-scale Enhanced BrainMagic for Robust MEG Speech Detection [0.27998963147546146]
本稿では,脳磁図(MEG)信号から音声活動を検出するニューラルデコーダMEBM-Speechを提案する。
BrainMagicのバックボーン上に構築されたMEBM-Speechは、3つの補完的な時間的モデリング機構を統合している。
モデルはMEG信号の連続確率的復号を行い、音声と沈黙状態のきめ細かい検出を可能にする。
論文 参考訳(メタデータ) (2026-02-27T13:15:42Z) - SKANet: A Cognitive Dual-Stream Framework with Adaptive Modality Fusion for Robust Compound GNSS Interference Classification [47.20483076887704]
グローバルナビゲーション衛星システム(GNSS)は、洗練された妨害による脅威の増大に直面している。
時間周波数画像(TFI)とパワースペクトル密度(PSD)を統合した2重ストリームアーキテクチャに基づく認知的ディープラーニングフレームワークを提案する。
SKANetは96.99%の精度を達成し、複合妨害分類において優れたロバスト性を示した。
論文 参考訳(メタデータ) (2026-01-19T07:42:45Z) - GCMCG: A Clustering-Aware Graph Attention and Expert Fusion Network for Multi-Paradigm, Multi-task, and Cross-Subject EEG Decoding [0.7871262900865523]
運動画像(MI)脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)は、人間と機械の相互作用の直接的な経路を提供する。
本稿では,MI-ME EEGデコーディングのための新しい統合フレームワークであるGraph-guided Clustering Mixture-of-Experts CNNGRUGを提案する。
論文 参考訳(メタデータ) (2025-11-29T18:05:33Z) - Meta-cognitive Multi-scale Hierarchical Reasoning for Motor Imagery Decoding [43.32839547082765]
本研究では,4クラス脳波(EEG)信号の階層的,メタ認知的デコードフレームワークについて検討する。
バックボーンの特徴を時間的マルチスケール表現に再構成するマルチスケール階層型信号処理モジュールを提案する。
我々は,このフレームワークを3つの標準脳波バックボーン上でインスタンス化し,BCIコンペティションIV-2aデータセットを用いて4クラスMIデコーディングを評価する。
論文 参考訳(メタデータ) (2025-11-11T06:32:23Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - Semi-supervised Semantic Segmentation with Multi-Constraint Consistency Learning [81.02648336552421]
本稿では,エンコーダとデコーダの段階的拡張を容易にするためのマルチ制約一貫性学習手法を提案する。
自己適応型特徴マスキングとノイズ注入は、デコーダの堅牢な学習のための特徴を摂動させるために、インスタンス固有の方法で設計されている。
Pascal VOC2012およびCityscapesデータセットの実験結果から,提案したMCCLが新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2025-03-23T03:21:33Z) - Multimodal Outer Arithmetic Block Dual Fusion of Whole Slide Images and Omics Data for Precision Oncology [6.418265127069878]
本稿では, 局所(パッチレベル)から大域(スライダーレベル)の相互作用の相補的な情報を取得するために, 早期・後期融合におけるオミック埋め込みの利用を提案する。
この二重融合戦略は、解釈可能性と分類性能を高め、臨床診断の可能性を強調している。
論文 参考訳(メタデータ) (2024-11-26T13:25:53Z) - Unleashing Network Potentials for Semantic Scene Completion [50.95486458217653]
本稿では,新しいSSCフレームワーク - Adrial Modality Modulation Network (AMMNet)を提案する。
AMMNetは、モダリティ間の勾配流の相互依存性を可能にするクロスモーダル変調と、動的勾配競争を利用するカスタマイズされた逆トレーニングスキームの2つのコアモジュールを導入している。
AMMNetは最先端のSSC法よりも大きなマージンで優れていた。
論文 参考訳(メタデータ) (2024-03-12T11:48:49Z) - Skeleton2vec: A Self-supervised Learning Framework with Contextualized
Target Representations for Skeleton Sequence [56.092059713922744]
予測対象として高レベルな文脈化機能を使用することで,優れた性能が得られることを示す。
具体的には、シンプルで効率的な3D行動表現学習フレームワークであるSkeleton2vecを提案する。
提案するSkeleton2vecは,従来の手法より優れ,最先端の結果が得られる。
論文 参考訳(メタデータ) (2024-01-01T12:08:35Z) - MMLatch: Bottom-up Top-down Fusion for Multimodal Sentiment Analysis [84.7287684402508]
マルチモーダル融合に対する最近のディープラーニングアプローチは、ハイレベルおよびミドルレベルの潜在モダリティ表現のボトムアップ融合に依存している。
人間の知覚モデルでは、高レベルの表現が感覚入力の知覚に影響を及ぼすトップダウン融合の重要性を強調している。
本稿では,ネットワークトレーニング中のフォワードパスにおけるフィードバック機構を用いて,トップダウンのクロスモーダルインタラクションをキャプチャするニューラルネットワークを提案する。
論文 参考訳(メタデータ) (2022-01-24T17:48:04Z) - Modal-Adaptive Gated Recoding Network for RGB-D Salient Object Detection [2.9153096940947796]
本稿では,2つのモードの情報の有効性を評価するために,GRNet(GRNet)を提案する。
知覚エンコーダを用いてマルチレベル単一モード特徴を抽出する。
無効な情報を抑制し、有効なモーダル特徴を復号ミキサとハイブリッド分岐復号器に転送するために、モーダル適応ゲートユニットを提案する。
論文 参考訳(メタデータ) (2021-08-13T15:08:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。