論文の概要: MVCNet: Multi-View Contrastive Network for Motor Imagery Classification
- arxiv url: http://arxiv.org/abs/2502.17482v3
- Date: Sun, 27 Apr 2025 19:58:19 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-04-29 18:43:11.191736
- Title: MVCNet: Multi-View Contrastive Network for Motor Imagery Classification
- Title(参考訳): MVCNet: モータ画像分類のためのマルチビューコントラストネットワーク
- Authors: Ziwei Wang, Siyang Li, Xiaoqing Chen, Wei Li, Dongrui Wu,
- Abstract要約: 運動画像復号法(MI)は直感的なメカニズムにより注目されている。
既存のモデルの多くはシングルストリームアーキテクチャに依存しており、EEG信号のマルチビューの性質を見落とし、性能と一般化が制限されている。
本稿では,CNNとTransformerモデルを並列に統合し,局所的な時空間的特徴とグローバルな時間的依存関係の両方をキャプチャするマルチビューコントラストネットワーク(MVCNet)を提案する。
- 参考スコア(独自算出の注目度): 20.78236894605647
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG)-based brain-computer interfaces (BCIs) enable neural interaction by decoding brain activity for external communication. Motor imagery (MI) decoding has received significant attention due to its intuitive mechanism. However, most existing models rely on single-stream architectures and overlook the multi-view nature of EEG signals, leading to limited performance and generalization. We propose a multi-view contrastive network (MVCNet), a dual-branch architecture that parallelly integrates CNN and Transformer models to capture both local spatial-temporal features and global temporal dependencies. To enhance the informativeness of training data, MVCNet incorporates a unified augmentation pipeline across time, frequency, and spatial domains. Two contrastive modules are further introduced: a cross-view contrastive module that enforces consistency of original and augmented views, and a cross-model contrastive module that aligns features extracted from both branches. Final representations are fused and jointly optimized by contrastive and classification losses. Experiments on five public MI datasets across three scenarios demonstrate that MVCNet consistently outperforms seven state-of-the-art MI decoding networks, highlighting its effectiveness and generalization ability. MVCNet provides a robust solution for MI decoding by integrating multi-view information and dual-branch modeling, contributing to the development of more reliable BCI systems.
- Abstract(参考訳): 脳波(EEG)ベースの脳-コンピュータインターフェース(BCI)は、外部通信のための脳活動のデコードによって神経相互作用を可能にする。
運動画像復号法(MI)は直感的なメカニズムにより注目されている。
しかし、既存のモデルのほとんどは単一ストリームアーキテクチャに依存しており、EEG信号のマルチビューの性質を見落とし、性能と一般化が制限されている。
本稿では,CNNとTransformerモデルを並列に統合し,局所的な時空間的特徴とグローバルな時間的依存関係の両方をキャプチャするマルチビューコントラストネットワーク(MVCNet)を提案する。
トレーニングデータの情報性を高めるため、MVCNetは時間、周波数、空間領域にわたって統合された拡張パイプラインを組み込んでいる。
オリジナルのビューと拡張ビューの一貫性を強制するクロスビューコントラストモジュールと、両方のブランチから抽出された特徴を整列するクロスモデルコントラストモジュールである。
最終表現は、コントラストと分類の損失によって融合され、共同最適化される。
3つのシナリオにわたる5つのパブリックMIデータセットの実験では、MVCNetが7つの最先端MIデコードネットワークを一貫して上回り、その有効性と一般化能力を強調している。
MVCNetは、マルチビュー情報とデュアルブランチモデリングを統合することで、MIデコーディングの堅牢なソリューションを提供し、より信頼性の高いBCIシステムの開発に貢献している。
関連論文リスト
- An Efficient and Mixed Heterogeneous Model for Image Restoration [71.85124734060665]
現在の主流のアプローチは、CNN、Transformers、Mambasの3つのアーキテクチャパラダイムに基づいている。
混合構造融合に基づく効率的で汎用的なIRモデルであるRestorMixerを提案する。
論文 参考訳(メタデータ) (2025-04-15T08:19:12Z) - BIMII-Net: Brain-Inspired Multi-Iterative Interactive Network for RGB-T Road Scene Semantic Segmentation [6.223341988991549]
我々は、BIMII-Net(Brain-Inspired Multi-Iteration Interaction Network)と呼ばれる新しいRGB-Tロードシーンセマンティックセマンティックネットワークを提案する。
まず、自律運転のような道路シナリオにおける正確なテクスチャと局所情報抽出の要件を満たすため、脳にインスパイアされたモデルに基づく深部連続結合ニューラルネットワーク(DCCNN)アーキテクチャを提案する。
第2に,BIMII-Netの機能融合段階において,多モード情報間の相互作用と表現能力を高めるために,クロス明示的な注意強調融合モジュール (CEAEF-Module) を設計した。
最後に,相補的対話型多層復号器を構築した。
論文 参考訳(メタデータ) (2025-03-25T03:09:46Z) - Multimodal-Aware Fusion Network for Referring Remote Sensing Image Segmentation [7.992331117310217]
リモートセンシング画像セグメンテーション(RRSIS)は、リモートセンシング画像セグメンテーションにおける新しい視覚課題である。
我々は,2つのモード間の微粒なアライメントと融合を実現するために,マルチモーダル・アウェア・フュージョン・ネットワーク(MAFN)を設計する。
論文 参考訳(メタデータ) (2025-03-14T08:31:21Z) - Optimized Unet with Attention Mechanism for Multi-Scale Semantic Segmentation [8.443350618722564]
本稿では,注目機構と組み合わさった改良されたUnetモデルを提案する。
チャネルアテンションと空間アテンションモジュールを導入し、重要な特徴にフォーカスするモデルの能力を強化する。
改良されたモデルは、mIoUとピクセル精度(PA)でよく機能し、それぞれ76.5%と95.3%に達した。
論文 参考訳(メタデータ) (2025-02-06T06:51:23Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Online Multi-modal Root Cause Analysis [61.94987309148539]
ルート原因分析(RCA)は、マイクロサービスシステムにおける障害の根本原因の特定に不可欠である。
既存のオンラインRCAメソッドは、マルチモーダルシステムにおける複雑な相互作用を見渡す単一モーダルデータのみを処理する。
OCEANは、根本原因の局在化のための新しいオンラインマルチモーダル因果構造学習手法である。
論文 参考訳(メタデータ) (2024-10-13T21:47:36Z) - INF-LLaVA: Dual-perspective Perception for High-Resolution Multimodal Large Language Model [71.50973774576431]
本稿では,高解像度画像認識のための新しいMLLM INF-LLaVAを提案する。
我々はDCM(Dual-perspective Cropping Module)を導入し、各サブイメージが局所的な視点から連続的な詳細を含むことを保証する。
第2に,グローバルな特徴と局所的な特徴の相互強化を可能にするDEM(Dual-perspective Enhancement Module)を導入する。
論文 参考訳(メタデータ) (2024-07-23T06:02:30Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - Epistemic Graph: A Plug-And-Play Module For Hybrid Representation
Learning [46.48026220464475]
人間はハイブリッド学習を示し、クロスドメイン認識のための構造化された知識をシームレスに統合したり、少量の学習のために少量のデータサンプルに依存する。
本稿では, 深部特徴と構造化知識グラフ間の情報交換を促進し, ハイブリッド学習を実現するための新しいエピステミックグラフ層(EGLayer)を提案する。
論文 参考訳(メタデータ) (2023-05-30T04:10:15Z) - LMDA-Net:A lightweight multi-dimensional attention network for general
EEG-based brain-computer interface paradigms and interpretability [2.3945862743903916]
LMDA-Netと呼ばれる,軽量な多次元アテンションネットワークを提案する。
EEG信号用に設計された2つの新しいアテンションモジュールを組み込むことで、LMDA-Netは複数の次元の特徴を効果的に統合できる。
LMDA-Netは、分類精度とボラティリティの予測の観点から、他の代表的手法よりも優れている。
論文 参考訳(メタデータ) (2023-03-29T02:35:02Z) - DoubleU-NetPlus: A Novel Attention and Context Guided Dual U-Net with
Multi-Scale Residual Feature Fusion Network for Semantic Segmentation of
Medical Images [2.20200533591633]
本稿ではDoubleU-NetPlusという2つのU-Netアーキテクチャを提案する。
我々は,識別的特徴表現をモデル化するネットワークの能力を高めるために,マルチコンテキスト特徴といくつかの注意戦略を利用する。
勾配消滅問題を緩和し、より深い空間的詳細を持つ高分解能特徴を取り入れるため、標準畳み込み操作を注意誘導残差畳み込み操作に置き換える。
論文 参考訳(メタデータ) (2022-11-25T16:56:26Z) - EEG-ITNet: An Explainable Inception Temporal Convolutional Network for
Motor Imagery Classification [0.5616884466478884]
我々はEEG-ITNetと呼ばれるエンドツーエンドのディープラーニングアーキテクチャを提案する。
本モデルでは,多チャンネル脳波信号からスペクトル,空間,時間情報を抽出することができる。
EEG-ITNetは、異なるシナリオにおける分類精度を最大5.9%改善する。
論文 参考訳(メタデータ) (2022-04-14T13:18:43Z) - Tensor-CSPNet: A Novel Geometric Deep Learning Framework for Motor
Imagery Classification [14.95694356964053]
対称正定値(SPD)上での脳波信号を特徴付ける幾何学的深層学習フレームワークCSPNetを提案する。
CSPNetは、2つのMI-EEGデータセットのクロスバリデーションとホールドアウトシナリオにおいて、現在の最先端のパフォーマンスを達成またはわずかに上回る。
論文 参考訳(メタデータ) (2022-02-05T02:52:23Z) - Cross-Modality Deep Feature Learning for Brain Tumor Segmentation [158.8192041981564]
本稿では, マルチモーダルMRIデータから脳腫瘍を抽出するクロスモーダルディープ・フィーチャーラーニング・フレームワークを提案する。
中心となる考え方は、不十分なデータスケールを補うために、マルチモダリティデータにまたがる豊富なパターンをマイニングすることだ。
on the BraTS benchmarks, this proposed cross-modality deep feature learning framework could effective improve the brain tumor segmentation performance。
論文 参考訳(メタデータ) (2022-01-07T07:46:01Z) - Full-Duplex Strategy for Video Object Segmentation [141.43983376262815]
Full- Strategy Network (FSNet)はビデオオブジェクトセグメンテーション(VOS)のための新しいフレームワークである
我々のFSNetは、融合復号ステージの前に、クロスモーダルな機能パス(すなわち、送信と受信)を同時に実行します。
我々のFSNetは、VOSとビデオの有能なオブジェクト検出タスクの両方において、他の最先端技術よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-08-06T14:50:50Z) - CNN-based Approaches For Cross-Subject Classification in Motor Imagery:
From The State-of-The-Art to DynamicNet [0.2936007114555107]
運動画像(MI)ベースの脳-コンピュータインタフェース(BCI)システムは、コミュニケーションと制御の代替手段を提供するためにますます採用されています。
信頼できるBCIシステムを得るには、脳信号からMIを正確に分類することが不可欠です。
ディープラーニングアプローチは、標準的な機械学習技術の有効な代替手段として現れ始めている。
論文 参考訳(メタデータ) (2021-05-17T14:57:13Z) - Encoder Fusion Network with Co-Attention Embedding for Referring Image
Segmentation [87.01669173673288]
本稿では,視覚的エンコーダをマルチモーダルな特徴学習ネットワークに変換するエンコーダ融合ネットワーク(EFN)を提案する。
EFNには、マルチモーダル機能の並列更新を実現するコアテンションメカニズムが組み込まれている。
4つのベンチマークデータセットによる実験結果から,提案手法がポストプロセッシングを伴わずに最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2021-05-05T02:27:25Z) - MVFNet: Multi-View Fusion Network for Efficient Video Recognition [79.92736306354576]
分離可能な畳み込みを効率よく利用し,ビデオの複雑さを生かしたマルチビュー融合(MVF)モジュールを提案する。
MVFNetは一般的なビデオモデリングフレームワークと考えることができる。
論文 参考訳(メタデータ) (2020-12-13T06:34:18Z) - Visual Concept Reasoning Networks [93.99840807973546]
分割変換マージ戦略は、視覚認識タスクのための畳み込みニューラルネットワークのアーキテクチャ制約として広く使用されている。
我々は、この戦略を利用して、高レベルの視覚概念間の推論を可能にするために、Visual Concept Reasoning Networks (VCRNet) と組み合わせることを提案する。
提案するモデルであるVCRNetは、パラメータ数を1%以下にすることで、一貫して性能を向上する。
論文 参考訳(メタデータ) (2020-08-26T20:02:40Z) - Few-Shot Relation Learning with Attention for EEG-based Motor Imagery
Classification [11.873435088539459]
脳波(EEG)信号に基づく脳-コンピュータインタフェース(BCI)が注目されている。
運動画像(MI)データは、リハビリテーションや自律運転のシナリオに使用することができる。
脳波に基づくBCIシステムにはMI信号の分類が不可欠である。
論文 参考訳(メタデータ) (2020-03-03T02:34:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。