論文の概要: CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations
- arxiv url: http://arxiv.org/abs/2506.16056v1
- Date: Thu, 19 Jun 2025 06:31:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:04.959689
- Title: CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations
- Title(参考訳): CRIA: 一般化可能なEEG表現のためのクロスビューインタラクションとインスタンス適応型事前トレーニングフレームワーク
- Authors: Puchun Liu, C. L. Philip Chen, Yubin He, Tong Zhang,
- Abstract要約: CRIAは、可変長および可変チャネルコーディングを使用して、異なるデータセット間でEEGデータの統一表現を実現する適応フレームワークである。
このモデルでは、時間的、スペクトル的、空間的特徴を効果的に融合させるクロスアテンション機構を採用している。
テンプル大学脳波コーパスとCHB-MITデータセットによる実験結果から、CRIAは既存の方法よりも、同じ事前学習条件で優れていることが示された。
- 参考スコア(独自算出の注目度): 52.251569042852815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The difficulty of extracting deep features from EEG data and effectively integrating information from multiple views presents significant challenges for developing a generalizable pretraining framework for EEG representation learning. However, most existing pre-training methods rely solely on the contextual semantics of a single view, failing to capture the complex and synergistic interactions among different perspectives, limiting the expressiveness and generalization of learned representations. To address these issues, this paper proposes CRIA, an adaptive framework that utilizes variable-length and variable-channel coding to achieve a unified representation of EEG data across different datasets. In this work, we define cross-view information as the integrated representation that emerges from the interaction among temporal, spectral, and spatial views of EEG signals. The model employs a cross-attention mechanism to fuse temporal, spectral, and spatial features effectively, and combines an attention matrix masking strategy based on the information bottleneck principle with a novel viewpoint masking pre-training scheme. Experimental results on the Temple University EEG corpus and the CHB-MIT dataset show that CRIA outperforms existing methods with the same pre-training conditions, achieving a balanced accuracy of 57.02% for multi-class event classification and 80.03% for anomaly detection, highlighting its strong generalization ability.
- Abstract(参考訳): 脳波データから深い特徴を抽出し、複数の視点から情報を効果的に統合することの難しさは、脳波表現学習のための一般化可能な事前学習フレームワークを開発する上で重要な課題である。
しかし、既存の事前学習手法の多くは、単一の視点の文脈的意味論にのみ依存しており、異なる視点における複雑でシナジスティックな相互作用を捉えず、学習された表現の表現性や一般化を制限する。
これらの問題に対処するために,可変長および可変チャネル符号化を用いた適応型フレームワークであるCRIAを提案し,異なるデータセット間でEEGデータの統一表現を実現する。
本研究では,脳波信号の時間的,スペクトル的,空間的ビュー間の相互作用から生じる統合表現として,クロスビュー情報を定義する。
このモデルでは、時間的・スペクトル的・空間的特徴を効果的に融合させるクロスアテンション機構を採用し、情報ボトルネック原理に基づくアテンションマトリックスマスキング戦略と、新しい視点マスキング事前学習スキームを組み合わせる。
テンプル大学脳波コーパスとCHB-MITデータセットの実験結果によると、CRIAは同じ事前学習条件で既存の手法よりも優れており、マルチクラスのイベント分類では57.02%、異常検出では80.03%のバランスの取れた精度を実現し、その強力な一般化能力を強調している。
関連論文リスト
- HAMLET-FFD: Hierarchical Adaptive Multi-modal Learning Embeddings Transformation for Face Forgery Detection [6.060036926093259]
HAMLET-FFDは顔偽造検出のためのクロスドメイン一般化フレームワークである。
視覚的証拠と概念的手がかりを統合し、専門家の法医学的分析をエミュレートする。
HAMLET-FFDは設計上、外部プラグインとして機能する全ての事前訓練されたパラメータを凍結する。
論文 参考訳(メタデータ) (2025-07-28T15:09:52Z) - FACE: Few-shot Adapter with Cross-view Fusion for Cross-subject EEG Emotion Recognition [57.08108545219043]
クロスオブジェクト脳波の感情認識は、重要なオブジェクト間変動と複雑に絡み合ったオブジェクト内変動によって困難である。
最近の数発の学習パラダイムは、これらの制限に対処しようと試みているが、しばしば限られたサンプルを用いて主題固有の適応を行う際に破滅的な過度なオーバーフィッティングに遭遇する。
本稿では,脳波の感情認識のためのFACEと呼ばれるクロスビュー融合方式のマイクロショットアダプタについて紹介する。
論文 参考訳(メタデータ) (2025-03-24T03:16:52Z) - SplitSEE: A Splittable Self-supervised Framework for Single-Channel EEG Representation Learning [8.373376507515347]
SplitSEEは、単一チャネル脳波における効果的な時間周波数表現学習のための自己教師型フレームワークである。
単一のチャネルのEEGからのみ表現を学習するが、マルチチャネルのベースラインよりも優れています。
部分的なモデルレイヤを使用して、ハイかつ安定したパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-10-15T02:34:33Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - Learning Multiscale Consistency for Self-supervised Electron Microscopy
Instance Segmentation [48.267001230607306]
本稿では,EMボリュームのマルチスケール一貫性を高める事前学習フレームワークを提案する。
当社のアプローチでは,強力なデータ拡張と弱いデータ拡張を統合することで,Siameseネットワークアーキテクチャを活用している。
効果的にボクセルと機能の一貫性をキャプチャし、EM分析のための転送可能な表現を学習する。
論文 参考訳(メタデータ) (2023-08-19T05:49:13Z) - Surface EMG-Based Inter-Session/Inter-Subject Gesture Recognition by
Leveraging Lightweight All-ConvNet and Transfer Learning [17.535392299244066]
低解像度の瞬時HD-sEMG画像を用いたジェスチャー認識は、より流動的で自然な筋肉-コンピュータインターフェースを開発するための新たな道を開く。
セッション間とオブジェクト間シナリオ間のデータのばらつきは、大きな課題を示します。
既存のアプローチでは、非常に大きく複雑なConvNetまたは2SRNNベースのドメイン適応手法を使用して、これらのセッション間およびオブジェクト間データのばらつきに起因する分散シフトを近似した。
我々は、軽量なAll-ConvNetとTransfer Learning(TL)を利用した、セッション間およびオブジェクト間ジェスチャー認識の強化のための軽量All-ConvNet+TLモデルを提案する。
論文 参考訳(メタデータ) (2023-05-13T21:47:55Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - A Variational Information Bottleneck Approach to Multi-Omics Data
Integration [98.6475134630792]
本稿では,不完全な多視点観測のための深い変動情報ボトルネック (IB) 手法を提案する。
本手法は,対象物に関連のある視点内および視点間相互作用に焦点をあてるために,観測された視点の辺縁および結合表現にISBフレームワークを適用した。
実世界のデータセットの実験から、我々の手法はデータ統合から常に利益を得て、最先端のベンチマークより優れています。
論文 参考訳(メタデータ) (2021-02-05T06:05:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。