論文の概要: Group Resonance Network: Learnable Prototypes and Multi-Subject Resonance for EEG Emotion Recognition
- arxiv url: http://arxiv.org/abs/2603.11119v1
- Date: Wed, 11 Mar 2026 13:46:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-13 14:46:25.526128
- Title: Group Resonance Network: Learnable Prototypes and Multi-Subject Resonance for EEG Emotion Recognition
- Title(参考訳): グループ共振ネットワーク:脳波認識のための学習可能なプロトタイプとマルチオブジェクト共振
- Authors: Renwei Meng,
- Abstract要約: グループ共鳴ネットワーク(GRN)は、個別の脳波力学とオフラインのグループ共鳴モデリングを統合する。
SEED と DEAP の実験は、主観的および一対一のオブジェクトアウトプロトコルの両方で、GRN が競争ベースラインを一貫して上回っていることを示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electroencephalography(EEG)-basedemotionrecognitionre- mains challenging in cross-subject settings due to severe inter-subject variability. Existing methods mainly learn subject-invariant features, but often under-exploit stimulus-locked group regularities shared across sub- jects. To address this issue, we propose the Group Resonance Network (GRN), which integrates individual EEG dynamics with offline group resonance modeling. GRN contains three components: an individual en- coder for band-wise EEG features, a set of learnable group prototypes for prototype-induced resonance, and a multi-subject resonance branch that encodes PLV/coherence-based synchrony with a small reference set. A resonance-aware fusion module combines individual and group-level rep- resentations for final classification. Experiments on SEED and DEAP under both subject-dependent and leave-one-subject-out protocols show that GRN consistently outperforms competitive baselines, while abla- tion studies confirm the complementary benefits of prototype learning and multi-subject resonance modeling.
- Abstract(参考訳): エレクトロ脳波(EEG)に基づく感情認識-重度の物体間変動によるクロスオブジェクト設定が困難である。
既存の手法は主に主題不変の特徴を学習するが、しばしばサブジェクター間で共有される刺激ロック群正則性が不足する。
この問題に対処するため,グループ共振ネットワーク (GRN) を提案する。
GRNには3つのコンポーネントがある:バンドワイドEEG機能のための個別エンコーダ、プロトタイプ誘発共鳴のための学習可能なグループプロトタイプのセット、PLV/コヒーレンスベースの同期を小さな参照セットでエンコードするマルチオブジェクト共鳴ブランチ。
共鳴認識融合モジュールは、最終分類のための個人レベルとグループレベルの反感を結合する。
SEEDとDEAPの実験は、主観的および一対一のオブジェクトアウトプロトコルの両方で、GRNは競争ベースラインを一貫して上回り、Abla-tion研究は、プロトタイプ学習とマルチオブジェクト共鳴モデリングの相補的な利点を裏付けている。
関連論文リスト
- Learning to Separate RF Signals Under Uncertainty: Detect-Then-Separate vs. Unified Joint Models [53.79667447811139]
受信した信号に直接適用した場合、単一のディープニューラルネットワークアーキテクチャが共同で検出および分離することを学習していることを示す。
これらの結果から,UJM は DTS に代わるスケーラブルで実用的な代替品であり,広範に推定された統合分離のための新たな方向を開拓した。
論文 参考訳(メタデータ) (2026-02-04T15:25:02Z) - High-Quality Sound Separation Across Diverse Categories via Visually-Guided Generative Modeling [65.02357548201188]
DAVIS(Diffusion-based Audio-VIsual separation framework)を提案する。
本フレームワークは、混合音声入力と関連する視覚情報に基づいて、ノイズ分布から直接、所望の分離音スペクトルを合成することによって機能する。
論文 参考訳(メタデータ) (2025-09-26T08:46:00Z) - Frequency-Domain Decomposition and Recomposition for Robust Audio-Visual Segmentation [60.9960601057956]
本稿では2つの主要なモジュールからなる周波数対応オーディオ・ビジュアルコンポスタ(FAVS)フレームワークを紹介する。
FAVSフレームワークは、3つのベンチマークデータセットで最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2025-09-23T12:33:48Z) - Convolutional Monge Mapping between EEG Datasets to Support Independent Component Labeling [0.45880283710344066]
脳波記録は神経活動に関する豊富な情報を含んでいる。
それらは、センサー、アンプ、フィルタリングによる人工物、ノイズ、表面的な違いを被る。
独立コンポーネント分析と独立コンポーネントの自動ラベリングは、EEGパイプラインにおけるアーティファクトの除去を可能にする。
論文 参考訳(メタデータ) (2025-09-01T19:01:14Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - Relate auditory speech to EEG by shallow-deep attention-based network [10.002888298492831]
本稿では,脳波信号を誘発する正しい聴覚刺激を分類するために,SDANet(Shallow-Deep Attention-based Network)を提案する。
アテンションベースの相関モジュール(ACM)を用いて、グローバルな側面から聴覚音声と脳波の関連を見出す。
モデルの堅牢性を高めるために、さまざまなトレーニング戦略とデータ拡張が使用される。
論文 参考訳(メタデータ) (2023-03-20T06:34:22Z) - EEG-ConvTransformer for Single-Trial EEG based Visual Stimuli
Classification [5.076419064097734]
本研究は,マルチヘッド自己注意に基づくEEG-ConvTranformerネットワークを導入する。
5種類の視覚刺激分類タスクにまたがる最先端技術による分類精度の向上を実現している。
論文 参考訳(メタデータ) (2021-07-08T17:22:04Z) - Correlation based Multi-phasal models for improved imagined speech EEG
recognition [22.196642357767338]
本研究の目的は,特定の音声単位に対応する音声の動きを,話し,想像,実行しながら記録された多相脳波データに含まれる並列情報から利益を得ることである。
ニューラルネットワークを用いた二相共通表現学習モジュールは、解析フェーズと支援フェーズ間の相関をモデル化する。
提案手法は復号化時の多相データの非可利用性をさらに扱う。
論文 参考訳(メタデータ) (2020-11-04T09:39:53Z) - Joint Training of Variational Auto-Encoder and Latent Energy-Based Model [112.7509497792616]
本稿では,変分オートエンコーダ(VAE)と潜時エネルギーベースモデル(EBM)を併用した共同学習手法を提案する。
VAEと潜伏ESMのジョイントトレーニングは、潜伏ベクトル上の3つの関節分布と画像との間の3つのクルバック・リーブラー分岐からなる目的関数に基づいている。
論文 参考訳(メタデータ) (2020-06-10T20:32:25Z) - Repulsive Mixture Models of Exponential Family PCA for Clustering [127.90219303669006]
指数関数型家族主成分分析(EPCA)の混合拡張は、従来のEPCAよりもデータ分布に関する構造情報を符号化するように設計された。
従来のEPCAの混合は、モデルの冗長性、すなわち混合成分間の重なりが問題であり、データクラスタリングの曖昧さを引き起こす可能性がある。
本稿では, 混合成分間での反発性増感前処理を導入し, ベイズ式に分散EPCA混合(DEPCAM)モデルを開発した。
論文 参考訳(メタデータ) (2020-04-07T04:07:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。