論文の概要: DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection
- arxiv url: http://arxiv.org/abs/2309.07147v1
- Date: Thu, 7 Sep 2023 13:43:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-17 13:39:49.478970
- Title: DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection
- Title(参考訳): dgsd:脳波に基づく聴覚空間注意検出のための動的グラフ自己蒸留
- Authors: Cunhang Fan, Hongyu Zhang, Wei Huang, Jun Xue, Jianhua Tao, Jiangyan
Yi, Zhao Lv and Xiaopei Wu
- Abstract要約: AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
- 参考スコア(独自算出の注目度): 49.196182908826565
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Auditory Attention Detection (AAD) aims to detect target speaker from brain
signals in a multi-speaker environment. Although EEG-based AAD methods have
shown promising results in recent years, current approaches primarily rely on
traditional convolutional neural network designed for processing Euclidean data
like images. This makes it challenging to handle EEG signals, which possess
non-Euclidean characteristics. In order to address this problem, this paper
proposes a dynamical graph self-distillation (DGSD) approach for AAD, which
does not require speech stimuli as input. Specifically, to effectively
represent the non-Euclidean properties of EEG signals, dynamical graph
convolutional networks are applied to represent the graph structure of EEG
signals, which can also extract crucial features related to auditory spatial
attention in EEG signals. In addition, to further improve AAD detection
performance, self-distillation, consisting of feature distillation and
hierarchical distillation strategies at each layer, is integrated. These
strategies leverage features and classification results from the deepest
network layers to guide the learning of shallow layers. Our experiments are
conducted on two publicly available datasets, KUL and DTU. Under a 1-second
time window, we achieve results of 90.0\% and 79.6\% accuracy on KUL and DTU,
respectively. We compare our DGSD method with competitive baselines, and the
experimental results indicate that the detection performance of our proposed
DGSD method is not only superior to the best reproducible baseline but also
significantly reduces the number of trainable parameters by approximately 100
times.
- Abstract(参考訳): AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
eegベースのaad法は近年有望な結果を示しているが、現在のアプローチは主に画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
これにより、非ユークリッド特性を持つ脳波信号の処理が困難になる。
本稿では, 音声刺激を入力として必要とせず, aadに対する動的グラフ自己蒸留(dgsd)手法を提案する。
特に、脳波信号の非ユークリッド的特性を効果的に表現するために、動的グラフ畳み込みネットワークを用いて脳波信号のグラフ構造を表現し、脳波信号の聴覚空間的注意に関連する重要な特徴を抽出する。
さらにAAD検出性能をさらに向上するため, 各層における特徴蒸留と階層蒸留戦略からなる自己蒸留を統合した。
これらの戦略は、浅層学習を導くために最も深いネットワーク層からの特徴と分類結果を活用する。
実験は、KULとDTUの2つの公開データセットを用いて行われた。
1秒の時間窓の下では、KUL と DTU でそれぞれ 90.0\% と 79.6\% の精度が得られる。
我々はDGSD法を競争基準値と比較し,提案手法の検出性能が最良再現性ベースラインよりも優れているだけでなく,トレーニング可能なパラメータの数を約100倍削減できることを実験的に示した。
関連論文リスト
- Topological Feature Search Method for Multichannel EEG: Application in ADHD classification [13.381770446807016]
トポロジカルデータ分析はADHD分類の新しい視点を提供する。
本稿では,ADHDにおけるマルチチャネル脳波に適用可能な拡張型TDA手法を提案する。
その結果、精度、感度、特異性はそれぞれ78.27%、80.62%、75.63%に達した。
論文 参考訳(メタデータ) (2024-04-10T01:37:41Z) - Graph Convolutional Network with Connectivity Uncertainty for EEG-based
Emotion Recognition [20.655367200006076]
本研究では,脳波信号の空間依存性と時間スペクトルの相対性を表す分布に基づく不確実性手法を提案する。
グラフ混合手法は、遅延接続エッジを強化し、ノイズラベル問題を緩和するために用いられる。
感情認識タスクにおいて、SEEDとSEEDIVという2つの広く使われているデータセットに対するアプローチを評価した。
論文 参考訳(メタデータ) (2023-10-22T03:47:11Z) - EOG Artifact Removal from Single and Multi-channel EEG Recordings
through the combination of Long Short-Term Memory Networks and Independent
Component Analysis [0.0]
脳波信号からのEOGアーチファクト除去の課題に対処するために,LSTM(Long Short-term memory)ベースのニューラルネットワークとICAを組み合わせた新しい手法を提案する。
本研究の目的は,1) 汚染された脳波データから水平および垂直EOG信号を推定し,2) ICAを用いて脳波から推定EOG信号を除去することである。
論文 参考訳(メタデータ) (2023-08-25T13:32:28Z) - Energy-based Out-of-Distribution Detection for Graph Neural Networks [76.0242218180483]
我々は,GNNSafeと呼ばれるグラフ上での学習のための,シンプルで強力で効率的なOOD検出モデルを提案する。
GNNSafeは、最先端技術に対するAUROCの改善を最大17.0%で達成しており、そのような未開発領域では単純だが強力なベースラインとして機能する可能性がある。
論文 参考訳(メタデータ) (2023-02-06T16:38:43Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z) - ScalingNet: extracting features from raw EEG data for emotion
recognition [4.047737925426405]
生の脳波信号から効果的なデータ駆動スペクトログラムのような特徴を適応的に抽出できる新しい畳み込み層を提案する。
スケーリング層に基づくニューラルネットワークアーキテクチャであるScalingNetは、確立されたDEAPベンチマークデータセット全体で最先端の結果を達成した。
論文 参考訳(メタデータ) (2021-02-07T08:54:27Z) - EEG-Inception: An Accurate and Robust End-to-End Neural Network for
EEG-based Motor Imagery Classification [123.93460670568554]
本稿では,脳波に基づく運動画像(MI)分類のための新しい畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案したCNNモデル、すなわちEEG-Inceptionは、Inception-Timeネットワークのバックボーン上に構築されている。
提案するネットワークは、生のEEG信号を入力とし、複雑なEEG信号前処理を必要としないため、エンドツーエンドの分類である。
論文 参考訳(メタデータ) (2021-01-24T19:03:10Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - ECG-DelNet: Delineation of Ambulatory Electrocardiograms with Mixed
Quality Labeling Using Neural Networks [69.25956542388653]
ディープラーニング(DL)アルゴリズムは、学術的、産業的にも重くなっている。
セグメンテーションフレームワークにECGの検出とデライン化を組み込むことにより、低解釈タスクにDLをうまく適用できることを実証する。
このモデルは、PhyloNetのQTデータベースを使用して、105個の増幅ECG記録から訓練された。
論文 参考訳(メタデータ) (2020-05-11T16:29:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。