論文の概要: Benchmarking Domain Generalization on EEG-based Emotion Recognition
- arxiv url: http://arxiv.org/abs/2204.09016v1
- Date: Mon, 18 Apr 2022 07:54:22 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-21 02:04:06.775617
- Title: Benchmarking Domain Generalization on EEG-based Emotion Recognition
- Title(参考訳): 脳波に基づく感情認識におけるベンチマーク領域の一般化
- Authors: Yan Li, Hao Chen, Jake Zhao, Haolan Zhang, Jinpeng Li
- Abstract要約: ドメイン一般化(DG)は、これらの応用におけるドメイン適応(DA)よりも妥当である。
我々は、脳波に基づく感情認識に最先端のDGアルゴリズムをベンチマークする。
実験の結果、DGは3つの感情を認識するためのSEEDデータセットで最大79.41%の精度を達成した。
- 参考スコア(独自算出の注目度): 9.814434650758027
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Electroencephalography (EEG) based emotion recognition has demonstrated
tremendous improvement in recent years. Specifically, numerous domain
adaptation (DA) algorithms have been exploited in the past five years to
enhance the generalization of emotion recognition models across subjects. The
DA methods assume that calibration data (although unlabeled) exists in the
target domain (new user). However, this assumption conflicts with the
application scenario that the model should be deployed without the
time-consuming calibration experiments. We argue that domain generalization
(DG) is more reasonable than DA in these applications. DG learns how to
generalize to unseen target domains by leveraging knowledge from multiple
source domains, which provides a new possibility to train general models. In
this paper, we for the first time benchmark state-of-the-art DG algorithms on
EEG-based emotion recognition. Since convolutional neural network (CNN), deep
brief network (DBN) and multilayer perceptron (MLP) have been proved to be
effective emotion recognition models, we use these three models as solid
baselines. Experimental results show that DG achieves an accuracy of up to
79.41\% on the SEED dataset for recognizing three emotions, indicting the
potential of DG in zero-training emotion recognition when multiple sources are
available.
- Abstract(参考訳): 脳波(EEG)に基づく感情認識は近年著しく改善されている。
特に、過去5年間に多数のドメイン適応(da)アルゴリズムが、被験者間の感情認識モデルの一般化を強化するために利用されてきた。
daメソッドは、キャリブレーションデータ(ラベルなし)がターゲットドメイン(新規ユーザ)に存在すると仮定する。
しかし、この仮定は、時間を要するキャリブレーション実験なしでモデルをデプロイすべきというアプリケーションシナリオと矛盾する。
ドメイン一般化 (DG) はこれらの応用において DA よりも妥当であると主張する。
DGは、複数のソースドメインからの知識を活用することで、ターゲットドメインを見えないものに一般化する方法を学んでいる。
本稿では,脳波を用いた感情認識における最先端DGアルゴリズムのベンチマークを初めて行った。
畳み込みニューラルネットワーク(cnn)、ディープブリーフネットワーク(dbn)、多層パーセプトロン(mlp)は、効果的な感情認識モデルであることが証明されているので、これら3つのモデルを強固なベースラインとして用いる。
実験結果から、DGは3つの感情を認識するためのSEEDデータセット上で最大79.41\%の精度を達成し、複数のソースが利用可能である場合の無訓練感情認識におけるDGの可能性を予測する。
関連論文リスト
- A Unified Deep Semantic Expansion Framework for Domain-Generalized Person Re-identification [30.208890289394994]
本研究は、より実用的なドメイン一般化人再識別(DG-ReID)問題に焦点を当てる。
DG-ReIDにおける有望な研究方向の1つは、暗黙的な深い意味的特徴拡張の利用である。
我々は,DeXなどの暗黙的な深い意味的特徴拡張手法が,大規模な評価ベンチマークにおいてその潜在能力を最大限に発揮できないことを示す。
我々は暗黙的・明示的な意味的特徴拡張技術を統合する新しいフレームワークであるUnified Deep Semantic Expansionを提案する。
論文 参考訳(メタデータ) (2024-10-11T02:15:15Z) - Disentangling Masked Autoencoders for Unsupervised Domain Generalization [57.56744870106124]
教師なしの領域一般化は急速に注目されているが、まだ十分に研究されていない。
Disentangled Masked Auto (DisMAE) は、本質的な特徴を忠実に示す不整合表現を発見することを目的としている。
DisMAEは、セマンティックで軽量な変分エンコーダを備えた非対称なデュアルブランチアーキテクチャを共同で訓練する。
論文 参考訳(メタデータ) (2024-07-10T11:11:36Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - Towards Domain Generalization for ECG and EEG Classification: Algorithms
and Benchmarks [3.1372269816123994]
生体信号の領域一般化問題は心電図(ECG)と脳電図(EEG)に焦点をあてる
本稿では,DGアルゴリズム評価のためのベンチマークを提案し,生体信号分類におけるDG処理のための新しいアーキテクチャを提案する。
我々の知る限り、これはECGとEEG DGアルゴリズムを評価するためのオープンソースのフレームワークを開発するための最初の試みである。
論文 参考訳(メタデータ) (2023-03-20T09:19:05Z) - Modality-Agnostic Debiasing for Single Domain Generalization [105.60451710436735]
単一DGのための多目的モダリティ・アグノスティック・デバイアス(MAD)フレームワークを提案する。
その結果,MADはDSUを2.82%改善し,精度とmIOUは1.5%向上した。
さらに驚くべきことに、3Dポイントの雲の認識と2D画像のセマンティックセグメンテーションのために、MADはDSUを1.5%精度とmIOUで改善する。
論文 参考訳(メタデータ) (2023-03-13T13:56:11Z) - When Neural Networks Fail to Generalize? A Model Sensitivity Perspective [82.36758565781153]
ドメイン一般化 (Domain Generalization, DG) は、異なる分布の下で見えないドメインでうまく機能するようにモデルを訓練することを目的としている。
本稿では,より現実的で,より困難なシナリオである単一領域一般化(Single-DG)について考察する。
我々は「モデル感度」と命名する一般化と強く相関するモデルの性質を経験的に確認する。
本稿では、高感度の周波数をターゲットとした拡張画像を生成するために、スペクトル逆データ拡張(SADA)の新たな戦略を提案する。
論文 参考訳(メタデータ) (2022-12-01T20:15:15Z) - On Certifying and Improving Generalization to Unseen Domains [87.00662852876177]
ドメインの一般化は、テスト時に遭遇した見知らぬドメインのパフォーマンスが高いモデルを学ぶことを目的としています。
いくつかのベンチマークデータセットを使用して、DGアルゴリズムを包括的に評価することは困難である。
我々は,任意のDG手法の最悪の性能を効率的に証明できる普遍的な認証フレームワークを提案する。
論文 参考訳(メタデータ) (2022-06-24T16:29:43Z) - DAGAM: A Domain Adversarial Graph Attention Model for Subject
Independent EEG-Based Emotion Recognition [7.969549743880546]
クロスオブジェクトの脳波変動は、性能と一般化性に悪影響を及ぼす可能性がある。
本稿では,DAGAM(Domain Adversarial Graph attention model)と呼ばれる,脳波に基づく感情認識モデルを提案する。
このモデルではSEEDの精度を92.59%(4.69%改善)、標準偏差が3.21%(2.92%低下)、SEED IVの精度が80.74%(6.90%改善)に向上した。
論文 参考訳(メタデータ) (2022-02-27T08:02:07Z) - META: Mimicking Embedding via oThers' Aggregation for Generalizable
Person Re-identification [68.39849081353704]
Domain Generalizable (DG) Person Re-identification (ReID)は、トレーニング時に対象のドメインデータにアクセスすることなく、見えないドメインをまたいでテストすることを目的としている。
本稿では,DG ReID のための OThers' Aggregation (META) を用いた Mimicking Embedding という新しい手法を提案する。
論文 参考訳(メタデータ) (2021-12-16T08:06:50Z) - Reappraising Domain Generalization in Neural Networks [8.06370138649329]
機械学習アルゴリズムのドメイン一般化(DG)は、複数のトレーニング分布からドメインに依存しない仮説を学習する能力として定義される。
経験的リスク最小化(ERM)ベースラインは,既存のDG手法を一貫して上回っていることがわかった。
そこで我々は,各クラスに対してランダムにドメインを選択して,それをテスト用として保持する,クラスワイズDGの定式化を提案する。
論文 参考訳(メタデータ) (2021-10-15T10:06:40Z) - Domain Generalization: A Survey [146.68420112164577]
ドメイン一般化(DG)は、モデル学習にソースドメインデータを使用するだけでOOD一般化を実現することを目的としています。
初めて、DGの10年の開発をまとめるために包括的な文献レビューが提供されます。
論文 参考訳(メタデータ) (2021-03-03T16:12:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。