論文の概要: KAM -- a Kernel Attention Module for Emotion Classification with EEG
Data
- arxiv url: http://arxiv.org/abs/2208.08161v1
- Date: Wed, 17 Aug 2022 09:02:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-08-18 13:05:14.394493
- Title: KAM -- a Kernel Attention Module for Emotion Classification with EEG
Data
- Title(参考訳): 脳波データを用いた感情分類のためのカーネル注意モジュールKAM
- Authors: Dongyang Kuang and Craig Michoski
- Abstract要約: ニューラルネットワークを用いた脳波に基づく感情分類のタスクに対して,カーネルアテンションモジュールが提案される。
提案モジュールはカーネルトリックを実行することで自己保持機構を利用する。
モデルの平均予測精度は15被験者で1%以上向上することが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this work, a kernel attention module is presented for the task of
EEG-based emotion classification with neural networks. The proposed module
utilizes a self-attention mechanism by performing a kernel trick, demanding
significantly fewer trainable parameters and computations than standard
attention modules. The design also provides a scalar for quantitatively
examining the amount of attention assigned during deep feature refinement,
hence help better interpret a trained model. Using EEGNet as the backbone
model, extensive experiments are conducted on the SEED dataset to assess the
module's performance on within-subject classification tasks compared to other
SOTA attention modules. Requiring only one extra parameter, the inserted module
is shown to boost the base model's mean prediction accuracy up to more than 1\%
across 15 subjects. A key component of the method is the interpretability of
solutions, which is addressed using several different techniques, and is
included throughout as part of the dependency analysis.
- Abstract(参考訳): 本稿では,ニューラルネットワークを用いた脳波に基づく感情分類のタスクとして,カーネルアテンションモジュールを提案する。
提案モジュールはカーネルトリックを実行することで自己注意機構を利用し、標準のアテンションモジュールよりもトレーニング可能なパラメータや計算をはるかに少なくする。
この設計はまた、深い機能改良の間に割り当てられた注意の量を定量的に調べるためのスカラーを提供するため、トレーニングされたモデルをよりよく解釈するのに役立つ。
EEGNetをバックボーンモデルとし、SEEDデータセットを用いて、他のSOTAアテンションモジュールと比較して、オブジェクト内分類タスクにおけるモジュールの性能を評価する。
追加パラメータを1つだけ必要とすると、挿入されたモジュールは、ベースモデルの平均予測精度を15被験者で1\%以上向上させる。
このメソッドの重要なコンポーネントはソリューションの解釈可能性であり、いくつかの異なるテクニックを使って対処され、依存分析の一部として全体に含まれる。
関連論文リスト
- Feature Map Convergence Evaluation for Functional Module [14.53278086364748]
モデル収束度を評価するため,特徴マップ解析に基づく評価手法を提案する。
我々は,モデルの収束度を測定し,予測するための特徴マップ収束評価ネットワーク (FMCE-Net) を開発した。
これは機能的モジュールに対する最初の独立評価手法であり、知覚モデルに対するトレーニングアセスメントのための新しいパラダイムを提供する。
論文 参考訳(メタデータ) (2024-05-07T06:25:49Z) - Decomposing and Editing Predictions by Modeling Model Computation [75.37535202884463]
コンポーネントモデリングというタスクを導入します。
コンポーネントモデリングの目標は、MLモデルの予測をコンポーネントの観点から分解することだ。
コンポーネント属性を推定するスケーラブルなアルゴリズムであるCOARを提案する。
論文 参考訳(メタデータ) (2024-04-17T16:28:08Z) - R-Cut: Enhancing Explainability in Vision Transformers with Relationship
Weighted Out and Cut [14.382326829600283]
リレーションウェイトアウト」と「カット」の2つのモジュールを紹介します。
Cut"モジュールは、位置、テクスチャ、色などの要素を考慮して、きめ細かい特徴分解を行う。
我々は,ImageNetデータセット上で定性的かつ定量的な実験を行い,本手法の有効性を検証した。
論文 参考訳(メタデータ) (2023-07-18T08:03:51Z) - USER: Unified Semantic Enhancement with Momentum Contrast for Image-Text
Retrieval [115.28586222748478]
Image-Text Retrieval (ITR) は、与えられたクエリに意味のあるターゲットインスタンスを、他のモダリティから検索することを目的としている。
既存のアプローチは通常、2つの大きな制限に悩まされる。
論文 参考訳(メタデータ) (2023-01-17T12:42:58Z) - Dynamic Latent Separation for Deep Learning [67.62190501599176]
機械学習の中核的な問題は、複雑なデータに対するモデル予測のための表現力のある潜在変数を学習することである。
本稿では,表現性を向上し,部分的解釈を提供し,特定のアプリケーションに限定されないアプローチを開発する。
論文 参考訳(メタデータ) (2022-10-07T17:56:53Z) - Meta-Causal Feature Learning for Out-of-Distribution Generalization [71.38239243414091]
本稿では,協調タスク生成モジュール (BTG) とメタ因果特徴学習モジュール (MCFL) を含む,バランス付きメタ因果学習器 (BMCL) を提案する。
BMCLは、分類のためのクラス不変の視覚領域を効果的に識別し、最先端の手法の性能を向上させるための一般的なフレームワークとして機能する。
論文 参考訳(メタデータ) (2022-08-22T09:07:02Z) - A Monotonicity Constrained Attention Module for Emotion Classification
with Limited EEG Data [13.337234616440913]
このモジュールはモノトニック性に事前を組み込むことができるため、MCAM(Monotonicity Constrained Attention Module)と呼ばれる。
実験の結果, MCAMの有効性は, バックボーンネットワークの性能向上において, 最先端の注目モジュールに匹敵することがわかった。
論文 参考訳(メタデータ) (2022-08-17T08:47:29Z) - Hyperspectral and LiDAR data classification based on linear
self-attention [23.199857032603802]
ハイパースペクトル画像(HSI)とLiDARデータ共同分類のタスクに対して,効率的な線形自己アテンション融合モデルを提案する。
提案されたモデルはヒューストンデータセットで95.40%の精度を達成した。
論文 参考訳(メタデータ) (2021-04-06T05:57:41Z) - SparseBERT: Rethinking the Importance Analysis in Self-attention [107.68072039537311]
トランスフォーマーベースのモデルは、その強力な能力のために自然言語処理(NLP)タスクに人気がある。
事前学習モデルの注意マップの可視化は,自己着脱機構を理解するための直接的な方法の一つである。
本研究では,sparsebert設計の指導にも適用可能な微分可能アテンションマスク(dam)アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-02-25T14:13:44Z) - MM-FSOD: Meta and metric integrated few-shot object detection [14.631208179789583]
メトリクス学習とメタラーニングを統合した効果的なオブジェクト検出フレームワーク(MM-FSOD)を提案する。
我々のモデルは、トレーニングサンプルにない新しいカテゴリを正確に認識できるクラスに依存しない検出モデルである。
論文 参考訳(メタデータ) (2020-12-30T14:02:52Z) - Bayesian Attention Modules [65.52970388117923]
実装や最適化が容易な,スケーラブルな注目バージョンを提案する。
本実験は,提案手法が対応するベースラインに対して一貫した改善をもたらすことを示す。
論文 参考訳(メタデータ) (2020-10-20T20:30:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。