論文の概要: Deep Neural Networks on EEG Signals to Predict Auditory Attention Score
Using Gramian Angular Difference Field
- arxiv url: http://arxiv.org/abs/2110.12503v1
- Date: Sun, 24 Oct 2021 17:58:14 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-27 10:27:01.625989
- Title: Deep Neural Networks on EEG Signals to Predict Auditory Attention Score
Using Gramian Angular Difference Field
- Title(参考訳): グラミアン角差場を用いた脳波信号のディープニューラルネットワークによる聴覚注意スコア予測
- Authors: Mahak Kothari, Shreyansh Joshi, Adarsh Nandanwar, Aadetya Jaiswal,
Veeky Baths
- Abstract要約: ある意味では、個人の聴覚的注意スコアは、聴覚的タスクにおいて、その人が持つことができる焦点を示す。
深層学習の最近の進歩と、神経活動を記録する非侵襲的技術は、脳波(EEG)などの技術とともに、個人の聴覚的注意スコアを予測することができるのか?
本稿では,14チャンネルの脳波信号を用いて脳の電気的活動に基づいて聴覚的注意度を推定する問題に焦点をあてる。
- 参考スコア(独自算出の注目度): 1.9899603776429056
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Auditory attention is a selective type of hearing in which people focus their
attention intentionally on a specific source of a sound or spoken words whilst
ignoring or inhibiting other auditory stimuli. In some sense, the auditory
attention score of an individual shows the focus the person can have in
auditory tasks. The recent advancements in deep learning and in the
non-invasive technologies recording neural activity beg the question, can deep
learning along with technologies such as electroencephalography (EEG) be used
to predict the auditory attention score of an individual? In this paper, we
focus on this very problem of estimating a person's auditory attention level
based on their brain's electrical activity captured using 14-channeled EEG
signals. More specifically, we deal with attention estimation as a regression
problem. The work has been performed on the publicly available Phyaat dataset.
The concept of Gramian Angular Difference Field (GADF) has been used to convert
time-series EEG data into an image having 14 channels, enabling us to train
various deep learning models such as 2D CNN, 3D CNN, and convolutional
autoencoders. Their performances have been compared amongst themselves as well
as with the work done previously. Amongst the different models we tried, 2D CNN
gave the best performance. It outperformed the existing methods by a decent
margin of 0.22 mean absolute error (MAE).
- Abstract(参考訳): 聴覚注意は、他の聴覚刺激を無視したり妨げたりしながら、意図的に特定の音源や話し言葉に注意を集中させる選択的タイプの聴覚である。
ある意味では、個人の聴覚的注意スコアは、その人が聴覚的タスクにおいて持つことができる焦点を示す。
深層学習の最近の進歩と、神経活動を記録する非侵襲的技術は、脳波(EEG)などの技術とともに、個人の聴覚的注意スコアを予測することができるのか?
本稿では,14チャンネルの脳波信号を用いて脳の電気的活動に基づいて聴覚的注意度を推定する問題に焦点をあてる。
より具体的には、回帰問題として注意推定を扱う。
この作業は、一般公開されているPhyaatデータセット上で実施されている。
GADF(Gramian Angular Difference Field)の概念は、時系列脳波データを14チャンネルのイメージに変換するために使われており、2D CNN、3D CNN、畳み込みオートエンコーダなどの様々なディープラーニングモデルを訓練することができる。
彼らのパフォーマンスは、以前行われたものと比べられている。
私たちが試したさまざまなモデルの中で、2D CNNは最高のパフォーマンスを与えました。
これは既存の手法を0.22の平均絶対誤差(MAE)で上回った。
関連論文リスト
- Single-word Auditory Attention Decoding Using Deep Learning Model [9.698931956476692]
聴覚刺激とそれに対応する脳反応を比較して聴覚注意を識別することは、聴覚注意復号法(AAD)として知られている。
本稿では,この課題に対処するため,EEGNetに基づくディープラーニングアプローチを提案する。
論文 参考訳(メタデータ) (2024-10-15T21:57:19Z) - EGNN-C+: Interpretable Evolving Granular Neural Network and Application
in Classification of Weakly-Supervised EEG Data Streams [0.0]
グラニュラーニューラルネットワーク(eGNN-C+)の進化のための改良型インクリメンタル学習アルゴリズムを提案する。
脳波(EEG)信号における感情関連パターンの分類に着目する。
論文 参考訳(メタデータ) (2024-02-26T15:11:41Z) - Do You Remember? Overcoming Catastrophic Forgetting for Fake Audio
Detection [54.20974251478516]
本稿では,破滅的な忘れを克服するために,偽音声検出のための連続学習アルゴリズムを提案する。
検出ネットワークを微調整する場合,本手法では,真の発話と偽発話の比率に応じて,重み付けの方向を適応的に計算する。
本手法は,音声の感情認識などの関連分野に容易に一般化できる。
論文 参考訳(メタデータ) (2023-08-07T05:05:49Z) - Corticomorphic Hybrid CNN-SNN Architecture for EEG-based Low-footprint
Low-latency Auditory Attention Detection [8.549433398954738]
マルチスピーカー「カクテルパーティー」のシナリオでは、リスナーは興味のある話者に選択的に出席することができる。
ニューラルネットワーク(ANN)を用いた脳波による聴覚的注意検出の最近の動向は,エッジコンピューティングプラットフォームでは実用的ではない。
聴覚野に触発されたハイブリッド畳み込みニューラルネットワーク(CNN-SNN)アーキテクチャを提案する。
論文 参考訳(メタデータ) (2023-07-13T20:33:39Z) - EchoVest: Real-Time Sound Classification and Depth Perception Expressed
through Transcutaneous Electrical Nerve Stimulation [0.0]
我々は、視覚障害者や聴覚障害者が自分の環境をより直感的に認識できるように、新しい補助デバイス、EchoVestを開発した。
EchoVestは、音の音源に基づいて経皮的電気神経刺激(TENS)を利用して、ユーザの身体に振動を伝達する。
我々は、CNNベースの機械学習モデルよりも精度と計算コストにおいて、分類タスクに最もよく使用される機械学習モデルより優れていることを目指していた。
論文 参考訳(メタデータ) (2023-07-10T14:43:32Z) - Jointly Learning Visual and Auditory Speech Representations from Raw
Data [108.68531445641769]
RAVEnは視覚と聴覚の表現を協調的に学習する自己教師型マルチモーダルアプローチである。
我々の設計は、ビデオとオーディオの固有の違いによって駆動される非対称なw.r.t.である。
RAVEnは視覚音声認識における全自己指導手法を超越している。
論文 参考訳(メタデータ) (2022-12-12T21:04:06Z) - Toward a realistic model of speech processing in the brain with
self-supervised learning [67.7130239674153]
生波形で訓練された自己教師型アルゴリズムは有望な候補である。
We show that Wav2Vec 2.0 learns brain-like representations with little as 600 hours of unlabelled speech。
論文 参考訳(メタデータ) (2022-06-03T17:01:46Z) - Audio-visual Representation Learning for Anomaly Events Detection in
Crowds [119.72951028190586]
本稿では,音声と視覚信号の同時モデリングにおけるマルチモーダル学習の活用を試みる。
監視シーンにおける合成音声視覚データセットであるSHADEデータセットについて実験を行った。
音声信号の導入は,異常事象の検出性能を効果的に向上し,他の最先端手法よりも優れることがわかった。
論文 参考訳(メタデータ) (2021-10-28T02:42:48Z) - Noisy Agents: Self-supervised Exploration by Predicting Auditory Events [127.82594819117753]
本稿では, エージェントが行動の因果的影響を理解することを奨励する, 強化学習(Reinforcement Learning, RL)の本質的なモチベーションを提案する。
ニューラルネットワークを用いて聴覚事象を予測し、予測誤差を本質的な報奨として利用し、RL探索を誘導する。
Atariゲームの実験結果から、我々の新しい本質的な動機は、最先端のベースラインを著しく上回ることがわかった。
論文 参考訳(メタデータ) (2020-07-27T17:59:08Z) - Human brain activity for machine attention [8.673635963837532]
我々は脳波(EEG)という神経科学データを初めて活用し、人間の脳の言語処理について神経の注意モデルに知らせる。
我々は、理論上動機付けられた収穫と無作為な森林分枝を組み合わせることで、機械の注意を監督する脳波の特徴を見つける手法を考案した。
これらの特徴を関係分類の注意を規則化するために応用し、脳波が強い基準線よりも情報的であることを示す。
論文 参考訳(メタデータ) (2020-06-09T08:39:07Z) - An End-to-End Visual-Audio Attention Network for Emotion Recognition in
User-Generated Videos [64.91614454412257]
畳み込みニューラルネットワーク(CNN)に基づくエンドツーエンドの映像感情認識を提案する。
具体的には,空間的,チャネル的,時間的注意を視覚的に3D CNNに統合し,時間的注意をオーディオ2D CNNに組み込む新しいアーキテクチャである,深層ビジュアル・オーディオ・アテンション・ネットワーク(VAANet)を開発した。
論文 参考訳(メタデータ) (2020-02-12T15:33:59Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。