論文の概要: A Deep-Learning-Based Neural Decoding Framework for Emotional
Brain-Computer Interfaces
- arxiv url: http://arxiv.org/abs/2303.04391v1
- Date: Wed, 8 Mar 2023 05:52:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-03-09 15:01:39.742507
- Title: A Deep-Learning-Based Neural Decoding Framework for Emotional
Brain-Computer Interfaces
- Title(参考訳): 深層学習に基づく感情脳-コンピュータインタフェースのためのニューラルデコーディングフレームワーク
- Authors: Xinming Wu, Ji Dai
- Abstract要約: Emo-Netは、信頼性学習(CL)コンポーネントとディープラーニング(DL)コンポーネントで構成される、ニューラルネットワークデコーディングフレームワークである。
サルの行動から得られた複数のデータセットから感情を復号することができる。
- 参考スコア(独自算出の注目度): 1.52292571922932
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reading emotions precisely from segments of neural activity is crucial for
the development of emotional brain-computer interfaces. Among all neural
decoding algorithms, deep learning (DL) holds the potential to become the most
promising one, yet progress has been limited in recent years. One possible
reason is that the efficacy of DL strongly relies on training samples, yet the
neural data used for training are often from non-human primates and mixed with
plenty of noise, which in turn mislead the training of DL models. Given it is
difficult to accurately determine animals' emotions from humans' perspective,
we assume the dominant noise in neural data representing different emotions is
the labeling error. Here, we report the development and application of a neural
decoding framework called Emo-Net that consists of a confidence learning (CL)
component and a DL component. The framework is fully data-driven and is capable
of decoding emotions from multiple datasets obtained from behaving monkeys. In
addition to improving the decoding ability, Emo-Net significantly improves the
performance of the base DL models, making emotion recognition in animal models
possible. In summary, this framework may inspire novel understandings of the
neural basis of emotion and drive the realization of close-loop emotional
brain-computer interfaces.
- Abstract(参考訳): 神経活動のセグメントから感情を正確に読み取ることは、感情脳-コンピュータインターフェースの開発に不可欠である。
すべてのニューラルデコーディングアルゴリズムの中で、ディープラーニング(DL)が最も有望になる可能性を持っているが、近年は進歩が限られている。
DLの有効性はトレーニングサンプルに強く依存しているが、トレーニングに使用される神経データは非ヒト霊長類からのものであり、多くのノイズが混ざり合っており、DLモデルのトレーニングを誤解させる可能性がある。
動物の感情を人間の視点から正確に決定することは困難であり、異なる感情を表す神経データにおける支配的なノイズはラベルエラーであると仮定する。
本稿では、信頼学習(CL)コンポーネントとDLコンポーネントからなるEmo-Netと呼ばれるニューラルネットワークデコーディングフレームワークの開発と応用について報告する。
このフレームワークは完全にデータ駆動であり、猿から得られた複数のデータセットから感情をデコードすることができる。
復号能力の向上に加えて、Emo-Netは基礎となるDLモデルの性能を大幅に改善し、動物モデルにおける感情認識を可能にする。
要約すると、このフレームワークは感情の神経基盤に対する新しい理解を刺激し、近ループの感情脳-コンピュータインターフェースの実現を促進するかもしれない。
関連論文リスト
- Learning Emotion Representations from Verbal and Nonverbal Communication [7.747924294389427]
本稿では,言語・非言語コミュニケーションから視覚的感情表現を抽出する最初の事前学習パラダイムであるEmotionCLIPを提案する。
EmotionCLIPは、感情誘導型コントラスト学習を用いて、主観的文脈エンコーディングと言語感情キューを通じて、非言語感情キューへの参加を誘導する。
EmotionCLIPは、感情理解におけるデータ不足の一般的な問題に対処し、関連する領域の進歩を促進する。
論文 参考訳(メタデータ) (2023-05-22T21:36:55Z) - Multi-view Multi-label Fine-grained Emotion Decoding from Human Brain
Activity [9.446422699647625]
人間の脳活動からの感情状態の復号は、脳とコンピュータのインターフェースにおいて重要な役割を果たす。
既存の感情復号法には2つの大きな制限がある。
感情の微粒化のための多視点マルチラベルハイブリッドモデルを提案する。
論文 参考訳(メタデータ) (2022-10-26T05:56:54Z) - Overcoming the Domain Gap in Neural Action Representations [60.47807856873544]
3Dポーズデータは、手動で介入することなく、マルチビュービデオシーケンスから確実に抽出できる。
本稿では,ニューラルアクション表現の符号化を,ニューラルアクションと行動拡張のセットと共に導くために使用することを提案する。
ドメインギャップを減らすために、トレーニングの間、同様の行動をしているように見える動物間で神経と行動のデータを取り替える。
論文 参考訳(メタデータ) (2021-12-02T12:45:46Z) - Overcoming the Domain Gap in Contrastive Learning of Neural Action
Representations [60.47807856873544]
神経科学の基本的な目標は、神経活動と行動の関係を理解することである。
我々は,ハエが自然に生み出す行動からなる新しいマルチモーダルデータセットを作成した。
このデータセットと新しい拡張セットは、神経科学における自己教師あり学習手法の適用を加速することを約束します。
論文 参考訳(メタデータ) (2021-11-29T15:27:51Z) - Backprop-Free Reinforcement Learning with Active Neural Generative
Coding [84.11376568625353]
動的環境におけるエラー(バックプロップ)のバックプロパゲーションを伴わない行動駆動型生成モデルの学習のための計算フレームワークを提案する。
我々は、まばらな報酬でも機能するインテリジェントエージェントを開発し、推論として計画の認知理論からインスピレーションを得ている。
我々のエージェントの堅牢な性能は、神経推論と学習のためのバックプロップフリーアプローチがゴール指向の行動を促進するという有望な証拠を提供する。
論文 参考訳(メタデータ) (2021-07-10T19:02:27Z) - Continuous Emotion Recognition with Spatiotemporal Convolutional Neural
Networks [82.54695985117783]
In-theld でキャプチャした長いビデオシーケンスを用いて,持続的な感情認識のための最先端のディープラーニングアーキテクチャの適合性を検討する。
我々は,2D-CNNと長期記憶ユニットを組み合わせた畳み込みリカレントニューラルネットワークと,2D-CNNモデルの微調整時の重みを膨らませて構築した膨らませた3D-CNNモデルを開発した。
論文 参考訳(メタデータ) (2020-11-18T13:42:05Z) - Artificial Neural Variability for Deep Learning: On Overfitting, Noise
Memorization, and Catastrophic Forgetting [135.0863818867184]
人工ニューラルネットワーク(ANV)は、ニューラルネットワークが自然のニューラルネットワークからいくつかの利点を学ぶのに役立つ。
ANVは、トレーニングデータと学習モデルの間の相互情報の暗黙の正則化として機能する。
過度にフィットし、ノイズの記憶をラベル付けし、無視できるコストで破滅的な忘れを効果的に軽減することができる。
論文 参考訳(メタデータ) (2020-11-12T06:06:33Z) - Meta Transfer Learning for Emotion Recognition [42.61707533351803]
本研究では、ある視覚的/聴覚的感情領域から学習した感情知識を、別の視覚的/聴覚的感情領域に伝達できるPathNetに基づく伝達学習手法を提案する。
提案システムは感情認識の性能を向上し,最近提案された微調整/事前学習モデルに基づく伝達学習手法よりも性能が大幅に向上する。
論文 参考訳(メタデータ) (2020-06-23T00:25:28Z) - Deep learning approaches for neural decoding: from CNNs to LSTMs and
spikes to fMRI [2.0178765779788495]
神経信号から直接の行動、知覚、認知状態の復号化は、脳-コンピュータインタフェースの研究に応用されている。
過去10年間で、ディープラーニングは多くの機械学習タスクにおいて最先端の手法になっている。
ディープラーニングは、幅広いタスクにわたるニューラルデコーディングの正確性と柔軟性を改善するための有用なツールであることが示されている。
論文 参考訳(メタデータ) (2020-05-19T18:10:35Z) - Continuous Emotion Recognition via Deep Convolutional Autoencoder and
Support Vector Regressor [70.2226417364135]
マシンはユーザの感情状態を高い精度で認識できることが不可欠である。
ディープニューラルネットワークは感情を認識する上で大きな成功を収めている。
表情認識に基づく連続的感情認識のための新しいモデルを提案する。
論文 参考訳(メタデータ) (2020-01-31T17:47:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。