論文の概要: DAL: Feature Learning from Overt Speech to Decode Imagined Speech-based
EEG Signals with Convolutional Autoencoder
- arxiv url: http://arxiv.org/abs/2107.07064v1
- Date: Thu, 15 Jul 2021 01:13:19 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-16 13:46:39.783400
- Title: DAL: Feature Learning from Overt Speech to Decode Imagined Speech-based
EEG Signals with Convolutional Autoencoder
- Title(参考訳): DAL:畳み込みオートエンコーダを用いた過剰音声から脳波のデコードへの特徴学習
- Authors: Dae-Hyeok Lee, Sung-Jin Kim, Seong-Whan Lee
- Abstract要約: 本研究は,音声による脳波信号を自動エンコーダで復号化するために,音声の脳波特徴を用いた最初の試みである。
4つの単語を分類すると、DALの平均精度は48.41%だった。
w/oとw/EEGの特徴を比較すると、過剰音声の脳波の特徴を含む場合のパフォーマンスは7.42%向上した。
- 参考スコア(独自算出の注目度): 24.63367043284252
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Brain-computer interface (BCI) is one of the tools which enables the
communication between humans and devices by reflecting intention and status of
humans. With the development of artificial intelligence, the interest in
communication between humans and drones using electroencephalogram (EEG) is
increased. Especially, in the case of controlling drone swarms such as
direction or formation, there are many advantages compared with controlling a
drone unit. Imagined speech is one of the endogenous BCI paradigms, which can
identify intentions of users. When conducting imagined speech, the users
imagine the pronunciation as if actually speaking. In contrast, overt speech is
a task in which the users directly pronounce the words. When controlling drone
swarms using imagined speech, complex commands can be delivered more
intuitively, but decoding performance is lower than that of other endogenous
BCI paradigms. We proposed the Deep-autoleaner (DAL) to learn EEG features of
overt speech for imagined speech-based EEG signals classification. To the best
of our knowledge, this study is the first attempt to use EEG features of overt
speech to decode imagined speech-based EEG signals with an autoencoder. A total
of eight subjects participated in the experiment. When classifying four words,
the average accuracy of the DAL was 48.41%. In addition, when comparing the
performance between w/o and w/ EEG features of overt speech, there was a
performance improvement of 7.42% when including EEG features of overt speech.
Hence, we demonstrated that EEG features of overt speech could improve the
decoding performance of imagined speech.
- Abstract(参考訳): 脳コンピュータインタフェース(BCI)は、人間の意図とステータスを反映して人間とデバイス間のコミュニケーションを可能にするツールの1つである。
人工知能の発展に伴い、脳波(EEG)を用いた人間とドローンのコミュニケーションへの関心が高まっている。
特に、方向やフォーメーションなどのドローン群を制御する場合、ドローンユニットを制御することに比べ、多くの利点がある。
音声は内在的BCIパラダイムの一つであり、ユーザの意図を識別することができる。
想像的な会話を行うとき、ユーザーは発音をまるで実際に話すかのように想像する。
対照的に、オーバートスピーチは、ユーザーが直接単語を発音するタスクである。
想像上の音声を使ってドローン群を制御する場合、複雑なコマンドはより直感的に配信できるが、デコード性能は他の内在的なbciパラダイムよりも低い。
音声を用いた脳波信号分類において,脳波の特徴を学習するためのDeep-autoleaner (DAL) を提案する。
我々の知る限り、この研究は、オーバート音声の脳波特徴を用いて、想像上の音声に基づく脳波信号をオートエンコーダで復号する最初の試みである。
実験には合計8人の被験者が参加した。
4つの単語を分類すると、DALの平均精度は48.41%だった。
また, 音声のw/o特徴とw/EEG特徴の比較では, 音声の脳波特徴を含めると7.42%の性能改善が見られた。
そこで本研究では,音声の脳波特性が予測音声の復号性能を向上できることを実証した。
関連論文リスト
- MindSpeech: Continuous Imagined Speech Decoding using High-Density fNIRS and Prompt Tuning for Advanced Human-AI Interaction [0.0]
本稿では,脳とAIの直接インターフェースを開発することによって,人間とAIのインタラクションを実現する新しい手法を提案する。
我々はMindSpeechと呼ばれる新しいAIモデルについて論じる。
4名中3名に対してBLEU-1,BERT Pスコアなどの指標を有意に改善した。
論文 参考訳(メタデータ) (2024-07-25T16:39:21Z) - Toward Fully-End-to-End Listened Speech Decoding from EEG Signals [29.548052495254257]
脳波信号からの完全エンドツーエンド音声デコーディングのための新しいフレームワークであるFESDEを提案する。
提案手法は,脳波モジュールと音声モジュール,およびコネクタから構成される。
音声符号化のモデル特性を明らかにするために, きめ細かい音素解析を行った。
論文 参考訳(メタデータ) (2024-06-12T21:08:12Z) - No More Mumbles: Enhancing Robot Intelligibility through Speech Adaptation [7.675340768192281]
39名の参加者を対象とした音声理解研究を行った。
実験の結果,音質のよい空間は,知性やユーザ体験と正の相関関係があることが示唆された。
我々は,ロボットの音声パラメータを異なるユーザや空間に適応させる畳み込みニューラルネットワークモデルを開発した。
論文 参考訳(メタデータ) (2024-05-15T21:28:55Z) - EEG2TEXT: Open Vocabulary EEG-to-Text Decoding with EEG Pre-Training and Multi-View Transformer [4.863362296028391]
本稿では,脳波からテキストへのデコーディングの精度を向上させる新しい手法を提案する。
EEG2 TEXTUREは、コミュニケーションを容易にするための高性能なオープン語彙脳-テキストシステムの可能性を示している。
論文 参考訳(メタデータ) (2024-05-03T15:14:19Z) - Decoding speech perception from non-invasive brain recordings [48.46819575538446]
非侵襲的な記録から知覚音声の自己教師付き表現をデコードするために、コントラスト学習で訓練されたモデルを導入する。
我々のモデルでは、3秒のMEG信号から、1,000以上の異なる可能性から最大41%の精度で対応する音声セグメントを識別できる。
論文 参考訳(メタデータ) (2022-08-25T10:01:43Z) - Accurate Emotion Strength Assessment for Seen and Unseen Speech Based on
Data-Driven Deep Learning [70.30713251031052]
本研究では,データ駆動型深層学習モデル,すなわちSenseNetを提案する。
実験の結果,提案した強度ネットの予測感情強度は,目視と目視の両方の真理値と高い相関性を示した。
論文 参考訳(メタデータ) (2022-06-15T01:25:32Z) - Textless Speech Emotion Conversion using Decomposed and Discrete
Representations [49.55101900501656]
我々は、音声を、コンテンツ単位、F0、話者、感情からなる離散的、非絡み合いの学習表現に分解する。
まず、内容単位を対象の感情に翻訳し、その単位に基づいて韻律的特徴を予測することによって、音声内容を変更する。
最後に、予測された表現をニューラルボコーダに入力して音声波形を生成する。
論文 参考訳(メタデータ) (2021-11-14T18:16:42Z) - Wav2vec-Switch: Contrastive Learning from Original-noisy Speech Pairs
for Robust Speech Recognition [52.71604809100364]
音声の文脈化表現に雑音のロバスト性をエンコードするwav2vec-Switchを提案する。
具体的には、オリジナルノイズの多い音声ペアを同時にwav2vec 2.0ネットワークに供給する。
既存のコントラスト学習タスクに加えて、原音声と雑音音声の量子化表現を追加の予測対象に切り替える。
論文 参考訳(メタデータ) (2021-10-11T00:08:48Z) - Learning Explicit Prosody Models and Deep Speaker Embeddings for
Atypical Voice Conversion [60.808838088376675]
本稿では,明示的な韻律モデルと深層話者埋め込み学習を用いたVCシステムを提案する。
韻律補正器は音素埋め込みを取り入れ、典型的な音素持続時間とピッチ値を推定する。
変換モデルは、音素埋め込みと典型的な韻律特徴を入力として、変換された音声を生成する。
論文 参考訳(メタデータ) (2020-11-03T13:08:53Z) - VAW-GAN for Disentanglement and Recomposition of Emotional Elements in
Speech [91.92456020841438]
変分自己符号化ワッサーシュタイン生成対向ネットワーク(VAW-GAN)による音声の感情要素のアンタングル化と再分解について検討する。
本稿では,2つのVAW-GANパイプライン,1つはスペクトル変換,もう1つは韻律変換を含む話者依存型ECVフレームワークを提案する。
提案手法の有効性を客観評価と主観評価の両方で検証した。
論文 参考訳(メタデータ) (2020-11-03T08:49:33Z) - Detection of AI-Synthesized Speech Using Cepstral & Bispectral
Statistics [0.0]
本稿では,AI合成音声と人間の音声を区別する手法を提案する。
高次統計は、合成音声と比較して人間の音声の相関が低い。
また, ケプストラム分析により, 合成音声に欠落する人間の音声の耐久性成分が明らかになった。
論文 参考訳(メタデータ) (2020-09-03T21:29:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。