論文の概要: Generating EEG features from Acoustic features
- arxiv url: http://arxiv.org/abs/2003.00007v2
- Date: Thu, 19 Mar 2020 01:33:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 20:25:12.885630
- Title: Generating EEG features from Acoustic features
- Title(参考訳): 音響特徴から脳波特徴を生成する
- Authors: Gautam Krishna, Co Tran, Mason Carnahan, Yan Han, Ahmed H Tewfik
- Abstract要約: 脳波の特徴を音響的特徴から予測するために、リカレントニューラルネットワーク(RNN)に基づく回帰モデルとGAN(Generative Adversarial Network)を用いる。
脳波を用いた音声合成における従来の課題と比較した。
- 参考スコア(独自算出の注目度): 13.089515271477824
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we demonstrate predicting electroencephalograpgy (EEG) features
from acoustic features using recurrent neural network (RNN) based regression
model and generative adversarial network (GAN). We predict various types of EEG
features from acoustic features. We compare our results with the previously
studied problem on speech synthesis using EEG and our results demonstrate that
EEG features can be generated from acoustic features with lower root mean
square error (RMSE), normalized RMSE values compared to generating acoustic
features from EEG features (ie: speech synthesis using EEG) when tested using
the same data sets.
- Abstract(参考訳): 本稿では,rnn(recurrent neural network)に基づく回帰モデルとgan(generative adversarial network)を用いた音響特徴からの脳波予測について述べる。
各種脳波特徴を音響的特徴から予測する。
脳波を用いた音声合成の問題点と比較し,脳波を用いた音声合成では,脳波を用いた音声合成では,脳波を用いた音声合成よりも低根平均二乗誤差 (RMSE) の音響特徴から脳波特性が生成できることを実証した。
関連論文リスト
- DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - Task-oriented Self-supervised Learning for Anomaly Detection in
Electroencephalography [51.45515911920534]
タスク指向型自己教師型学習手法を提案する。
大きなカーネルを持つ特定の2つの分岐畳み込みニューラルネットワークを特徴抽出器として設計する。
効果的に設計され、訓練された特徴抽出器は、より優れた特徴表現を脳波から抽出できることが示されている。
論文 参考訳(メタデータ) (2022-07-04T13:15:08Z) - SOMOS: The Samsung Open MOS Dataset for the Evaluation of Neural
Text-to-Speech Synthesis [50.236929707024245]
SOMOSデータセットは、単にニューラルテキスト音声(TTS)サンプルからなる最初の大規模平均世論スコア(MOS)データセットである。
パブリックドメイン音声データセットであるLJ音声の合成発話20Kから成っている。
論文 参考訳(メタデータ) (2022-04-06T18:45:20Z) - Exploiting Cross Domain Acoustic-to-articulatory Inverted Features For
Disordered Speech Recognition [57.15942628305797]
調音機能は音響信号歪みに不変であり、正常音声の自動音声認識システムにうまく組み込まれている。
本稿では,15時間 TORGO コーパスの並列音響・調音データをモデルトレーニングに用いるクロスドメイン音響・調音(A2A)インバージョン手法を提案する。
クロスドメインは102.7時間のUASpeechコーパスに適応し、調音的特徴を生産する。
論文 参考訳(メタデータ) (2022-03-19T08:47:18Z) - EEGminer: Discovering Interpretable Features of Brain Activity with
Learnable Filters [72.19032452642728]
本稿では,学習可能なフィルタと事前決定された特徴抽出モジュールからなる新しい識別可能なEEGデコーディングパイプラインを提案する。
我々は,SEEDデータセットおよび前例のない大きさの新たな脳波データセット上で,脳波信号からの感情認識に向けたモデルの有用性を実証する。
発見された特徴は、以前の神経科学の研究と一致し、音楽聴取中の左右の時間領域間の機能的接続プロファイルの顕著な相違など、新たな洞察を提供する。
論文 参考訳(メタデータ) (2021-10-19T14:22:04Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z) - Constrained Variational Autoencoder for improving EEG based Speech
Recognition Systems [3.5786621294068377]
本稿では、新しい制約付き損失関数を持つリカレントニューラルネットワーク(RNN)に基づく変分オートエンコーダ(VAE)モデルを提案する。
本研究では, 生の脳波特徴から生成された脳波特徴を用いて, 連続的および孤立的な音声認識システムを構築し, 実験を行った。
論文 参考訳(メタデータ) (2020-06-01T06:03:50Z) - Improving EEG based continuous speech recognition using GAN [3.5786621294068377]
我々は、GAN(Generative Adversarial Network)を用いて、生脳波の特徴からより有意義な脳波(EEG)特徴を生成できることを実証した。
提案手法は付加的なセンサ情報を用いることなく実装することができるが,[1]著者らは,脳波に基づく連続音声認識システムの性能向上のために,音響情報や調音情報などの付加的特徴を用いている。
論文 参考訳(メタデータ) (2020-05-29T06:11:33Z) - Predicting Different Acoustic Features from EEG and towards direct
synthesis of Audio Waveform from EEG [3.5786621294068377]
著者らは脳波(EEG)の特徴から音声を合成するための予備的な結果を提供した。
深層学習モデルは生の脳波波形信号を入力とし、直接出力として音声波形を生成する。
本稿では,音声知覚・生成過程における非侵襲的脳波信号と音響的特徴の関連性について述べる。
論文 参考訳(メタデータ) (2020-05-29T05:50:03Z) - Advancing Speech Synthesis using EEG [3.5786621294068377]
音声文と平行に記録された脳波(EEG)の特徴から音響的特徴を予測するために,注目度モデルを導入する。
まず注意モデルを用いて脳波特徴から直接音響特徴を予測し、次に2段階のアプローチを用いて脳波特徴から音響特徴を予測する。
論文 参考訳(メタデータ) (2020-04-09T23:58:40Z) - Speech Synthesis using EEG [4.312746668772343]
我々は、脳波特徴から直接音響的特徴を予測するために、リカレントニューラルネットワーク(RNN)回帰モデルを利用する。
本稿では,脳波を用いた音声合成結果について述べる。
論文 参考訳(メタデータ) (2020-02-22T03:53:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。