論文の概要: Performance of data-driven inner speech decoding with same-task EEG-fMRI
data fusion and bimodal models
- arxiv url: http://arxiv.org/abs/2306.10854v1
- Date: Mon, 19 Jun 2023 11:16:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-21 18:08:15.692132
- Title: Performance of data-driven inner speech decoding with same-task EEG-fMRI
data fusion and bimodal models
- Title(参考訳): 同タスクeeg-fmriデータ融合とバイモーダルモデルを用いたデータ駆動内音声復号法の性能
- Authors: Holly Wilson, Scott Wellington, Foteini Simistira Liwicki, Vibha
Gupta, Rajkumar Saini, Kanjar De, Nosheen Abid, Sumit Rakesh, Johan Eriksson,
Oliver Watts, Xi Chen, Mohammad Golbabaee, Michael J. Proulx, Marcus Liwicki,
Eamonn O'Neill, Benjamin Metcalfe
- Abstract要約: 2つの異なるバイモーダル融合法について検討した。fMRIとEEGの機械学習モデルから出力される確率ベクトルの結合と特徴工学によるデータ融合である。
データが基盤構造を示す場合、バイモーダルfMRI-EEG融合戦略を追求する場合、復号性能は改善される。
- 参考スコア(独自算出の注目度): 19.585417686103078
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Decoding inner speech from the brain signal via hybridisation of fMRI and EEG
data is explored to investigate the performance benefits over unimodal models.
Two different bimodal fusion approaches are examined: concatenation of
probability vectors output from unimodal fMRI and EEG machine learning models,
and data fusion with feature engineering. Same task inner speech data are
recorded from four participants, and different processing strategies are
compared and contrasted to previously-employed hybridisation methods. Data
across participants are discovered to encode different underlying structures,
which results in varying decoding performances between subject-dependent fusion
models. Decoding performance is demonstrated as improved when pursuing bimodal
fMRI-EEG fusion strategies, if the data show underlying structure.
- Abstract(参考訳): fmriと脳波データのハイブリダイゼーションを通じて脳信号から内部音声を復号し、単調モデルに対する性能上の利点について検討した。
ユニモーダルfmriと脳波機械学習モデルから出力される確率ベクトルの結合と、機能工学によるデータ融合の2つの異なるバイモーダル融合法を検討した。
課題内音声データを4人の参加者から記録し、前任のハイブリダイゼーション手法と異なる処理戦略を比較し、対比する。
参加者間のデータは、異なる基盤構造を符号化し、対象に依存した融合モデル間で異なる復号性能をもたらす。
データが基盤構造を示す場合、バイモーダルfMRI-EEG融合戦略を追求する場合、復号性能は改善される。
関連論文リスト
- MindFormer: Semantic Alignment of Multi-Subject fMRI for Brain Decoding [50.55024115943266]
本稿では,MindFormer を用いたマルチオブジェクト fMRI 信号のセマンティックアライメント手法を提案する。
このモデルは、fMRIから画像生成のための安定拡散モデルや、fMRIからテキスト生成のための大規模言語モデル(LLM)の条件付けに使用できるfMRI条件付き特徴ベクトルを生成するように設計されている。
実験の結果,MindFormerは意味的に一貫した画像とテキストを異なる主題にわたって生成することがわかった。
論文 参考訳(メタデータ) (2024-05-28T00:36:25Z) - Joint Multimodal Transformer for Emotion Recognition in the Wild [49.735299182004404]
マルチモーダル感情認識(MMER)システムは、通常、単調なシステムよりも優れている。
本稿では,キーベースのクロスアテンションと融合するために,ジョイントマルチモーダルトランス (JMT) を利用するMMER法を提案する。
論文 参考訳(メタデータ) (2024-03-15T17:23:38Z) - A Multimodal Fusion Network For Student Emotion Recognition Based on Transformer and Tensor Product [4.528221075598755]
本稿ではトランスフォーマーアーキテクチャとテンソル製品融合戦略に基づく新しいマルチモーダルモデルを提案する。
BERTのテキストベクトルとViTのイメージベクトルを組み合わせて、生徒の心理的条件を93.65%の精度で分類する。
論文 参考訳(メタデータ) (2024-03-13T13:16:26Z) - Multimodal Pathway: Improve Transformers with Irrelevant Data from Other Modalities [56.666806962214565]
我々は,他のモダリティからの無関係なデータを用いて,特定のモダリティのトランスフォーマーを改善することを提案する。
我々は、他のモダリティのデータで訓練された補助変圧器を使用し、2つのモデルのコンポーネントを接続するための経路を構築している。
我々は、他のモダリティの無関係なデータを用いて、顕著で一貫したパフォーマンス改善を観察する。
論文 参考訳(メタデータ) (2024-01-25T18:59:58Z) - Images in Discrete Choice Modeling: Addressing Data Isomorphism in
Multi-Modality Inputs [77.54052164713394]
本稿では,離散選択モデリング(DCM)と機械学習の交わりについて考察する。
本稿では,DCMフレームワーク内の従来の表型入力と同型情報を共有する高次元画像データの埋め込み結果について検討する。
論文 参考訳(メタデータ) (2023-12-22T14:33:54Z) - Missing-modality Enabled Multi-modal Fusion Architecture for Medical
Data [8.472576865966744]
マルチモーダルデータを融合することで、ディープラーニングモデルの性能を向上させることができる。
欠失モダリティは、患者の特異性によって医療データに共通する。
本研究では、欠落したモダリティに対して堅牢な医療データのための効率的なマルチモーダル融合アーキテクチャを開発した。
論文 参考訳(メタデータ) (2023-09-27T09:46:07Z) - Multistage linguistic conditioning of convolutional layers for speech
emotion recognition [7.482371204083917]
分類的・次元音声感情認識(SER)におけるテキストと音声の深層融合の有効性について検討する。
深層ニューラルネットワーク(DNN)の複数の層に2つの情報ストリームを統合する新しい多段階融合法を提案する。
広く使われているIEMOCAPとMSP-Podcastデータベースの実験により、この2つの融合法は浅い(後期)核融合ベースラインよりも明らかに優れていることが示された。
論文 参考訳(メタデータ) (2021-10-13T11:28:04Z) - Bi-Bimodal Modality Fusion for Correlation-Controlled Multimodal
Sentiment Analysis [96.46952672172021]
Bi-Bimodal Fusion Network (BBFN) は、2対のモダリティ表現で融合を行う新しいエンドツーエンドネットワークである。
モデルは、モダリティ間の既知の情報不均衡により、2つのバイモーダルペアを入力として取る。
論文 参考訳(メタデータ) (2021-07-28T23:33:42Z) - Attention Bottlenecks for Multimodal Fusion [90.75885715478054]
機械知覚モデルは典型的にはモダリティに特化しており、単調なベンチマークのために最適化されている。
複数の層でのモジュラリティ融合に「融合」を用いる新しいトランスフォーマーアーキテクチャを導入する。
我々は、徹底的なアブレーション研究を行い、複数のオーディオ視覚分類ベンチマークで最先端の結果を得る。
論文 参考訳(メタデータ) (2021-06-30T22:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。