論文の概要: CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion
- arxiv url: http://arxiv.org/abs/2311.07788v1
- Date: Mon, 13 Nov 2023 22:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:07:33.876291
- Title: CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion
- Title(参考訳): CSLP-AE:ゼロショット脳波信号変換のためのコントラスト型スプリットレイテンシ自動エンコーダフレームワーク
- Authors: Anders Vestergaard N{\o}rskov, Alexander Neergaard Zahid and Morten
M{\o}rup
- Abstract要約: 脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Electroencephalography (EEG) is a prominent non-invasive neuroimaging
technique providing insights into brain function. Unfortunately, EEG data
exhibit a high degree of noise and variability across subjects hampering
generalizable signal extraction. Therefore, a key aim in EEG analysis is to
extract the underlying neural activation (content) as well as to account for
the individual subject variability (style). We hypothesize that the ability to
convert EEG signals between tasks and subjects requires the extraction of
latent representations accounting for content and style. Inspired by recent
advancements in voice conversion technologies, we propose a novel contrastive
split-latent permutation autoencoder (CSLP-AE) framework that directly
optimizes for EEG conversion. Importantly, the latent representations are
guided using contrastive learning to promote the latent splits to explicitly
represent subject (style) and task (content). We contrast CSLP-AE to
conventional supervised, unsupervised (AE), and self-supervised (contrastive
learning) training and find that the proposed approach provides favorable
generalizable characterizations of subject and task. Importantly, the procedure
also enables zero-shot conversion between unseen subjects. While the present
work only considers conversion of EEG, the proposed CSLP-AE provides a general
framework for signal conversion and extraction of content (task activation) and
style (subject variability) components of general interest for the modeling and
analysis of biological signals.
- Abstract(参考訳): eeg(electroencephalography)は、脳機能に関する洞察を提供する、非侵襲的神経画像技術である。
不幸なことに、脳波データは、一般的な信号抽出を妨げる被検者間で高いノイズと変動を示す。
したがって、脳波分析の重要な目的は、基礎となる神経活性化(コンテンツ)を抽出し、個々の主題変動(スタイル)を説明することである。
タスクと課題間で脳波信号を変換する能力には,内容やスタイルを考慮に入れた潜在表現の抽出が必要であると仮定した。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
重要なことに、潜在表現は、対象(スタイル)とタスク(コンテンツ)を明示的に表現するために潜在分割を促進するために、対比学習を用いて誘導される。
CSLP-AEは従来の教師なし・教師なし(AE)・自己教師付き(コントラスト学習)の訓練と対比し,提案手法が主観的・課題の汎用的特徴を提供することを示す。
重要なことに、この手順は目に見えない被験者間のゼロショット変換を可能にする。
本研究は脳波の変換のみを考察するが,提案するCSLP-AEは,生体信号のモデリングと解析を目的とした,一般的な関心のコンテンツ(タスクアクティベーション)とスタイル(オブジェクトの変動)コンポーネントの信号変換と抽出のための一般的なフレームワークを提供する。
関連論文リスト
- S^2Former-OR: Single-Stage Bimodal Transformer for Scene Graph
Generation in OR [52.964721233679406]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に、ポーズ推定とオブジェクト検出を伴う中間プロセスに依存するセマンティックシーングラフを生成する多段階学習に依存してきた。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGの単一段バイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Multi-Source Domain Adaptation with Transformer-based Feature Generation
for Subject-Independent EEG-based Emotion Recognition [0.5439020425819]
本稿では,複数の情報源からの情報を活用するために,トランスフォーマーベースの特徴生成器(MSDA-TF)を用いたマルチソース領域適応手法を提案する。
適応過程において、相関値に基づいてソース対象をグループ化し、ソース内だけでなく、対象対象のモーメントを各ソースと整合させることを目的としている。
MSDA-TFはSEEDデータセット上で検証され、有望な結果が得られた。
論文 参考訳(メタデータ) (2024-01-04T16:38:47Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - Semantic-aware Contrastive Learning for Electroencephalography-to-Text
Generation with Curriculum Learning [28.76185264077582]
脳波対テキスト生成のためのC-SCL(Curriculum Semantic-aware Contrastive Learning Strategy)を提案する。
C-SCLは、意味的に類似したEEG表現をまとめ、異なる表現を分割する。
提案手法は,新しい最先端技術を実現しつつ,3種類の指標にまたがる安定した改善を示す。
論文 参考訳(メタデータ) (2023-01-23T00:54:48Z) - EEG2Vec: Learning Affective EEG Representations via Variational
Autoencoders [27.3162026528455]
我々は、感情的な刺激に反応して、潜在ベクトル空間におけるニューラルデータを表現することが、両方の感情状態を予測するのに役立つかどうかを考察する。
脳波データから生成的識別的表現を学習するための条件付き変分オートエンコーダベースのフレームワークであるEEG2Vecを提案する。
論文 参考訳(メタデータ) (2022-07-16T19:25:29Z) - Improved Speech Emotion Recognition using Transfer Learning and
Spectrogram Augmentation [56.264157127549446]
音声感情認識(SER)は、人間とコンピュータの相互作用において重要な役割を果たす課題である。
SERの主な課題の1つは、データの不足である。
本稿では,スペクトログラム拡張と併用した移動学習戦略を提案する。
論文 参考訳(メタデータ) (2021-08-05T10:39:39Z) - EEG-ConvTransformer for Single-Trial EEG based Visual Stimuli
Classification [5.076419064097734]
本研究は,マルチヘッド自己注意に基づくEEG-ConvTranformerネットワークを導入する。
5種類の視覚刺激分類タスクにまたがる最先端技術による分類精度の向上を実現している。
論文 参考訳(メタデータ) (2021-07-08T17:22:04Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。