論文の概要: CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion
- arxiv url: http://arxiv.org/abs/2311.07788v1
- Date: Mon, 13 Nov 2023 22:46:43 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 16:07:33.876291
- Title: CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion
- Title(参考訳): CSLP-AE:ゼロショット脳波信号変換のためのコントラスト型スプリットレイテンシ自動エンコーダフレームワーク
- Authors: Anders Vestergaard N{\o}rskov, Alexander Neergaard Zahid and Morten
M{\o}rup
- Abstract要約: 脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Electroencephalography (EEG) is a prominent non-invasive neuroimaging
technique providing insights into brain function. Unfortunately, EEG data
exhibit a high degree of noise and variability across subjects hampering
generalizable signal extraction. Therefore, a key aim in EEG analysis is to
extract the underlying neural activation (content) as well as to account for
the individual subject variability (style). We hypothesize that the ability to
convert EEG signals between tasks and subjects requires the extraction of
latent representations accounting for content and style. Inspired by recent
advancements in voice conversion technologies, we propose a novel contrastive
split-latent permutation autoencoder (CSLP-AE) framework that directly
optimizes for EEG conversion. Importantly, the latent representations are
guided using contrastive learning to promote the latent splits to explicitly
represent subject (style) and task (content). We contrast CSLP-AE to
conventional supervised, unsupervised (AE), and self-supervised (contrastive
learning) training and find that the proposed approach provides favorable
generalizable characterizations of subject and task. Importantly, the procedure
also enables zero-shot conversion between unseen subjects. While the present
work only considers conversion of EEG, the proposed CSLP-AE provides a general
framework for signal conversion and extraction of content (task activation) and
style (subject variability) components of general interest for the modeling and
analysis of biological signals.
- Abstract(参考訳): eeg(electroencephalography)は、脳機能に関する洞察を提供する、非侵襲的神経画像技術である。
不幸なことに、脳波データは、一般的な信号抽出を妨げる被検者間で高いノイズと変動を示す。
したがって、脳波分析の重要な目的は、基礎となる神経活性化(コンテンツ)を抽出し、個々の主題変動(スタイル)を説明することである。
タスクと課題間で脳波信号を変換する能力には,内容やスタイルを考慮に入れた潜在表現の抽出が必要であると仮定した。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
重要なことに、潜在表現は、対象(スタイル)とタスク(コンテンツ)を明示的に表現するために潜在分割を促進するために、対比学習を用いて誘導される。
CSLP-AEは従来の教師なし・教師なし(AE)・自己教師付き(コントラスト学習)の訓練と対比し,提案手法が主観的・課題の汎用的特徴を提供することを示す。
重要なことに、この手順は目に見えない被験者間のゼロショット変換を可能にする。
本研究は脳波の変換のみを考察するが,提案するCSLP-AEは,生体信号のモデリングと解析を目的とした,一般的な関心のコンテンツ(タスクアクティベーション)とスタイル(オブジェクトの変動)コンポーネントの信号変換と抽出のための一般的なフレームワークを提供する。
関連論文リスト
- Subject-Adaptive Transfer Learning Using Resting State EEG Signals for Cross-Subject EEG Motor Imagery Classification [10.487161620381785]
本稿では、RS EEG信号を用いて、未知の対象データにモデルを適用する新しい主題適応型トランスファー学習戦略を提案する。
提案手法は,3つの公開ベンチマーク上での最先端の精度を実現し,クロスオブジェクトEEG MI分類における本手法の有効性を実証する。
論文 参考訳(メタデータ) (2024-05-17T20:36:04Z) - Two in One Go: Single-stage Emotion Recognition with Decoupled Subject-context Transformer [78.35816158511523]
単段階の感情認識手法として,DSCT(Decoupled Subject-Context Transformer)を用いる。
広範に使われている文脈認識型感情認識データセットであるCAER-SとEMOTICの単段階フレームワークの評価を行った。
論文 参考訳(メタデータ) (2024-04-26T07:30:32Z) - Agent-driven Generative Semantic Communication with Cross-Modality and Prediction [57.335922373309074]
本稿では,強化学習に基づくエージェント駆動型ジェネリックセマンティックコミュニケーションフレームワークを提案する。
本研究では, エージェント支援型セマンティックエンコーダを開発し, 適応的セマンティック抽出とサンプリングを行う。
設計モデルの有効性をUA-DETRACデータセットを用いて検証し、全体的なA-GSCフレームワークの性能向上を実証した。
論文 参考訳(メタデータ) (2024-04-10T13:24:27Z) - EEG decoding with conditional identification information [7.873458431535408]
脳波信号を復号することは、人間の脳を解き放ち、脳とコンピュータのインターフェースを進化させるのに不可欠である。
従来の機械学習アルゴリズムは、高ノイズレベルと脳波信号の個人間変動によって妨げられている。
ディープニューラルネットワーク(DNN)の最近の進歩は、その高度な非線形モデリング能力のために、将来性を示している。
論文 参考訳(メタデータ) (2024-03-21T13:38:59Z) - S^2Former-OR: Single-Stage Bi-Modal Transformer for Scene Graph Generation in OR [50.435592120607815]
外科手術のシーングラフ生成(SGG)は、手術室(OR)におけるホモロジー認知知能の増強に不可欠である
これまでの研究は主に多段階学習に依存しており、生成したセマンティックシーングラフはポーズ推定とオブジェクト検出を伴う中間プロセスに依存している。
本研究では,S2Former-OR(S2Former-OR)と呼ばれるORにおけるSGGのための新しいシングルステージバイモーダルトランスフォーマフレームワークを提案する。
論文 参考訳(メタデータ) (2024-02-22T11:40:49Z) - Multi-Source Domain Adaptation with Transformer-based Feature Generation
for Subject-Independent EEG-based Emotion Recognition [0.5439020425819]
本稿では,複数の情報源からの情報を活用するために,トランスフォーマーベースの特徴生成器(MSDA-TF)を用いたマルチソース領域適応手法を提案する。
適応過程において、相関値に基づいてソース対象をグループ化し、ソース内だけでなく、対象対象のモーメントを各ソースと整合させることを目的としている。
MSDA-TFはSEEDデータセット上で検証され、有望な結果が得られた。
論文 参考訳(メタデータ) (2024-01-04T16:38:47Z) - DGSD: Dynamical Graph Self-Distillation for EEG-Based Auditory Spatial
Attention Detection [49.196182908826565]
AAD(Auditory Attention Detection)は、マルチスピーカー環境で脳信号からターゲット話者を検出することを目的としている。
現在のアプローチは主に、画像のようなユークリッドデータを処理するために設計された従来の畳み込みニューラルネットワークに依存している。
本稿では、入力として音声刺激を必要としないAADのための動的グラフ自己蒸留(DGSD)手法を提案する。
論文 参考訳(メタデータ) (2023-09-07T13:43:46Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - EEG-ConvTransformer for Single-Trial EEG based Visual Stimuli
Classification [5.076419064097734]
本研究は,マルチヘッド自己注意に基づくEEG-ConvTranformerネットワークを導入する。
5種類の視覚刺激分類タスクにまたがる最先端技術による分類精度の向上を実現している。
論文 参考訳(メタデータ) (2021-07-08T17:22:04Z) - Subject Independent Emotion Recognition using EEG Signals Employing
Attention Driven Neural Networks [2.76240219662896]
主観非依存の感情認識が可能な新しいディープラーニングフレームワークを提案する。
タスクを実行するために、アテンションフレームワークを備えた畳み込みニューラルネットワーク(CNN)を提示する。
提案手法は、公開データセットを使用して検証されている。
論文 参考訳(メタデータ) (2021-06-07T09:41:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。