論文の概要: Contrastive Learning of Shared Spatiotemporal EEG Representations Across
Individuals for Naturalistic Neuroscience
- arxiv url: http://arxiv.org/abs/2402.14213v1
- Date: Thu, 22 Feb 2024 01:42:12 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-23 16:40:33.069265
- Title: Contrastive Learning of Shared Spatiotemporal EEG Representations Across
Individuals for Naturalistic Neuroscience
- Title(参考訳): 自然科学のための個人間の時空間脳波表現の対比学習
- Authors: Xinke Shen, Lingyi Tao, Xuyang Chen, Sen Song, Quanying Liu, Dan Zhang
- Abstract要約: 本研究は、個人間での共有時空間脳波表現(CL-SSTER)のコントラスト学習の枠組みを提案する。
このネットワークは、脳波に固有の空間的パターンと時間的パターンを同時に学習するために、空間的・時間的畳み込みを用いた。
CL-SSTERは、自然主義神経科学の領域において、オブジェクト間共有神経表現を識別するための解釈可能でスケーラブルな基礎的枠組みとして機能した。
- 参考スコア(独自算出の注目度): 7.516741336318762
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Neural representations induced by naturalistic stimuli offer insights into
how humans respond to peripheral stimuli in daily life. The key to
understanding the general neural mechanisms underlying naturalistic stimuli
processing involves aligning neural activities across individuals and
extracting inter-subject shared neural representations. Targeting the
Electroencephalogram (EEG) technique, known for its rich spatial and temporal
information, this study presents a general framework for Contrastive Learning
of Shared SpatioTemporal EEG Representations across individuals (CL-SSTER).
Harnessing the representational capabilities of contrastive learning, CL-SSTER
utilizes a neural network to maximize the similarity of EEG representations
across individuals for identical stimuli, contrasting with those for varied
stimuli. The network employed spatial and temporal convolutions to
simultaneously learn the spatial and temporal patterns inherent in EEG. The
versatility of CL-SSTER was demonstrated on three EEG datasets, including a
synthetic dataset, a speech audio EEG dataset, and an emotional video EEG
dataset. CL-SSTER attained the highest inter-subject correlation (ISC) values
compared to the state-of-the-art ISC methods. The latent representations
generated by CL-SSTER exhibited reliable spatiotemporal EEG patterns, which can
be explained by specific aspects of the stimuli. CL-SSTER serves as an
interpretable and scalable foundational framework for the identification of
inter-subject shared neural representations in the realm of naturalistic
neuroscience.
- Abstract(参考訳): 自然主義的刺激によって誘発される神経表現は、人間の日常生活における末梢刺激に対する反応に関する洞察を与える。
自然主義的刺激処理の基礎となる一般的な神経機構を理解するための鍵は、個体間の神経活動の調整と、サブジェクト間の共有神経表現の抽出である。
空間的および時間的情報に富むeeg(electroencephalogram)技術を対象として,個人間での時空間的脳波表現の対比学習の枠組みを提案する(cl-sster)。
CL-SSTERは、対照的な学習の表現能力を損なうことで、個人間での脳波表現の類似性を最大化するためにニューラルネットワークを利用している。
このネットワークは、脳波に固有の空間的および時間的パターンを同時に学習するために、空間的および時間的畳み込みを用いた。
CL-SSTERの汎用性は、合成データセット、音声脳波データセット、感情ビデオ脳波データセットを含む3つのEEGデータセットで実証された。
CL-SSTERは、最先端ISC法と比較して、ISC値が最も高い。
CL-SSTERにより生成された潜伏表現は、刺激の特定の側面によって説明できる信頼できる時空間脳波パターンを示した。
cl-ssterは、自然主義的神経科学の領域におけるサブジェクト間共有神経表現の識別のための解釈可能でスケーラブルな基礎的枠組みとして機能する。
関連論文リスト
- Shared Attention-based Autoencoder with Hierarchical Fusion-based Graph Convolution Network for sEEG SOZ Identification [10.413397851804152]
発作発症ゾーン(SOZ)の診断は神経外科の課題であり、脳電図(sEEG)が重要な技術である。
sEEG SOZの同定において、既存の研究はてんかん情報の患者内表現にのみ焦点をあてている。
本稿では、上記の課題に対処するために、共有注意ベースオートエンコーダ(sATAE)を提案する。
論文 参考訳(メタデータ) (2024-12-17T08:20:02Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Feature Estimation of Global Language Processing in EEG Using Attention Maps [5.173821279121835]
本研究は,脳波の特徴推定に新たなアプローチを導入し,深層学習モデルの重みを利用してその関連を探索する。
視覚変換器とEEGNetから生成したアテンションマップは,従来の研究結果と一致した特徴を効果的に同定できることを実証する。
ViTsを用いたMel-Spectrogramの適用により、時間および周波数関連脳波特性の分解能が向上する。
論文 参考訳(メタデータ) (2024-09-27T22:52:31Z) - Interpretable Spatio-Temporal Embedding for Brain Structural-Effective Network with Ordinary Differential Equation [56.34634121544929]
本研究では,まず動的因果モデルを用いて脳効果ネットワークを構築する。
次に、STE-ODE(Spatio-Temporal Embedding ODE)と呼ばれる解釈可能なグラフ学習フレームワークを導入する。
このフレームワークは、構造的および効果的なネットワーク間の動的相互作用を捉えることを目的とした、特異的に設計されたノード埋め込み層を含んでいる。
論文 参考訳(メタデータ) (2024-05-21T20:37:07Z) - Psychometry: An Omnifit Model for Image Reconstruction from Human Brain Activity [60.983327742457995]
人間の脳活動から見るイメージを再構築することで、人間とコンピュータのビジョンをBrain-Computer Interfaceを通して橋渡しする。
異なる被験者から得られた機能的磁気共鳴イメージング(fMRI)による画像再構成のための全能モデルであるサイコメトリを考案した。
論文 参考訳(メタデータ) (2024-03-29T07:16:34Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Self-supervised Group Meiosis Contrastive Learning for EEG-Based Emotion
Recognition [4.763573596218676]
限られたラベルで感情を認識する方法が、新しい研究とアプリケーションのボトルネックになっている。
本稿では,ヒトにおける脳波の刺激的一貫した信号に基づく,自己教師型グループマイオーシスコントラスト学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-07-12T21:20:12Z) - Contrastive Learning of Subject-Invariant EEG Representations for
Cross-Subject Emotion Recognition [9.07006689672858]
本稿では、信頼度の高いクロスオブジェクト感情認識のためのISAのためのコントラスト学習法を提案する。
ISAは、異なる刺激に対して同じ刺激を受けた被験者間での脳波信号の類似性を最大化する。
脳波信号から物体間表現を学習するために,深部空間畳み込み層と時間畳み込み層を有する畳み込みニューラルネットワークを適用した。
論文 参考訳(メタデータ) (2021-09-20T14:13:45Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。