論文の概要: From Video to EEG: Adapting Joint Embedding Predictive Architecture to Uncover Visual Concepts in Brain Signal Analysis
- arxiv url: http://arxiv.org/abs/2507.03633v1
- Date: Fri, 04 Jul 2025 15:01:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-08 15:46:34.810773
- Title: From Video to EEG: Adapting Joint Embedding Predictive Architecture to Uncover Visual Concepts in Brain Signal Analysis
- Title(参考訳): ビデオから脳波へ:脳信号解析における視覚概念を明らかにするために予測的アーキテクチャを併用する
- Authors: Amir Hojjati, Lu Li, Ibrahim Hameed, Anis Yazidi, Pedro G. Lind, Rabindra Khadka,
- Abstract要約: 脳波信号は、高時間分解能と低空間分解能で脳活動を捉え、神経学的診断、認知モニタリング、脳-コンピュータインターフェースなどの応用をサポートする。
本稿では,脳波分類のためのビデオ共同埋め込み予測アーキテクチャ(VJEPA)の新たな適応であるEEG-VJEPAを提案する。
脳波をビデオライクなシーケンスとして扱うことで、EEG-VJEPAは共同埋め込みと適応マスキングを用いて意味的に意味のある表現を学ぶ。
- 参考スコア(独自算出の注目度): 7.218572835925958
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: EEG signals capture brain activity with high temporal and low spatial resolution, supporting applications such as neurological diagnosis, cognitive monitoring, and brain-computer interfaces. However, effective analysis is hindered by limited labeled data, high dimensionality, and the absence of scalable models that fully capture spatiotemporal dependencies. Existing self-supervised learning (SSL) methods often focus on either spatial or temporal features, leading to suboptimal representations. To this end, we propose EEG-VJEPA, a novel adaptation of the Video Joint Embedding Predictive Architecture (V-JEPA) for EEG classification. By treating EEG as video-like sequences, EEG-VJEPA learns semantically meaningful spatiotemporal representations using joint embeddings and adaptive masking. To our knowledge, this is the first work that exploits V-JEPA for EEG classification and explores the visual concepts learned by the model. Evaluations on the publicly available Temple University Hospital (TUH) Abnormal EEG dataset show that EEG-VJEPA outperforms existing state-of-the-art models in classification accuracy.Beyond classification accuracy, EEG-VJEPA captures physiologically relevant spatial and temporal signal patterns, offering interpretable embeddings that may support human-AI collaboration in diagnostic workflows. These findings position EEG-VJEPA as a promising framework for scalable, trustworthy EEG analysis in real-world clinical settings.
- Abstract(参考訳): 脳波信号は、高時間分解能と低空間分解能で脳活動を捉え、神経学的診断、認知モニタリング、脳-コンピュータインターフェースなどの応用をサポートする。
しかし、効果的な分析は、ラベル付き限られたデータ、高次元性、時空間依存を完全にキャプチャするスケーラブルなモデルが欠如していることによって妨げられる。
既存の自己教師付き学習(SSL)手法は、しばしば空間的または時間的特徴に焦点を合わせ、最適以下の表現をもたらす。
そこで我々は,脳波分類のためのビデオ共同埋め込み予測アーキテクチャ(V-JEPA)の新たな適応であるEEG-VJEPAを提案する。
脳波をビデオライクなシーケンスとして扱うことで、EEG-VJEPAは共同埋め込みと適応マスキングを用いて意味的に意味のある時空間表現を学習する。
我々の知る限り、これは脳波分類のためのV-JEPAを利用して、モデルによって学習された視覚概念を探索する最初の作品である。
テンプル大学病院(TUH)の異常脳波データセットの評価によると、EEG-VJEPAは、分類精度において既存の最先端モデルよりも優れており、分類精度に加えて、EEG-VJEPAは生理学的に関連する空間的および時間的信号パターンを捉え、診断ワークフローにおける人間とAIの協調を支援する解釈可能な埋め込みを提供する。
これらの知見は,脳波-VJEPAを,現実の臨床環境におけるスケーラブルで信頼性の高い脳波分析のフレームワークとして位置づけた。
関連論文リスト
- BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [50.76802709706976]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
多様なデータソースを統一するために、脳の活動を離散表現に定量化する最初のトークンであるBrainTokenizerを紹介します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - BioSerenity-E1: a self-supervised EEG model for medical applications [0.0]
BioSerenity-E1は臨床脳波治療のための自己監督型基礎モデルの1つである。
スペクトルトークン化とマスク付き予測を組み合わせることで、関連する診断タスク間で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2025-03-13T13:42:46Z) - Large Cognition Model: Towards Pretrained EEG Foundation Model [0.0]
多様な脳波データセットと下流タスクをまたいだ一般化を目的としたトランスフォーマーベース基盤モデルを提案する。
本研究は, 神経科学, パーソナライズドメディカル, およびBCI技術の進歩を促進するための, 事前学習型脳波基盤モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-11T04:28:10Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - FoME: A Foundation Model for EEG using Adaptive Temporal-Lateral Attention Scaling [19.85701025524892]
FoME (Foundation Model for EEG) は適応的側方アテンションスケーリングを用いた新しいアプローチである。
FoMEは1.7TBの頭皮と頭蓋内脳波記録のデータセットで事前訓練されており、1,096kのステップで745Mのパラメータが訓練されている。
論文 参考訳(メタデータ) (2024-09-19T04:22:40Z) - REST: Efficient and Accelerated EEG Seizure Analysis through Residual State Updates [54.96885726053036]
本稿では,リアルタイム脳波信号解析のための新しいグラフベース残状態更新機構(REST)を提案する。
グラフニューラルネットワークとリカレント構造の組み合わせを活用することで、RESTは、非ユークリッド幾何学とEEGデータ内の時間的依存関係の両方を効率的にキャプチャする。
本モデルは,発作検出と分類作業において高い精度を示す。
論文 参考訳(メタデータ) (2024-06-03T16:30:19Z) - Joint Contrastive Learning with Feature Alignment for Cross-Corpus EEG-based Emotion Recognition [2.1645626994550664]
我々は,クロスコーパス脳波に基づく感情認識に対処するために,特徴アライメントを用いた新しいコントラスト学習フレームワークを提案する。
事前学習段階では、脳波信号の一般化可能な時間周波数表現を特徴付けるために、共同領域コントラスト学習戦略を導入する。
微調整の段階では、JCFAは脳電極間の構造的接続を考慮した下流タスクと共に洗練される。
論文 参考訳(メタデータ) (2024-04-15T08:21:17Z) - fMRI from EEG is only Deep Learning away: the use of interpretable DL to
unravel EEG-fMRI relationships [68.8204255655161]
多チャンネル脳波データからいくつかの皮質下領域の活性を回復するための解釈可能な領域基底解を提案する。
我々は,皮質下核の血行動態信号の頭皮脳波予測の空間的・時間的パターンを復元する。
論文 参考訳(メタデータ) (2022-10-23T15:11:37Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z) - Machine-Learning-Based Diagnostics of EEG Pathology [29.98686945159869]
機能ベースのEEG分析フレームワークを開発し、最先端のエンドツーエンド手法と比較する。
両アプローチの精度は81~86%という驚くほど狭い範囲にある。
臨床ラベルの不完全一致により,現在の2連系脳波デコーダの精度は90%近く飽和する可能性が示唆された。
論文 参考訳(メタデータ) (2020-02-11T17:12:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。