論文の概要: THD-BAR: Topology Hierarchical Derived Brain Autoregressive Modeling for EEG Generic Representations
- arxiv url: http://arxiv.org/abs/2511.13733v1
- Date: Wed, 05 Nov 2025 13:20:14 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-23 18:31:12.328678
- Title: THD-BAR: Topology Hierarchical Derived Brain Autoregressive Modeling for EEG Generic Representations
- Title(参考訳): THD-BAR:脳波ジェネリック表現のためのトポロジー階層型脳自己回帰モデル
- Authors: Wenchao Yang, Weidong Yan, Wenkang Liu, Yulan Ma, Yang Li,
- Abstract要約: 脳波ジェネリック表現のための新しいトポロジー階層型脳自己回帰モデリング(THD-BAR)を提案する。
THD-BARの核となる革新は、脳位相階層(BTH)の導入である。
BTHに基づいて、マルチスケールトークン化のためのトポロジ階層ベクトル量子化可変オートエンコーダ(THVQ-VAE)を設計し、予測のための特別なマスキング戦略を備えた拡張脳自動回帰(BAR)モジュールを開発する。
- 参考スコア(独自算出の注目度): 3.253716156877394
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large-scale pre-trained models hold significant potential for learning universal EEG representations. However, most existing methods, particularly autoregressive (AR) frameworks, primarily rely on straightforward temporal sequencing of multi-channel EEG data, which fails to capture the rich physiological characteristics inherent to EEG signals. Moreover, their time-centered modeling approach also limits the effective representation of the dynamic spatial topology of brain activity. To address these challenges and fully exploit the potential of large-scale EEG models, we propose a novel Topology Hierarchical Derived Brain Autoregressive Modeling (THD-BAR) for EEG generic representations. The core innovation of THD-BAR lies in the introduction of the Brain Topology Hierarchy (BTH), which establishes a multi-scale spatial order for EEG channels. This hierarchical structure enables a redefinition of autoregressive learning as a "next-scale-time prediction" problem, effectively capturing both spatial and temporal dynamics. Based on BTH, we design a Topology-Hierarchical Vector Quantized-Variational Autoencoder (THVQ-VAE) for multi-scale tokenization and develop an enhanced Brain Autoregressive (BAR) module with specialized masking strategies for prediction. Through extensive large-scale pre-training on 17 datasets, followed by rigorous validation on 10 downstream datasets spanning 5 distinct tasks, THD-BAR consistently outperforms existing methods. These results highlight the superior generalization and modeling capabilities of our proposed approach.
- Abstract(参考訳): 大規模事前学習モデルは、普遍的な脳波表現を学習する大きな可能性を秘めている。
しかし、既存のほとんどの手法、特に自己回帰(AR)フレームワークは、主に、脳波信号に固有の豊富な生理的特徴を捉えるのに失敗する多チャンネル脳波データの直接的な時間的シークエンシングに依存している。
さらに、時間中心モデリングアプローチでは、脳活動の動的空間トポロジーの効果的な表現も制限されている。
これらの課題に対処し、大規模な脳波モデルの可能性を完全に活用するために、脳波ジェネリック表現のための新しいトポロジー階層型脳波自動回帰モデリング(THD-BAR)を提案する。
THD-BARの核となる革新は、脳位相階層(BTH)の導入である。
この階層構造により、自己回帰学習を「次のスケールでの予測」問題として再定義することができ、空間的および時間的ダイナミクスの両方を効果的に捉えることができる。
BTHに基づいて、マルチスケールトークン化のためのトポロジ階層ベクトル量子化可変オートエンコーダ(THVQ-VAE)を設計し、予測のための特別なマスキング戦略を備えた拡張脳自動回帰(BAR)モジュールを開発する。
17のデータセットに対する大規模な事前トレーニングと、5つの異なるタスクにまたがる10のダウンストリームデータセットに対する厳格な検証を通じて、THD-BARは、既存のメソッドを一貫して上回る。
これらの結果は,提案手法のより優れた一般化とモデリング能力を示すものである。
関連論文リスト
- A Time-Series Foundation Model by Universal Delay Embedding [4.221753069966852]
本研究は,時系列予測に革命をもたらすための事前訓練された基礎モデルであるUniversal Delay Embedding (UDE)を紹介する。
観測データの動的表現としてのUDEは、ハンケル行列から2次元部分空間パッチを構成する。
特に、学習された動的表現とパッチからのクープマン作用素予測形式は例外的な解釈可能性を示す。
論文 参考訳(メタデータ) (2025-09-15T16:11:49Z) - CodeBrain: Towards Decoupled Interpretability and Multi-Scale Architecture for EEG Foundation Model [52.466542039411515]
EEGファウンデーションモデル(EFM)は、タスク固有のモデルのスケーラビリティ問題に対処するために登場した。
このギャップを埋めるために設計された2段階のEMFであるCodeBrainを紹介します。
第1段階では、異種時間・周波数の脳波信号を離散トークンに分解するTFDual-Tokenizerを導入する。
第2段階では、構造化されたグローバル畳み込みとスライディングウインドウの注意を結合したマルチスケールEEGSSMアーキテクチャを提案する。
論文 参考訳(メタデータ) (2025-06-10T17:20:39Z) - High-Fidelity Scientific Simulation Surrogates via Adaptive Implicit Neural Representations [51.90920900332569]
入射神経表現(INR)は空間的に構造化されたデータをモデリングするためのコンパクトで連続的なフレームワークを提供する。
近年のアプローチでは、剛性幾何学的構造に沿った付加的な特徴を導入することでこの問題に対処している。
機能適応型INR(FA-INR)を提案する。
論文 参考訳(メタデータ) (2025-06-07T16:45:17Z) - Instruction-Guided Autoregressive Neural Network Parameter Generation [49.800239140036496]
本稿では,多種多様なタスクやアーキテクチャにまたがるパラメータ合成を統一する自動回帰フレームワークIGPGを提案する。
ニューラルネットワーク重みのトークンを自動回帰的に生成することにより、IGPGは層間コヒーレンスを確保し、モデルとデータセット間の効率的な適応を可能にする。
複数のデータセットの実験により、IGPGは様々な事前訓練されたモデルを単一の柔軟な生成フレームワークに統合することを示した。
論文 参考訳(メタデータ) (2025-04-02T05:50:19Z) - Large EEG-U-Transformer for Time-Step Level Detection Without Pre-Training [1.3254304182988286]
局所的特徴と大域的特徴の両方を捉えることで表現を効率的に学習する単純なU字モデルを提案する。
他のウィンドウレベルの分類モデルと比較して,本手法は時間段階の予測を直接出力する。
我々のモデルは、てんかんおよび他の神経疾患における人工知能に関する国際会議において、2025年の第1回「青信号検出チャレンジ」で優勝した。
論文 参考訳(メタデータ) (2025-04-01T01:33:42Z) - Generalized Factor Neural Network Model for High-dimensional Regression [50.554377879576066]
複素・非線形・雑音に隠れた潜在低次元構造を持つ高次元データセットをモデル化する課題に取り組む。
我々のアプローチは、非パラメトリック回帰、因子モデル、高次元回帰のためのニューラルネットワークの概念のシームレスな統合を可能にする。
論文 参考訳(メタデータ) (2025-02-16T23:13:55Z) - Large Cognition Model: Towards Pretrained EEG Foundation Model [0.0]
多様な脳波データセットと下流タスクをまたいだ一般化を目的としたトランスフォーマーベース基盤モデルを提案する。
本研究は, 神経科学, パーソナライズドメディカル, およびBCI技術の進歩を促進するための, 事前学習型脳波基盤モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-11T04:28:10Z) - Deep Discrete Encoders: Identifiable Deep Generative Models for Rich Data with Discrete Latent Layers [13.545948734057268]
本稿では、DDE(Deep Discrete EMs)と呼ばれる、離散遅延層を持つリッチデータ型に対する解釈可能な深層生成モデルを提案する。
理論的には、DDEの透過的識別可能性条件は、潜伏層が深くなるにつれて徐々に小さくなる。
論文 参考訳(メタデータ) (2025-01-02T18:56:23Z) - TokenUnify: Scaling Up Autoregressive Pretraining for Neuron Segmentation [65.65530016765615]
本稿では,3つの相補的な学習目標を通じて,大規模依存関係をキャプチャする階層型予測コーディングフレームワークを提案する。
TokenUnifyは、ランダムトークン予測、次のトークン予測、およびすべてのトークン予測を統合して、包括的な表現空間を作成する。
また,120億個の注釈付きボクセルを付加した大規模EMデータセットを導入し,空間連続性を持つ理想的な長周期視覚データを提供する。
論文 参考訳(メタデータ) (2024-05-27T05:45:51Z) - Artificial Intelligence for EEG Prediction: Applied Chaos Theory [0.0]
この研究は、応用カオス理論と力学系理論の原理を融合させ、新しい特徴セットを創出する。
この試みの土台はトランスフォーマーに基づくシーケンス・ツー・シーケンス・アーキテクチャであり、非線形および高次元の時間的依存関係を正確に捉えている。
我々のモデルは、EEGデータシーケンス予測の先駆者であり、顕著な一般化性と堅牢性を示している。
論文 参考訳(メタデータ) (2023-10-03T14:58:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。