論文の概要: ECHO: Toward Contextual Seq2Seq Paradigms in Large EEG Models
- arxiv url: http://arxiv.org/abs/2509.22556v1
- Date: Fri, 26 Sep 2025 16:37:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-29 20:57:54.586337
- Title: ECHO: Toward Contextual Seq2Seq Paradigms in Large EEG Models
- Title(参考訳): ECHO:大脳波モデルにおける文脈Seq2Seqパラダイムに向けて
- Authors: Chenyu Liu, Yuqiu Deng, Tianyu Liu, Jinan Zhou, Xinliang Zhou, Ziyu Jia, Yi Ding,
- Abstract要約: 大規模脳波モデル(LEM)は、エンコーダ中心のアーキテクチャを大規模未ラベルデータに事前訓練し、普遍的な表現を抽出することでこの問題に対処する。
脳波モデリングをシーケンス・ツー・シーケンス・ラーニングとして再構成する新しいデコーダ中心のLEMパラダイムであるECHOを導入する。
ECHOは、最先端のシングルタスクEMをマルチタスク設定で一貫して上回り、より優れた一般化と適応性を示す。
- 参考スコア(独自算出の注目度): 28.18721116424753
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG), with its broad range of applications, necessitates models that can generalize effectively across various tasks and datasets. Large EEG Models (LEMs) address this by pretraining encoder-centric architectures on large-scale unlabeled data to extract universal representations. While effective, these models lack decoders of comparable capacity, limiting the full utilization of the learned features. To address this issue, we introduce ECHO, a novel decoder-centric LEM paradigm that reformulates EEG modeling as sequence-to-sequence learning. ECHO captures layered relationships among signals, labels, and tasks within sequence space, while incorporating discrete support samples to construct contextual cues. This design equips ECHO with in-context learning, enabling dynamic adaptation to heterogeneous tasks without parameter updates. Extensive experiments across multiple datasets demonstrate that, even with basic model components, ECHO consistently outperforms state-of-the-art single-task LEMs in multi-task settings, showing superior generalization and adaptability.
- Abstract(参考訳): 脳波(Electroencephalography、EEG)は、様々なタスクやデータセットを効果的に一般化できるモデルを必要とする。
大規模脳波モデル(LEM)は、エンコーダ中心のアーキテクチャを大規模未ラベルデータに事前訓練し、普遍的な表現を抽出することでこの問題に対処する。
有効ではあるが、これらのモデルには同等のキャパシティを持つデコーダがなく、学習した機能の完全な利用を制限している。
この問題に対処するために,脳波モデリングをシーケンス・ツー・シーケンス学習として再構成する新しいデコーダ中心のLEMパラダイムであるECHOを導入する。
ECHOは、シーケンス空間内の信号、ラベル、タスク間の階層化された関係をキャプチャし、個別のサポートサンプルを組み込んでコンテキスト的キューを構築する。
この設計はECHOにコンテキスト内学習を加え、パラメータ更新なしで不均一なタスクへの動的適応を可能にする。
複数のデータセットにわたる大規模な実験では、基本的なモデルコンポーネントであっても、ECHOは、マルチタスク設定で最先端のシングルタスクEMを一貫して上回り、より優れた一般化と適応性を示している。
関連論文リスト
- BERT4beam: Large AI Model Enabled Generalized Beamforming Optimization [77.17508487745026]
本稿では,ビームフォーミング最適化のための大規模AIモデルについて検討する。
本稿では、BERT4エンコーダと呼ばれる変換器(BERT)からの双方向エンコーダ表現に基づく新しいフレームワークを提案する。
本フレームワークをベースとして,単一タスクとマルチタスクのビームフォーミング最適化のためのBERTベースの2つのアプローチを提案する。
論文 参考訳(メタデータ) (2025-09-14T02:49:29Z) - CRIA: A Cross-View Interaction and Instance-Adapted Pre-training Framework for Generalizable EEG Representations [52.251569042852815]
CRIAは、可変長および可変チャネルコーディングを使用して、異なるデータセット間でEEGデータの統一表現を実現する適応フレームワークである。
このモデルでは、時間的、スペクトル的、空間的特徴を効果的に融合させるクロスアテンション機構を採用している。
テンプル大学脳波コーパスとCHB-MITデータセットによる実験結果から、CRIAは既存の方法よりも、同じ事前学習条件で優れていることが示された。
論文 参考訳(メタデータ) (2025-06-19T06:31:08Z) - Spatial-Temporal-Spectral Unified Modeling for Remote Sensing Dense Prediction [20.1863553357121]
リモートセンシングのための現在のディープラーニングアーキテクチャは、基本的に堅固である。
本稿では,統合モデリングのための空間時間スペクトル統一ネットワーク(STSUN)について紹介する。
STSUNは任意の空間サイズ、時間長、スペクトル帯域で入力および出力データに適応することができる。
様々な密集した予測タスクと多様な意味クラス予測を統一する。
論文 参考訳(メタデータ) (2025-05-18T07:39:17Z) - Single Domain Generalization with Model-aware Parametric Batch-wise Mixup [22.709796153794507]
単一ドメインの一般化は、マシンラーニングの分野において、依然として深刻な課題である。
本稿では,モデル認識型パラメトリックバッチ・ワイド・ミックスアップ(Parametric Batch-wise Mixup)と呼ばれる新しいデータ拡張手法を提案する。
機能間相関を利用することで、パラメータ化されたミックスアップジェネレータは、複数のインスタンスにまたがる機能の組み合わせにおいて、さらなる汎用性を導入する。
論文 参考訳(メタデータ) (2025-02-22T03:45:18Z) - BrainGPT: Unleashing the Potential of EEG Generalist Foundation Model by Autoregressive Pre-training [15.135177893151008]
EEGPTはこれらの課題に対処するために設計された最初の一般のEEG基盤モデルである。
まず,各電極を基本単位として扱う電極ワイド・モデリング手法を提案する。
第2に、最初の自己回帰型脳波事前学習モデルを開発する。
第3に,学習可能な電極グラフネットワークを用いたマルチタスク転送学習パラダイムを提案する。
論文 参考訳(メタデータ) (2024-10-14T12:17:54Z) - EEGMamba: Bidirectional State Space Model with Mixture of Experts for EEG Multi-task Classification [1.4004287903552533]
脳波アプリケーションのためのマルチタスク学習を真に実装した最初のユニバーサル脳波分類ネットワークであるEEGMambaを紹介する。
EEGMambaは、Spatio-Temporal-Adaptive (ST-Adaptive)モジュール、双方向のMamba、Mixture of Experts (MoE)をシームレスに統合したフレームワークに統合する。
本研究では,8つの公用EEGデータセットを用いてモデルの評価を行い,その性能を4種類のタスクで実証した。
論文 参考訳(メタデータ) (2024-07-20T11:15:47Z) - Unified Generation, Reconstruction, and Representation: Generalized Diffusion with Adaptive Latent Encoding-Decoding [90.77521413857448]
深層生成モデルは,3つのコア機能 – 新たなインスタンスの生成,入力の再構築,コンパクト表現の学習 – に固定されている。
一般化逆変換拡散確率モデル(EDDPM)を導入する。
EDDPMはパラメタライズされた符号化復号を導入することで標準拡散におけるガウス雑音化を一般化する。
テキスト、タンパク質、画像の実験は、多様なデータやタスクを扱う柔軟性を示している。
論文 参考訳(メタデータ) (2024-02-29T10:08:57Z) - StableLLaVA: Enhanced Visual Instruction Tuning with Synthesized
Image-Dialogue Data [129.92449761766025]
本稿では,視覚的インストラクションチューニングのための画像と対話を同期的に合成する新しいデータ収集手法を提案する。
このアプローチは生成モデルのパワーを活用し、ChatGPTとテキスト・ツー・イメージ生成モデルの能力とを結合する。
本研究は,各種データセットを対象とした総合的な実験を含む。
論文 参考訳(メタデータ) (2023-08-20T12:43:52Z) - BENDR: using transformers and a contrastive self-supervised learning
task to learn from massive amounts of EEG data [15.71234837305808]
言語モデリング(LM)の手法とアーキテクチャを脳波モデリング(EM)に適用する方法を検討する。
1つの事前学習モデルが、異なるハードウェアで記録された全く新しい生の脳波シーケンスをモデル化できることがわかった。
このモデルの内部表現とアーキテクチャ全体は、さまざまな下流のBCIおよびEEG分類タスクに微調整することができる。
論文 参考訳(メタデータ) (2021-01-28T14:54:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。