論文の概要: Transformer-based EEG Decoding: A Survey
- arxiv url: http://arxiv.org/abs/2507.02320v1
- Date: Thu, 03 Jul 2025 05:12:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-04 15:37:15.681195
- Title: Transformer-based EEG Decoding: A Survey
- Title(参考訳): トランスフォーマーを用いた脳波デコーディング:サーベイ
- Authors: Haodong Zhang, Hongqi Li,
- Abstract要約: Transformerは、アテンションメカニズムによるシーケンシャルデータの強力なハンドリング能力で有名である。
ディープラーニングのアプローチは、エンドツーエンドのロングケースアーキテクチャを提供することによって、徐々にこの分野に革命をもたらした。
- 参考スコア(独自算出の注目度): 2.3288585185469146
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Electroencephalography (EEG) is one of the most common signals used to capture the electrical activity of the brain, and the decoding of EEG, to acquire the user intents, has been at the forefront of brain-computer/machine interfaces (BCIs/BMIs) research. Compared to traditional EEG analysis methods with machine learning, the advent of deep learning approaches have gradually revolutionized the field by providing an end-to-end long-cascaded architecture, which can learn more discriminative features automatically. Among these, Transformer is renowned for its strong handling capability of sequential data by the attention mechanism, and the application of Transformers in various EEG processing tasks is increasingly prevalent. This article delves into a relevant survey, summarizing the latest application of Transformer models in EEG decoding since it appeared. The evolution of the model architecture is followed to sort and organize the related advances, in which we first elucidate the fundamentals of the Transformer that benefits EEG decoding and its direct application. Then, the common hybrid architectures by integrating basic Transformer with other deep learning techniques (convolutional/recurrent/graph/spiking neural netwo-rks, generative adversarial networks, diffusion models, etc.) is overviewed in detail. The research advances of applying the modified intrinsic structures of customized Transformer have also been introduced. Finally, the current challenges and future development prospects in this rapidly evolving field are discussed. This paper aims to help readers gain a clear understanding of the current state of Transformer applications in EEG decoding and to provide valuable insights for future research endeavors.
- Abstract(参考訳): 脳波(EEG)は脳の電気活動を捉えるのに最も一般的な信号の1つであり、脳波の復号化は脳-コンピュータ/機械インターフェース(BCI/BMI)研究の最前線にある。
従来の脳波分析手法と機械学習と比較して、ディープラーニングアプローチの出現は、エンド・ツー・エンドのロングケースドアーキテクチャを提供することによって、この分野に徐々に革命をもたらした。
中でもTransformerは、アテンションメカニズムによるシーケンシャルデータの強力なハンドリング能力で知られており、様々なEEG処理タスクにおけるTransformerの適用がますます広まっている。
この記事では、脳波デコーディングにおけるTransformerモデルの最新の応用を、その出現以来の要約として、関連する調査について述べる。
モデルアーキテクチャの進化に続いて、関連する進歩をソートし、整理し、脳波デコーディングとその直接的な応用に役立つTransformerの基礎を最初に解明する。
次に、基本的なトランスフォーマーと他のディープラーニング技術(畳み込み/再帰/グラフ/スパイキングニューラルネットウーク、生成的対向ネットワーク、拡散モデルなど)を統合することで、共通のハイブリッドアーキテクチャを概観する。
カスタマイズトランスの内在構造を応用する研究の進歩も紹介されている。
最後に、この急速に発展する分野における現在の課題と今後の発展展望について論じる。
本稿では,脳波デコーディングにおけるトランスフォーマーアプリケーションの現状を明確に把握し,今後の研究に有用な洞察を提供することを目的としている。
関連論文リスト
- A Survey on Bridging EEG Signals and Generative AI: From Image and Text to Beyond [4.720913027054481]
Brain-Computer Interfaces (BCI) とGenerative Artificial Intelligence (GenAI) の統合により、脳信号復号における新たなフロンティアが開かれた。
近年、GAN(Generative Adversarial Networks)やLLM(Transformer-based Large Language Models)といったディープラーニングの進歩により、脳波による画像、テキスト、音声の生成が大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-17T17:16:41Z) - Enhancing Transformers for Generalizable First-Order Logical Entailment [51.04944136538266]
本稿では,変圧器の1次論理的推論能力をパラメータ化知識を用いて一般化する。
本稿では,一階述語論理エンターメントの性能を大幅に向上させる論理認識アーキテクチャTEGAを提案する。
論文 参考訳(メタデータ) (2025-01-01T07:05:32Z) - Comprehensive Review of EEG-to-Output Research: Decoding Neural Signals into Images, Videos, and Audio [0.0]
機械学習と生成モデリングの最近の進歩は、知覚経験の再構築における脳波の応用を触媒している。
本稿では,脳波から出力までの研究を体系的にレビューし,最先端のジェネレーティブ手法,評価指標,データ課題に焦点をあてる。
論文 参考訳(メタデータ) (2024-12-28T03:50:56Z) - Automatic Graph Topology-Aware Transformer [50.2807041149784]
マイクロレベルおよびマクロレベルの設計による包括的グラフトランスフォーマー検索空間を構築した。
EGTASはマクロレベルでのグラフトランスフォーマートポロジとマイクロレベルでのグラフ認識戦略を進化させる。
グラフレベルおよびノードレベルのタスクに対して,EGTASの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T07:44:31Z) - EEG-Deformer: A Dense Convolutional Transformer for Brain-computer Interfaces [17.524441950422627]
本稿では,CNN-Transformerに2つの新しいコンポーネントを組み込んだEEG-Deformerを紹介する。
EEG-Deformerは神経生理学的に意味のある脳領域から学習し、対応する認知タスクを学習する。
論文 参考訳(メタデータ) (2024-04-25T18:00:46Z) - EEGEncoder: Advancing BCI with Transformer-Based Motor Imagery Classification [11.687193535939798]
脳-コンピュータインタフェース(BCI)は、脳波信号を用いてデバイスを直接神経制御する。
脳波に基づく運動画像(MI)分類のための従来の機械学習手法は、手動の特徴抽出やノイズに対する感受性といった課題に遭遇する。
本稿では,これらの制限を克服するために改良型トランスフォーマーとTCNを用いたディープラーニングフレームワークであるEEGEncoderを紹介する。
論文 参考訳(メタデータ) (2024-04-23T09:51:24Z) - A Comprehensive Survey on Applications of Transformers for Deep Learning
Tasks [60.38369406877899]
Transformerは、シーケンシャルデータ内のコンテキスト関係を理解するために自己認識メカニズムを使用するディープニューラルネットワークである。
Transformerモデルは、入力シーケンス要素間の長い依存関係を処理し、並列処理を可能にする。
我々の調査では、トランスフォーマーベースのモデルのためのトップ5のアプリケーションドメインを特定します。
論文 参考訳(メタデータ) (2023-06-11T23:13:51Z) - Exploring Structure-aware Transformer over Interaction Proposals for
Human-Object Interaction Detection [119.93025368028083]
我々は、新しいトランスフォーマー型ヒューマンオブジェクトインタラクション(HOI)検出器、すなわち、インタラクション提案(STIP)による構造認識トランスフォーマーを設計する。
STIPはHOIセット予測の過程を、まず相互作用の提案生成を行い、次に構造認識変換器を介して非パラメトリック相互作用提案をHOI予測に変換する2つのフェーズに分解する。
構造対応トランスフォーマーは、相互作用提案間の相同的意味構造を付加してバニラトランスフォーマーをアップグレードし、各相互作用提案内の人間・物体の局所的空間構造を付加し、HOIを強化する。
論文 参考訳(メタデータ) (2022-06-13T16:21:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。