論文の概要: Large Language Models for EEG: A Comprehensive Survey and Taxonomy
- arxiv url: http://arxiv.org/abs/2506.06353v1
- Date: Mon, 02 Jun 2025 18:58:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-10 16:33:10.221933
- Title: Large Language Models for EEG: A Comprehensive Survey and Taxonomy
- Title(参考訳): 脳波のための大規模言語モデル:包括的調査と分類
- Authors: Naseem Babu, Jimson Mathew, A. P. Vinod,
- Abstract要約: 大言語モデル(LLM)と脳波(EEG)の研究は、ニューラルデコード、脳-コンピュータインターフェース(BCI)、感情コンピューティングにおける新たな方向性を可能にしている。
本調査は,脳波分析と応用にLLMを用いた最近の進歩の体系的レビューと構造的分類を提供する。
- 参考スコア(独自算出の注目度): 3.5803007109679212
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The growing convergence between Large Language Models (LLMs) and electroencephalography (EEG) research is enabling new directions in neural decoding, brain-computer interfaces (BCIs), and affective computing. This survey offers a systematic review and structured taxonomy of recent advancements that utilize LLMs for EEG-based analysis and applications. We organize the literature into four domains: (1) LLM-inspired foundation models for EEG representation learning, (2) EEG-to-language decoding, (3) cross-modal generation including image and 3D object synthesis, and (4) clinical applications and dataset management tools. The survey highlights how transformer-based architectures adapted through fine-tuning, few-shot, and zero-shot learning have enabled EEG-based models to perform complex tasks such as natural language generation, semantic interpretation, and diagnostic assistance. By offering a structured overview of modeling strategies, system designs, and application areas, this work serves as a foundational resource for future work to bridge natural language processing and neural signal analysis through language models.
- Abstract(参考訳): 大規模言語モデル(LLMs)と脳波(EEG)の研究の収束は、ニューラルデコード、脳-コンピュータインターフェース(BCIs)、感情コンピューティングにおける新たな方向性を可能にしている。
本調査は,脳波分析と応用にLLMを用いた最近の進歩の体系的レビューと構造的分類を提供する。
文献は,(1)脳波表現学習の基礎モデル,(2)脳波から言語への復号化,(3)画像と3Dオブジェクト合成を含むクロスモーダル生成,(4)臨床応用とデータセット管理ツールの4つの領域に分けられる。
この調査は、微調整、少数ショット、ゼロショット学習を通じてトランスフォーマーベースのアーキテクチャが、自然言語生成、セマンティック解釈、診断支援といった複雑なタスクをEEGベースのモデルで実行可能にする方法を強調している。
モデリング戦略、システム設計、アプリケーション領域の構造化された概要を提供することにより、この研究は、自然言語処理とニューラル信号解析を言語モデルを通してブリッジするための基礎的なリソースとして機能する。
関連論文リスト
- A Comprehensive Survey of Electronic Health Record Modeling: From Deep Learning Approaches to Large Language Models [5.623574322477982]
このサーベイは、ディープラーニング、大規模言語モデル(LLM)、EHRモデリングの交差点における最近の進歩の包括的概要を提供する。
データ中心のアプローチ、ニューラルアーキテクチャ設計、学習中心の戦略、マルチモーダル学習、LLMに基づくモデリングシステムである。
この調査は、AI駆動のEHRモデリングと臨床意思決定支援を進めるための構造化されたロードマップを提供することを目的としている。
論文 参考訳(メタデータ) (2025-07-17T04:31:55Z) - A Survey of Model Architectures in Information Retrieval [64.75808744228067]
機能抽出のためのバックボーンモデルと、関連性推定のためのエンドツーエンドシステムアーキテクチャの2つの重要な側面に焦点を当てる。
従来の用語ベースの手法から現代のニューラルアプローチまで,特にトランスフォーマーベースのモデルとそれに続く大規模言語モデル(LLM)の影響が注目されている。
我々は、パフォーマンスとスケーラビリティのアーキテクチャ最適化、マルチモーダル、マルチランガルデータの処理、従来の検索パラダイムを超えた新しいアプリケーションドメインへの適応など、新たな課題と今後の方向性について議論することで結論付けた。
論文 参考訳(メタデータ) (2025-02-20T18:42:58Z) - A Survey on Bridging EEG Signals and Generative AI: From Image and Text to Beyond [4.720913027054481]
Brain-Computer Interfaces (BCI) とGenerative Artificial Intelligence (GenAI) の統合により、脳信号復号における新たなフロンティアが開かれた。
近年、GAN(Generative Adversarial Networks)やLLM(Transformer-based Large Language Models)といったディープラーニングの進歩により、脳波による画像、テキスト、音声の生成が大幅に改善されている。
論文 参考訳(メタデータ) (2025-02-17T17:16:41Z) - Large Cognition Model: Towards Pretrained EEG Foundation Model [0.0]
多様な脳波データセットと下流タスクをまたいだ一般化を目的としたトランスフォーマーベース基盤モデルを提案する。
本研究は, 神経科学, パーソナライズドメディカル, およびBCI技術の進歩を促進するための, 事前学習型脳波基盤モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-11T04:28:10Z) - Thought2Text: Text Generation from EEG Signal using Large Language Models (LLMs) [4.720913027054481]
本稿では、この目的を達成するために、脳波データを微調整した命令調整大型言語モデル(LLM)を用いたThought2Textを提案する。
本手法は, 視覚的特徴抽出のための脳波エンコーダのトレーニング, 2) 画像およびテキストデータ上での微調整, マルチモーダル記述生成, (3) 脳波エンコーダのさらなる微調整により, 推論中に直接脳波からテキストを生成する。
論文 参考訳(メタデータ) (2024-10-10T00:47:59Z) - EEG-Language Modeling for Pathology Detection [0.0]
本稿では臨床報告と15,000の脳波を訓練した脳波モデル(ELM)を考案した。
本稿では,この領域におけるマルチモーダルアライメントと,時間的収穫とテキストセグメンテーションを組み合わせることを提案する。
マルチモーダルモデルでは4つの評価において,脳波のみのモデルと比較して病理診断が有意に改善した。
論文 参考訳(メタデータ) (2024-09-02T10:03:03Z) - Retrieval-Enhanced Machine Learning: Synthesis and Opportunities [60.34182805429511]
検索エンハンスメントは機械学習(ML)の幅広い範囲に拡張できる
この研究は、MLの様々な領域の文献を、現在の文献から欠落している一貫した表記で合成することで、このパラダイムの正式なフレームワークであるRetrieval-Enhanced Machine Learning (REML)を導入する。
本研究の目的は、様々な分野の研究者に対して、検索強化モデルの包括的、正式に構造化された枠組みを付与し、学際的な将来の研究を促進することである。
論文 参考訳(メタデータ) (2024-07-17T20:01:21Z) - LangSuitE: Planning, Controlling and Interacting with Large Language Models in Embodied Text Environments [70.91258869156353]
テキストエンボディの世界における6つの代表的具体的タスクを特徴とする多目的・シミュレーション不要なテストベッドであるLangSuitEを紹介する。
以前のLLMベースのテストベッドと比較すると、LangSuitEは複数のシミュレーションエンジンを使わずに、多様な環境への適応性を提供する。
具体化された状態の履歴情報を要約した新しいチェーン・オブ・ソート(CoT)スキーマであるEmMemを考案する。
論文 参考訳(メタデータ) (2024-06-24T03:36:29Z) - In-Context Language Learning: Architectures and Algorithms [73.93205821154605]
我々は、文脈言語学習(ICLL)において、私たちが用語する新しいモデル問題群(英語版)のレンズを通してICLを研究する。
我々は,通常のICLLタスクにおいて,多種多様なニューラルシーケンスモデルを評価する。
論文 参考訳(メタデータ) (2024-01-23T18:59:21Z) - Large Language Models for Information Retrieval: A Survey [58.30439850203101]
情報検索は、項ベースの手法から高度なニューラルモデルとの統合へと進化してきた。
近年の研究では、大規模言語モデル(LLM)を活用してIRシステムの改善が試みられている。
LLMとIRシステムの合流点を探索し、クエリリライト、リトリバー、リランカー、リーダーといった重要な側面を含む。
論文 参考訳(メタデータ) (2023-08-14T12:47:22Z) - Learning Contextual Representations for Semantic Parsing with
Generation-Augmented Pre-Training [86.91380874390778]
本稿では,生成モデルを活用して事前学習データを生成することで,自然言語発話と表スキーマの表現を共同で学習するGAPを提案する。
実験結果に基づいて、GAP MODELを利用するニューラルセマンティクスは、SPIDERとCRITERIA-to-generationベンチマークの両方で最新の結果を得る。
論文 参考訳(メタデータ) (2020-12-18T15:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。