論文の概要: Hierarchic-EEG2Text: Assessing EEG-To-Text Decoding across Hierarchical Abstraction Levels
- arxiv url: http://arxiv.org/abs/2602.20932v1
- Date: Tue, 24 Feb 2026 14:10:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.779455
- Title: Hierarchic-EEG2Text: Assessing EEG-To-Text Decoding across Hierarchical Abstraction Levels
- Title(参考訳): 階層型EEG2Text:階層的抽象化レベルを越えたEEG-to-Textデコーディングの評価
- Authors: Anupam Sharma, Harish Katti, Prajwal Singh, Shanmuganathan Raman, Krishna Miyapuram,
- Abstract要約: 脳波が複数の階層レベルにわたってオブジェクト表現をキャプチャするかどうかを調査し、エピソード解析を提案する。
等濃度の固定クラスやランダムにサンプリングされたクラスに依存した従来のエピソード脳波研究とは異なり、我々は階層対応のエピソードサンプリングを採用する。
PEERSデータセットにおける脳波信号から観察されたテキストを検出するための脳波領域における最大のエピソードフレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.251684640975872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: An electroencephalogram (EEG) records the spatially averaged electrical activity of neurons in the brain, measured from the human scalp. Prior studies have explored EEG-based classification of objects or concepts, often for passive viewing of briefly presented image or video stimuli, with limited classes. Because EEG exhibits a low signal-to-noise ratio, recognizing fine-grained representations across a large number of classes remains challenging; however, abstract-level object representations may exist. In this work, we investigate whether EEG captures object representations across multiple hierarchical levels, and propose episodic analysis, in which a Machine Learning (ML) model is evaluated across various, yet related, classification tasks (episodes). Unlike prior episodic EEG studies that rely on fixed or randomly sampled classes of equal cardinality, we adopt hierarchy-aware episode sampling using WordNet to generate episodes with variable classes of diverse hierarchy. We also present the largest episodic framework in the EEG domain for detecting observed text from EEG signals in the PEERS dataset, comprising $931538$ EEG samples under $1610$ object labels, acquired from $264$ human participants (subjects) performing controlled cognitive tasks, enabling the study of neural dynamics underlying perception, decision-making, and performance monitoring. We examine how the semantic abstraction level affects classification performance across multiple learning techniques and architectures, providing a comprehensive analysis. The models tend to improve performance when the classification categories are drawn from higher levels of the hierarchy, suggesting sensitivity to abstraction. Our work highlights abstraction depth as an underexplored dimension of EEG decoding and motivates future research in this direction.
- Abstract(参考訳): 脳波(EEG)は、ヒト頭皮から測定された脳内のニューロンの空間的平均電気活動を記録する。
以前の研究では、脳波に基づく物体や概念の分類を研究しており、多くの場合、限られたクラスで短時間に提示された画像やビデオ刺激を受動的に見るために研究されている。
EEGは低信号対雑音比を示すため、多数のクラスにまたがる微細な表現を認識することは依然として困難であるが、抽象レベルのオブジェクト表現が存在するかもしれない。
本研究では,脳波が複数の階層レベルにわたってオブジェクト表現をキャプチャするかどうかを考察し,機械学習(ML)モデルを様々な,しかし関連する分類タスク(エピソード)で評価するエピソード解析を提案する。
等濃度の固定クラスやランダムにサンプリングされたクラスに依存した従来のエピソード脳波研究とは異なり、WordNetを用いた階層認識エピソードサンプリングを採用し、多様な階層のクラスを持つエピソードを生成する。
我々はまた、PEERSデータセットの脳波信号から観察されたテキストを検出するための、脳波領域における最大のエピソードフレームワークを提示する。このフレームワークは、オブジェクトラベル1610ドルのEEGサンプルから、制御された認知タスクを実行する264ドルの人的参加者(対象)から取得され、認識、意思決定、パフォーマンス監視に基づく神経力学の研究を可能にする。
セマンティックな抽象レベルが複数の学習手法やアーキテクチャの分類性能にどのように影響するかを考察し、包括的な分析を行う。
分類カテゴリが階層の上位レベルから引き出されると、モデルの性能が向上し、抽象化に対する感受性が示唆される。
我々の研究は、脳波復号の未探索次元として抽象深度を強調し、この方向における将来の研究を動機付けている。
関連論文リスト
- E^2-LLM: Bridging Neural Signals and Interpretable Affective Analysis [54.763420895859035]
脳波からの感情分析のための最初のMLLMフレームワークであるELLM2-EEG-to-Emotion Large Language Modelを提案する。
ELLMは学習可能なプロジェクション層を通じて、トレーニング済みのEEGエンコーダとQベースのLLMを統合し、マルチステージのトレーニングパイプラインを使用する。
7つの感情カテゴリーにまたがるデータセット実験により, ELLM2-EEG-to-Emotion Large Language Modelは感情分類において優れた性能を発揮することが示された。
論文 参考訳(メタデータ) (2026-01-11T13:21:20Z) - ViEEG: Hierarchical Visual Neural Representation for EEG Brain Decoding [18.51835182602402]
ViEEGは神経系であり、我々はさらに、EEG-CLIPのアライメントアライメントに階層的コントラスト学習を採用し、ゼロショットオブジェクト認識を可能にする。
われわれのフレームワークは脳波脳波復号のための新しいパラダイムを定めている。
ViEEGは、視覚刺激を3つの生物学的に整列した構成要素、前景のオブジェクト、三次元脳波エンコーダのための文脈的なシーン保存アンカーに分解する。
論文 参考訳(メタデータ) (2025-05-18T13:19:08Z) - CognitionCapturer: Decoding Visual Stimuli From Human EEG Signal With Multimodal Information [61.1904164368732]
脳波信号の表現にマルチモーダルデータを完全に活用する統合フレームワークであるCognitionCapturerを提案する。
具体的には、CognitionCapturerは、各モダリティに対してモダリティエキスパートを訓練し、EEGモダリティからモダリティ情報を抽出する。
このフレームワークは生成モデルの微調整を一切必要とせず、より多くのモダリティを組み込むように拡張することができる。
論文 参考訳(メタデータ) (2024-12-13T16:27:54Z) - Multi-modal Mood Reader: Pre-trained Model Empowers Cross-Subject Emotion Recognition [23.505616142198487]
我々は、クロスオブジェクト感情認識のための訓練済みモデルに基づくMultimodal Mood Readerを開発した。
このモデルは、大規模データセットの事前学習を通じて、脳波信号の普遍的な潜在表現を学習する。
公開データセットに関する大規模な実験は、クロスオブジェクト感情認識タスクにおけるMood Readerの優れたパフォーマンスを示している。
論文 参考訳(メタデータ) (2024-05-28T14:31:11Z) - A Knowledge-Driven Cross-view Contrastive Learning for EEG
Representation [48.85731427874065]
本稿では,限られたラベルを持つ脳波から効果的な表現を抽出する知識駆動型クロスビューコントラスト学習フレームワーク(KDC2)を提案する。
KDC2法は脳波信号の頭皮と神経のビューを生成し、脳活動の内部および外部の表現をシミュレートする。
ニューラル情報整合性理論に基づく事前のニューラル知識をモデル化することにより、提案手法は不変かつ相補的なニューラル知識を抽出し、複合表現を生成する。
論文 参考訳(メタデータ) (2023-09-21T08:53:51Z) - The Overlooked Classifier in Human-Object Interaction Recognition [82.20671129356037]
クラス間の意味的相関を分類ヘッドにエンコードし,重みをHOIの言語埋め込みで初期化する。
我々は,LSE-Sign という新しい損失を,長い尾を持つデータセット上でのマルチラベル学習を強化するために提案する。
我々は,物体検出と人間のポーズを明確なマージンで求める最先端技術よりも優れた,検出不要なHOI分類を可能にする。
論文 参考訳(メタデータ) (2022-03-10T23:35:00Z) - EEG-based Cross-Subject Driver Drowsiness Recognition with an
Interpretable Convolutional Neural Network [0.0]
我々は,新しい畳み込みニューラルネットワークと解釈手法を組み合わせることで,分類の重要な特徴のサンプルワイズ分析を可能にする。
その結果,11名の被験者に対して平均78.35%の精度が得られた。
論文 参考訳(メタデータ) (2021-05-30T14:47:20Z) - A Novel Transferability Attention Neural Network Model for EEG Emotion
Recognition [51.203579838210885]
脳波感情認識のための伝達型注目ニューラルネットワーク(TANN)を提案する。
TANNは、伝達可能な脳波領域のデータとサンプルを適応的に強調することにより、感情的な識別情報を学習する。
これは、複数の脳領域レベル判別器と1つのサンプルレベル判別器の出力を測定することで実現できる。
論文 参考訳(メタデータ) (2020-09-21T02:42:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。