論文の概要: AutocleanEEG ICVision: Automated ICA Artifact Classification Using Vision-Language AI
- arxiv url: http://arxiv.org/abs/2512.00194v1
- Date: Fri, 28 Nov 2025 20:19:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-02 19:46:34.10621
- Title: AutocleanEEG ICVision: Automated ICA Artifact Classification Using Vision-Language AI
- Title(参考訳): AutocleanEEG ICVision:視覚言語AIを用いたICAアーティファクトの自動分類
- Authors: Zag ElSayed, Grace Westerkamp, Gavin Gammoh, Yanchen Liu, Peyton Siekierski, Craig Erickson, Ernest Pedapati,
- Abstract要約: EEG Autoclean Vision Language AI(ICVision)を紹介する。
ICVisionはAIエージェントビジョンと自然言語推論を通じて、専門家レベルのEEG ICAコンポーネントの分類をエミュレートする。
神経生理学におけるAIエージェント視覚認知の科学的実装としては初めてである。
- 参考スコア(独自算出の注目度): 3.45175274355432
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We introduce EEG Autoclean Vision Language AI (ICVision) a first-of-its-kind system that emulates expert-level EEG ICA component classification through AI-agent vision and natural language reasoning. Unlike conventional classifiers such as ICLabel, which rely on handcrafted features, ICVision directly interprets ICA dashboard visualizations topography, time series, power spectra, and ERP plots, using a multimodal large language model (GPT-4 Vision). This allows the AI to see and explain EEG components the way trained neurologists do, making it the first scientific implementation of AI-agent visual cognition in neurophysiology. ICVision classifies each component into one of six canonical categories (brain, eye, heart, muscle, channel noise, and other noise), returning both a confidence score and a human-like explanation. Evaluated on 3,168 ICA components from 124 EEG datasets, ICVision achieved k = 0.677 agreement with expert consensus, surpassing MNE ICLabel, while also preserving clinically relevant brain signals in ambiguous cases. Over 97% of its outputs were rated as interpretable and actionable by expert reviewers. As a core module of the open-source EEG Autoclean platform, ICVision signals a paradigm shift in scientific AI, where models do not just classify, but see, reason, and communicate. It opens the door to globally scalable, explainable, and reproducible EEG workflows, marking the emergence of AI agents capable of expert-level visual decision-making in brain science and beyond.
- Abstract(参考訳): 我々は、AIエージェントビジョンと自然言語推論を通じて、専門家レベルのEEG ICAコンポーネントの分類をエミュレートする第一種システムであるEEG Autoclean Vision Language AI(ICVision)を紹介する。
ICLabelのような手作り機能に依存する従来の分類器とは異なり、ICVisionはマルチモーダルな言語モデル(GPT-4 Vision)を用いて、ICAダッシュボードのトポグラフィ、時系列、パワースペクトル、ERPプロットを直接解釈する。
これにより、AIは、訓練された神経科医が行うように脳波成分を観察し、説明することができ、神経生理学におけるAIによる視覚認知の科学的実装としては初めてのものとなる。
ICVisionは、各コンポーネントを6つの標準カテゴリー(脳、目、心臓、筋肉、チャネルノイズ、その他のノイズ)に分類し、信頼スコアと人間に似た説明を返す。
ICVisionは124のEEGデータセットから3,168のICA成分を評価し、MNE ICLabelを超える専門家の合意とk = 0.677の合意を得た。
アウトプットの97%以上が専門家のレビュアーによって解釈可能で実行可能と評価された。
オープンソースのEEG Autocleanプラットフォームのコアモジュールとして、ICVisionは、モデルが単に分類、理解、理性、コミュニケーションを行うだけでなく、科学的AIにおけるパラダイムシフトを示唆する。
グローバルにスケーラブルで説明可能な、再現可能なEEGワークフローへの扉を開くことで、専門家レベルの視覚的意思決定が可能なAIエージェントが脳科学以降に出現することを示している。
関連論文リスト
- WaveMind: Towards a Conversational EEG Foundation Model Aligned to Textual and Visual Modalities [55.00677513249723]
脳波信号は認知過程と固有の神経状態の両方を同時に符号化する。
我々は、EEG信号とその対応するモダリティを統一意味空間にマッピングし、一般化された解釈を実現する。
結果として得られたモデルは、柔軟でオープンな会話をサポートしながら、堅牢な分類精度を示す。
論文 参考訳(メタデータ) (2025-09-26T06:21:51Z) - EgoBrain: Synergizing Minds and Eyes For Human Action Understanding [50.54007364637855]
EgoBrainは、長期にわたって人間の脳の自我中心の視覚と脳波を同期させる、世界初の大規模な、時間的に整列したマルチモーダルデータセットである。
このデータセットは、毎日29種類の活動に携わる40人の参加者から、同期された32チャンネル脳波記録と1対1のビデオの61時間からなる。
すべてのデータ、ツール、取得プロトコルはオープンに共有され、認知コンピューティングにおけるオープンサイエンスを育む。
論文 参考訳(メタデータ) (2025-06-02T06:14:02Z) - BrainOmni: A Brain Foundation Model for Unified EEG and MEG Signals [46.121056431476156]
異種脳波とMEG記録を対象とする脳基礎モデルBrain Omniを提案する。
既存のアプローチは一般的に、パフォーマンスとクロスドメインのスケーラビリティを制限する、分離、モダリティ、データセット固有のモデルに依存します。
EEGの合計1,997時間、MEGデータの656時間は、事前トレーニングのために公開されているソースからキュレーションされ、標準化されている。
論文 参考訳(メタデータ) (2025-05-18T14:07:14Z) - ViEEG: Hierarchical Visual Neural Representation for EEG Brain Decoding [18.51835182602402]
ViEEGは神経系であり、我々はさらに、EEG-CLIPのアライメントアライメントに階層的コントラスト学習を採用し、ゼロショットオブジェクト認識を可能にする。
われわれのフレームワークは脳波脳波復号のための新しいパラダイムを定めている。
ViEEGは、視覚刺激を3つの生物学的に整列した構成要素、前景のオブジェクト、三次元脳波エンコーダのための文脈的なシーン保存アンカーに分解する。
論文 参考訳(メタデータ) (2025-05-18T13:19:08Z) - Neural Brain: A Neuroscience-inspired Framework for Embodied Agents [78.61382193420914]
大規模な言語モデルのような現在のAIシステムは、いまだに解体され続けており、物理的に世界と関わりが持てない。
この課題の核心は、人間のような適応性を持つエンボディエージェントを駆動するために設計された中枢知能システムであるNeural Brain(ニューラル・ブレイン)の概念である。
本稿では,2つの基本的な課題に対処する,エンボディエージェントのニューラルブレインの統一的枠組みを提案する。
論文 参考訳(メタデータ) (2025-05-12T15:05:34Z) - CSLP-AE: A Contrastive Split-Latent Permutation Autoencoder Framework
for Zero-Shot Electroencephalography Signal Conversion [49.1574468325115]
脳波分析の鍵となる目的は、基礎となる神経活動(コンテンツ)を抽出し、個体の変動(スタイル)を考慮することである。
近年の音声変換技術の発展に触発されて,脳波変換を直接最適化するCSLP-AEフレームワークを提案する。
論文 参考訳(メタデータ) (2023-11-13T22:46:43Z) - BELT:Bootstrapping Electroencephalography-to-Language Decoding and
Zero-Shot Sentiment Classification by Natural Language Supervision [31.382825932199935]
提案手法は,脳波表現学習をブートストラップする汎用的で効率的なフレームワークである。
意味情報とゼロショットの一般化を理解するための大きなLM能力により、BELTはインターネットスケールのデータセットで訓練された大規模なLMを使用する。
脳から言語への翻訳やゼロショット感情分類を含む2つの特徴ある脳復号タスクについて、最先端の成果を得た。
論文 参考訳(メタデータ) (2023-09-21T13:24:01Z) - Open Vocabulary Electroencephalography-To-Text Decoding and Zero-shot
Sentiment Classification [78.120927891455]
最先端のブレイン・トゥ・テキストシステムは、ニューラルネットワークを使用して脳信号から直接言語を復号することに成功した。
本稿では,自然読解課題における語彙的脳波(EEG)-テキスト列列列復号化とゼロショット文感性分類に問題を拡張する。
脳波-テキストデコーディングで40.1%のBLEU-1スコア、ゼロショット脳波に基づく3次感情分類で55.6%のF1スコアを達成し、教師付きベースラインを著しく上回る結果となった。
論文 参考訳(メタデータ) (2021-12-05T21:57:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。