論文の概要: An Evoked Potential-Guided Deep Learning Brain Representation For Visual
Classification
- arxiv url: http://arxiv.org/abs/2006.15357v1
- Date: Sat, 27 Jun 2020 12:46:31 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 08:00:43.183647
- Title: An Evoked Potential-Guided Deep Learning Brain Representation For Visual
Classification
- Title(参考訳): 視覚分類のための誘発電位誘導型深層学習脳表現法
- Authors: Xianglin Zheng, Zehong Cao, Quan Bai
- Abstract要約: 本稿では,事象関連電位(ERP)-Long短期記憶(LSTM)フレームワークと呼ばれる視覚誘発電位によって導かれるディープラーニングフレームワークを提案する。
その結果,提案するERP-LSTMフレームワークは,6クラス,72クラスに66.81%,27.08%の分類精度が得られた。
脳波信号からの視覚誘発電位の復号化は視覚分類のための識別的脳表現の学習に有効な方法であると考えられた。
- 参考スコア(独自算出の注目度): 19.587477797948683
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The new perspective in visual classification aims to decode the feature
representation of visual objects from human brain activities. Recording
electroencephalogram (EEG) from the brain cortex has been seen as a prevalent
approach to understand the cognition process of an image classification task.
In this study, we proposed a deep learning framework guided by the visual
evoked potentials, called the Event-Related Potential (ERP)-Long short-term
memory (LSTM) framework, extracted by EEG signals for visual classification. In
specific, we first extracted the ERP sequences from multiple EEG channels to
response image stimuli-related information. Then, we trained an LSTM network to
learn the feature representation space of visual objects for classification. In
the experiment, 10 subjects were recorded by over 50,000 EEG trials from an
image dataset with 6 categories, including a total of 72 exemplars. Our results
showed that our proposed ERP-LSTM framework could achieve classification
accuracies of cross-subject of 66.81% and 27.08% for categories (6 classes) and
exemplars (72 classes), respectively. Our results outperformed that of using
the existing visual classification frameworks, by improving classification
accuracies in the range of 12.62% - 53.99%. Our findings suggested that
decoding visual evoked potentials from EEG signals is an effective strategy to
learn discriminative brain representations for visual classification.
- Abstract(参考訳): 視覚分類の新しい視点は、人間の脳活動から視覚オブジェクトの特徴表現をデコードすることを目的としている。
脳皮質から脳波(eeg)を記録することは、画像分類タスクの認知過程を理解するための一般的なアプローチと見なされている。
本研究では,脳波信号によって抽出された視覚誘発電位(ERP)-Long短期記憶(LSTM)フレームワークという,視覚誘発電位によって誘導される深層学習フレームワークを提案する。
具体的には,複数の脳波チャネルからerp配列を抽出し,応答画像刺激関連情報を得た。
そこで我々は,視覚オブジェクトの特徴表現空間を学習するためにLSTMネットワークを訓練した。
実験では、6つのカテゴリからなる画像データセットから、5万以上の脳波試験で10人の被験者が記録された。
提案するerp-lstmフレームワークは,それぞれ66.81%のクロスサブジェクトと27.08%のカテゴリ(6クラス)と例(72クラス)のクロスサブジェクトを分類できることを示した。
その結果,12.62%から53.99%の範囲での分類精度が向上し,既存の視覚分類フレームワークを用いた場合よりも優れていた。
脳波信号からの視覚誘発電位の復号化は視覚分類のための識別的脳表現の学習に有効な方法であると考えられた。
関連論文リスト
- Visual Neural Decoding via Improved Visual-EEG Semantic Consistency [3.4061238650474657]
EEG機能をCLIP埋め込みスペースに直接マッピングするメソッドは、マッピングバイアスを導入し、セマンティックな矛盾を引き起こす可能性がある。
最適アライメントを容易にするために,これらの2つのモードのセマンティックな特徴を明示的に抽出する Visual-EEG Semantic Decouple Framework を提案する。
提案手法は,ゼロショットニューラルデコードタスクの最先端化を実現する。
論文 参考訳(メタデータ) (2024-08-13T10:16:10Z) - Knowledge-Guided Prompt Learning for Lifespan Brain MR Image Segmentation [53.70131202548981]
本稿では,脳MRIにKGPL(Knowledge-Guided Prompt Learning)を用いた2段階のセグメンテーションフレームワークを提案する。
具体的には,大規模データセットと準最適ラベルを用いたトレーニング前セグメンテーションモデルについて述べる。
知識的プロンプトの導入は、解剖学的多様性と生物学的プロセスの間の意味的関係を捉えている。
論文 参考訳(メタデータ) (2024-07-31T04:32:43Z) - Mind's Eye: Image Recognition by EEG via Multimodal Similarity-Keeping Contrastive Learning [2.087148326341881]
本稿では,ゼロショット脳波画像分類のためのMUltimodal similarity-keeper contrastivE学習フレームワークを提案する。
我々は、脳波信号に適した多変量時系列エンコーダを開発し、正規化コントラスト脳波画像事前学習の有効性を評価する。
本手法は,200方向ゼロショット画像分類において,トップ1の精度が19.3%,トップ5の精度が48.8%の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T16:42:23Z) - Personality Trait Recognition using ECG Spectrograms and Deep Learning [6.6157730528755065]
本稿では,心電図(ECG)信号に応用した深層学習(DL)手法を用いて,人格特性の認識に革新的なアプローチを提案する。
この研究は、外転、神経症、同意性、良心、開放性を含む5つの大きな性格特性モデルを検出する枠組みの中で、ECG由来のスペクトログラムの可能性を情報的特徴として探求している。
論文 参考訳(メタデータ) (2024-02-06T19:09:44Z) - MLIP: Enhancing Medical Visual Representation with Divergence Encoder
and Knowledge-guided Contrastive Learning [48.97640824497327]
本稿では、画像テキストのコントラスト学習を通じて、言語情報を視覚領域に統合するための案内信号として、ドメイン固有の医療知識を活用する新しいフレームワークを提案する。
我々のモデルには、設計した分散エンコーダによるグローバルコントラスト学習、局所トークン・知識・パッチアライメントコントラスト学習、知識誘導型カテゴリレベルのコントラスト学習、エキスパートナレッジによるコントラスト学習が含まれる。
特に、MLIPは、限られた注釈付きデータであっても最先端の手法を超越し、医療表現学習の進歩におけるマルチモーダル事前学習の可能性を強調している。
論文 参考訳(メタデータ) (2024-02-03T05:48:50Z) - Decoding visual brain representations from electroencephalography
through Knowledge Distillation and latent diffusion models [0.12289361708127873]
本稿では,脳波(EEG)データを用いて,ImageNetデータセットから画像の分類と再構成を行う革新的な手法を提案する。
我々は6人の被験者の脳波記録を分析し、それぞれ40のユニークな意味カテゴリーにまたがる50の画像に暴露した。
我々は,事前学習した潜伏拡散モデルに基づく画像再構成機構を導入し,脳波を誘発した画像の推定を可能とした。
論文 参考訳(メタデータ) (2023-09-08T09:13:50Z) - Controllable Mind Visual Diffusion Model [58.83896307930354]
脳信号の可視化は、人間の視覚システムとコンピュータビジョンモデルの間の重要なインターフェースとして機能する活発な研究領域として登場した。
我々は、制御可能なマインドビジュアルモデル拡散(CMVDM)と呼ばれる新しいアプローチを提案する。
CMVDMは属性アライメントとアシスタントネットワークを用いてfMRIデータから意味情報とシルエット情報を抽出する。
そして、制御モデルを利用して抽出した情報を画像合成に活用し、セマンティクスやシルエットの観点から視覚刺激によく似た画像を生成する。
論文 参考訳(メタデータ) (2023-05-17T11:36:40Z) - See What You See: Self-supervised Cross-modal Retrieval of Visual
Stimuli from Brain Activity [37.837710340954374]
本稿では2つのモダリティのデータをアノテーションとは対照的に相関する1段階の脳波視覚検索パラダイムを提案する。
提案手法は,既存の手法では不可能な,インスタンスレベルの脳波視覚検索タスクを完了させる。
論文 参考訳(メタデータ) (2022-08-07T08:11:15Z) - Exploring CLIP for Assessing the Look and Feel of Images [87.97623543523858]
ゼロショット方式で画像の品質知覚(ルック)と抽象知覚(フィール)の両方を評価するために,コントラスト言語-画像事前学習(CLIP)モデルを導入する。
以上の結果から,CLIPは知覚的評価によく適合する有意義な先行情報を捉えることが示唆された。
論文 参考訳(メタデータ) (2022-07-25T17:58:16Z) - SEGA: Semantic Guided Attention on Visual Prototype for Few-Shot
Learning [85.2093650907943]
機械に新しいカテゴリーを認識させるためのセマンティックガイド注意(SEGA)を提案する。
SEGAは意味的知識を使用して、視覚的特徴に注意を払うべきものについて、トップダウンの方法で視覚的知覚を導く。
セマンティックガイドによる注意は期待された機能を実現し、最先端の結果より優れていることを示す。
論文 参考訳(メタデータ) (2021-11-08T08:03:44Z) - Emotional EEG Classification using Connectivity Features and
Convolutional Neural Networks [81.74442855155843]
CNNと脳のつながりを利用した新しい分類システムを導入し,その効果を感情映像分類により検証する。
対象映像の感情的特性に関連する脳接続の集中度は分類性能と相関する。
論文 参考訳(メタデータ) (2021-01-18T13:28:08Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。