論文の概要: EEG-based Image Feature Extraction for Visual Classification using Deep
Learning
- arxiv url: http://arxiv.org/abs/2209.13090v1
- Date: Tue, 27 Sep 2022 00:50:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-28 14:41:03.066756
- Title: EEG-based Image Feature Extraction for Visual Classification using Deep
Learning
- Title(参考訳): ディープラーニングを用いた視覚分類のための脳波画像特徴抽出
- Authors: Alankrit Mishra, Nikhil Raj and Garima Bajwa
- Abstract要約: 深層学習モデルを用いた脳波のより微妙な理解を容易にするため,脳波信号を画像として効率的に符号化する方法を開発した。
脳波と組み合わせた画像分類法は,純粋な深層学習法に比べて精度が82%向上した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While capable of segregating visual data, humans take time to examine a
single piece, let alone thousands or millions of samples. The deep learning
models efficiently process sizeable information with the help of modern-day
computing. However, their questionable decision-making process has raised
considerable concerns. Recent studies have identified a new approach to extract
image features from EEG signals and combine them with standard image features.
These approaches make deep learning models more interpretable and also enables
faster converging of models with fewer samples. Inspired by recent studies, we
developed an efficient way of encoding EEG signals as images to facilitate a
more subtle understanding of brain signals with deep learning models. Using two
variations in such encoding methods, we classified the encoded EEG signals
corresponding to 39 image classes with a benchmark accuracy of 70% on the
layered dataset of six subjects, which is significantly higher than the
existing work. Our image classification approach with combined EEG features
achieved an accuracy of 82% compared to the slightly better accuracy of a pure
deep learning approach; nevertheless, it demonstrates the viability of the
theory.
- Abstract(参考訳): 視覚データを分離することは可能だが、人間は何千万というサンプルを使わずに、1つの断片を調べるのに時間がかかる。
ディープラーニングモデルは、現代のコンピューティングの助けを借りて、大きな情報を効率的に処理する。
しかし、彼らの疑わしい意思決定プロセスは、かなりの懸念を引き起こした。
近年の研究では、脳波信号から画像特徴を抽出し、それらを標準画像特徴と組み合わせるための新しいアプローチが特定されている。
これらのアプローチは、ディープラーニングモデルをより解釈しやすくし、より少ないサンプルでモデルのより高速な収束を可能にする。
近年の研究では,脳波信号を画像として効率的に符号化し,深層学習モデルによる脳波のより微妙な理解を促進する方法が開発されている。
このような符号化手法の2つのバリエーションを用いて、39の画像クラスに対応する符号化された脳波信号を6つの被験者の階層化データセット上で70%の精度で分類した。
画像分類法と脳波特徴を組み合わせることにより,純深層学習法に比べて精度が82%向上した。
関連論文リスト
- Large-Scale Data-Free Knowledge Distillation for ImageNet via Multi-Resolution Data Generation [53.95204595640208]
Data-Free Knowledge Distillation (DFKD)は、教師モデルから生徒モデルへの知識伝達を可能にする高度な技術である。
従来のアプローチでは、実際の画像の情報を活用することなく、高解像度で合成画像を生成してきた。
MUSEは、クラスアクティベーションマップ(CAM)を使用して、低い解像度で画像を生成し、生成された画像が重要なクラス固有の特徴を保持することを保証する。
論文 参考訳(メタデータ) (2024-11-26T02:23:31Z) - Mind's Eye: Image Recognition by EEG via Multimodal Similarity-Keeping Contrastive Learning [2.087148326341881]
本稿では,ゼロショット脳波画像分類のためのMUltimodal similarity-keeper contrastivE学習フレームワークを提案する。
我々は、脳波信号に適した多変量時系列エンコーダを開発し、正規化コントラスト脳波画像事前学習の有効性を評価する。
本手法は,200方向ゼロショット画像分類において,トップ1の精度が19.3%,トップ5の精度が48.8%の最先端性能を実現する。
論文 参考訳(メタデータ) (2024-06-05T16:42:23Z) - RIGID: A Training-free and Model-Agnostic Framework for Robust AI-Generated Image Detection [60.960988614701414]
RIGIDは、堅牢なAI生成画像検出のためのトレーニング不要でモデルに依存しない方法である。
RIGIDは、既存のトレーニングベースおよびトレーニング不要な検出器を著しく上回っている。
論文 参考訳(メタデータ) (2024-05-30T14:49:54Z) - Learning Robust Deep Visual Representations from EEG Brain Recordings [13.768240137063428]
本研究は,脳波に基づく深部表現の頑健な学習を行うための2段階の手法を提案する。
ディープラーニングアーキテクチャを用いて,3つのデータセットにまたがる特徴抽出パイプラインの一般化性を実証する。
本稿では,未知の画像を脳波空間に変換し,近似を用いて再構成する新しい枠組みを提案する。
論文 参考訳(メタデータ) (2023-10-25T10:26:07Z) - Improving Human-Object Interaction Detection via Virtual Image Learning [68.56682347374422]
人間-物体相互作用(Human-Object Interaction、HOI)は、人間と物体の相互作用を理解することを目的としている。
本稿では,仮想画像学習(Virtual Image Leaning, VIL)による不均衡分布の影響を軽減することを提案する。
ラベルからイメージへの新たなアプローチであるMultiple Steps Image Creation (MUSIC)が提案され、実際の画像と一貫した分布を持つ高品質なデータセットを作成する。
論文 参考訳(メタデータ) (2023-08-04T10:28:48Z) - MOCA: Self-supervised Representation Learning by Predicting Masked Online Codebook Assignments [72.6405488990753]
自己教師付き学習は、ビジョントランスフォーマーネットワークの欲求を軽減できる。
所望のプロパティを統一する単段および単段のMOCAを提案する。
我々は,様々な評価プロトコルにおいて,低照度設定と強力な実験結果に対して,最先端の新たな結果を得る。
論文 参考訳(メタデータ) (2023-07-18T15:46:20Z) - Genetic Programming-Based Evolutionary Deep Learning for Data-Efficient
Image Classification [3.9310727060473476]
本稿では,データ効率のよい画像分類のための遺伝的プログラミングに基づく進化的深層学習手法を提案する。
この新しいアプローチは、画像領域と分類領域の両方から多くの重要な演算子を使用して、変数長モデルを自動的に進化させることができる。
フレキシブルな多層表現により、新しいアプローチは、タスクごとに浅いモデルや深いモデルやツリーを自動的に構築できる。
論文 参考訳(メタデータ) (2022-09-27T08:10:16Z) - Learning Efficient Representations for Enhanced Object Detection on
Large-scene SAR Images [16.602738933183865]
SAR(Synthetic Aperture Radar)画像のターゲットの検出と認識は難しい問題である。
近年開発されたディープラーニングアルゴリズムは,SAR画像の固有の特徴を自動的に学習することができる。
本稿では,効率的かつ堅牢なディープラーニングに基づくターゲット検出手法を提案する。
論文 参考訳(メタデータ) (2022-01-22T03:25:24Z) - AugNet: End-to-End Unsupervised Visual Representation Learning with
Image Augmentation [3.6790362352712873]
我々は、未ラベル画像の集合から画像特徴を学習するための新しいディープラーニングトレーニングパラダイムであるAugNetを提案する。
実験により,低次元空間における画像の表現が可能であることを実証した。
多くのディープラーニングベースの画像検索アルゴリズムとは異なり、我々のアプローチは外部アノテーション付きデータセットへのアクセスを必要としない。
論文 参考訳(メタデータ) (2021-06-11T09:02:30Z) - Contrastive Learning with Stronger Augmentations [63.42057690741711]
本論文では,現在のコントラスト学習のアプローチを補完する,より強い拡張(A)によるコントラスト学習という汎用フレームワークを提案する。
ここでは、表現バンク上の弱強調画像と強拡張画像との間の分布のばらつきを利用して、強拡張クエリの検索を監督する。
実験では、強力な画像からの情報により、パフォーマンスが大幅に向上します。
論文 参考訳(メタデータ) (2021-04-15T18:40:04Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。