論文の概要: ViT2EEG: Leveraging Hybrid Pretrained Vision Transformers for EEG Data
- arxiv url: http://arxiv.org/abs/2308.00454v1
- Date: Tue, 1 Aug 2023 11:10:33 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-02 14:20:27.293080
- Title: ViT2EEG: Leveraging Hybrid Pretrained Vision Transformers for EEG Data
- Title(参考訳): ViT2EEG:EEGデータのためのハイブリッド事前学習型視覚変換器の活用
- Authors: Ruiqi Yang, Eric Modesitt
- Abstract要約: 画像ネット上で事前学習したハイブリッドビジョントランスフォーマー(ViT)モデルの脳波回帰タスクへの応用を実演する。
このモデルは、ImageNetの重みなしでトレーニングされた同じアーキテクチャのViTなど、他のモデルと比較して、顕著なパフォーマンス向上を示している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: In this study, we demonstrate the application of a hybrid Vision Transformer
(ViT) model, pretrained on ImageNet, on an electroencephalogram (EEG)
regression task. Despite being originally trained for image classification
tasks, when fine-tuned on EEG data, this model shows a notable increase in
performance compared to other models, including an identical architecture ViT
trained without the ImageNet weights. This discovery challenges the traditional
understanding of model generalization, suggesting that Transformer models
pretrained on seemingly unrelated image data can provide valuable priors for
EEG regression tasks with an appropriate fine-tuning pipeline.
The success of this approach suggests that the features extracted by ViT
models in the context of visual tasks can be readily transformed for the
purpose of EEG predictive modeling. We recommend utilizing this methodology not
only in neuroscience and related fields, but generally for any task where data
collection is limited by practical, financial, or ethical constraints. Our
results illuminate the potential of pretrained models on tasks that are clearly
distinct from their original purpose.
- Abstract(参考訳): 本研究では,imagenetで事前学習したハイブリッド視覚トランスフォーマ(vit)モデルを用いて,脳波計(eeg)回帰タスクに適用する。
もともとは画像分類タスクのためにトレーニングされたものの、EEGデータに基づいて微調整された場合、このモデルは、ImageNet重みなしでトレーニングされた同じアーキテクチャのViTを含む他のモデルと比較して、顕著なパフォーマンス向上を示している。
この発見は、モデル一般化の伝統的な理解に挑戦し、一見無関係な画像データで事前訓練されたTransformerモデルが、適切な微調整パイプラインでEEG回帰タスクの貴重な事前情報を提供できることを示唆している。
このアプローチの成功は、視覚タスクの文脈でViTモデルによって抽出された特徴が、EEG予測モデリングの目的のために容易に変換できることを示唆している。
この方法論を神経科学や関連する分野だけでなく、一般的にデータ収集が実用的、経済的、倫理的な制約によって制限されるタスクにも活用することを推奨する。
本研究は,従来の目的とは明らかに異なるタスクにおける事前学習モデルの可能性を示すものである。
関連論文リスト
- Building 6G Radio Foundation Models with Transformer Architectures [6.70088826174291]
基礎深層学習(DL)モデルは、対象とするモダリティの一般的な、堅牢で適応可能な表現を学習するために設計されている。
これらのモデルは、自己教師付き学習(SSL)を使用して、大規模でラベルのないデータセットで事前訓練される
スペクトログラム学習のための無線基礎モデルとして視覚変換器(ViT)を提案する。
論文 参考訳(メタデータ) (2024-11-15T07:01:44Z) - Data-efficient Large Vision Models through Sequential Autoregression [58.26179273091461]
限られたデータセットに基づいて,効率的な自己回帰に基づく視覚モデルを構築する。
このモデルは,高レベル・低レベルのセマンティック理解の両方にまたがる視覚的タスクにおいて,その習熟度をいかに達成するかを実証する。
我々の経験的評価は、モデルが様々なタスクに適応する際の機敏さを強調し、パラメータフットプリントの大幅な削減を図った。
論文 参考訳(メタデータ) (2024-02-07T13:41:53Z) - EEGFormer: Towards Transferable and Interpretable Large-Scale EEG
Foundation Model [39.363511340878624]
大規模複合脳波データに基づいて事前学習した脳波基礎モデル,すなわちEEGFormerを提案する。
本モデルの有効性を検証するため,様々な下流タスクにおいて広範囲に評価し,異なる転送条件下での性能を評価する。
論文 参考訳(メタデータ) (2024-01-11T17:36:24Z) - Large Transformers are Better EEG Learners [8.930281191465088]
AdaCT - 時系列データを2次元の擬似画像やテキスト形式に変換するためのプラグアンドプレイアダプタ。
AdaCTIは、マルチチャネルまたは長さの単一チャネル時系列データを擬似画像に変換して、微調整された事前学習された視覚変換を行う。
AdaCT-Tは、短い単一チャネルデータをテキストに変換し、訓練済み言語変換器を微調整する。
論文 参考訳(メタデータ) (2023-08-20T12:54:17Z) - Performance Evaluation of Swin Vision Transformer Model using Gradient
Accumulation Optimization Technique [0.0]
本稿では,勾配累積最適化手法を用いて,Swin ViTモデルの性能評価を行う。
GAO技術の適用により、Swin ViTモデルの精度が大幅に低下する。
論文 参考訳(メタデータ) (2023-07-31T23:30:16Z) - End-to-End Meta-Bayesian Optimisation with Transformer Neural Processes [52.818579746354665]
本稿では,ニューラルネットワークを一般化し,トランスフォーマーアーキテクチャを用いて獲得関数を学習する,エンド・ツー・エンドの差別化可能な最初のメタBOフレームワークを提案する。
我々は、この強化学習(RL)によるエンドツーエンドのフレームワークを、ラベル付き取得データの欠如に対処できるようにします。
論文 参考訳(メタデータ) (2023-05-25T10:58:46Z) - How to train your ViT? Data, Augmentation, and Regularization in Vision
Transformers [74.06040005144382]
ビジョントランスフォーマー(ViT)は、幅広いビジョンアプリケーションにおいて高い競争力を発揮することが示されている。
我々は,トレーニングデータの量,AugReg,モデルサイズ,計算予算の相互作用をよりよく理解するために,体系的な実証的研究を行う。
私たちは、パブリックなImageNet-21kデータセットでさまざまなサイズのViTモデルをトレーニングします。
論文 参考訳(メタデータ) (2021-06-18T17:58:20Z) - Analogous to Evolutionary Algorithm: Designing a Unified Sequence Model [58.17021225930069]
実演的進化アルゴリズム(EA)と類似した視覚変換器の合理性について説明する。
我々は、より効率的なEATモデルを提案し、様々なタスクに柔軟に対処するタスク関連ヘッドを設計する。
近年のビジョントランスに比べて,イメージネット分類作業における最先端の成果が得られている。
論文 参考訳(メタデータ) (2021-05-31T16:20:03Z) - Visformer: The Vision-friendly Transformer [105.52122194322592]
我々は視覚に優しいトランスフォーマーから短縮したvisformerという新しいアーキテクチャを提案する。
同じ計算の複雑さにより、VisformerはTransformerベースのモデルとConvolutionベースのモデルの両方をImageNet分類精度で上回る。
論文 参考訳(メタデータ) (2021-04-26T13:13:03Z) - Pre-Trained Image Processing Transformer [95.93031793337613]
我々は、新しい事前学習モデル、すなわち、画像処理変換器(IPT)を開発する。
本稿では、よく知られたImageNetベンチマークを用いて、大量の画像ペアを生成する。
IPTモデルは、これらの画像をマルチヘッドとマルチテールでトレーニングする。
論文 参考訳(メタデータ) (2020-12-01T09:42:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。