論文の概要: Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition
- arxiv url: http://arxiv.org/abs/2202.03267v1
- Date: Tue, 1 Feb 2022 11:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 14:24:13.788154
- Title: Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition
- Title(参考訳): NeurIPS 2021でのTeam Cogitat: EEG Transfer Learning competitionのベンチマーク
- Authors: Stylianos Bakas, Siegfried Ludwig, Konstantinos Barmpas, Mehdi Bahri,
Yannis Panagakis, Nikolaos Laskaris, Dimitrios A. Adamos, Stefanos Zafeiriou
- Abstract要約: 脳波復号のための主題に依存しないディープラーニングモデルの構築は、強い共シフトの課題に直面している。
我々のアプローチは、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることです。
この方法論は、NeurIPSカンファレンスで開催されている2021年のEEG Transfer Learningコンペティションで優勝した。
- 参考スコア(独自算出の注目度): 55.34407717373643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building subject-independent deep learning models for EEG decoding faces the
challenge of strong covariate-shift across different datasets, subjects and
recording sessions. Our approach to address this difficulty is to explicitly
align feature distributions at various layers of the deep learning model, using
both simple statistical techniques as well as trainable methods with more
representational capacity. This follows in a similar vein as covariance-based
alignment methods, often used in a Riemannian manifold context. The methodology
proposed herein won first place in the 2021 Benchmarks in EEG Transfer Learning
(BEETL) competition, hosted at the NeurIPS conference. The first task of the
competition consisted of sleep stage classification, which required the
transfer of models trained on younger subjects to perform inference on multiple
subjects of older age groups without personalized calibration data, requiring
subject-independent models. The second task required to transfer models trained
on the subjects of one or more source motor imagery datasets to perform
inference on two target datasets, providing a small set of personalized
calibration data for multiple test subjects.
- Abstract(参考訳): 脳波デコードのための主題非依存のディープラーニングモデルの構築は、異なるデータセット、主題、記録セッション間で強い共変量シフトの課題に直面している。
この課題に対処するためのアプローチは、単純な統計的手法とより表現力のある訓練可能な手法の両方を用いて、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることである。
これは共分散に基づくアライメント法と同様に、しばしばリーマン多様体の文脈で使われる。
ここで提案された方法論は、NeurIPSカンファレンスで開催された2021年のEEG Transfer Learning (BEETL)コンペで優勝した。
競争の最初のタスクは睡眠ステージの分類であり、若い被験者に訓練されたモデルに、個人化されたキャリブレーションデータなしで複数の年齢層の被験者を推論し、被験者に依存しないモデルを必要とする。
2つ目のタスクは、1つまたは複数のソースモーターイメージデータセットの被験者にトレーニングされたモデルを転送して、2つのターゲットデータセットで推論を行い、複数のテスト対象に対して少数のパーソナライズされたキャリブレーションデータを提供する。
関連論文リスト
- Cross-Modal Few-Shot Learning: a Generative Transfer Learning Framework [58.362064122489166]
本稿では,複数モーダルからインスタンスを識別するクロスモーダルなFew-Shot Learningタスクを提案する。
本稿では,1つの段階からなる生成的転帰学習フレームワークを提案する。1つは豊富な一助データに対する学習を伴い,もう1つは新しいデータに適応するための転帰学習に焦点を当てる。
以上の結果から,GTLは4つの異なるマルチモーダルデータセット間の最先端手法よりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-10-14T16:09:38Z) - Combining Denoising Autoencoders with Contrastive Learning to fine-tune Transformer Models [0.0]
本研究は,分類タスクのベースモデルを調整するための3段階手法を提案する。
我々は,DAE(Denoising Autoencoder)を用いたさらなるトレーニングを行うことで,モデルの信号をデータ配信に適用する。
さらに、教師付きコントラスト学習のための新しいデータ拡張手法を導入し、不均衡なデータセットを修正する。
論文 参考訳(メタデータ) (2024-05-23T11:08:35Z) - MTP: Advancing Remote Sensing Foundation Model via Multi-Task Pretraining [73.81862342673894]
ファンデーションモデルは、様々な画像解釈タスクを強化することで、リモートセンシング(RS)のランドスケープを再構築した。
事前訓練されたモデルを下流のタスクに転送することは、イメージ分類やオブジェクト識別タスクとして事前訓練の定式化によるタスクの相違に遭遇する可能性がある。
SAMRSデータセット上で、セマンティックセグメンテーション、インスタンスセグメンテーション、回転オブジェクト検出を含むマルチタスクによる事前トレーニングを行う。
我々のモデルは、シーン分類、水平・回転物体検出、セマンティックセグメンテーション、変化検出など、様々なRS下流タスクに基づいて微調整される。
論文 参考訳(メタデータ) (2024-03-20T09:17:22Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - Transfer Learning between Motor Imagery Datasets using Deep Learning --
Validation of Framework and Comparison of Datasets [0.0]
本稿では,コンピュータビジョンによく用いられる,シンプルなディープラーニングベースのフレームワークを提案する。
精神画像復号処理におけるデータセット間変換学習の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-04T20:58:57Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。