論文の概要: Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition
- arxiv url: http://arxiv.org/abs/2202.03267v1
- Date: Tue, 1 Feb 2022 11:11:08 GMT
- ステータス: 処理完了
- システム内更新日: 2022-02-13 14:24:13.788154
- Title: Team Cogitat at NeurIPS 2021: Benchmarks for EEG Transfer Learning
Competition
- Title(参考訳): NeurIPS 2021でのTeam Cogitat: EEG Transfer Learning competitionのベンチマーク
- Authors: Stylianos Bakas, Siegfried Ludwig, Konstantinos Barmpas, Mehdi Bahri,
Yannis Panagakis, Nikolaos Laskaris, Dimitrios A. Adamos, Stefanos Zafeiriou
- Abstract要約: 脳波復号のための主題に依存しないディープラーニングモデルの構築は、強い共シフトの課題に直面している。
我々のアプローチは、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることです。
この方法論は、NeurIPSカンファレンスで開催されている2021年のEEG Transfer Learningコンペティションで優勝した。
- 参考スコア(独自算出の注目度): 55.34407717373643
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Building subject-independent deep learning models for EEG decoding faces the
challenge of strong covariate-shift across different datasets, subjects and
recording sessions. Our approach to address this difficulty is to explicitly
align feature distributions at various layers of the deep learning model, using
both simple statistical techniques as well as trainable methods with more
representational capacity. This follows in a similar vein as covariance-based
alignment methods, often used in a Riemannian manifold context. The methodology
proposed herein won first place in the 2021 Benchmarks in EEG Transfer Learning
(BEETL) competition, hosted at the NeurIPS conference. The first task of the
competition consisted of sleep stage classification, which required the
transfer of models trained on younger subjects to perform inference on multiple
subjects of older age groups without personalized calibration data, requiring
subject-independent models. The second task required to transfer models trained
on the subjects of one or more source motor imagery datasets to perform
inference on two target datasets, providing a small set of personalized
calibration data for multiple test subjects.
- Abstract(参考訳): 脳波デコードのための主題非依存のディープラーニングモデルの構築は、異なるデータセット、主題、記録セッション間で強い共変量シフトの課題に直面している。
この課題に対処するためのアプローチは、単純な統計的手法とより表現力のある訓練可能な手法の両方を用いて、ディープラーニングモデルの様々な層に特徴分布を明示的に整列させることである。
これは共分散に基づくアライメント法と同様に、しばしばリーマン多様体の文脈で使われる。
ここで提案された方法論は、NeurIPSカンファレンスで開催された2021年のEEG Transfer Learning (BEETL)コンペで優勝した。
競争の最初のタスクは睡眠ステージの分類であり、若い被験者に訓練されたモデルに、個人化されたキャリブレーションデータなしで複数の年齢層の被験者を推論し、被験者に依存しないモデルを必要とする。
2つ目のタスクは、1つまたは複数のソースモーターイメージデータセットの被験者にトレーニングされたモデルを転送して、2つのターゲットデータセットで推論を行い、複数のテスト対象に対して少数のパーソナライズされたキャリブレーションデータを提供する。
関連論文リスト
- Diffusion-based Neural Network Weights Generation [85.6725307453325]
データセット条件付き事前学習重み抽出による効率よく適応的な伝達学習手法を提案する。
具体的には、ニューラルネットワークの重みを再構築できる変分オートエンコーダを備えた潜時拡散モデルを用いる。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Adversarial Augmentation Training Makes Action Recognition Models More
Robust to Realistic Video Distribution Shifts [13.752169303624147]
アクション認識モデルは、トレーニングデータとテストデータの間の自然な分散シフトに直面したとき、堅牢性を欠くことが多い。
そこで本研究では,そのような分布格差に対するモデルレジリエンスを評価するための2つの新しい評価手法を提案する。
提案手法は,3つの動作認識モデルにまたがるベースラインよりも優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-21T05:50:39Z) - Building a Winning Team: Selecting Source Model Ensembles using a
Submodular Transferability Estimation Approach [20.86345962679122]
公開されている事前訓練されたモデルの目標タスクへの転送可能性の推定は、伝達学習タスクにとって重要な場所となっている。
本稿では, モデルアンサンブルの下流タスクへの転送可能性を評価するために, 最適なtranSportベースのsuBmOdular tRaNsferability Metrics(OSBORN)を提案する。
論文 参考訳(メタデータ) (2023-09-05T17:57:31Z) - Transfer Learning between Motor Imagery Datasets using Deep Learning --
Validation of Framework and Comparison of Datasets [0.0]
本稿では,コンピュータビジョンによく用いられる,シンプルなディープラーニングベースのフレームワークを提案する。
精神画像復号処理におけるデータセット間変換学習の有効性を実証する。
論文 参考訳(メタデータ) (2023-09-04T20:58:57Z) - Universal Semi-supervised Model Adaptation via Collaborative Consistency
Training [92.52892510093037]
我々は、Universal Semi-supervised Model Adaptation (USMA)と呼ばれる現実的で挑戦的なドメイン適応問題を導入する。
本稿では,2つのモデル間の予測整合性を規則化する協調的整合性トレーニングフレームワークを提案する。
実験により,いくつかのベンチマークデータセットにおける本手法の有効性が示された。
論文 参考訳(メタデータ) (2023-07-07T08:19:40Z) - Guiding Generative Language Models for Data Augmentation in Few-Shot
Text Classification [59.698811329287174]
我々は、GPT-2を用いて、分類性能を向上させるために、人工訓練インスタンスを生成する。
実験の結果,少数のラベルインスタンスでGPT-2を微調整すると,一貫した分類精度が向上することがわかった。
論文 参考訳(メタデータ) (2021-11-17T12:10:03Z) - Adaptive Consistency Regularization for Semi-Supervised Transfer
Learning [31.66745229673066]
我々は,半教師付き学習と移動学習を共同で検討し,より実践的で競争的なパラダイムへと導いた。
事前学習した重みとラベルなしの目標サンプルの両方の価値をよりよく活用するために、適応整合正則化を導入する。
提案手法は,Pseudo Label,Mean Teacher,MixMatchといった,最先端の半教師付き学習技術より優れた適応整合性正規化を実現する。
論文 参考訳(メタデータ) (2021-03-03T05:46:39Z) - Few-Shot Named Entity Recognition: A Comprehensive Study [92.40991050806544]
マルチショット設定のモデル一般化能力を向上させるための3つの手法を検討する。
ラベル付きデータの比率の異なる10の公開nerデータセットについて経験的比較を行う。
マルチショットとトレーニングフリーの両方の設定で最新の結果を作成します。
論文 参考訳(メタデータ) (2020-12-29T23:43:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。