論文の概要: Motor Imagery Decoding Using Ensemble Curriculum Learning and
Collaborative Training
- arxiv url: http://arxiv.org/abs/2211.11460v1
- Date: Mon, 21 Nov 2022 13:45:44 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 22:09:56.961440
- Title: Motor Imagery Decoding Using Ensemble Curriculum Learning and
Collaborative Training
- Title(参考訳): アンサンブルカリキュラム学習と協調学習を用いた運動画像復号
- Authors: Georgios Zoumpourlis, Ioannis Patras
- Abstract要約: 多目的脳波データセットは、様々な個人間差により、いくつかの種類のドメインシフトを示す。
本稿では,複数の特徴抽出器と共有分類器を備えた2段階モデルアンサンブルアーキテクチャを提案する。
我々のモデルアンサンブルアプローチはカリキュラム学習と協調学習の力を組み合わせたものであることを実証する。
- 参考スコア(独自算出の注目度): 14.353574903736343
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: In this work, we study the problem of cross-subject motor imagery
(MI) decoding from electroenchephalography (EEG) data. Multi-subject EEG
datasets present several kinds of domain shifts due to various inter-individual
differences (e.g. brain anatomy, personality and cognitive profile). These
domain shifts render multi-subject training a challenging task and also impede
robust cross-subject generalization. Method: We propose a two-stage model
ensemble architecture, built with multiple feature extractors (first stage) and
a shared classifier (second stage), which we train end-to-end with two loss
terms. The first loss applies curriculum learning, forcing each feature
extractor to specialize to a subset of the training subjects and promoting
feature diversity. The second loss is an intra-ensemble distillation objective
that allows collaborative exchange of knowledge between the models of the
ensemble. Results: We compare our method against several state-of-the-art
techniques, conducting subject-independent experiments on two large MI
datasets, namely Physionet and OpenBMI. Our algorithm outperforms all of the
methods in both 5-fold cross-validation and leave-one-subject-out evaluation
settings, using a substantially lower number of trainable parameters.
Conclusion: We demonstrate that our model ensembling approach combining the
powers of curriculum learning and collaborative training, leads to high
learning capacity and robust performance. Significance: Our work addresses the
issue of domain shifts in multi-subject EEG datasets, paving the way for
calibration-free BCI systems.
- Abstract(参考訳): 目的:本研究では,電気的エンケファログラフィ(eeg)データからのクロスサブジェクトモータ画像(mi)デコードの問題について検討する。
マルチサブジェクト脳波データセットは、様々な個人差(脳解剖学、パーソナリティ、認知プロファイルなど)により、いくつかの種類の領域シフトを示す。
これらのドメインシフトは、複数オブジェクトのトレーニングを困難なタスクとし、堅牢なクロスオブジェクトの一般化を妨げる。
方法:我々は,複数の特徴抽出器(第1段階)と共有分類器(第2段階)を備えた2段階モデルアンサンブルアーキテクチャを提案する。
第1の損失はカリキュラム学習を適用し、各特徴抽出器を訓練対象のサブセットに特化させ、特徴の多様性を促進する。
第2の損失は、アンサンブルのモデル間の知識の協調的な交換を可能にする、センスブル蒸留の目的である。
結果:本手法をいくつかの最先端技術と比較し,2つのMIデータセット,すなわちPhyloonetとOpenBMIで対象に依存しない実験を行った。
提案アルゴリズムは, トレーニング可能なパラメータの数を大幅に減らして, 5 倍のクロスバリデーションと1 桁のオブジェクトアウト評価設定の両方において, 全ての手法より優れる。
結論:我々は,カリキュラム学習のパワーと協調トレーニングを組み合わせたモデルセンスリングアプローチが,高い学習能力と堅牢なパフォーマンスをもたらすことを実証する。
意義:我々の研究は、マルチオブジェクトEEGデータセットにおけるドメインシフトの問題に対処し、キャリブレーションのないBCIシステムへの道を開いた。
関連論文リスト
- PMT: Progressive Mean Teacher via Exploring Temporal Consistency for Semi-Supervised Medical Image Segmentation [51.509573838103854]
医用画像セグメンテーションのための半教師付き学習フレームワークであるプログレッシブ平均教師(PMT)を提案する。
我々のPMTは、トレーニングプロセスにおいて、堅牢で多様な特徴を学習することで、高忠実な擬似ラベルを生成する。
CT と MRI の異なる2つのデータセットに対する実験結果から,本手法が最先端の医用画像分割法より優れていることが示された。
論文 参考訳(メタデータ) (2024-09-08T15:02:25Z) - General-Purpose Multimodal Transformer meets Remote Sensing Semantic
Segmentation [35.100738362291416]
マルチモーダルAIは、特にセマンティックセグメンテーションのような複雑なタスクのために、補完的なデータソースを活用する。
汎用マルチモーダルネットワークの最近のトレンドは、最先端の性能を達成する大きな可能性を示している。
本稿では,3次元畳み込みを利用して重要なローカル情報をエンコードし,同時にモーダルな特徴を学習するUNet型モジュールを提案する。
論文 参考訳(メタデータ) (2023-07-07T04:58:34Z) - SeMAIL: Eliminating Distractors in Visual Imitation via Separated Models [22.472167814814448]
本稿では,SeMAIL(Separated Model-based Adversarial Imitation Learning)というモデルベース模倣学習アルゴリズムを提案する。
本手法は, 様々な視覚的制御タスクにおいて, 複雑な観察と, 専門的な観察から異なる背景を持つより困難なタスクにおいて, ほぼ専門的な性能を実現する。
論文 参考訳(メタデータ) (2023-06-19T04:33:44Z) - Pre-training Multi-task Contrastive Learning Models for Scientific
Literature Understanding [52.723297744257536]
事前学習言語モデル(LM)は、科学文献理解タスクにおいて有効であることを示す。
文献理解タスク間の共通知識共有を容易にするために,マルチタスクのコントラスト学習フレームワークであるSciMultを提案する。
論文 参考訳(メタデータ) (2023-05-23T16:47:22Z) - Learning from Temporal Spatial Cubism for Cross-Dataset Skeleton-based
Action Recognition [88.34182299496074]
アクションラベルはソースデータセットでのみ利用可能だが、トレーニング段階のターゲットデータセットでは利用できない。
我々は,2つの骨格に基づく行動データセット間の領域シフトを低減するために,自己スーパービジョン方式を利用する。
時間的セグメントや人体部分のセグメンテーションとパーフォーミングにより、我々は2つの自己教師あり学習分類タスクを設計する。
論文 参考訳(メタデータ) (2022-07-17T07:05:39Z) - Incremental Learning Meets Transfer Learning: Application to Multi-site
Prostate MRI Segmentation [16.50535949349874]
インクリメンタルトランスファー学習(ITL)と呼ばれる新しいマルチサイトセグメンテーションフレームワークを提案する。
ITLは、エンドツーエンドのシーケンシャルな方法で、マルチサイトデータセットからモデルを学習する。
ITLトレーニングスキームを活用することで、漸進的な学習における破滅的な問題を軽減できることを示す。
論文 参考訳(メタデータ) (2022-06-03T02:32:01Z) - 2021 BEETL Competition: Advancing Transfer Learning for Subject
Independence & Heterogenous EEG Data Sets [89.84774119537087]
我々は、診断とBCI(Brain-Computer-Interface)に関する2つの伝達学習課題を設計する。
第1タスクは、患者全体にわたる自動睡眠ステージアノテーションに対処する医療診断に重点を置いている。
タスク2はBrain-Computer Interface (BCI)に集中しており、被験者とデータセットの両方にわたる運動画像のデコードに対処する。
論文 参考訳(メタデータ) (2022-02-14T12:12:20Z) - Invariant Feature Learning for Sensor-based Human Activity Recognition [11.334750079923428]
被験者やデバイス間で共有される共通情報を抽出する不変特徴学習フレームワーク(IFLF)を提案する。
実験により、IFLFは、一般的なオープンデータセットと社内データセットをまたいだ主題とデバイスディバージョンの両方を扱うのに効果的であることが示された。
論文 参考訳(メタデータ) (2020-12-14T21:56:17Z) - Multi-task Supervised Learning via Cross-learning [102.64082402388192]
我々は,様々なタスクを解くことを目的とした回帰関数の集合を適合させることで,マルチタスク学習と呼ばれる問題を考える。
我々の新しい定式化では、これらの関数のパラメータを2つに分けて、互いに近づきながらタスク固有のドメインで学習する。
これにより、異なるドメインにまたがって収集されたデータが、互いのタスクにおける学習パフォーマンスを改善するのに役立つ、クロス・ファーティライズが促進される。
論文 参考訳(メタデータ) (2020-10-24T21:35:57Z) - Unpaired Multi-modal Segmentation via Knowledge Distillation [77.39798870702174]
本稿では,不対向画像分割のための新しい学習手法を提案する。
提案手法では,CTおよびMRI間での畳み込みカーネルの共有により,ネットワークパラメータを多用する。
我々は2つの多クラスセグメンテーション問題に対するアプローチを広範囲に検証した。
論文 参考訳(メタデータ) (2020-01-06T20:03:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。