論文の概要: Latent Alignment with Deep Set EEG Decoders
- arxiv url: http://arxiv.org/abs/2311.17968v1
- Date: Wed, 29 Nov 2023 12:40:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 19:27:34.899310
- Title: Latent Alignment with Deep Set EEG Decoders
- Title(参考訳): ディープセット脳波デコーダによる潜時アライメント
- Authors: Stylianos Bakas, Siegfried Ludwig, Dimitrios A. Adamos, Nikolaos
Laskaris, Yannis Panagakis and Stefanos Zafeiriou
- Abstract要約: 本稿では,脳波伝達学習大会のベンチマークで優勝した潜在アライメント手法を紹介する。
我々は,その定式化を,与えられた被験者の試行セットに適用したディープセットとして提示する。
実験の結果,深層学習モデルにおける後段の統計的分布アライメントの実行は,分類精度に有益であることが示唆された。
- 参考スコア(独自算出の注目度): 44.128689862889715
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The variability in EEG signals between different individuals poses a
significant challenge when implementing brain-computer interfaces (BCI).
Commonly proposed solutions to this problem include deep learning models, due
to their increased capacity and generalization, as well as explicit domain
adaptation techniques. Here, we introduce the Latent Alignment method that won
the Benchmarks for EEG Transfer Learning (BEETL) competition and present its
formulation as a deep set applied on the set of trials from a given subject.
Its performance is compared to recent statistical domain adaptation techniques
under various conditions. The experimental paradigms include motor imagery
(MI), oddball event-related potentials (ERP) and sleep stage classification,
where different well-established deep learning models are applied on each task.
Our experimental results show that performing statistical distribution
alignment at later stages in a deep learning model is beneficial to the
classification accuracy, yielding the highest performance for our proposed
method. We further investigate practical considerations that arise in the
context of using deep learning and statistical alignment for EEG decoding. In
this regard, we study class-discriminative artifacts that can spuriously
improve results for deep learning models, as well as the impact of
class-imbalance on alignment. We delineate a trade-off relationship between
increased classification accuracy when alignment is performed at later modeling
stages, and susceptibility to class-imbalance in the set of trials that the
statistics are computed on.
- Abstract(参考訳): 異なる個人間の脳波信号の変動は、脳-コンピュータインターフェース(BCI)を実装する際に大きな課題となる。
この問題に対する一般的な解決策は、能力と一般化の増大によるディープラーニングモデルと、明示的なドメイン適応技術である。
本稿では,脳波伝達学習のベンチマーク(BEETL)コンテストで優勝した潜在アライメント法を紹介し,その定式化を対象被験者の試行セットに適用したディープセットとして提示する。
その性能は、様々な条件下での最近の統計領域適応技術と比較される。
実験パラダイムには、モーターイメージ(mi)、オッドボールイベント関連電位(erp)、睡眠ステージ分類(sleep stage classification)があり、それぞれのタスクに異なる確立されたディープラーニングモデルが適用される。
実験の結果,深層学習モデルにおいて後段の統計分布アライメントを行うことは分類精度に有益であり,提案手法で最も高い性能が得られることがわかった。
また,脳波復号における深層学習と統計的アライメントの文脈で発生する実践的考察についても検討する。
本稿では,ディープラーニングモデルの結果を飛躍的に改善するクラス識別アーティファクトと,クラス不均衡がアライメントに与える影響について検討する。
我々は、後続のモデリング段階でアライメントを行う際の分類精度の向上と、統計が計算される試行セットにおけるクラス不均衡に対する感受性とのトレードオフ関係を述べる。
関連論文リスト
- Contrastive-Adversarial and Diffusion: Exploring pre-training and fine-tuning strategies for sulcal identification [3.0398616939692777]
対人学習、コントラスト学習、拡散認知学習、通常の再構成学習といった技術が標準となっている。
この研究は、ニューラルネットワークの学習プロセスを強化するために、事前学習技術と微調整戦略の利点を解明することを目的としている。
論文 参考訳(メタデータ) (2024-05-29T15:44:51Z) - On Task Performance and Model Calibration with Supervised and
Self-Ensembled In-Context Learning [71.44986275228747]
In-context Learning (ICL) は、近年の大規模言語モデル(LLM)の進歩により、効率的なアプローチとなっている。
しかし、両方のパラダイムは、過信の批判的な問題(すなわち、誤校正)に苦しむ傾向にある。
論文 参考訳(メタデータ) (2023-12-21T11:55:10Z) - SleepEGAN: A GAN-enhanced Ensemble Deep Learning Model for Imbalanced
Classification of Sleep Stages [4.649202082648198]
本研究では,睡眠段階の非バランスな分類のために,GAN(Generative Adversarial Network)を用いたアンサンブル深層学習モデルであるSleepEGANを開発した。
提案手法は,3つの睡眠データセットを用いた既存手法と比較して,分類精度を向上できることを示す。
論文 参考訳(メタデータ) (2023-07-04T01:56:00Z) - On the Trade-off of Intra-/Inter-class Diversity for Supervised
Pre-training [72.8087629914444]
教師付き事前学習データセットのクラス内多様性(クラス毎のサンプル数)とクラス間多様性(クラス数)とのトレードオフの影響について検討した。
トレーニング前のデータセットのサイズが固定された場合、最高のダウンストリームのパフォーマンスは、クラス内/クラス間の多様性のバランスがとれる。
論文 参考訳(メタデータ) (2023-05-20T16:23:50Z) - FairIF: Boosting Fairness in Deep Learning via Influence Functions with
Validation Set Sensitive Attributes [51.02407217197623]
本稿では,FAIRIFという2段階の学習アルゴリズムを提案する。
サンプル重みが計算される再重み付きデータセットの損失を最小限に抑える。
FAIRIFは、様々な種類のバイアスに対して、フェアネスとユーティリティのトレードオフを良くしたモデルが得られることを示す。
論文 参考訳(メタデータ) (2022-01-15T05:14:48Z) - BALanCe: Deep Bayesian Active Learning via Equivalence Class Annealing [7.9107076476763885]
BALanCeは、不確実性推定の効果を緩和する、深いアクティブな学習フレームワークである。
Batch-BALanCeは、逐次アルゴリズムのバッチ設定への一般化である。
Batch-BALanCeは、アクティブな学習のためのいくつかのベンチマークデータセット上で最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2021-12-27T15:38:27Z) - Boosting the Generalization Capability in Cross-Domain Few-shot Learning
via Noise-enhanced Supervised Autoencoder [23.860842627883187]
我々は、新しいノイズ強調型教師付きオートエンコーダ(NSAE)を用いて、特徴分布のより広範なバリエーションを捉えるようモデルに教える。
NSAEは入力を共同で再構築し、入力のラベルと再構成されたペアを予測することによってモデルを訓練する。
また、NSAE構造を利用して、より適応性を高め、対象領域の分類性能を向上させる2段階の微調整手順を提案する。
論文 参考訳(メタデータ) (2021-08-11T04:45:56Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - Deep Stable Learning for Out-Of-Distribution Generalization [27.437046504902938]
深層ニューラルネットワークに基づくアプローチは、同様の分布を持つデータとトレーニングデータをテストする際に顕著なパフォーマンスを達成した。
トレーニングとテストデータ間の分散シフトの影響を排除することは、パフォーマンス向上の深層モデルの構築に不可欠です。
トレーニングサンプルの学習重みによる特徴間の依存関係を除去し,この問題に対処することを提案する。
論文 参考訳(メタデータ) (2021-04-16T03:54:21Z) - Unsupervised neural adaptation model based on optimal transport for
spoken language identification [54.96267179988487]
トレーニングセットとテストセット間の音響音声の統計的分布のミスマッチにより,音声言語識別(SLID)の性能が大幅に低下する可能性がある。
SLIDの分布ミスマッチ問題に対処するために,教師なしニューラル適応モデルを提案する。
論文 参考訳(メタデータ) (2020-12-24T07:37:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。