論文の概要: CSSSTN: A Class-sensitive Subject-to-subject Semantic Style Transfer Network for EEG Classification in RSVP Tasks
- arxiv url: http://arxiv.org/abs/2502.17468v1
- Date: Wed, 12 Feb 2025 14:06:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-02 02:51:29.214068
- Title: CSSSTN: A Class-sensitive Subject-to-subject Semantic Style Transfer Network for EEG Classification in RSVP Tasks
- Title(参考訳): CSSSTN: RSVPタスクにおける脳波分類のためのクラス・センシティブ・サブジェクト・セマンティック・スタイル・トランスファーネットワーク
- Authors: Ziyue Yang, Chengrui Chen, Yong Peng, Qiong Chen, Wanzeng Kong,
- Abstract要約: CSSSTN(Class-Sensitive Subject-to-Subject Semantic Style Transfer Network)は、黄金の被写体(BCIの専門家)とターゲット(BCI-illiterate)ユーザ(BCI-illiterate)をクラスごとに調整するクラスセンシティブなアプローチである。
SSSTNフレームワーク上に構築されているCSSSTNには,(1)主観的分類器のトレーニング,(2)修正されたコンテンツ損失を通じて意味情報を保存しながらクラス識別機能を伝達するユニークなスタイルの損失,(3)ソースドメインとターゲットドメインの両方から予測を統合するアンサンブルアプローチという,3つの重要なコンポーネントが含まれている。
- 参考スコア(独自算出の注目度): 9.852410644701198
- License:
- Abstract: The Rapid Serial Visual Presentation (RSVP) paradigm represents a promising application of electroencephalography (EEG) in Brain-Computer Interface (BCI) systems. However, cross-subject variability remains a critical challenge, particularly for BCI-illiterate users who struggle to effectively interact with these systems. To address this issue, we propose the Class-Sensitive Subject-to-Subject Semantic Style Transfer Network (CSSSTN), which incorporates a class-sensitive approach to align feature distributions between golden subjects (BCI experts) and target (BCI-illiterate) users on a class-by-class basis. Building on the SSSTN framework, CSSSTN incorporates three key components: (1) subject-specific classifier training, (2) a unique style loss to transfer class-discriminative features while preserving semantic information through a modified content loss, and (3) an ensemble approach to integrate predictions from both source and target domains. We evaluated CSSSTN using both a publicly available dataset and a self-collected dataset. Experimental results demonstrate that CSSSTN outperforms state-of-the-art methods, achieving mean balanced accuracy improvements of 6.4\% on the Tsinghua dataset and 3.5\% on the HDU dataset, with notable benefits for BCI-illiterate users. Ablation studies confirm the effectiveness of each component, particularly the class-sensitive transfer and the use of lower-layer features, which enhance transfer performance and mitigate negative transfer. Additionally, CSSSTN achieves competitive results with minimal target data, reducing calibration time and effort. These findings highlight the practical potential of CSSSTN for real-world BCI applications, offering a robust and scalable solution to improve the performance of BCI-illiterate users while minimizing reliance on extensive training data. Our code is available at https://github.com/ziyuey/CSSSTN.
- Abstract(参考訳): ラピッドシリアル視覚提示(Rapid Serial Visual Presentation、RSVP)パラダイムは、脳-コンピュータインタフェース(BCI)システムにおける脳波(EEG)の有望な応用である。
しかし、特にこれらのシステムと効果的に対話するのに苦労しているBCI文字のユーザにとって、オブジェクト間の変動は依然として重要な課題である。
この問題に対処するために,黄金の被写体(BCIの専門家)とターゲット(BCI-illiterate)ユーザ(BCI-illiterate)間の特徴分布をクラス単位で整合させるクラスセンシティブなアプローチを取り入れたCSSSTN(Class-Sensitive Subject-to-Subject Semantic Style Transfer Network)を提案する。
SSSTNフレームワーク上に構築されているCSSSTNには,(1)主観的分類器のトレーニング,(2)修正されたコンテンツ損失を通じて意味情報を保存しながらクラス識別機能を伝達するユニークなスタイルの損失,(3)ソースドメインとターゲットドメインの両方から予測を統合するアンサンブルアプローチという,3つの重要なコンポーネントが含まれている。
公開データセットと自己収集データセットの両方を用いてCSSSTNを評価した。
実験の結果、CSSSTNは最先端の手法よりも優れており、Tsinghuaデータセットでは6.4\%、HDUデータセットでは3.5\%のバランスの取れた精度向上を実現している。
アブレーション研究は, 各成分, 特にクラス感受性転写の有効性と, 伝達性能を高め, 負転移を緩和する下層特性の利用を検証した。
さらにCSSSTNは、最小限のターゲットデータで競合する結果を達成し、キャリブレーション時間と労力を削減する。
これらの知見は、実世界のBCIアプリケーションにおけるCSSSTNの実用的可能性を強調し、広範囲なトレーニングデータへの依存を最小限に抑えつつ、BCI文字化ユーザのパフォーマンスを改善する堅牢でスケーラブルなソリューションを提供する。
私たちのコードはhttps://github.com/ziyuey/CSSSTN.comで公開されています。
関連論文リスト
- Contrastive Learning and Cycle Consistency-based Transductive Transfer
Learning for Target Annotation [11.883617702526193]
本稿では,FIDスコアが大幅に低いH-CUT(Hybrid contrastive learning base unpaired domain translation)ネットワークを提案する。
注目とエントロピーの両方を取り入れて、ドメイン固有の領域を強調するとともに、高変動性合成陰性パッチを生成するノイズ混在モジュールや、すべての負性パッチを再重み付けするための変調ノイズコントラスト推定(MoNCE)の損失を発生させる。
提案されたC3TTLフレームワークは、民間車両や軍用車両のアノテートだけでなく、船舶の標的にも有効である。
論文 参考訳(メタデータ) (2024-01-22T20:08:57Z) - Class-Imbalanced Semi-Supervised Learning for Large-Scale Point Cloud
Semantic Segmentation via Decoupling Optimization [64.36097398869774]
半教師付き学習(SSL)は大規模3Dシーン理解のための活発な研究課題である。
既存のSSLベースのメソッドは、クラス不均衡とポイントクラウドデータのロングテール分布による厳しいトレーニングバイアスに悩まされている。
本稿では,特徴表現学習と分類器を別の最適化方法で切り離してバイアス決定境界を効果的にシフトする,新しいデカップリング最適化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-13T04:16:40Z) - Distributed Contrastive Learning for Medical Image Segmentation [16.3860181959878]
監視されたディープラーニングは、高いパフォーマンスを達成するために大量のラベル付きデータを必要とします。
医用画像解析では、各サイトは限られた量のデータとラベルしか持たず、学習を効果的にしない。
アノテーションを限定した医用画像セグメンテーションのための2つのフェデレーション型自己教師型学習フレームワークを提案する。
論文 参考訳(メタデータ) (2022-08-07T20:47:05Z) - Open-Set Semi-Supervised Learning for 3D Point Cloud Understanding [62.17020485045456]
半教師付き学習(SSL)では、ラベル付きデータと同じ分布からラベル付きデータが引き出されることが一般的である。
サンプル重み付けによりラベルなしデータを選択的に活用することを提案する。
論文 参考訳(メタデータ) (2022-05-02T16:09:17Z) - Class-Aware Contrastive Semi-Supervised Learning [51.205844705156046]
本研究では,擬似ラベル品質を向上し,実環境におけるモデルの堅牢性を高めるため,CCSSL(Class-Aware Contrastive Semi-Supervised Learning)と呼ばれる一般的な手法を提案する。
提案するCCSSLは,標準データセットCIFAR100とSTL10の最先端SSLメソッドに対して,大幅な性能向上を実現している。
論文 参考訳(メタデータ) (2022-03-04T12:18:23Z) - Trash to Treasure: Harvesting OOD Data with Cross-Modal Matching for
Open-Set Semi-Supervised Learning [101.28281124670647]
オープンセット半教師付き学習(Open-set SSL)では、ラベルなしデータにOOD(Out-of-distribution)サンプルを含む、難しいが実用的なシナリオを調査する。
我々は、OODデータの存在を効果的に活用し、特徴学習を増強する新しいトレーニングメカニズムを提案する。
我々のアプローチは、オープンセットSSLのパフォーマンスを大幅に向上させ、最先端技術よりも大きなマージンで性能を向上します。
論文 参考訳(メタデータ) (2021-08-12T09:14:44Z) - Semi-Decentralized Federated Edge Learning for Fast Convergence on Non-IID Data [14.269800282001464]
フェデレーションエッジラーニング(FEEL)は、クラウドベースの機械学習ソリューションにおいて、大きな通信遅延を低減する効果的なアプローチとして登場した。
FEELの新しい枠組み、すなわち半分散型フェデレーションエッジラーニング(SD-FEEL)について検討する。
異なるエッジクラスタにまたがるモデルアグリゲーションを可能にすることで、SD-FEELはトレーニングのレイテンシを低減できるFEELのメリットを享受できる。
論文 参考訳(メタデータ) (2021-04-26T16:11:47Z) - Common Spatial Generative Adversarial Networks based EEG Data
Augmentation for Cross-Subject Brain-Computer Interface [4.8276709243429]
脳波に基づく脳-コンピュータインタフェース(BCI)のクロスオブジェクト応用は、知覚が難しい大きな個人差と複雑な特徴によって常に制限されてきた。
CS-GAN(Common Space GAN)と呼ばれるGAN(Generative Adversarial Network)に基づくクロスオブジェクトEEG分類フレームワークを提案する。
我々のフレームワークは、オブジェクト間の問題に対処し、BCIの実践的応用を促進するための有望な方法を提供する。
論文 参考訳(メタデータ) (2021-02-08T10:37:03Z) - Revisiting LSTM Networks for Semi-Supervised Text Classification via
Mixed Objective Function [106.69643619725652]
我々は,単純なBiLSTMモデルであっても,クロスエントロピー損失でトレーニングした場合に,競争的な結果が得られるようなトレーニング戦略を開発する。
いくつかのベンチマークデータセット上で,テキスト分類タスクの最先端結果について報告する。
論文 参考訳(メタデータ) (2020-09-08T21:55:22Z) - Generalized Zero-Shot Learning Via Over-Complete Distribution [79.5140590952889]
そこで本稿では,CVAE (Conditional Variational Autoencoder) を用いたOCD(Over-Complete Distribution) の生成を提案する。
フレームワークの有効性は,Zero-Shot LearningプロトコルとGeneralized Zero-Shot Learningプロトコルの両方を用いて評価する。
論文 参考訳(メタデータ) (2020-04-01T19:05:28Z) - Hyperspectral Classification Based on 3D Asymmetric Inception Network
with Data Fusion Transfer Learning [36.05574127972413]
私たちはまず、3D非対称なインセプションネットワークであるAINetを提供し、過度に適合する問題を克服します。
HSIデータの空間的コンテキストに対するスペクトルシグネチャの強調により、AINetはこの機能を効果的に伝達し、分類することができる。
論文 参考訳(メタデータ) (2020-02-11T06:37:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。