論文の概要: Source-Free Domain Adaptation for SSVEP-based Brain-Computer Interfaces
- arxiv url: http://arxiv.org/abs/2305.17403v3
- Date: Wed, 22 Oct 2025 05:02:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-25 03:08:01.228883
- Title: Source-Free Domain Adaptation for SSVEP-based Brain-Computer Interfaces
- Title(参考訳): ソースフリードメイン適応によるSSVEPベースの脳-コンピュータインタフェース
- Authors: Osman Berke Guney, Deniz Kucukahmetler, Huseyin Ozkan,
- Abstract要約: SSVEPベースのBCIスペルは、迅速なコミュニケーションを可能にすることで、発話困難を経験する個人を支援する。
高い情報伝達率(ITR)を達成するには、システムを使用する前に広範囲の校正期間が必要となる。
我々は、ソースドメインのデータに基づいて事前訓練された強力なディープニューラルネットワーク(DNN)を適用する新しい手法を提案し、この問題に対処する。
- 参考スコア(独自算出の注目度): 0.45880283710344055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Objective: SSVEP-based BCI spellers assist individuals experiencing speech difficulties by enabling them to communicate at a fast rate. However, achieving a high information transfer rate (ITR) in most prominent methods requires an extensive calibration period before using the system, leading to discomfort for new users. We address this issue by proposing a novel method that adapts a powerful deep neural network (DNN) pre-trained on data from source domains (data from former users or participants of previous experiments), to the new user (target domain) using only unlabeled target data. Approach: Our method adapts the pre-trained DNN to the new user by minimizing our proposed custom loss function composed of self-adaptation and local-regularity terms. The self-adaptation term uses the pseudo-label strategy, while the novel local-regularity term exploits the data structure and forces the DNN to assign similar labels to adjacent instances. Main results: Our method achieves excellent ITRs of 201.15 bits/min and 145.02 bits/min on the benchmark and BETA datasets, respectively, and outperforms the state-of-the-art alternatives. Our code is available at https://github.com/osmanberke/SFDA-SSVEP-BCI Significance: The proposed method prioritizes user comfort by removing the burden of calibration while maintaining an excellent character identification accuracy and ITR. Because of these attributes, our approach could significantly accelerate the adoption of BCI systems into everyday life.
- Abstract(参考訳): 目的: SSVEPベースのBCIスペルは、迅速なコミュニケーションを可能にすることで、発話困難を経験する個人を支援する。
しかし,高情報伝達率 (ITR) を実現するには,システムを使用する前に広い校正期間を必要とするため,新規利用者の不快感が生じる。
我々は、ソースドメイン(旧ユーザまたは以前の実験参加者のデータ)から新しいユーザ(ターゲットドメイン)に、ラベルのないターゲットデータのみを使用して事前訓練された強力なディープニューラルネットワーク(DNN)を適用する新しい手法を提案する。
アプローチ:本手法は,自己適応型と局所正規化型からなるカスタム損失関数を最小化することにより,事前学習したDNNを新規ユーザに適用する。
自己適応項は擬似ラベル戦略を使い、新しい局所規則項はデータ構造を利用し、DNNに類似のラベルを隣接インスタンスに割り当てるよう強制する。
主な結果:本手法はベンチマークで201.15ビット/分,BETAデータセットで145.02ビット/分,優れたITRを実現し,最先端の代替手段よりも優れていた。
我々のコードはhttps://github.com/osmanberke/SFDA-SSVEP-BCIで利用可能である。
これらの特徴から,本手法は日常生活へのBCI導入を著しく加速させる可能性がある。
関連論文リスト
- Informative Data Mining for One-Shot Cross-Domain Semantic Segmentation [84.82153655786183]
Informative Data Mining (IDM) と呼ばれる新しいフレームワークを提案し、セマンティックセグメンテーションのための効率的なワンショットドメイン適応を実現する。
IDMは、最も情報性の高いサンプルを特定するために不確実性に基づく選択基準を提供し、迅速に適応し、冗長なトレーニングを減らす。
提案手法は,GTA5/SYNTHIAからCityscapesへの適応タスクにおいて,既存の手法より優れ,56.7%/55.4%の最先端のワンショット性能を実現している。
論文 参考訳(メタデータ) (2023-09-25T15:56:01Z) - Divide and Contrast: Source-free Domain Adaptation via Adaptive
Contrastive Learning [122.62311703151215]
Divide and Contrast (DaC) は、それぞれの制限を回避しつつ、両方の世界の善良な端を接続することを目的としている。
DaCは、ターゲットデータをソースライクなサンプルとターゲット固有なサンプルに分割する。
さらに、ソースライクなドメインと、メモリバンクベースの最大平均離散性(MMD)損失を用いて、ターゲット固有のサンプルとを整合させて、分散ミスマッチを低減する。
論文 参考訳(メタデータ) (2022-11-12T09:21:49Z) - Memory Consistent Unsupervised Off-the-Shelf Model Adaptation for
Source-Relaxed Medical Image Segmentation [13.260109561599904]
非教師なしドメイン適応(UDA)は、ラベル付きソースドメインからラベル付きヘテロジニアスターゲットドメインに学習した情報を移行するための重要なプロトコルである。
我々は、ソースドメインで訓練されたOSセグメントをターゲットドメインに適応させることにより、イメージセグメンテーションを目的とした「オフ・ザ・シェルフ(OS)」 UDA (OSUDA) を提案する。
論文 参考訳(メタデータ) (2022-09-16T13:13:50Z) - Transfer Learning of an Ensemble of DNNs for SSVEP BCI Spellers without
User-Specific Training [3.6144103736375857]
現在の高性能SSVEP BCIスペルは、システム適応のために、新しいユーザごとに、初期的かつタイリングされたユーザ固有のトレーニングを必要とする。
実用性を確保するため,深層ニューラルネットワーク(DNN)のアンサンブルに基づく,高度に新しいターゲット同定手法を提案する。
我々は、すでに存在する文献データセットを利用して、以前に行われた脳波実験の参加者から、まずグローバルターゲット識別子DNNを訓練する。
我々は、この微調整されたDNNのアンサンブルを新しいユーザインスタンスに転送し、参加者の統計的類似性に応じて最も代表的なDNNkを判定し、重み付けされた組み合わせによってターゲットキャラクタを予測する。
論文 参考訳(メタデータ) (2022-09-03T23:24:47Z) - Contextual Squeeze-and-Excitation for Efficient Few-Shot Image
Classification [57.36281142038042]
本稿では,事前学習したニューラルネットワークを新しいタスクで調整し,性能を大幅に向上させる,Contextual Squeeze-and-Excitation (CaSE) という適応ブロックを提案する。
また、メタトレーニングされたCaSEブロックと微調整ルーチンを利用して効率よく適応する、アッパーCaSEと呼ばれるコーディネートダイスに基づく新しいトレーニングプロトコルを提案する。
論文 参考訳(メタデータ) (2022-06-20T15:25:08Z) - Continual Test-Time Domain Adaptation [94.51284735268597]
テスト時ドメイン適応は、ソースデータを使用しずに、ソース事前訓練されたモデルをターゲットドメインに適応することを目的としている。
CoTTAは実装が容易で、市販の事前訓練モデルに簡単に組み込むことができる。
論文 参考訳(メタデータ) (2022-03-25T11:42:02Z) - Generalizable Person Re-Identification via Self-Supervised Batch Norm
Test-Time Adaption [63.7424680360004]
Batch Norm Test-time Adaption (BNTA)は、BNパラメータを適応的に更新するための自己教師型戦略を適用する、新しいre-idフレームワークである。
BNTAは、推論前にラベル付けされていないターゲットデータ内のドメイン認識情報を探索し、BNによって正規化された特徴分布を変調してターゲットドメインに適応させる。
論文 参考訳(メタデータ) (2022-03-01T18:46:32Z) - Test-time Batch Statistics Calibration for Covariate Shift [66.7044675981449]
我々は,推論中に深層モデルを新しい環境に適応させることを提案する。
バッチ統計の校正に$alpha$-BNの一般的な定式化を提案する。
また、統合テスト時間適応フレームワークCoreを形成するための新しい損失関数も提示する。
論文 参考訳(メタデータ) (2021-10-06T08:45:03Z) - Adaptive Pseudo-Label Refinement by Negative Ensemble Learning for
Source-Free Unsupervised Domain Adaptation [35.728603077621564]
既存のUnsupervised Domain Adaptation (UDA)メソッドは、トレーニング中にソースとターゲットのドメインデータを同時に利用できると仮定する。
訓練済みのソースモデルは、よく知られたドメインシフトの問題により、ターゲットに対して性能が悪くても、常に利用可能であると考えられている。
適応型ノイズフィルタリングと擬似ラベル改良に取り組むための統一手法を提案する。
論文 参考訳(メタデータ) (2021-03-29T22:18:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。