論文の概要: Leveraging Foundation Models for Calibration-Free c-VEP BCIs
- arxiv url: http://arxiv.org/abs/2601.06028v1
- Date: Tue, 04 Nov 2025 05:35:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-25 16:54:51.563637
- Title: Leveraging Foundation Models for Calibration-Free c-VEP BCIs
- Title(参考訳): 校正不要なc-VEP BCIのための基礎モデルの導入
- Authors: Mohammadreza Behboodi, Eli Kinney-Lang, Ali Etemad, Adam Kirton, Hatem Abou-Zeid,
- Abstract要約: 我々は、C-VEP BCIシステムにおける長期キャリブレーションの必要性を排除するために、初めてファンデーションモデル(FM)を使用する。
新しい科目では、キャリブレーションのない設定ではキャリブレーションデータを必要としないため、c-VEPシステムは効果的にプラグアンドプレイできる。
- 参考スコア(独自算出の注目度): 32.56171699904211
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Foundation Models (FMs) have surged in popularity over the past five years, with applications spanning fields from computer vision to natural language processing. Brain-Computer Interfaces (BCIs) have also gained momentum due to their potential to support individuals with complex disabilities. Among BCI paradigms, code-modulated Visual Evoked Potentials (c-VEPs) remain relatively understudied, despite offering high information transfer rates and large selection target capacities. However, c-VEP systems require lengthy calibration sessions, limiting their practicality outside of laboratory settings. In this study, we use a FM for the first time to eliminate the need for lengthy calibration in c-VEP BCI systems. We evaluated two approaches: (1) a truly calibration-free approach requiring no subject-specific data, and (2) a limited calibration approach, where we assessed the benefit of incorporating incremental amounts of calibration data. In both cases, a classification head is trained on data from other subjects. For a new subject, no calibration data is required in the calibration-free setup, making the c-VEP system effectively plug-and-play. The proposed method was tested on two c-VEP datasets. For the calibration-free approach, the average accuracy on the first dataset (n = 17) was 68.8% +/- 17.6%, comparable to the full-calibration performance reported in the original study (66.2% +/- 13.8%), which required approximately 11 minutes of calibration. On the second dataset (n = 12), the calibration-free accuracy was 71.8% +/- 20.2%, versus 93.7% +/- 5.5% from the original study, which required around 3.5 minutes. A limited-calibration approach using only 20% of the subject's data (approximately 43 seconds) yielded 92% +/- 5.2% accuracy. These results indicate that our FM-based approach can effectively eliminate or significantly reduce the need for lengthy calibration in c-VEP BCIs.
- Abstract(参考訳): ファンデーションモデル(FM)は、コンピュータビジョンから自然言語処理まで、さまざまな分野の応用によって、過去5年間で人気が高まっている。
脳-コンピュータインタフェース(BCI)も、複雑な障害を持つ個人をサポートする可能性から勢いを増している。
BCIパラダイムの中では、高い情報伝達率と大きな選択目標能力を提供するにもかかわらず、コード修正された視覚誘発電位(c-VEPs)は比較的未検討のままである。
しかし、c-VEPシステムは長い校正セッションを必要とし、実験室以外での実用性を制限する。
本研究では,C-VEP BCIシステムにおける長大キャリブレーションの必要性を解消するために,FMを初めて使用した。
我々は,(1)主観的なデータを必要としない真のキャリブレーションフリーアプローチ,(2)限定的なキャリブレーションアプローチ,の2つのアプローチを評価した。
どちらの場合も、分類ヘッドは他の被験者のデータに基づいて訓練される。
新しい科目では、キャリブレーションのない設定ではキャリブレーションデータを必要としないため、c-VEPシステムは効果的にプラグアンドプレイできる。
提案手法を2つのc-VEPデータセットで検証した。
キャリブレーションのないアプローチでは、最初のデータセット(n = 17)の平均精度は68.8% +/- 17.6%であり、元の研究(66.2% +/- 13.8%)で報告された完全なキャリブレーション性能に匹敵する。
第2のデータセット(n = 12)では、キャリブレーションなしの精度は71.8% +/-20.2%であり、元の研究では93.7% +/-55%であり、約3.5分であった。
被験者のデータ(約43秒)の20%しか使用していない限定校正法では、92%+/-5.2%の精度が得られた。
これらの結果から, FMによるアプローチは, c-VEP BCIの長期校正の必要性を効果的に排除し, 著しく低減できる可能性が示唆された。
関連論文リスト
- EDAPT: Towards Calibration-Free BCIs with Continual Online Adaptation [5.390514665166601]
脳-コンピュータインターフェース(BCI)は、ニューラルネットワークが時間の経過とともにドリフトし、ユーザによって異なるため、精度の低下に悩まされる。
本稿では,連続モデル適応によるキャリブレーションを排除したタスクおよびモデルに依存しないフレームワークであるEDAPTを紹介する。
論文 参考訳(メタデータ) (2025-08-14T09:23:25Z) - Beware of Calibration Data for Pruning Large Language Models [41.1689082093302]
トレーニング後のプルーニングは、リソース集約的な反復的なトレーニングを必要としない有望な方法である。
キャリブレーションデータは、特に高頻度で訓練後の刈り取りにも重要である。
キャリブレーションデータ構築のための自己生成型キャリブレーションデータ合成戦略を提案する。
論文 参考訳(メタデータ) (2024-10-23T09:36:21Z) - Calibrating Language Models with Adaptive Temperature Scaling [58.056023173579625]
本稿では,各トークンの温度スケーリングパラメータを予測するポストホックキャリブレーション法であるAdaptive Temperature Scaling (ATS)を紹介する。
ATSは、以前のキャリブレーション法と比較して、3つの下流自然言語評価ベンチマークで10-50%以上のキャリブレーションを改善する。
論文 参考訳(メタデータ) (2024-09-29T22:54:31Z) - End-to-End Deep Transfer Learning for Calibration-free Motor Imagery
Brain Computer Interfaces [0.0]
Motor Imagery Brain-Computer Interfaces (MI-BCIs) の主な課題は、その分類精度の低さと、被検体固有の校正に必要な大量のデータである。
本研究は, キャリブレーション非依存型BCIの開発にディープトランスファー学習を用いた。
3つのディープラーニングモデル(MIN2Net、EEGNet、DeepConvNet)をトレーニングし、公開データセットを使用して比較した。
論文 参考訳(メタデータ) (2023-07-24T14:24:17Z) - Adaptive Calibrator Ensemble for Model Calibration under Distribution
Shift [23.794897699193875]
アダプティブ・キャリブレータ・アンサンブル(ACE)は、通常はキャリブレーション・セットよりも難しいOODデータセットをキャリブレーション・セットに分類する。
ACEは一般に、一連のOODベンチマークにおけるいくつかの最先端のキャリブレーション方式の性能を改善している。
論文 参考訳(メタデータ) (2023-03-09T15:22:02Z) - A Close Look into the Calibration of Pre-trained Language Models [56.998539510508515]
事前訓練された言語モデル(PLM)は、予測の不確かさを確実に見積もることに失敗する可能性がある。
トレーニングにおけるPLMの校正性能の動的変化について検討する。
最近提案された2つの学習可能な手法を拡張して、モデルを直接収集し、合理的な信頼度を推定する。
論文 参考訳(メタデータ) (2022-10-31T21:31:07Z) - Soft Calibration Objectives for Neural Networks [40.03050811956859]
そこで本研究では,一般的なキャリブレーションエラー推定器のソフト(連続)バージョンに基づくキャリブレーション改善のための差別化可能な損失を提案する。
トレーニングに組み込むと、これらのソフトキャリブレーション損失は、1%未満の精度で、複数のデータセットにまたがる最先端の単一モデルECEを実現する。
論文 参考訳(メタデータ) (2021-07-30T23:30:20Z) - Transferable Calibration with Lower Bias and Variance in Domain
Adaptation [139.4332115349543]
ドメイン適応(DA)は、ラベル付きソースドメインからラベル付きターゲットドメインへの学習マシンの転送を可能にする。
DAモデルの予測的不確実性を推定する方法は、安全クリティカルなシナリオにおける意思決定に不可欠である。
TransCalは既存のDAメソッドの校正に簡単に適用できる。
論文 参考訳(メタデータ) (2020-07-16T11:09:36Z) - Unsupervised Calibration under Covariate Shift [92.02278658443166]
ドメインシフト下でのキャリブレーションの問題を導入し、それに対処するための重要サンプリングに基づくアプローチを提案する。
実世界のデータセットと合成データセットの両方において,本手法の有効性を評価し検討した。
論文 参考訳(メタデータ) (2020-06-29T21:50:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。