論文の概要: DistilCLIP-EEG: Enhancing Epileptic Seizure Detection Through Multi-modal Learning and Knowledge Distillation
- arxiv url: http://arxiv.org/abs/2510.13497v1
- Date: Wed, 15 Oct 2025 12:49:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-16 20:13:28.670879
- Title: DistilCLIP-EEG: Enhancing Epileptic Seizure Detection Through Multi-modal Learning and Knowledge Distillation
- Title(参考訳): DistilCLIP-EEG:マルチモーダル学習と知識蒸留によるてんかん発作検出の強化
- Authors: Zexin Wang, Lin Shi, Haoyu Wu, Junru Luo, Xiangzeng Kong, Jun Qi,
- Abstract要約: てんかん検出のための既存のディープラーニング手法の多くは、脳波信号のみに依存している。
本稿では,脳波信号とテキスト記述を統合してててててんかん発作の包括的特徴を捉えるマルチモーダルモデルDistilCLIP-EEGを提案する。
- 参考スコア(独自算出の注目度): 6.879999526049009
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Epilepsy is a prevalent neurological disorder marked by sudden, brief episodes of excessive neuronal activity caused by abnormal electrical discharges, which may lead to some mental disorders. Most existing deep learning methods for epilepsy detection rely solely on unimodal EEG signals, neglecting the potential benefits of multimodal information. To address this, we propose a novel multimodal model, DistilCLIP-EEG, based on the CLIP framework, which integrates both EEG signals and text descriptions to capture comprehensive features of epileptic seizures. The model involves an EEG encoder based on the Conformer architecture as a text encoder, the proposed Learnable BERT (BERT-LP) as prompt learning within the encoders. Both operate in a shared latent space for effective cross-modal representation learning. To enhance efficiency and adaptability, we introduce a knowledge distillation method where the trained DistilCLIP-EEG serves as a teacher to guide a more compact student model to reduce training complexity and time. On the TUSZ, AUBMC, and CHB-MIT datasets, both the teacher and student models achieved accuracy rates exceeding 97%. Across all datasets, the F1-scores were consistently above 0.94, demonstrating the robustness and reliability of the proposed framework. Moreover, the student model's parameter count and model size are approximately 58.1% of those of the teacher model, significantly reducing model complexity and storage requirements while maintaining high performance. These results highlight the potential of our proposed model for EEG-based epilepsy detection and establish a solid foundation for deploying lightweight models in resource-constrained settings.
- Abstract(参考訳): てんかん(てんかん、英: Epilepsy)は、精神疾患の原因となる異常な放電によって引き起こされる神経活動の急激な短いエピソードを特徴とする神経疾患である。
てんかん検出のための既存のディープラーニング手法の多くは、マルチモーダル情報の潜在的な利点を無視して、単調な脳波信号のみに依存している。
そこで我々は,脳波信号とテキスト記述を統合しててててててんかん発作の包括的特徴を捉える,新しいマルチモーダルモデルであるDistilCLIP-EEGを提案する。
このモデルでは、Conformerアーキテクチャに基づいたEEGエンコーダをテキストエンコーダとして、提案されたLearningable BERT (BERT-LP) をエンコーダ内での即時学習として使用する。
どちらも効果的なクロスモーダル表現学習のための共有潜在空間で動作する。
効率性と適応性を向上させるため,教師として訓練されたDistilCLIP-EEGが役立ち,よりコンパクトな学生モデルを指導し,訓練の複雑さと時間を短縮する知識蒸留手法を提案する。
TUSZ、AUBMC、CHB-MITのデータセットでは、教師モデルと学生モデルの両方が97%を超える精度を達成した。
すべてのデータセットにおいて、F1スコアは0.94以上であり、提案されたフレームワークの堅牢性と信頼性を示している。
さらに、生徒モデルのパラメータ数とモデルサイズは、教師モデルの約58.1%であり、高い性能を維持しながら、モデルの複雑さと保存要求を著しく低減する。
これらの結果は,脳波を用いたてんかん検出モデルの可能性を強調し,資源制約された環境下で軽量モデルを展開するための基盤を確立した。
関連論文リスト
- A brain-inspired generative model for EEG-based cognitive state identification [6.187646941506353]
本稿では、インパルスアテンションニューラルネットワークと変分オートエンコーダを融合した脳誘発生成モデルを提案する。
勾配に基づく学習とヘテロ連想記憶を統合することによってモデルを訓練するためのハイブリッド学習法を提案する。
実験の結果,BIGモデルでは,最先端手法に匹敵する89%以上の分類精度が得られた。
論文 参考訳(メタデータ) (2025-05-03T04:29:27Z) - Large Cognition Model: Towards Pretrained EEG Foundation Model [0.0]
多様な脳波データセットと下流タスクをまたいだ一般化を目的としたトランスフォーマーベース基盤モデルを提案する。
本研究は, 神経科学, パーソナライズドメディカル, およびBCI技術の進歩を促進するための, 事前学習型脳波基盤モデルの可能性を明らかにするものである。
論文 参考訳(メタデータ) (2025-02-11T04:28:10Z) - CEReBrO: Compact Encoder for Representations of Brain Oscillations Using Efficient Alternating Attention [53.539020807256904]
交互注意(CEReBrO)を用いた脳振動の表現のための圧縮法について紹介する。
トークン化方式は、チャネルごとのパッチで脳波信号を表現します。
本研究では,チャネル内時間的ダイナミックスとチャネル間空間的相関を共同でモデル化し,通常の自己アテンションに比べて6倍少ないメモリで2倍の速度向上を実現するための注意機構を提案する。
論文 参考訳(メタデータ) (2025-01-18T21:44:38Z) - Knowledge Distillation for Adaptive MRI Prostate Segmentation Based on
Limit-Trained Multi-Teacher Models [4.711401719735324]
圧縮法と加速技術として知識蒸留(KD)が提案されている。
KDは、負担の多いモデルから軽量モデルに知識を移行できる効率的な学習戦略である。
本研究では,KDに基づく前立腺MRIセグメンテーションの深部モデルを構築し,Kellback-Leiblerの発散,Lovasz,Diceの損失と特徴量に基づく蒸留を組み合わせる。
論文 参考訳(メタデータ) (2023-03-16T17:15:08Z) - SSD-KD: A Self-supervised Diverse Knowledge Distillation Method for
Lightweight Skin Lesion Classification Using Dermoscopic Images [62.60956024215873]
皮膚がんは最も一般的な悪性腫瘍の1つであり、人口に影響を与え、世界中で経済的な重荷を負っている。
皮膚がん検出のほとんどの研究は、ポータブルデバイス上での計算資源の制限を考慮せずに、高い予測精度を追求している。
本研究は,皮膚疾患分類のための汎用的なKDフレームワークに多様な知識を統一する,SSD-KDと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T06:54:29Z) - A Novel TSK Fuzzy System Incorporating Multi-view Collaborative Transfer
Learning for Personalized Epileptic EEG Detection [20.11589208667256]
マルチビュー協調移動学習を統合したTSKファジィシステムに基づくてんかん検出アルゴリズムを提案する。
提案手法はてんかん性脳波を効果的に検出する能力を有する。
論文 参考訳(メタデータ) (2021-11-11T12:15:55Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Uncovering the structure of clinical EEG signals with self-supervised
learning [64.4754948595556]
教師付き学習パラダイムは、しばしば利用可能なラベル付きデータの量によって制限される。
この現象は脳波(EEG)などの臨床関連データに特に問題となる。
ラベルのないデータから情報を抽出することで、ディープニューラルネットワークとの競合性能に到達することができるかもしれない。
論文 参考訳(メタデータ) (2020-07-31T14:34:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。