論文の概要: From Theory to Application: Fine-Tuning Large EEG Model with Real-World Stress Data
- arxiv url: http://arxiv.org/abs/2505.23042v1
- Date: Thu, 29 May 2025 03:40:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:07.653436
- Title: From Theory to Application: Fine-Tuning Large EEG Model with Real-World Stress Data
- Title(参考訳): 理論から応用へ:実世界ストレスデータを用いた微調整大型脳波モデル
- Authors: Siwen Wang, Shitou Zhang, Wan-Lin Chen, Dung Truong, Tzyy-Ping Jung,
- Abstract要約: 大学院生の教室で収集した実世界ストレス分類データセットを用いて,LaBraMの微調整による大脳波モデル(LEM)の有効性を評価する。
最高のパフォーマンスの微調整モデルでは、5秒のウィンドウで90.47%のバランスの取れた精度が得られる。
- 参考スコア(独自算出の注目度): 5.7536623637389095
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recent advancements in Large Language Models have inspired the development of foundation models across various domains. In this study, we evaluate the efficacy of Large EEG Models (LEMs) by fine-tuning LaBraM, a state-of-the-art foundation EEG model, on a real-world stress classification dataset collected in a graduate classroom. Unlike previous studies that primarily evaluate LEMs using data from controlled clinical settings, our work assesses their applicability to real-world environments. We train a binary classifier that distinguishes between normal and elevated stress states using resting-state EEG data recorded from 18 graduate students during a class session. The best-performing fine-tuned model achieves a balanced accuracy of 90.47% with a 5-second window, significantly outperforming traditional stress classifiers in both accuracy and inference efficiency. We further evaluate the robustness of the fine-tuned LEM under random data shuffling and reduced channel counts. These results demonstrate the capability of LEMs to effectively process real-world EEG data and highlight their potential to revolutionize brain-computer interface applications by shifting the focus from model-centric to data-centric design.
- Abstract(参考訳): 大規模言語モデルの最近の進歩は、様々な領域にまたがる基礎モデルの発展にインスピレーションを与えている。
本研究では,大学院で収集した実世界ストレス分類データセットを用いて,最先端の脳波モデルであるLaBraMの微調整による大脳波モデル(LEM)の有効性を評価する。
コントロールされた臨床環境からのデータを用いてLEMを評価する従来の研究とは異なり,本研究は実環境への適用性を評価する。
授業セッション中に18人の大学院生から記録された安静状態脳波データを用いて,通常のストレス状態と高ストレス状態とを区別するバイナリ分類器を訓練する。
最も優れた微調整モデルでは、5秒のウィンドウで90.47%のバランスの取れた精度を実現し、従来のストレス分類器を精度と推論効率の両方で大幅に上回っている。
さらに、ランダムなデータシャッフルとチャネル数削減の下で、微調整LEMのロバスト性を評価する。
これらの結果は、LEMが実世界の脳波データを効果的に処理し、モデル中心からデータ中心の設計へと焦点を移すことで、脳-コンピュータインターフェースアプリケーションに革命をもたらす可能性を強調している。
関連論文リスト
- Exploring Scaling Laws for EHR Foundation Models [17.84205864956449]
EHR基礎モデルのスケーリング法則に関する最初の実証的研究について述べる。
パラボリックなIsoFLOP曲線や計算,モデルパラメータ,データサイズ,臨床ユーティリティ間の電力-法則関係など,一貫したスケーリングパターンを同定する。
論文 参考訳(メタデータ) (2025-05-29T01:05:11Z) - Prismatic Synthesis: Gradient-based Data Diversification Boosts Generalization in LLM Reasoning [77.120955854093]
我々は,データ多様性が言語モデルにおける一般化の強力な予測因子であることを示す。
モデル誘起勾配のエントロピーを通して多様性を定量化する計量であるG-Vendiを導入する。
多様な合成データを生成するためのフレームワークであるPrismatic Synthesisを提案する。
論文 参考訳(メタデータ) (2025-05-26T16:05:10Z) - Model Utility Law: Evaluating LLMs beyond Performance through Mechanism Interpretable Metric [99.56567010306807]
大規模言語モデル(LLM)は、学術、産業、そして日々のアプリケーションに欠かせないものになっている。
大規模言語モデル (LLM) 時代における評価の課題の1つは一般化問題である。
従来の性能スコアを補完するメカニズムの解釈可能性向上指標であるモデル利用指数(MUI)を提案する。
論文 参考訳(メタデータ) (2025-04-10T04:09:47Z) - Towards Robust Universal Information Extraction: Benchmark, Evaluation, and Solution [66.11004226578771]
既存の堅牢なベンチマークデータセットには2つの重要な制限がある。
単一の情報抽出(IE)タスクに対して、限られた範囲の摂動しか生成しない。
LLM(Large Language Models)の強力な生成機能を考慮すると、ruIE-Benchと呼ばれるRobust UIEのための新しいベンチマークデータセットを導入する。
データのうち、 textbf15% しかトレーニングしない場合、3つの IE タスクに対して、平均 textbf7.5% の相対的なパフォーマンス改善につながることを示す。
論文 参考訳(メタデータ) (2025-03-05T05:39:29Z) - Beyond QA Pairs: Assessing Parameter-Efficient Fine-Tuning for Fact Embedding in LLMs [0.0]
本稿では,質問応答対をFactualクラスとConceptualクラスに分類することで,微調整プロセスの改善に焦点をあてる。
2つの異なるLlama-2モデルはこれらの分類に基づいて微調整され、GPT-3.5 TurboやGeminiのような大型モデルを用いて評価される。
以上の結果から,概念データセットでトレーニングされたモデルは,実データセットでトレーニングしたモデルよりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2025-03-03T03:26:30Z) - SMPLest-X: Ultimate Scaling for Expressive Human Pose and Shape Estimation [81.36747103102459]
表現的人間のポーズと形状推定(EHPS)は、身体、手、顔の動きを多数の応用で統合する。
現在の最先端の手法は、限定されたデータセット上で革新的なアーキテクチャ設計を訓練することに焦点を当てている。
本稿では,EHPSのスケールアップが一般基盤モデルのファミリに与える影響について検討する。
論文 参考訳(メタデータ) (2025-01-16T18:59:46Z) - Predictive Analytics of Varieties of Potatoes [2.336821989135698]
本研究では, 育種試験におけるサツマイモクローンの選択プロセスの向上を目的とした, 機械学習アルゴリズムの適用について検討する。
本研究は, 高収率, 耐病性, 耐気候性ポテト品種を効率的に同定することの課題に対処する。
論文 参考訳(メタデータ) (2024-04-04T00:49:05Z) - EEGFormer: Towards Transferable and Interpretable Large-Scale EEG
Foundation Model [39.363511340878624]
大規模複合脳波データに基づいて事前学習した脳波基礎モデル,すなわちEEGFormerを提案する。
本モデルの有効性を検証するため,様々な下流タスクにおいて広範囲に評価し,異なる転送条件下での性能を評価する。
論文 参考訳(メタデータ) (2024-01-11T17:36:24Z) - Neuro-GPT: Towards A Foundation Model for EEG [0.04188114563181615]
脳波エンコーダとGPTモデルからなる基礎モデルであるNeuro-GPTを提案する。
ファンデーションモデルは、マスクされたEEGセグメントの再構築方法を学ぶ自己教師付きタスクを使用して、大規模なデータセット上で事前訓練される。
基礎モデルを適用することで、スクラッチからトレーニングしたモデルと比較して、分類性能が大幅に向上することを示した。
論文 参考訳(メタデータ) (2023-11-07T07:07:18Z) - Data augmentation for learning predictive models on EEG: a systematic
comparison [79.84079335042456]
脳波(EEG)分類タスクの深層学習は、ここ数年急速に増加している。
EEG分類タスクのディープラーニングは、比較的小さなEEGデータセットによって制限されている。
データ拡張は、コンピュータビジョンや音声などのアプリケーションにまたがる最先端のパフォーマンスを得るために重要な要素となっている。
論文 参考訳(メタデータ) (2022-06-29T09:18:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。