論文の概要: Deep transfer learning for improving single-EEG arousal detection
- arxiv url: http://arxiv.org/abs/2004.05111v2
- Date: Thu, 7 May 2020 11:18:28 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-14 20:25:53.055997
- Title: Deep transfer learning for improving single-EEG arousal detection
- Title(参考訳): 単一覚醒検出改善のための深層伝達学習
- Authors: Alexander Neergaard Olesen, Poul Jennum, Emmanuel Mignot, Helge B. D.
Sorensen
- Abstract要約: 2つのデータセットは、単一のEEGモデルでパフォーマンスが低下する原因となる、まったく同じ設定を含んでいない。
単チャンネル脳波データのためのアーキテクチャを構築するために,ベースラインモデルをトレーニングし,最初の2層を置き換える。
細調整戦略を用いて,本モデルはベースラインモデルと同等の性能を示し,同等の単一チャネルモデルよりも大幅に優れていた。
- 参考スコア(独自算出の注目度): 63.52264764099532
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Datasets in sleep science present challenges for machine learning algorithms
due to differences in recording setups across clinics. We investigate two deep
transfer learning strategies for overcoming the channel mismatch problem for
cases where two datasets do not contain exactly the same setup leading to
degraded performance in single-EEG models. Specifically, we train a baseline
model on multivariate polysomnography data and subsequently replace the first
two layers to prepare the architecture for single-channel
electroencephalography data. Using a fine-tuning strategy, our model yields
similar performance to the baseline model (F1=0.682 and F1=0.694,
respectively), and was significantly better than a comparable single-channel
model. Our results are promising for researchers working with small databases
who wish to use deep learning models pre-trained on larger databases.
- Abstract(参考訳): 睡眠科学におけるデータセットは、クリニック間の記録設定の違いによる機械学習アルゴリズムの課題を示す。
単一EEGモデルにおいて,2つのデータセットが全く同じ設定を含まない場合において,チャネルミスマッチ問題を克服するための2つのディープトランスファー学習戦略を検討する。
具体的には,多変量ポリソムノグラフィデータに基づくベースラインモデルを訓練し,最初の2層を置換し,単一チャネル脳波データのアーキテクチャを作成する。
微調整戦略を用いることで,本モデルはベースラインモデル(f1=0.682,f1=0.694)と同等の性能を示し,同等の単一チャネルモデルよりも有意に優れていた。
我々の研究結果は、大規模データベースで事前学習されたディープラーニングモデルを利用したい小さなデータベースを扱う研究者に有望である。
関連論文リスト
- FissionFusion: Fast Geometric Generation and Hierarchical Souping for Medical Image Analysis [0.7751705157998379]
十分に注釈付けされた医療データセットの不足は、ImageNetのような広範なデータセットやCLIPのような事前訓練されたモデルからの移行学習を活用する必要がある。
モデルスープは、In-Domain(ID)タスクのパフォーマンスを改善し、out-of-Distribution(OOD)データセットに対する堅牢性を高めることを目的とした、複数の微調整されたモデルの平均である。
本稿では,様々なレベルのモデルの局所的および大域的集約を伴う階層的統合手法を提案する。
論文 参考訳(メタデータ) (2024-03-20T06:48:48Z) - Diffusion-Based Neural Network Weights Generation [80.89706112736353]
D2NWGは拡散に基づくニューラルネットワーク重み生成技術であり、転送学習のために高性能な重みを効率よく生成する。
本稿では,ニューラルネットワーク重み生成のための遅延拡散パラダイムを再放送するために,生成的ハイパー表現学習を拡張した。
我々のアプローチは大規模言語モデル(LLM)のような大規模アーキテクチャにスケーラブルであり、現在のパラメータ生成技術の限界を克服しています。
論文 参考訳(メタデータ) (2024-02-28T08:34:23Z) - Accurate deep learning sub-grid scale models for large eddy simulations [0.0]
大型渦流シミュレーション(LES)のために開発されたサブグリッドスケール(SGS)乱流モデルについて述べる。
彼らの開発には、物理インフォームド・ロバストで効率的なDeep Learning (DL)アルゴリズムの定式化が必要だった。
2つの摩擦レイノルズ数における正準流路流れの直接シミュレーションによるデータの明示的なフィルタリングは、訓練と試験のための正確なデータを提供した。
論文 参考訳(メタデータ) (2023-07-19T15:30:06Z) - Layer-wise Linear Mode Connectivity [52.6945036534469]
ニューラルネットワークパラメータの平均化は、2つの独立したモデルの知識の直感的な方法である。
フェデレートラーニングにおいて最も顕著に用いられている。
私たちは、単一グループやグループを平均化するモデルの性能を分析します。
論文 参考訳(メタデータ) (2023-07-13T09:39:10Z) - Universal Domain Adaptation from Foundation Models: A Baseline Study [58.51162198585434]
基礎モデルを用いた最先端UniDA手法の実証的研究を行った。
CLIPモデルからターゲット知識を抽出するためのパラメータフリーな手法であるtextitCLIP 蒸留を導入する。
単純な手法ではあるが、ほとんどのベンチマークタスクでは従来の手法よりも優れている。
論文 参考訳(メタデータ) (2023-05-18T16:28:29Z) - Dataless Knowledge Fusion by Merging Weights of Language Models [51.8162883997512]
微調整された事前学習言語モデルは、下流のNLPモデルを構築するための主要なパラダイムとなっている。
これは、より優れた単一モデルを生み出すために、個々のモデル間で知識を融合させる障壁を生み出します。
パラメータ空間のモデルをマージするデータレス知識融合法を提案する。
論文 参考訳(メタデータ) (2022-12-19T20:46:43Z) - Towards physiology-informed data augmentation for EEG-based BCIs [24.15108821320151]
本稿では,手元に設定したデータから新たなデータを生成することにより,トレーニングデータを増強する新しい手法を提案する。
本書では,本手法を解説し,参加者非依存型運動画像分類のための第1次予備結果を示す。
論文 参考訳(メタデータ) (2022-03-27T20:59:40Z) - Rethinking Architecture Design for Tackling Data Heterogeneity in
Federated Learning [53.73083199055093]
注意に基づくアーキテクチャ(例えばTransformers)は、分散シフトに対してかなり堅牢であることを示す。
我々の実験は、畳み込みネットワークをトランスフォーマーに置き換えることによって、過去のデバイスを壊滅的に忘れることを大幅に減らせることを示した。
論文 参考訳(メタデータ) (2021-06-10T21:04:18Z) - On the Pitfalls of Learning with Limited Data: A Facial Expression
Recognition Case Study [0.5249805590164901]
私達はビデオからの顔表現の認識の問題に焦点を合わせます。
4つのデータベースを異なる複雑さで,9つのディープラーニングアーキテクチャで動画分類を行った。
複雑なトレーニングセットは、トランスファーラーニングと合成生成データでトレーニングすると、より安定したテストセットによく変換されます。
論文 参考訳(メタデータ) (2021-04-02T18:53:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。