論文の概要: A novel dual-stream time-frequency contrastive pretext tasks framework
for sleep stage classification
- arxiv url: http://arxiv.org/abs/2312.09623v1
- Date: Fri, 15 Dec 2023 09:05:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-18 16:40:10.664283
- Title: A novel dual-stream time-frequency contrastive pretext tasks framework
for sleep stage classification
- Title(参考訳): 睡眠ステージ分類のための新しい二重ストリーム時間周波数コントラストプリテキストタスクフレームワーク
- Authors: Sergio Kazatzidis, Siamak Mehrkanoon
- Abstract要約: 本研究では、時間領域と周波数領域の両方で動作する二重ストリームプリテキスト・タスク・アーキテクチャを提案する。
我々は、新しい周波数類似性(FS)プリテキストタスクを2つの既存のプリテキストタスク、相対的位置決め(RP)と時間的シャッフル(TS)に組み入れた。
FSの導入により、ダウンストリームタスクの精度が大幅に改善され、RPが1.28パーセント改善、TSが2.02%改善された。
- 参考スコア(独自算出の注目度): 1.9399172852087767
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Self-supervised learning addresses the challenge encountered by many
supervised methods, i.e. the requirement of large amounts of annotated data.
This challenge is particularly pronounced in fields such as the
electroencephalography (EEG) research domain. Self-supervised learning operates
instead by utilizing pseudo-labels, which are generated by pretext tasks, to
obtain a rich and meaningful data representation. In this study, we aim at
introducing a dual-stream pretext task architecture that operates both in the
time and frequency domains. In particular, we have examined the incorporation
of the novel Frequency Similarity (FS) pretext task into two existing pretext
tasks, Relative Positioning (RP) and Temporal Shuffling (TS). We assess the
accuracy of these models using the Physionet Challenge 2018 (PC18) dataset in
the context of the downstream task sleep stage classification. The inclusion of
FS resulted in a notable improvement in downstream task accuracy, with a 1.28
percent improvement on RP and a 2.02 percent improvement on TS. Furthermore,
when visualizing the learned embeddings using Uniform Manifold Approximation
and Projection (UMAP), distinct clusters emerge, indicating that the learned
representations carry meaningful information.
- Abstract(参考訳): 自己教師付き学習は、多くの教師付き手法、すなわち大量の注釈付きデータの要求が直面する課題に対処する。
この課題は特に脳波研究領域(EEG)のような分野において顕著である。
自己教師付き学習は、プリテキストタスクによって生成される擬似ラベルを利用して、リッチで意味のあるデータ表現を得る。
本研究では,時間領域と周波数領域の両方で動作するデュアルストリームプリテキストタスクアーキテクチャを導入することを目的としている。
特に,新しい周波数類似性(fs)プリテキストタスクを,相対位置決め(rp)と時間シャッフル(ts)という2つの既存のプリテキストタスクに組み込む方法を検討した。
ダウンストリームタスク睡眠ステージ分類において,これらのモデルの精度をPhysoronet Challenge 2018 (PC18)データセットを用いて評価した。
FSの導入により、ダウンストリームタスクの精度が大幅に改善され、RPが1.28パーセント改善、TSが2.02%改善された。
さらに、Uniform Manifold Approximation and Projection (UMAP)を用いて学習した埋め込みを可視化すると、異なるクラスタが出現し、学習された表現が意味のある情報を持っていることを示す。
関連論文リスト
- Downstream-Pretext Domain Knowledge Traceback for Active Learning [138.02530777915362]
本稿では、下流知識と事前学習指導のデータ相互作用をトレースするダウンストリーム・プレテキスト・ドメイン知識トレース(DOKT)手法を提案する。
DOKTは、トレースバックの多様性指標とドメインベースの不確実性推定器から構成される。
10のデータセットで行った実験は、我々のモデルが他の最先端の手法よりも優れていることを示している。
論文 参考訳(メタデータ) (2024-07-20T01:34:13Z) - Adaptive Rentention & Correction for Continual Learning [114.5656325514408]
連続学習における一般的な問題は、最新のタスクに対する分類層のバイアスである。
アダプティブ・リテンション・アンド・コレクション (ARC) のアプローチを例に挙げる。
ARCはCIFAR-100とImagenet-Rのデータセットで平均2.7%と2.6%のパフォーマンス向上を達成した。
論文 参考訳(メタデータ) (2024-05-23T08:43:09Z) - Prompt-Based Spatio-Temporal Graph Transfer Learning [22.855189872649376]
本稿では,データスカース領域における多変数タスクに適応可能なプロンプトベースのフレームワークを提案する。
2段階のパイプラインでドメインとタスクの転送を実現するために、学習可能なプロンプトを採用しています。
実験の結果,STGPは3つのタスクの予測,クリギング,外挿において,最先端のベースラインよりも10.7%向上していることがわかった。
論文 参考訳(メタデータ) (2024-05-21T02:06:40Z) - Large Language Model Guided Knowledge Distillation for Time Series
Anomaly Detection [12.585365177675607]
AnomalyLLMは15のデータセットで最先端のパフォーマンスを示し、UCRデータセットの少なくとも14.5%の精度向上を実現している。
論文 参考訳(メタデータ) (2024-01-26T09:51:07Z) - Spatio-Temporal Contrastive Self-Supervised Learning for POI-level Crowd
Flow Inference [23.8192952068949]
S-temporal data(CSST)のための新しいコントラスト型自己学習フレームワークを提案する。
提案手法は,POI(Points of Interest)とその距離に基づく空間隣接グラフの構築から始める。
我々は、類似した事例から対象部分グラフの表現を予測するために、スワップした予測手法を採用する。
実世界の2つのデータセットで実施した実験では、広範囲のノイズデータに基づいて事前トレーニングされたCSSTが、ゼロからトレーニングされたモデルより一貫して優れていることを示した。
論文 参考訳(メタデータ) (2023-09-06T02:51:24Z) - Domain Adaptive Synapse Detection with Weak Point Annotations [63.97144211520869]
弱点アノテーションを用いたドメイン適応型シナプス検出のためのフレームワークであるAdaSynを提案する。
I SBI 2023のWASPSYNチャレンジでは、我々の手法が第1位にランクインした。
論文 参考訳(メタデータ) (2023-08-31T05:05:53Z) - Evaluating the structure of cognitive tasks with transfer learning [67.22168759751541]
本研究では,脳波復号処理における深層学習表現の伝達可能性について検討した。
最近リリースされた2つのEEGデータセット上で、最先端デコードモデルを用いて広範な実験を行う。
論文 参考訳(メタデータ) (2023-07-28T14:51:09Z) - Self-Supervised Graph Neural Network for Multi-Source Domain Adaptation [51.21190751266442]
ドメイン適応(DA)は、テストデータがトレーニングデータの同じ分布に完全に従わない場合に、シナリオに取り組む。
大規模未ラベルサンプルから学習することで、自己教師型学習がディープラーニングの新しいトレンドとなっている。
我々は,より効果的なタスク間情報交換と知識共有を実現するために,新しい textbfSelf-textbf Supervised textbfGraph Neural Network (SSG) を提案する。
論文 参考訳(メタデータ) (2022-04-08T03:37:56Z) - Learning Invariant Representations across Domains and Tasks [81.30046935430791]
本稿では,この教師なしタスク転送問題を解決するための新しいタスク適応ネットワーク(tan)を提案する。
ドメイン・アドバーサル・トレーニングによる伝達可能な機能を学習することに加えて、学習から学習への戦略を用いてタスクの意味を適応させる新しいタスク・セマンティクス・アダプタを提案する。
TANは最近の強いベースラインに比べてリコールとF1スコアを5.0%と7.8%大きく向上させた。
論文 参考訳(メタデータ) (2021-03-03T11:18:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。