論文の概要: Adversarial Domain Adaptation with Self-Training for EEG-based Sleep
Stage Classification
- arxiv url: http://arxiv.org/abs/2107.04470v1
- Date: Fri, 9 Jul 2021 14:56:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-12 19:06:10.124169
- Title: Adversarial Domain Adaptation with Self-Training for EEG-based Sleep
Stage Classification
- Title(参考訳): 脳波に基づく睡眠段階分類のための自己訓練による対向領域適応
- Authors: Emadeldeen Eldele, Mohamed Ragab, Zhenghua Chen, Min Wu, Chee-Keong
Kwoh, Xiaoli Li, and Cuntai Guan
- Abstract要約: 本研究では,未ラベル対象領域におけるドメインシフト問題に対処するための新しい逆学習フレームワークを提案する。
まず、ソースドメインとターゲットドメインのドメイン固有の特徴を保存するために、非共有アテンションメカニズムを開発する。
第2に、ターゲットドメインの擬似ラベルを用いて、ソースおよびターゲットドメインの細粒度分布クラスを調整するための自己学習戦略を設計する。
- 参考スコア(独自算出の注目度): 13.986662296156013
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Sleep staging is of great importance in the diagnosis and treatment of sleep
disorders. Recently, numerous data driven deep learning models have been
proposed for automatic sleep staging. They mainly rely on the assumption that
training and testing data are drawn from the same distribution which may not
hold in real-world scenarios. Unsupervised domain adaption (UDA) has been
recently developed to handle this domain shift problem. However, previous UDA
methods applied for sleep staging has two main limitations. First, they rely on
a totally shared model for the domain alignment, which may lose the
domain-specific information during feature extraction. Second, they only align
the source and target distributions globally without considering the class
information in the target domain, which hinders the classification performance
of the model. In this work, we propose a novel adversarial learning framework
to tackle the domain shift problem in the unlabeled target domain. First, we
develop unshared attention mechanisms to preserve the domain-specific features
in the source and target domains. Second, we design a self-training strategy to
align the fine-grained class distributions for the source and target domains
via target domain pseudo labels. We also propose dual distinct classifiers to
increase the robustness and quality of the pseudo labels. The experimental
results on six cross-domain scenarios validate the efficacy of our proposed
framework for sleep staging and its advantage over state-of-the-art UDA
methods.
- Abstract(参考訳): 睡眠ステージングは睡眠障害の診断と治療において非常に重要である。
近年,自動睡眠ステージングのためのデータ駆動型ディープラーニングモデルが提案されている。
それらは主に、トレーニングとテストのデータを、実際のシナリオでは保持できないような同じ分布から引き出すという仮定に依存している。
ドメインシフト問題に対処するために、Unsupervised Domain Adaption (UDA) が最近開発された。
しかし、これまでの睡眠ステージングに適用されるUDAメソッドには2つの大きな制限がある。
まず、それらはドメインアライメントの完全な共有モデルに依存しており、機能抽出中にドメイン固有の情報を失う可能性がある。
第2に、ターゲットドメインのクラス情報を考慮せずに、ソースとターゲットの分布をグローバルに調整するだけで、モデルの分類性能を阻害する。
本研究では,未ラベル対象領域におけるドメインシフト問題に対処するための新しい逆学習フレームワークを提案する。
まず、ソースドメインとターゲットドメインのドメイン固有の特徴を保存するために、非共有アテンション機構を開発する。
第2に、ターゲットドメインの擬似ラベルを用いて、ソースおよびターゲットドメインの詳細なクラス分布を調整するための自己学習戦略を設計する。
また,擬似ラベルのロバスト性と品質を高めるために,2つの識別分類器を提案する。
6つのクロスドメインシナリオの実験結果から、睡眠ステージングのためのフレームワークの有効性と最先端UDA法に対する利点が検証された。
関連論文リスト
- Unsupervised Domain Adaptation for Anatomical Landmark Detection [5.070344284426738]
非教師なし領域適応(UDA)の設定下での解剖学的ランドマーク検出のための新しい枠組みを提案する。
このフレームワークは、自己学習とドメインの敵対的学習を活用して、適応中のドメインギャップに対処する。
脳波および肺のランドマーク検出実験は,領域間隙を広いマージンで低減し,他のUDA法より一貫して優れる手法の有効性を示した。
論文 参考訳(メタデータ) (2023-08-25T10:22:13Z) - Making the Best of Both Worlds: A Domain-Oriented Transformer for
Unsupervised Domain Adaptation [31.150256154504696]
Unsupervised Domain Adaptation (UDA)は、限られた実験データセットから現実の制約のないドメインへのディープラーニングの展開を促進する。
ほとんどのUDAアプローチは、共通の埋め込み空間内の機能を整列させ、ターゲット予測に共有分類器を適用する。
本稿では,異なる領域に着目した2つの個別空間における特徴アライメントを同時に実施し,各領域に対してドメイン指向の分類器を作成することを提案する。
論文 参考訳(メタデータ) (2022-08-02T01:38:37Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - Joint Distribution Alignment via Adversarial Learning for Domain
Adaptive Object Detection [11.262560426527818]
教師なしのドメイン適応オブジェクト検出は、リッチラベル付きデータで訓練された元のソースドメインから、ラベルなしデータで新しいターゲットドメインに適応することを目的としている。
近年、主流のアプローチは、敵対的学習を通じてこのタスクを実行するが、それでも2つの制限に悩まされている。
上記の課題に対処するために,JADF(Joint Adaptive Detection framework)を提案する。
論文 参考訳(メタデータ) (2021-09-19T00:27:08Z) - Stagewise Unsupervised Domain Adaptation with Adversarial Self-Training
for Road Segmentation of Remote Sensing Images [93.50240389540252]
リモートセンシング画像からの道路セグメンテーションは、幅広い応用可能性を持つ課題である。
本稿では,この領域における領域シフト(DS)問題に対処するため,RoadDAと呼ばれる新たな段階的ドメイン適応モデルを提案する。
2つのベンチマーク実験の結果、RoadDAはドメインギャップを効率的に減らし、最先端の手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-08-28T09:29:14Z) - Cross-domain Contrastive Learning for Unsupervised Domain Adaptation [108.63914324182984]
教師なしドメイン適応(Unsupervised domain adapt、UDA)は、完全にラベル付けされたソースドメインから異なるラベル付けされていないターゲットドメインに学習した知識を転送することを目的としている。
対照的な自己教師型学習に基づいて、トレーニングとテストセット間のドメインの相違を低減するために、機能を整列させます。
論文 参考訳(メタデータ) (2021-06-10T06:32:30Z) - Contrastive Learning and Self-Training for Unsupervised Domain
Adaptation in Semantic Segmentation [71.77083272602525]
UDAはラベル付きソースドメインからラベルなしターゲットドメインへの効率的な知識伝達を試みている。
本稿では,領域にまたがるカテゴリ別センタロイドを適応させるコントラスト学習手法を提案する。
提案手法を自己学習で拡張し,メモリ効率の良い時間アンサンブルを用いて一貫性と信頼性の高い擬似ラベルを生成する。
論文 参考訳(メタデータ) (2021-05-05T11:55:53Z) - Inferring Latent Domains for Unsupervised Deep Domain Adaptation [54.963823285456925]
Unsupervised Domain Adaptation (UDA)は、ラベル付きデータが利用できないターゲットドメインでモデルを学習する問題を指す。
本稿では,視覚データセット中の潜在ドメインを自動的に発見することにより,udaの問題に対処する新しい深層アーキテクチャを提案する。
提案手法を公開ベンチマークで評価し,最先端のドメイン適応手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2021-03-25T14:33:33Z) - Cross-domain Self-supervised Learning for Domain Adaptation with Few
Source Labels [78.95901454696158]
ドメイン適応のためのクロスドメイン自己教師型学習手法を提案する。
本手法は,ソースラベルが少ない新しいターゲット領域において,ターゲット精度を著しく向上させる。
論文 参考訳(メタデータ) (2020-03-18T15:11:07Z) - Missing-Class-Robust Domain Adaptation by Unilateral Alignment for Fault
Diagnosis [3.786700931138978]
ドメイン適応は、ソースドメインの学習した知識を活用し、それをターゲットドメインに転送することで、モデルの性能を改善することを目的としています。
近年, 対象領域とソース領域の分散シフトを軽減するために, ドメイン逆法が特に成功している。
本稿では,ドメイン逆数法の性能がトレーニング中に不完全なターゲットラベル空間に対して脆弱であることを示す。
論文 参考訳(メタデータ) (2020-01-07T13:19:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。