論文の概要: On the Out-Of-Distribution Robustness of Self-Supervised Representation
Learning for Phonocardiogram Signals
- arxiv url: http://arxiv.org/abs/2312.00502v1
- Date: Fri, 1 Dec 2023 11:06:00 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-04 14:54:58.953542
- Title: On the Out-Of-Distribution Robustness of Self-Supervised Representation
Learning for Phonocardiogram Signals
- Title(参考訳): 心電図信号に対する自己教師付き表現学習の外部分布ロバスト性について
- Authors: Aristotelis Ballas, Vasileios Papapanagiotou and Christos Diou
- Abstract要約: 信号の一般化表現を学習して心電図(PCG)サンプルの異常を検出するためのコントラスト自己監視学習(SSL)を提案する。
実験により, トレーニング分布によっては, 完全に教師されたモデルの有効性が32%まで低下することを示した。
- 参考スコア(独自算出の注目度): 6.112582193985082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Despite the recent increase in research activity, deep-learning
models have not yet been widely accepted in medicine. The shortage of
high-quality annotated data often hinders the development of robust and
generalizable models, which do not suffer from degraded effectiveness when
presented with newly-collected, out-of-distribution (OOD) datasets. Methods:
Contrastive Self-Supervised Learning (SSL) offers a potential solution to the
scarcity of labeled data as it takes advantage of unlabeled data to increase
model effectiveness and robustness. In this research, we propose applying
contrastive SSL for detecting abnormalities in phonocardiogram (PCG) samples by
learning a generalized representation of the signal. Specifically, we perform
an extensive comparative evaluation of a wide range of audio-based
augmentations and evaluate trained classifiers on multiple datasets across
different downstream tasks. Results: We experimentally demonstrate that,
depending on its training distribution, the effectiveness of a fully-supervised
model can degrade up to 32% when evaluated on unseen data, while SSL models
only lose up to 10% or even improve in some cases. Conclusions: Contrastive SSL
pretraining can assist in providing robust classifiers which can generalize to
unseen, OOD data, without relying on time- and labor-intensive annotation
processes by medical experts. Furthermore, the proposed extensive evaluation
protocol sheds light on the most promising and appropriate augmentations for
robust PCG signal processing. Significance: We provide researchers and
practitioners with a roadmap towards producing robust models for PCG
classification, in addition to an open-source codebase for developing novel
approaches.
- Abstract(参考訳): 目的:最近の研究活動の増加にもかかわらず,深層学習モデルはまだ広く医学的に受け入れられていない。
高品質な注釈付きデータの不足は、新しく収集されたout-of-distribution(ood)データセットで提示された場合の効率が低下しない、堅牢で一般化可能なモデルの開発を妨げることが多い。
方法: 対照的な自己教師付き学習(ssl)は、ラベルのないデータを利用してモデルの有効性と堅牢性を高めるため、ラベル付きデータの不足に対する潜在的な解決策を提供する。
本研究では,信号の一般化表現を学習することにより,心電図(PCG)の異常を検出するためのコントラストSSLを提案する。
具体的には、幅広いオーディオベース拡張の広範な比較評価を行い、異なる下流タスクにまたがる複数のデータセット上で訓練された分類器の評価を行う。
結果: トレーニング分布によっては, 完全教師付きモデルの有効性は, 未確認データで評価すると最大32%低下し, SSLモデルは最大10%低下し, 場合によっては改善される。
結論: 対照的にSSL事前トレーニングは、医療専門家による時間的および労働集約的なアノテーションプロセスに頼ることなく、見えないOODデータに一般化可能な堅牢な分類器の提供を支援することができる。
さらに、提案プロトコルは、堅牢なPCG信号処理のための最も有望かつ適切な拡張に光を当てる。
意義:新しいアプローチを開発するためのオープンソースコードベースに加えて,PCG分類のための堅牢なモデルを作成するためのロードマップを提供する。
関連論文リスト
- Evaluating the Impact of Data Augmentation on Predictive Model Performance [0.05624791703748109]
本稿では,データ拡張手法と予測性能への影響を体系的に比較する。
21種類の増幅法のうち、SMOTE-ENNサンプリングが最も優れ、平均AUCが0.01向上した。
いくつかの拡張技術は、予測性能を著しく低下させたり、ランダムな確率に関する性能変動を増大させたりした。
論文 参考訳(メタデータ) (2024-12-03T03:03:04Z) - Reducing self-supervised learning complexity improves weakly-supervised
classification performance in computational pathology [0.0]
自己教師付き学習(SSL)法は、注釈のないデータの大規模解析を可能にする。
本研究では、SSLの分類性能と、コンシューマグレードハードウェアの利用に関する複雑さについて検討した。
実験により,SSLトレーニング期間を90%短縮しつつ,下流分類性能を向上できることが実証された。
論文 参考訳(メタデータ) (2024-03-07T14:56:06Z) - Boosting Transformer's Robustness and Efficacy in PPG Signal Artifact
Detection with Self-Supervised Learning [0.0]
本研究は、自己教師付き学習(SSL)を用いて、このデータから潜伏した特徴を抽出することにより、豊富なラベル付きデータの未利用に対処する。
実験の結果,SSLはTransformerモデルの表現学習能力を大幅に向上させることがわかった。
このアプローチは、注釈付きデータがしばしば制限されるPICU環境において、より広範なアプリケーションに対して約束される。
論文 参考訳(メタデータ) (2024-01-02T04:00:48Z) - Self-Supervision for Tackling Unsupervised Anomaly Detection: Pitfalls
and Opportunities [50.231837687221685]
自己教師付き学習(SSL)は、機械学習とその多くの現実世界のアプリケーションに変化をもたらした。
非教師なし異常検出(AD)は、自己生成性擬似異常によりSSLにも乗じている。
論文 参考訳(メタデータ) (2023-08-28T07:55:01Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Improved Techniques for the Conditional Generative Augmentation of
Clinical Audio Data [36.45569352490318]
本稿では,学習したデータ分布からメルスペクトルを合成できる条件付き逆方向ニューラルネットワークによる拡張法を提案する。
提案手法は,従来の音質向上手法よりも優れていることを示す。
提案モデルは,臨床オーディオデータの増大における最先端の進歩と,臨床音響センシングシステムの設計におけるデータのボトルネックを改善する。
論文 参考訳(メタデータ) (2022-11-05T10:58:04Z) - Improving the efficacy of Deep Learning models for Heart Beat detection
on heterogeneous datasets [0.0]
ヘテロジニアスデータセットにディープラーニングモデルを適用する際の問題点について検討する。
本研究では,健常者からのデータに基づいてトレーニングしたモデルの性能が,心疾患患者に適用した場合に低下することを示す。
次に、異なるデータセットにモデルを適応させるためのTransfer Learningの使用を評価します。
論文 参考訳(メタデータ) (2021-10-26T14:26:55Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。