論文の概要: On the Out-Of-Distribution Robustness of Self-Supervised Representation
Learning for Phonocardiogram Signals
- arxiv url: http://arxiv.org/abs/2312.00502v1
- Date: Fri, 1 Dec 2023 11:06:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2023-12-04 14:54:58.953542
- Title: On the Out-Of-Distribution Robustness of Self-Supervised Representation
Learning for Phonocardiogram Signals
- Title(参考訳): 心電図信号に対する自己教師付き表現学習の外部分布ロバスト性について
- Authors: Aristotelis Ballas, Vasileios Papapanagiotou and Christos Diou
- Abstract要約: 信号の一般化表現を学習して心電図(PCG)サンプルの異常を検出するためのコントラスト自己監視学習(SSL)を提案する。
実験により, トレーニング分布によっては, 完全に教師されたモデルの有効性が32%まで低下することを示した。
- 参考スコア(独自算出の注目度): 6.112582193985082
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objective: Despite the recent increase in research activity, deep-learning
models have not yet been widely accepted in medicine. The shortage of
high-quality annotated data often hinders the development of robust and
generalizable models, which do not suffer from degraded effectiveness when
presented with newly-collected, out-of-distribution (OOD) datasets. Methods:
Contrastive Self-Supervised Learning (SSL) offers a potential solution to the
scarcity of labeled data as it takes advantage of unlabeled data to increase
model effectiveness and robustness. In this research, we propose applying
contrastive SSL for detecting abnormalities in phonocardiogram (PCG) samples by
learning a generalized representation of the signal. Specifically, we perform
an extensive comparative evaluation of a wide range of audio-based
augmentations and evaluate trained classifiers on multiple datasets across
different downstream tasks. Results: We experimentally demonstrate that,
depending on its training distribution, the effectiveness of a fully-supervised
model can degrade up to 32% when evaluated on unseen data, while SSL models
only lose up to 10% or even improve in some cases. Conclusions: Contrastive SSL
pretraining can assist in providing robust classifiers which can generalize to
unseen, OOD data, without relying on time- and labor-intensive annotation
processes by medical experts. Furthermore, the proposed extensive evaluation
protocol sheds light on the most promising and appropriate augmentations for
robust PCG signal processing. Significance: We provide researchers and
practitioners with a roadmap towards producing robust models for PCG
classification, in addition to an open-source codebase for developing novel
approaches.
- Abstract(参考訳): 目的:最近の研究活動の増加にもかかわらず,深層学習モデルはまだ広く医学的に受け入れられていない。
高品質な注釈付きデータの不足は、新しく収集されたout-of-distribution(ood)データセットで提示された場合の効率が低下しない、堅牢で一般化可能なモデルの開発を妨げることが多い。
方法: 対照的な自己教師付き学習(ssl)は、ラベルのないデータを利用してモデルの有効性と堅牢性を高めるため、ラベル付きデータの不足に対する潜在的な解決策を提供する。
本研究では,信号の一般化表現を学習することにより,心電図(PCG)の異常を検出するためのコントラストSSLを提案する。
具体的には、幅広いオーディオベース拡張の広範な比較評価を行い、異なる下流タスクにまたがる複数のデータセット上で訓練された分類器の評価を行う。
結果: トレーニング分布によっては, 完全教師付きモデルの有効性は, 未確認データで評価すると最大32%低下し, SSLモデルは最大10%低下し, 場合によっては改善される。
結論: 対照的にSSL事前トレーニングは、医療専門家による時間的および労働集約的なアノテーションプロセスに頼ることなく、見えないOODデータに一般化可能な堅牢な分類器の提供を支援することができる。
さらに、提案プロトコルは、堅牢なPCG信号処理のための最も有望かつ適切な拡張に光を当てる。
意義:新しいアプローチを開発するためのオープンソースコードベースに加えて,PCG分類のための堅牢なモデルを作成するためのロードマップを提供する。
関連論文リスト
- Evaluating the Impact of Data Augmentation on Predictive Model Performance [0.05624791703748109]
本稿では,データ拡張手法と予測性能への影響を体系的に比較する。
21種類の増幅法のうち、SMOTE-ENNサンプリングが最も優れ、平均AUCが0.01向上した。
いくつかの拡張技術は、予測性能を著しく低下させたり、ランダムな確率に関する性能変動を増大させたりした。
論文 参考訳(メタデータ) (2024-12-03T03:03:04Z) - Reducing self-supervised learning complexity improves weakly-supervised
classification performance in computational pathology [0.0]
自己教師付き学習(SSL)法は、注釈のないデータの大規模解析を可能にする。
本研究では、SSLの分類性能と、コンシューマグレードハードウェアの利用に関する複雑さについて検討した。
実験により,SSLトレーニング期間を90%短縮しつつ,下流分類性能を向上できることが実証された。
論文 参考訳(メタデータ) (2024-03-07T14:56:06Z) - Boosting Transformer's Robustness and Efficacy in PPG Signal Artifact
Detection with Self-Supervised Learning [0.0]
本研究は、自己教師付き学習(SSL)を用いて、このデータから潜伏した特徴を抽出することにより、豊富なラベル付きデータの未利用に対処する。
実験の結果,SSLはTransformerモデルの表現学習能力を大幅に向上させることがわかった。
このアプローチは、注釈付きデータがしばしば制限されるPICU環境において、より広範なアプリケーションに対して約束される。
論文 参考訳(メタデータ) (2024-01-02T04:00:48Z) - Enhancing and Adapting in the Clinic: Source-free Unsupervised Domain
Adaptation for Medical Image Enhancement [34.11633495477596]
ソースレス非教師なし領域適応医療画像強調法(SAME)を提案する。
構造化学習データからロバストなソースモデルを学習するために,まず構造保存強化ネットワークを構築した。
強化タスクの知識蒸留を促進するために擬似ラベルピッカーを開発した。
論文 参考訳(メタデータ) (2023-12-03T10:01:59Z) - The effect of data augmentation and 3D-CNN depth on Alzheimer's Disease
detection [51.697248252191265]
この研究は、データハンドリング、実験設計、モデル評価に関するベストプラクティスを要約し、厳密に観察する。
我々は、アルツハイマー病(AD)の検出に焦点を当て、医療における課題のパラダイム的な例として機能する。
このフレームワークでは,3つの異なるデータ拡張戦略と5つの異なる3D CNNアーキテクチャを考慮し,予測15モデルを訓練する。
論文 参考訳(メタデータ) (2023-09-13T10:40:41Z) - Self-Supervision for Tackling Unsupervised Anomaly Detection: Pitfalls
and Opportunities [50.231837687221685]
自己教師付き学習(SSL)は、機械学習とその多くの現実世界のアプリケーションに変化をもたらした。
非教師なし異常検出(AD)は、自己生成性擬似異常によりSSLにも乗じている。
論文 参考訳(メタデータ) (2023-08-28T07:55:01Z) - To Repeat or Not To Repeat: Insights from Scaling LLM under Token-Crisis [50.31589712761807]
大規模言語モデル(LLM)は、事前トレーニング中にトークンに悩まされていることで知られており、Web上の高品質なテキストデータは、LSMのスケーリング制限に近づいている。
本研究では,事前学習データの再学習の結果について検討し,モデルが過度に適合する可能性が示唆された。
第2に, マルチエポック劣化の原因となる要因について検討し, データセットのサイズ, モデルパラメータ, トレーニング目標など, 重要な要因について検討した。
論文 参考訳(メタデータ) (2023-05-22T17:02:15Z) - Improved Techniques for the Conditional Generative Augmentation of
Clinical Audio Data [36.45569352490318]
本稿では,学習したデータ分布からメルスペクトルを合成できる条件付き逆方向ニューラルネットワークによる拡張法を提案する。
提案手法は,従来の音質向上手法よりも優れていることを示す。
提案モデルは,臨床オーディオデータの増大における最先端の進歩と,臨床音響センシングシステムの設計におけるデータのボトルネックを改善する。
論文 参考訳(メタデータ) (2022-11-05T10:58:04Z) - Are Sample-Efficient NLP Models More Robust? [90.54786862811183]
サンプル効率(所定のID精度に到達するために必要なデータ量)とロバスト性(OOD評価モデルの評価方法)の関係について検討する。
高いサンプル効率は、いくつかのモデリング介入やタスクにおいて、より平均的なOODロバスト性にのみ相関するが、それ以外は相関しない。
これらの結果から,サンプル効率向上のための汎用手法は,データセットとタスクに依存した汎用的なOODロバスト性向上をもたらす可能性が示唆された。
論文 参考訳(メタデータ) (2022-10-12T17:54:59Z) - Core-set Selection Using Metrics-based Explanations (CSUME) for
multiclass ECG [2.0520503083305073]
高品質なデータを選択することで、ディープラーニングモデルの性能が向上することを示す。
実験の結果,9.67%,8.69%の精度とリコール改善が得られた。
論文 参考訳(メタデータ) (2022-05-28T19:36:28Z) - Improving the efficacy of Deep Learning models for Heart Beat detection
on heterogeneous datasets [0.0]
ヘテロジニアスデータセットにディープラーニングモデルを適用する際の問題点について検討する。
本研究では,健常者からのデータに基づいてトレーニングしたモデルの性能が,心疾患患者に適用した場合に低下することを示す。
次に、異なるデータセットにモデルを適応させるためのTransfer Learningの使用を評価します。
論文 参考訳(メタデータ) (2021-10-26T14:26:55Z) - Transductive image segmentation: Self-training and effect of uncertainty
estimation [16.609998086075127]
半教師付き学習(SSL)は、トレーニング中にラベルのないデータを使用して、より良いモデルを学ぶ。
本研究は、一般化を改善するのではなく、訓練中の最適化に含める際に、未ラベルデータに基づく予測の質に焦点をあてる。
外傷性脳病変のマルチクラスセグメンテーションのための大規模なMRIデータベースを用いた実験は,インダクティブ予測とトランスダクティブ予測との比較において有望な結果を示した。
論文 参考訳(メタデータ) (2021-07-19T15:26:07Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Bootstrapping Your Own Positive Sample: Contrastive Learning With
Electronic Health Record Data [62.29031007761901]
本稿では,新しいコントラスト型正規化臨床分類モデルを提案する。
EHRデータに特化した2つのユニークなポジティブサンプリング戦略を紹介します。
私たちのフレームワークは、現実世界のCOVID-19 EHRデータの死亡リスクを予測するために、競争の激しい実験結果をもたらします。
論文 参考訳(メタデータ) (2021-04-07T06:02:04Z) - Negative Data Augmentation [127.28042046152954]
負のデータ拡張サンプルは、データ分散のサポートに関する情報を提供することを示す。
我々は、NDAを識別器の合成データの追加源として利用する新しいGAN訓練目標を提案する。
実験により,本手法で訓練したモデルでは,異常検出能力の向上とともに条件付き・条件付き画像生成の改善を実現している。
論文 参考訳(メタデータ) (2021-02-09T20:28:35Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z) - Generative Data Augmentation for Commonsense Reasoning [75.26876609249197]
G-DAUGCは、低リソース環境でより正確で堅牢な学習を実現することを目的とした、新しい生成データ拡張手法である。
G-DAUGCは、バックトランスレーションに基づく既存のデータ拡張手法を一貫して上回っている。
分析の結果,G-DAUGCは多種多様な流線型学習例を産出し,その選択と学習アプローチが性能向上に重要であることが示された。
論文 参考訳(メタデータ) (2020-04-24T06:12:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。