論文の概要: Enhancing Contrastive Learning for Retinal Imaging via Adjusted Augmentation Scales
- arxiv url: http://arxiv.org/abs/2501.02451v1
- Date: Sun, 05 Jan 2025 06:08:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-01-07 17:08:59.112338
- Title: Enhancing Contrastive Learning for Retinal Imaging via Adjusted Augmentation Scales
- Title(参考訳): 調整拡大スケールによる網膜イメージングのためのコントラスト学習の強化
- Authors: Zijie Cheng, Boxuan Li, André Altmann, Pearse A Keane, Yukun Zhou,
- Abstract要約: 本研究の目的は, 医用画像の高密度分布が, コントラスト学習におけるプレテキストタスクに困難をもたらすという仮説を立てることである。
我々は、異なる拡張戦略の下でモデル性能を探求し、強力な拡張で達成した結果と比較する。
本研究は,医用画像におけるコントラスト学習の効果を高めるために,拡張スケールの最適化が重要であることを示唆する。
- 参考スコア(独自算出の注目度): 1.9723177045055569
- License:
- Abstract: Contrastive learning, a prominent approach within self-supervised learning, has demonstrated significant effectiveness in developing generalizable models for various applications involving natural images. However, recent research indicates that these successes do not necessarily extend to the medical imaging domain. In this paper, we investigate the reasons for this suboptimal performance and hypothesize that the dense distribution of medical images poses challenges to the pretext tasks in contrastive learning, particularly in constructing positive and negative pairs. We explore model performance under different augmentation strategies and compare the results to those achieved with strong augmentations. Our study includes six publicly available datasets covering multiple clinically relevant tasks. We further assess the model's generalizability through external evaluations. The model pre-trained with weak augmentation outperforms those with strong augmentation, improving AUROC from 0.838 to 0.848 and AUPR from 0.523 to 0.597 on MESSIDOR2, and showing similar enhancements across other datasets. Our findings suggest that optimizing the scale of augmentation is critical for enhancing the efficacy of contrastive learning in medical imaging.
- Abstract(参考訳): 自己教師付き学習における顕著なアプローチであるコントラスト学習は、自然画像を含む様々な応用のための一般化可能なモデルを開発する上で、有意義な効果を示した。
しかし、近年の研究は、これらの成功が必ずしも医療画像領域に及ばないことを示している。
本稿では,この部分最適性能の理由を考察し,医用画像の高密度分布が,特に正対と負対の構成において,対照的な学習におけるプレテキストタスクに課題をもたらすという仮説を立てる。
我々は、異なる拡張戦略の下でモデル性能を探求し、強力な拡張で達成した結果と比較する。
本研究は、複数の臨床関連タスクをカバーする6つの公開データセットを含む。
さらに、外部評価によりモデルの一般化性を評価する。
弱い拡張で事前訓練されたモデルは、強化されたAUROCを0.838から0.848に改善し、MESSIDOR2で0.523から0.597に改善した。
本研究は,医用画像におけるコントラスト学習の効果を高めるために,拡張スケールの最適化が重要であることを示唆する。
関連論文リスト
- A Novel Breast Ultrasound Image Augmentation Method Using Advanced Neural Style Transfer: An Efficient and Explainable Approach [0.4499833362998487]
本研究では,高度なニューラルスタイル転送と説明可能なAI(XAI)を用いた,BUS画像の効率的な拡張手法の開発を目的とする。
800個の良性BUS画像(348個の良性BUS画像と452個の悪性BUS画像)で評価し,その性能を他の進行的手法を用いて解析した。
その結果、提案手法は、92.47%の精度でBUS画像の増大に成功できることが示唆された。
論文 参考訳(メタデータ) (2024-10-31T23:18:29Z) - Less is More: Selective Reduction of CT Data for Self-Supervised Pre-Training of Deep Learning Models with Contrastive Learning Improves Downstream Classification Performance [7.945551345449388]
現在の知見は、医用画像における対照的な事前トレーニングの可能性を示している。
医用画像の類似性は、医用画像領域における対照的な学習の成功を妨げていると仮定する。
医療用事前学習データセットの冗長性を同定・低減するために, 深層埋め込み, 情報理論, ハッシュに基づく様々な戦略を検討する。
論文 参考訳(メタデータ) (2024-10-18T15:08:05Z) - Do Sharpness-based Optimizers Improve Generalization in Medical Image Analysis? [47.346907372319706]
Sharpness-Aware Minimization (SAM)は、一般的なドメイン画像データセットの一般化性能を高める可能性を示している。
本研究は、深層学習ネットワークの一般化を改善するための、近年のシャープネスに基づく手法を提供し、医療用胸部超音波画像上での評価を行う。
論文 参考訳(メタデータ) (2024-08-07T20:07:25Z) - Enhancing and Adapting in the Clinic: Source-free Unsupervised Domain
Adaptation for Medical Image Enhancement [34.11633495477596]
ソースレス非教師なし領域適応医療画像強調法(SAME)を提案する。
構造化学習データからロバストなソースモデルを学習するために,まず構造保存強化ネットワークを構築した。
強化タスクの知識蒸留を促進するために擬似ラベルピッカーを開発した。
論文 参考訳(メタデータ) (2023-12-03T10:01:59Z) - Iterative-in-Iterative Super-Resolution Biomedical Imaging Using One
Real Image [8.412910029745762]
本稿では,1つの実画像のみを用いて深層学習に基づく超解像モデルを訓練する手法を提案する。
我々は,地中真実に類似した分布を持つ画像を自動的に選択するために,画像スクリーニングの混合指標を用いる。
5回のトレーニングの後、提案されたディープラーニングベースの超解像モデルでは、構造的類似性とピーク信号対雑音比が7.5%と5.49%改善した。
論文 参考訳(メタデータ) (2023-06-26T07:57:03Z) - Bridging Synthetic and Real Images: a Transferable and Multiple
Consistency aided Fundus Image Enhancement Framework [61.74188977009786]
画像強調とドメイン適応を同時に行うために,エンドツーエンドの教師支援フレームワークを提案する。
また,教師ネットワークと学生ネットワークのバックボーンとして,マルチステージ型マルチアテンション・ガイド・エンハンスメント・ネットワーク(MAGE-Net)を提案する。
論文 参考訳(メタデータ) (2023-02-23T06:16:15Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Image Augmentations for GAN Training [57.65145659417266]
我々は,バニラGANとGANの両方のイメージを正規化して拡張する方法に関する洞察とガイドラインを提供する。
意外なことに、Vanilla GANsは、最近の最先端の結果と同等の世代品質を実現している。
論文 参考訳(メタデータ) (2020-06-04T00:16:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。