論文の概要: On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy
- arxiv url: http://arxiv.org/abs/2106.13497v1
- Date: Fri, 25 Jun 2021 08:32:45 GMT
- ステータス: 処理完了
- システム内更新日: 2021-06-28 13:06:07.304225
- Title: On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy
- Title(参考訳): 糖尿病網膜症の深層学習に基づく分析における事前訓練と自己監視のロバスト性について
- Authors: Vignesh Srinivasan, Nils Strodthoff, Jackie Ma, Alexander Binder,
Klaus-Robert M\"uller, Wojciech Samek
- Abstract要約: 糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
- 参考スコア(独自算出の注目度): 70.71457102672545
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: There is an increasing number of medical use-cases where classification
algorithms based on deep neural networks reach performance levels that are
competitive with human medical experts. To alleviate the challenges of small
dataset sizes, these systems often rely on pretraining. In this work, we aim to
assess the broader implications of these approaches. For diabetic retinopathy
grading as exemplary use case, we compare the impact of different training
procedures including recently established self-supervised pretraining methods
based on contrastive learning. To this end, we investigate different aspects
such as quantitative performance, statistics of the learned feature
representations, interpretability and robustness to image distortions. Our
results indicate that models initialized from ImageNet pretraining report a
significant increase in performance, generalization and robustness to image
distortions. In particular, self-supervised models show further benefits to
supervised models. Self-supervised models with initialization from ImageNet
pretraining not only report higher performance, they also reduce overfitting to
large lesions along with improvements in taking into account minute lesions
indicative of the progression of the disease. Understanding the effects of
pretraining in a broader sense that goes beyond simple performance comparisons
is of crucial importance for the broader medical imaging community beyond the
use-case considered in this work.
- Abstract(参考訳): ディープニューラルネットワークに基づく分類アルゴリズムが、人間の医療専門家と競合するパフォーマンスレベルに達する医療用ユースケースが増えている。
小さなデータセットサイズの課題を軽減するため、これらのシステムは事前トレーニングに依存することが多い。
本研究は,これらのアプローチの広範な影響を評価することを目的とする。
糖尿病網膜症を模範とした症例では, コントラスト学習に基づく自己指導型事前訓練法を含め, 異なる訓練方法の影響を比較検討した。
この目的のために, 定量的性能, 学習特徴表現の統計, 解釈可能性, 画像歪みに対するロバスト性など, 様々な側面について検討した。
以上の結果から,imagenetプリトレーニングから初期化したモデルでは,画像歪みに対する性能,一般化,ロバスト性が著しく向上することが示唆された。
特に、自己教師付きモデルは教師付きモデルにさらなる利点をもたらす。
ImageNetから初期化した自己教師型モデルは、高いパフォーマンスを報告するだけでなく、大きな病変への過剰適合を減らし、疾患の進行を示す微小病変を考慮に入れた。
簡単なパフォーマンス比較を超えて、より広い意味でプレトレーニングの効果を理解することは、この研究で考慮されたユースケースを超えて、幅広い医療画像コミュニティにとって重要である。
関連論文リスト
- Less is More: Selective Reduction of CT Data for Self-Supervised Pre-Training of Deep Learning Models with Contrastive Learning Improves Downstream Classification Performance [7.945551345449388]
現在の知見は、医用画像における対照的な事前トレーニングの可能性を示している。
医用画像の類似性は、医用画像領域における対照的な学習の成功を妨げていると仮定する。
医療用事前学習データセットの冗長性を同定・低減するために, 深層埋め込み, 情報理論, ハッシュに基づく様々な戦略を検討する。
論文 参考訳(メタデータ) (2024-10-18T15:08:05Z) - Boosting Few-Shot Learning with Disentangled Self-Supervised Learning and Meta-Learning for Medical Image Classification [8.975676404678374]
低データ体制下で訓練されたモデルの性能と一般化能力を改善するための戦略を提案する。
提案手法は、自己教師付き学習環境において学習した特徴をアンタングル化して、下流タスクの表現の堅牢性を向上する事前学習段階から開始する。
次に、メタファインニングのステップを導入し、メタトレーニングとメタテストフェーズの関連クラスを活用するが、レベルは変化する。
論文 参考訳(メタデータ) (2024-03-26T09:36:20Z) - A Survey of the Impact of Self-Supervised Pretraining for Diagnostic
Tasks with Radiological Images [71.26717896083433]
自己教師付き事前学習は,伝達学習における特徴表現の改善に有効であることが観察されている。
本総説ではX線, CT, 磁気共鳴, 超音波画像における使用法について概説する。
論文 参考訳(メタデータ) (2023-09-05T19:45:09Z) - Realistic Data Enrichment for Robust Image Segmentation in
Histopathology [2.248423960136122]
拡散モデルに基づく新しい手法を提案し、不均衡なデータセットを、表現不足なグループから有意な例で拡張する。
本手法は,限定的な臨床データセットを拡張して,機械学習パイプラインのトレーニングに適したものにする。
論文 参考訳(メタデータ) (2023-04-19T09:52:50Z) - Rethinking Semi-Supervised Medical Image Segmentation: A
Variance-Reduction Perspective [51.70661197256033]
医用画像セグメンテーションのための階層化グループ理論を用いた半教師付きコントラスト学習フレームワークARCOを提案する。
まず、分散還元推定の概念を用いてARCOを構築することを提案し、特定の分散還元技術が画素/ボクセルレベルのセグメンテーションタスクにおいて特に有用であることを示す。
5つの2D/3D医療データセットと3つのセマンティックセグメンテーションデータセットのラベル設定が異なる8つのベンチマークで、我々のアプローチを実験的に検証する。
論文 参考訳(メタデータ) (2023-02-03T13:50:25Z) - Improved skin lesion recognition by a Self-Supervised Curricular Deep
Learning approach [0.0]
皮膚病変認識のための最先端のディープラーニングアプローチは、より大きな、より多様なデータセットを事前訓練する必要があることが多い。
ImageNetはしばしば事前トレーニングデータセットとして使用されるが、その転送ポテンシャルは、ソースデータセットとターゲット皮膚内視鏡シナリオの間のドメインギャップによって妨げられる。
そこで本研究では,一連のセルフ・スーパーバイザード・ラーニング・プレテキストタスクを逐次訓練する,新しい事前学習手法を提案する。
論文 参考訳(メタデータ) (2021-12-22T17:45:47Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Self-Supervised Learning from Unlabeled Fundus Photographs Improves
Segmentation of the Retina [4.815051667870375]
基礎撮影は網膜イメージングの第一の方法であり、糖尿病網膜症予防に必須である。
現在のセグメンテーション法は、実際の臨床応用に典型的な画像条件や病理の多様性に対して堅牢ではない。
コントラスト型自己教師型学習を用いて,EyePACSデータセットの多種多様な未ラベル画像を利用する。
論文 参考訳(メタデータ) (2021-08-05T18:02:56Z) - Evaluation of Complexity Measures for Deep Learning Generalization in
Medical Image Analysis [77.34726150561087]
PAC-ベイズ平坦度とパスノルムに基づく測度は、モデルとデータの組み合わせについて最も一貫した説明をもたらす。
また,乳房画像に対するマルチタスク分類とセグメンテーションのアプローチについても検討した。
論文 参考訳(メタデータ) (2021-03-04T20:58:22Z) - Retinopathy of Prematurity Stage Diagnosis Using Object Segmentation and
Convolutional Neural Networks [68.96150598294072]
未熟児網膜症(英: Retinopathy of Prematurity、ROP)は、主に体重の低い未熟児に影響を及ぼす眼疾患である。
網膜の血管の増殖を招き、視力喪失を招き、最終的には網膜剥離を招き、失明を引き起こす。
近年,ディープラーニングを用いて診断を自動化する試みが盛んに行われている。
本稿では,従来のモデルの成功を基盤として,オブジェクトセグメンテーションと畳み込みニューラルネットワーク(CNN)を組み合わせた新しいアーキテクチャを開発する。
提案システムでは,まず対象分割モデルを訓練し,画素レベルでの区切り線を識別し,その結果のマスクを追加の"カラー"チャネルとして付加する。
論文 参考訳(メタデータ) (2020-04-03T14:07:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。