論文の概要: Big Self-Supervised Models Advance Medical Image Classification
- arxiv url: http://arxiv.org/abs/2101.05224v1
- Date: Wed, 13 Jan 2021 17:36:31 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-30 08:00:44.365801
- Title: Big Self-Supervised Models Advance Medical Image Classification
- Title(参考訳): 大規模自己教師モデルによる医用画像分類
- Authors: Shekoofeh Azizi, Basil Mustafa, Fiona Ryan, Zachary Beaver, Jan
Freyberg, Jonathan Deaton, Aaron Loh, Alan Karthikesalingam, Simon Kornblith,
Ting Chen, Vivek Natarajan, Mohammad Norouzi
- Abstract要約: 医療画像分類のための前訓練戦略としての自己監督学習の有効性を検討する。
本研究では,患者1例当たりの病理の複数の画像を用いたマルチインスタンスコントラスト学習(MICLe)法を提案する。
大規模な自己教師型モデルでは分布シフトに頑健であり,少数のラベル付き医療画像を用いて効率よく学習できることを示す。
- 参考スコア(独自算出の注目度): 36.23989703428874
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Self-supervised pretraining followed by supervised fine-tuning has seen
success in image recognition, especially when labeled examples are scarce, but
has received limited attention in medical image analysis. This paper studies
the effectiveness of self-supervised learning as a pretraining strategy for
medical image classification. We conduct experiments on two distinct tasks:
dermatology skin condition classification from digital camera images and
multi-label chest X-ray classification, and demonstrate that self-supervised
learning on ImageNet, followed by additional self-supervised learning on
unlabeled domain-specific medical images significantly improves the accuracy of
medical image classifiers. We introduce a novel Multi-Instance Contrastive
Learning (MICLe) method that uses multiple images of the underlying pathology
per patient case, when available, to construct more informative positive pairs
for self-supervised learning. Combining our contributions, we achieve an
improvement of 6.7% in top-1 accuracy and an improvement of 1.1% in mean AUC on
dermatology and chest X-ray classification respectively, outperforming strong
supervised baselines pretrained on ImageNet. In addition, we show that big
self-supervised models are robust to distribution shift and can learn
efficiently with a small number of labeled medical images.
- Abstract(参考訳): 自己監督型プレトレーニングと教師付き微調整は、特にラベル付き例が乏しい場合には画像認識に成功しているが、医学的画像分析では注目されていない。
本稿では,医用画像分類のための事前学習戦略として,自己指導型学習の有効性について検討する。
デジタルカメラ画像からの皮膚科皮膚状態分類とマルチラベル胸部x線分類の2つの異なる課題について実験を行い,imagenet上での自己教師付き学習と,ラベルなし領域特異的医用画像に対する自己教師付き学習が医療画像分類器の精度を大幅に向上させることを示した。
本稿では,患者1人あたりの病態の複数の画像を用いて,より情報に富んだポジティブなペアを自己教師型学習のために構築するMICLe法を提案する。
コントリビューションを合わせると,トップ1の精度が6.7%,AUCが1.1%,胸部X線分類が1.1%向上し,ImageNetで事前訓練した強い教師付きベースラインを上回った。
さらに,大規模な自己教師型モデルでは分布シフトに頑健であり,少数のラベル付き医療画像を用いて効率よく学習できることを示す。
関連論文リスト
- Multi-organ Self-supervised Contrastive Learning for Breast Lesion
Segmentation [0.0]
本稿では,臓器関連目標タスクに適した事前学習モデルとして,多臓器データセットを用いる。
対象は超音波画像における乳腺腫瘍のセグメンテーションである。
その結果,従来のコントラスト学習事前学習は,教師付きベースラインアプローチに比べて性能が向上することがわかった。
論文 参考訳(メタデータ) (2024-02-21T20:29:21Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - GraVIS: Grouping Augmented Views from Independent Sources for
Dermatology Analysis [52.04899592688968]
皮膚科画像から自己教師付き特徴を学習するために特に最適化されたGraVISを提案する。
GraVISは、病変のセグメンテーションと疾患分類のタスクにおいて、転送学習と自己教師型学習を著しく上回っている。
論文 参考訳(メタデータ) (2023-01-11T11:38:37Z) - RadTex: Learning Efficient Radiograph Representations from Text Reports [7.090896766922791]
我々は,放射線学報告を利用して,限られたラベル付きデータを用いた医用画像分類性能を向上させるための,データ効率のよい学習フレームワークを構築した。
本モデルは,ラベル付きトレーニングデータに制限がある場合,ImageNetによる事前学習よりも高い分類性能を実現する。
論文 参考訳(メタデータ) (2022-08-05T15:06:26Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - How Transferable Are Self-supervised Features in Medical Image
Classification Tasks? [0.7734726150561086]
トランスファーラーニングは、医学分類タスクにおけるラベル付きデータの欠如を軽減するための標準的プラクティスとなっている。
自己教師付き事前訓練モデルでは、教師付きモデルよりもリッチな埋め込みが得られる。
Dynamic Visual Meta-Embedding (DVME)は、複数のモデルから事前学習された埋め込みを融合するエンドツーエンドのトランスファー学習アプローチである。
論文 参考訳(メタデータ) (2021-08-23T10:39:31Z) - A Systematic Benchmarking Analysis of Transfer Learning for Medical
Image Analysis [7.339428207644444]
我々は,最新の大規模きめ細かいデータセットであるiNat2021で事前訓練されたモデルの転送可能性について,系統的研究を行った。
本稿では,医用画像上のイメージネットモデルを継続的に(事前学習)することにより,自然画像と医用画像の領域ギャップを埋める実践的アプローチを提案する。
論文 参考訳(メタデータ) (2021-08-12T19:08:34Z) - Lesion-based Contrastive Learning for Diabetic Retinopathy Grading from
Fundus Images [2.498907460918493]
糖尿病網膜症自動評価のための自己教師型フレームワーク,すなわち病変に基づくコントラスト学習を提案する。
提案フレームワークは,リニア評価と転送容量評価の両方の観点から,DRグレーディングを際立たせる。
論文 参考訳(メタデータ) (2021-07-17T16:30:30Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。