論文の概要: A Systematic Benchmarking Analysis of Transfer Learning for Medical
Image Analysis
- arxiv url: http://arxiv.org/abs/2108.05930v1
- Date: Thu, 12 Aug 2021 19:08:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:02:28.223328
- Title: A Systematic Benchmarking Analysis of Transfer Learning for Medical
Image Analysis
- Title(参考訳): 医用画像解析のための伝達学習の体系的ベンチマーク分析
- Authors: Mohammad Reza Hosseinzadeh Taher, Fatemeh Haghighi, Ruibin Feng,
Michael B. Gotway, Jianming Liang
- Abstract要約: 我々は,最新の大規模きめ細かいデータセットであるiNat2021で事前訓練されたモデルの転送可能性について,系統的研究を行った。
本稿では,医用画像上のイメージネットモデルを継続的に(事前学習)することにより,自然画像と医用画像の領域ギャップを埋める実践的アプローチを提案する。
- 参考スコア(独自算出の注目度): 7.339428207644444
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Transfer learning from supervised ImageNet models has been frequently used in
medical image analysis. Yet, no large-scale evaluation has been conducted to
benchmark the efficacy of newly-developed pre-training techniques for medical
image analysis, leaving several important questions unanswered. As the first
step in this direction, we conduct a systematic study on the transferability of
models pre-trained on iNat2021, the most recent large-scale fine-grained
dataset, and 14 top self-supervised ImageNet models on 7 diverse medical tasks
in comparison with the supervised ImageNet model. Furthermore, we present a
practical approach to bridge the domain gap between natural and medical images
by continually (pre-)training supervised ImageNet models on medical images. Our
comprehensive evaluation yields new insights: (1) pre-trained models on
fine-grained data yield distinctive local representations that are more
suitable for medical segmentation tasks, (2) self-supervised ImageNet models
learn holistic features more effectively than supervised ImageNet models, and
(3) continual pre-training can bridge the domain gap between natural and
medical images. We hope that this large-scale open evaluation of transfer
learning can direct the future research of deep learning for medical imaging.
As open science, all codes and pre-trained models are available on our GitHub
page https://github.com/JLiangLab/BenchmarkTransferLearning.
- Abstract(参考訳): 教師付きイメージネットモデルからの転送学習は、医用画像解析で頻繁に使われている。
しかし、医用画像解析のために新たに開発した事前学習技術の有効性を評価するための大規模な評価は行われていない。
この方向への第一歩として、最新の大規模微粒化データセットであるiNat2021で事前訓練されたモデルの転送可能性に関する体系的研究を行い、教師付きImageNetモデルと比較して7つの多様な医療タスクにおけるトップ14のイメージネットモデルについて検討した。
さらに,医用画像上の教師付き画像ネットモデルを継続的に(事前)訓練することにより,自然画像と医用画像の領域ギャップを埋める実践的なアプローチを提案する。
包括的評価では,(1)細粒度データの事前学習モデルでは,医用セグメンテーションタスクに適した局所表現が得られ,(2)自己教師型イメージネットモデルでは,教師型イメージネットモデルよりも包括的特徴が効果的に学習され,(3)連続型事前学習では,自然画像と医用画像の領域ギャップを埋めることができる。
転送学習の大規模オープン評価が,医用画像の深層学習研究を後押しすることを期待している。
オープンサイエンスとして、すべてのコードと事前学習されたモデルは、githubのページhttps://github.com/jlianglab/benchmarktransferlearningで利用可能です。
関連論文リスト
- From CNN to Transformer: A Review of Medical Image Segmentation Models [7.3150850275578145]
医用画像セグメンテーションのための深層学習が主流となっている。
本稿では,近年最も代表的な4つの医用画像セグメンテーションモデルについて調査する。
理論的にこれらのモデルの特徴を解析し、2つのベンチマークデータセット上でそれらの性能を定量的に評価する。
論文 参考訳(メタデータ) (2023-08-10T02:48:57Z) - Pick the Best Pre-trained Model: Towards Transferability Estimation for
Medical Image Segmentation [20.03177073703528]
転送学習は、難しい医用画像分割タスクのために、ディープニューラルネットワークをトレーニングする上で重要なテクニックである。
医用画像セグメンテーションのための新しい転送可能性推定法を提案する。
医用画像のセグメンテーションにおける転送可能性推定のアルゴリズムを網羅した手法を提案する。
論文 参考訳(メタデータ) (2023-07-22T01:58:18Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - Revisiting Hidden Representations in Transfer Learning for Medical
Imaging [2.4545492329339815]
7つの医学分類課題について,ImageNetとRadImageNetを比較した。
その結果,ImageNetとRadImageNetは直感とは対照的に,異なる中間表現に収束する可能性が示唆された。
その結果, ネットワーク間の微調整前後の類似性は, 性能向上と相関しないことがわかった。
論文 参考訳(メタデータ) (2023-02-16T13:04:59Z) - Understanding the Tricks of Deep Learning in Medical Image Segmentation:
Challenges and Future Directions [66.40971096248946]
本稿では,モデル実装の異なるフェーズに対して,MedISegの一連のトリックを収集する。
本稿では,これらの手法の有効性を一貫したベースライン上で実験的に検討する。
私たちはまた、それぞれのコンポーネントがプラグインとプレイの利点を持つ強力なMedISegリポジトリをオープンソースにしました。
論文 参考訳(メタデータ) (2022-09-21T12:30:05Z) - On the Robustness of Pretraining and Self-Supervision for a Deep
Learning-based Analysis of Diabetic Retinopathy [70.71457102672545]
糖尿病網膜症における訓練方法の違いによる影響を比較検討した。
本稿では,定量的性能,学習した特徴表現の統計,解釈可能性,画像歪みに対する頑健性など,さまざまな側面について検討する。
以上の結果から,ImageNet事前学習モデルでは,画像歪みに対する性能,一般化,堅牢性が著しく向上していることが示唆された。
論文 参考訳(メタデータ) (2021-06-25T08:32:45Z) - Domain Generalization on Medical Imaging Classification using Episodic
Training with Task Augmentation [62.49837463676111]
本稿では,医用画像分類におけるタスク強化によるエピソードトレーニングの新たな手法を提案する。
実際の医療展開において、限られた数のソースドメインによって動機付けられ、ユニークなタスクレベルのオーバーフィッティングを検討します。
論文 参考訳(メタデータ) (2021-06-13T03:56:59Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Big Self-Supervised Models Advance Medical Image Classification [36.23989703428874]
医療画像分類のための前訓練戦略としての自己監督学習の有効性を検討する。
本研究では,患者1例当たりの病理の複数の画像を用いたマルチインスタンスコントラスト学習(MICLe)法を提案する。
大規模な自己教師型モデルでは分布シフトに頑健であり,少数のラベル付き医療画像を用いて効率よく学習できることを示す。
論文 参考訳(メタデータ) (2021-01-13T17:36:31Z) - Generative Adversarial U-Net for Domain-free Medical Image Augmentation [49.72048151146307]
注釈付き医用画像の不足は、医用画像コンピューティングの分野における最大の課題の1つだ。
本稿では,生成逆U-Netという新しい生成手法を提案する。
当社の新しいモデルは、ドメインフリーで、さまざまな医療画像に汎用性があります。
論文 参考訳(メタデータ) (2021-01-12T23:02:26Z) - Multi-task pre-training of deep neural networks for digital pathology [8.74883469030132]
私たちはまず、多くのデジタル病理データセットを22の分類タスクと約900kの画像のプールに組み立て、変換しました。
特徴抽出器として使用されるモデルは、ImageNet事前訓練されたモデルよりも大幅に改善されるか、同等のパフォーマンスを提供するかを示す。
論文 参考訳(メタデータ) (2020-05-05T08:50:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。