論文の概要: Cats, not CAT scans: a study of dataset similarity in transfer learning
for 2D medical image classification
- arxiv url: http://arxiv.org/abs/2107.05940v1
- Date: Tue, 13 Jul 2021 09:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 23:09:22.066084
- Title: Cats, not CAT scans: a study of dataset similarity in transfer learning
for 2D medical image classification
- Title(参考訳): CATスキャンではなく猫:2次元医用画像分類のための転写学習におけるデータセット類似性の検討
- Authors: Irma van den Brandt, Floris Fok, Bas Mulders, Joaquin Vanschoren,
Veronika Cheplygina
- Abstract要約: 転送学習は、医用画像分類の一般的な戦略である。
現在、適切なソースデータを選択する方法に関するコンセンサスはありません。
本稿では,9つのソース・データセット,自然画像,医用画像,および3つのターゲット医療データセット,すべて2次元画像を用いた系統的研究を行う。
- 参考スコア(独自算出の注目度): 0.8493449152820128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning is a commonly used strategy for medical image
classification, especially via pretraining on source data and fine-tuning on
target data. There is currently no consensus on how to choose appropriate
source data, and in the literature we can find both evidence of favoring large
natural image datasets such as ImageNet, and evidence of favoring more
specialized medical datasets. In this paper we perform a systematic study with
nine source datasets with natural or medical images, and three target medical
datasets, all with 2D images. We find that ImageNet is the source leading to
the highest performances, but also that larger datasets are not necessarily
better. We also study different definitions of data similarity. We show that
common intuitions about similarity may be inaccurate, and therefore not
sufficient to predict an appropriate source a priori. Finally, we discuss
several steps needed for further research in this field, especially with regard
to other types (for example 3D) medical images. Our experiments and pretrained
models are available via \url{https://www.github.com/vcheplygina/cats-scans}
- Abstract(参考訳): 転送学習は、特にソースデータの事前トレーニングとターゲットデータの微調整を通じて、医療画像分類の一般的な戦略である。
現在、適切なソースデータを選択する方法に関するコンセンサスはなく、文献では、ImageNetのような大きな自然画像データセットを好む証拠と、より専門的な医療データセットを好む証拠の両方が見つかる。
本稿では,9つのソース・データセット,自然画像,医用画像,および3つのターゲット医療データセット,すべて2次元画像を用いた系統的研究を行う。
ImageNetは最高のパフォーマンスにつながるソースですが、大きなデータセットが必ずしも優れたものではないことも分かりました。
また,データ類似性の定義も異なる。
類似性に関する共通の直観は不正確であり、したがって適切な情報源を事前に予測するには不十分であることを示す。
最後に、この分野でのさらなる研究に必要ないくつかのステップ、特に他のタイプの医療画像(例えば3D)について論じる。
我々の実験と事前学習モデルは \url{https://www.github.com/vcheplygina/cats-scans} で利用可能である。
関連論文リスト
- Semi-Supervised Medical Image Segmentation with Co-Distribution
Alignment [16.038016822861092]
本稿では,半教師型医用画像分割のためのCo-Distribution Alignment(Co-DA)を提案する。
Co-DAはラベル付きデータの辺縁予測とラベル付きデータの辺縁予測をクラスワイズで調整する。
提案手法は既存の半教師付き医用画像分割法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-07-24T09:08:30Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Revisiting Hidden Representations in Transfer Learning for Medical
Imaging [2.4545492329339815]
7つの医学分類課題について,ImageNetとRadImageNetを比較した。
その結果,ImageNetとRadImageNetは直感とは対照的に,異なる中間表現に収束する可能性が示唆された。
その結果, ネットワーク間の微調整前後の類似性は, 性能向上と相関しないことがわかった。
論文 参考訳(メタデータ) (2023-02-16T13:04:59Z) - Scrape, Cut, Paste and Learn: Automated Dataset Generation Applied to
Parcel Logistics [58.720142291102135]
4つのステップでインスタンスセグメンテーションのための合成データセットを生成するために,完全に自動化されたパイプラインを提案する。
まず、人気のある画像検索エンジンから興味ある対象の画像を抽出する。
画像選択には,オブジェクトに依存しない事前処理,手動画像選択,CNNに基づく画像選択の3つの方法を比較する。
論文 参考訳(メタデータ) (2022-10-18T12:49:04Z) - Generative Transfer Learning: Covid-19 Classification with a few Chest
X-ray Images [0.0]
深層学習モデルは解釈を迅速化し、人間の専門家の仕事を軽減することができる。
Deep Transfer Learningは、パブリックドメインで事前訓練されたモデルを使用することで、この問題に対処する。
本稿では,既存の大規模事前学習モデルと同様に,単一の概念に基づいて事前学習した簡易な生成源モデルを提案する。
論文 参考訳(メタデータ) (2022-08-10T12:37:52Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z) - Few-Shot Learning for Image Classification of Common Flora [0.0]
MAML(Model-Agnostic Meta Learning)を用いた画像分類のためのメタラーニング分野の最先端の研究と、さまざまな最先端のトランスファーラーニングウェイトとアーキテクチャをテストした結果を紹介します。
その結果、データセットが十分に大きい場合、両方のプラクティスが十分なパフォーマンスを提供しますが、十分なパフォーマンスを維持するためにデータスパーシャビリティが導入されると、どちらも苦労しています。
論文 参考訳(メタデータ) (2021-05-07T03:54:51Z) - Self-supervised Image-text Pre-training With Mixed Data In Chest X-rays [10.398175542736285]
混合データ入力から学習できる画像テキスト事前学習フレームワークを紹介します。
混合データ入力における事前学習の可能性を示す。
また、3つの胸部x線アプリケーションに事前訓練されたモデルを適用する利点についても述べる。
論文 参考訳(メタデータ) (2021-03-30T01:48:46Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - Classification of COVID-19 in CT Scans using Multi-Source Transfer
Learning [91.3755431537592]
我々は,従来のトランスファー学習の改良にマルチソース・トランスファー・ラーニングを応用して,CTスキャンによる新型コロナウイルスの分類を提案する。
マルチソースファインチューニングアプローチでは、ImageNetで微調整されたベースラインモデルよりも優れています。
我々の最高のパフォーマンスモデルは、0.893の精度と0.897のリコールスコアを達成でき、ベースラインのリコールスコアを9.3%上回った。
論文 参考訳(メタデータ) (2020-09-22T11:53:06Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。