論文の概要: Cats, not CAT scans: a study of dataset similarity in transfer learning
for 2D medical image classification
- arxiv url: http://arxiv.org/abs/2107.05940v1
- Date: Tue, 13 Jul 2021 09:24:34 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-14 23:09:22.066084
- Title: Cats, not CAT scans: a study of dataset similarity in transfer learning
for 2D medical image classification
- Title(参考訳): CATスキャンではなく猫:2次元医用画像分類のための転写学習におけるデータセット類似性の検討
- Authors: Irma van den Brandt, Floris Fok, Bas Mulders, Joaquin Vanschoren,
Veronika Cheplygina
- Abstract要約: 転送学習は、医用画像分類の一般的な戦略である。
現在、適切なソースデータを選択する方法に関するコンセンサスはありません。
本稿では,9つのソース・データセット,自然画像,医用画像,および3つのターゲット医療データセット,すべて2次元画像を用いた系統的研究を行う。
- 参考スコア(独自算出の注目度): 0.8493449152820128
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Transfer learning is a commonly used strategy for medical image
classification, especially via pretraining on source data and fine-tuning on
target data. There is currently no consensus on how to choose appropriate
source data, and in the literature we can find both evidence of favoring large
natural image datasets such as ImageNet, and evidence of favoring more
specialized medical datasets. In this paper we perform a systematic study with
nine source datasets with natural or medical images, and three target medical
datasets, all with 2D images. We find that ImageNet is the source leading to
the highest performances, but also that larger datasets are not necessarily
better. We also study different definitions of data similarity. We show that
common intuitions about similarity may be inaccurate, and therefore not
sufficient to predict an appropriate source a priori. Finally, we discuss
several steps needed for further research in this field, especially with regard
to other types (for example 3D) medical images. Our experiments and pretrained
models are available via \url{https://www.github.com/vcheplygina/cats-scans}
- Abstract(参考訳): 転送学習は、特にソースデータの事前トレーニングとターゲットデータの微調整を通じて、医療画像分類の一般的な戦略である。
現在、適切なソースデータを選択する方法に関するコンセンサスはなく、文献では、ImageNetのような大きな自然画像データセットを好む証拠と、より専門的な医療データセットを好む証拠の両方が見つかる。
本稿では,9つのソース・データセット,自然画像,医用画像,および3つのターゲット医療データセット,すべて2次元画像を用いた系統的研究を行う。
ImageNetは最高のパフォーマンスにつながるソースですが、大きなデータセットが必ずしも優れたものではないことも分かりました。
また,データ類似性の定義も異なる。
類似性に関する共通の直観は不正確であり、したがって適切な情報源を事前に予測するには不十分であることを示す。
最後に、この分野でのさらなる研究に必要ないくつかのステップ、特に他のタイプの医療画像(例えば3D)について論じる。
我々の実験と事前学習モデルは \url{https://www.github.com/vcheplygina/cats-scans} で利用可能である。
関連論文リスト
- Evaluating Pre-trained Convolutional Neural Networks and Foundation Models as Feature Extractors for Content-based Medical Image Retrieval [0.37478492878307323]
コンテンツベースの医用画像検索(CBMIR)は、色、テクスチャ、形状、空間的特徴などの画像の特徴に依存している。
8種類の医用画像を含むMedMNIST V2データセットのサブセットにおけるCBMIR性能について検討した。
以上の結果から,2次元データセットでは,基礎モデルの方がCNNよりも優れた性能が得られることがわかった。
以上の結果から,より大きな画像サイズ(特に2次元データセット)を使用すると性能がわずかに向上する一方,競合性のあるCBMIR性能は小さい場合でも達成可能であることが確認された。
論文 参考訳(メタデータ) (2024-09-14T13:07:30Z) - Source Matters: Source Dataset Impact on Model Robustness in Medical Imaging [14.250975981451914]
我々は、ImageNetとRadImageNetが同等の分類性能を達成することを示す。
ImageNetは、共同ファウンダーに過度にフィットする傾向にある。
ImageNet-pretrained modelを使用する研究者は、モデルを再検討することを推奨する。
論文 参考訳(メタデータ) (2024-03-07T13:36:15Z) - Comparative Analysis of ImageNet Pre-Trained Deep Learning Models and
DINOv2 in Medical Imaging Classification [7.205610366609243]
本稿では,脳MRIデータの3つの臨床的モダリティを用いたグリオーマグレーディングタスクを行った。
我々は、ImageNetやDINOv2をベースとした様々な事前学習深層学習モデルの性能を比較した。
臨床データでは,DINOv2 はImageNet ベースで事前訓練したモデルほど優れていなかった。
論文 参考訳(メタデータ) (2024-02-12T11:49:08Z) - Additional Look into GAN-based Augmentation for Deep Learning COVID-19
Image Classification [57.1795052451257]
我々は,GANに基づく拡張性能のデータセットサイズ依存性について,小サンプルに着目して検討した。
両方のセットでStyleGAN2-ADAをトレーニングし、生成した画像の品質を検証した後、マルチクラス分類問題における拡張アプローチの1つとしてトレーニングされたGANを使用する。
GANベースの拡張アプローチは、中規模および大規模データセットでは古典的な拡張に匹敵するが、より小さなデータセットでは不十分である。
論文 参考訳(メタデータ) (2024-01-26T08:28:13Z) - MoCo-Transfer: Investigating out-of-distribution contrastive learning
for limited-data domains [52.612507614610244]
我々は、モーメントコントラスト(MoCo)プレトレーニングからデータ制限のある設定への自己教師付きコントラスト表現の転送の利点を分析する。
ラベル付きおよびラベルなしデータの量によっては、より大きなアウト・オブ・ディストリビューションデータセットでの対照的な事前トレーニングは、ドメイン内でのMoCoの事前トレーニングよりも、ほぼ同等か、あるいはそれ以上のパフォーマンスが期待できる。
論文 参考訳(メタデータ) (2023-11-15T21:56:47Z) - Mine yOur owN Anatomy: Revisiting Medical Image Segmentation with Extremely Limited Labels [54.58539616385138]
我々は、Mine yOur owN Anatomy (MONA) と呼ばれる、新しい半教師付き2次元医用画像セグメンテーションフレームワークを紹介する。
まず、先行研究では、すべてのピクセルがモデルトレーニングに等しく重要であると論じており、我々はこの1つだけで意味のある解剖学的特徴を定義できないことを経験的に観察している。
第2に,医療画像を解剖学的特徴の集合に分解できるモデルを構築する。
論文 参考訳(メタデータ) (2022-09-27T15:50:31Z) - Generative Transfer Learning: Covid-19 Classification with a few Chest
X-ray Images [0.0]
深層学習モデルは解釈を迅速化し、人間の専門家の仕事を軽減することができる。
Deep Transfer Learningは、パブリックドメインで事前訓練されたモデルを使用することで、この問題に対処する。
本稿では,既存の大規模事前学習モデルと同様に,単一の概念に基づいて事前学習した簡易な生成源モデルを提案する。
論文 参考訳(メタデータ) (2022-08-10T12:37:52Z) - MedMNIST v2: A Large-Scale Lightweight Benchmark for 2D and 3D
Biomedical Image Classification [59.10015984688104]
MedMNIST v2は、MNISTに似た大規模データセットコレクションである。
得られたデータセットは708,069個の2D画像と10,214個の3D画像で構成されている。
論文 参考訳(メタデータ) (2021-10-27T22:02:04Z) - Self-supervised Image-text Pre-training With Mixed Data In Chest X-rays [10.398175542736285]
混合データ入力から学習できる画像テキスト事前学習フレームワークを紹介します。
混合データ入力における事前学習の可能性を示す。
また、3つの胸部x線アプリケーションに事前訓練されたモデルを適用する利点についても述べる。
論文 参考訳(メタデータ) (2021-03-30T01:48:46Z) - Fader Networks for domain adaptation on fMRI: ABIDE-II study [68.5481471934606]
我々は3次元畳み込みオートエンコーダを用いて、無関係な空間画像表現を実現するとともに、ABIDEデータ上で既存のアプローチより優れていることを示す。
論文 参考訳(メタデータ) (2020-10-14T16:50:50Z) - Fed-Sim: Federated Simulation for Medical Imaging [131.56325440976207]
本稿では、2つの学習可能なニューラルモジュールからなる物理駆動型生成手法を提案する。
データ合成フレームワークは、複数のデータセットの下流セグメンテーション性能を改善する。
論文 参考訳(メタデータ) (2020-09-01T19:17:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。