論文の概要: Self-Supervised Curricular Deep Learning for Chest X-Ray Image
Classification
- arxiv url: http://arxiv.org/abs/2301.10687v1
- Date: Wed, 25 Jan 2023 16:45:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-26 14:53:48.616914
- Title: Self-Supervised Curricular Deep Learning for Chest X-Ray Image
Classification
- Title(参考訳): 胸部X線画像分類のための自己教師付きカリキュラム深層学習
- Authors: Iv\'an de Andr\'es Tam\'e, Kirill Sirotkin, Pablo Carballeira, Marcos
Escudero-Vi\~nolo
- Abstract要約: Self-Supervised Learning Pretrainingは、ImageNetでスクラッチからトレーニングされたモデル、あるいは事前トレーニングされたモデルのパフォーマンスを向上する。
SSL-pretrained モデルは肺の領域において高い注意力を示す。
- 参考スコア(独自算出の注目度): 1.6631602844999727
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Deep learning technologies have already demonstrated a high potential to
build diagnosis support systems from medical imaging data, such as Chest X-Ray
images. However, the shortage of labeled data in the medical field represents
one key obstacle to narrow down the performance gap with respect to
applications in other image domains. In this work, we investigate the benefits
of a curricular Self-Supervised Learning (SSL) pretraining scheme with respect
to fully-supervised training regimes for pneumonia recognition on Chest X-Ray
images of Covid-19 patients. We show that curricular SSL pretraining, which
leverages unlabeled data, outperforms models trained from scratch, or
pretrained on ImageNet, indicating the potential of performance gains by SSL
pretraining on massive unlabeled datasets. Finally, we demonstrate that
top-performing SSLpretrained models show a higher degree of attention in the
lung regions, embodying models that may be more robust to possible external
confounding factors in the training datasets, identified by previous works.
- Abstract(参考訳): ディープラーニング技術はすでに、Chest X-Ray画像のような医療画像データから診断支援システムを構築する可能性を示している。
しかしながら、医療分野におけるラベル付きデータの不足は、他の画像領域のアプリケーションに対するパフォーマンスギャップを狭めるための重要な障害である。
本研究では,Covid-19 患者の胸部X線画像における肺炎認識のための完全教師付きトレーニング体制について,カリキュラム型自己監視学習(SSL)事前訓練の利点について検討した。
我々は、ラベルのないデータを活用し、スクラッチからトレーニングされたモデルやImageNetで事前トレーニングされたモデルよりも優れており、大規模なラベルのないデータセット上でSSL事前トレーニングを行うことによるパフォーマンス向上の可能性を示している。
最後に,トップパフォーマンスのSSLpretrainedモデルが肺領域に高い注意を払っていることを示し,トレーニングデータセットの外部共起要因に対してより堅牢なモデルを具現化した。
関連論文リスト
- Self-supervised learning for skin cancer diagnosis with limited training data [0.196629787330046]
自己教師付き学習(SSL)は、限られたトレーニングデータを持つシナリオに対するImageNetの標準教師付き事前トレーニングの代替である。
textitfurther SSL をタスク固有のデータセットで事前トレーニングし、その実装は教師あり転送学習によって動機づけられる。
タスク固有のデータに対するより最小限のSSL事前トレーニングは、限られたラベル付きデータによる医療画像分類タスクにおいて、ImageNet上の大規模なSSL事前トレーニングと同じくらい効果的である。
論文 参考訳(メタデータ) (2024-01-01T08:11:38Z) - CXR-CLIP: Toward Large Scale Chest X-ray Language-Image Pre-training [6.292642131180376]
本稿では,胸部X線における画像テキストデータの欠如に対処し,画像テキストペアを一般プロンプトを介して画像テキストペアとして拡張する。
また,医学画像とレポートの学習レベルの特徴を学習するために,ICLとTCLという2つの対照的な損失を設計した。
我々のモデルは、同じ条件下で訓練された最先端モデルよりも優れています。
論文 参考訳(メタデータ) (2023-10-20T05:44:55Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - Enhancing Network Initialization for Medical AI Models Using
Large-Scale, Unlabeled Natural Images [1.883452979588382]
自己教師付き学習(SSL)は胸部X線写真に適用して、堅牢な特徴を学習することができる。
我々は6つの大規模なグローバルデータセットから800,000個の胸部X線写真を用いてアプローチを検証した。
論文 参考訳(メタデータ) (2023-08-15T10:37:13Z) - Forward-Forward Contrastive Learning [4.465144120325802]
医用画像分類のための新しい事前学習手法として,前向きコントラスト学習(FFCL)を提案する。
FFCLは、肺炎分類タスクにおける既存の事前訓練モデルよりも、ImageNet Pretrained ResNet-18よりも3.69%の精度で性能が向上している。
論文 参考訳(メタデータ) (2023-05-04T15:29:06Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets [0.0]
ディープラーニングアプローチは、多くの診断タスクにおいて、ほぼ人間に近い、あるいは人間に近いパフォーマンスに達している。
本稿では,Few-Shot Learningによる事前学習モデルの予測を改善するための実践的アプローチを提案する。
論文 参考訳(メタデータ) (2022-04-16T15:44:56Z) - Variational Knowledge Distillation for Disease Classification in Chest
X-Rays [102.04931207504173]
我々は,X線に基づく疾患分類のための新しい確率的推論フレームワークである反復的知識蒸留(VKD)を提案する。
提案手法の有効性を,X線画像とEHRを用いた3つの公開ベンチマークデータセットに示す。
論文 参考訳(メタデータ) (2021-03-19T14:13:56Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。