論文の概要: Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets
- arxiv url: http://arxiv.org/abs/2204.07824v1
- Date: Sat, 16 Apr 2022 15:44:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 07:36:58.069629
- Title: Few-Shot Transfer Learning to improve Chest X-Ray pathology detection
using limited triplets
- Title(参考訳): 限られた三重項を用いた胸部x線病理診断法の改良
- Authors: Ananth Reddy Bhimireddy, John Lee Burns, Saptarshi Purkayastha, Judy
Wawira Gichoya
- Abstract要約: ディープラーニングアプローチは、多くの診断タスクにおいて、ほぼ人間に近い、あるいは人間に近いパフォーマンスに達している。
本稿では,Few-Shot Learningによる事前学習モデルの予測を改善するための実践的アプローチを提案する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Deep learning approaches applied to medical imaging have reached near-human
or better-than-human performance on many diagnostic tasks. For instance, the
CheXpert competition on detecting pathologies in chest x-rays has shown
excellent multi-class classification performance. However, training and
validating deep learning models require extensive collections of images and
still produce false inferences, as identified by a human-in-the-loop. In this
paper, we introduce a practical approach to improve the predictions of a
pre-trained model through Few-Shot Learning (FSL). After training and
validating a model, a small number of false inference images are collected to
retrain the model using \textbf{\textit{Image Triplets}} - a false positive or
false negative, a true positive, and a true negative. The retrained FSL model
produces considerable gains in performance with only a few epochs and few
images. In addition, FSL opens rapid retraining opportunities for
human-in-the-loop systems, where a radiologist can relabel false inferences,
and the model can be quickly retrained. We compare our retrained model
performance with existing FSL approaches in medical imaging that train and
evaluate models at once.
- Abstract(参考訳): 医学画像に適用されるディープラーニングのアプローチは、多くの診断タスクにおいて、人間に近い、あるいは人間より優れたパフォーマンスに達している。
例えば、胸部X線診断におけるCheXpertコンペティションは、優れた多クラス分類性能を示している。
しかし、ディープラーニングモデルのトレーニングと検証には、人間のループによって特定されるような、広範な画像収集と偽推論が必要である。
本稿では,Few-Shot Learning(FSL)による事前学習モデルの予測を改善するための実践的アプローチを提案する。
モデルのトレーニングと検証の後、少数の偽推論画像が収集され、 \textbf{\textit{image triplets}} - 偽陽性または偽陰性、真陽性、真陰性を用いてモデルを再訓練する。
再訓練されたfslモデルは、わずかなエポックと少ない画像で性能が大幅に向上する。
さらに、FSLは、放射線学者が偽の推論を許容し、モデルが迅速に再訓練される、ループ内システムに対する迅速な再訓練の機会を開放する。
再訓練されたモデル性能と既存の医用画像のFSLアプローチを比較して,モデルを一度に訓練し評価する。
関連論文リスト
- FSL-Rectifier: Rectify Outliers in Few-Shot Learning via Test-Time Augmentation [7.477118370563593]
FSL(Few-shot-learning)は通常、トレーニング中に目に見えないクラスに属する画像(クエリ)を識別するモデルを必要とする。
生成画像コンバインダを用いて、原サンプルと適切な列車クラスサンプルを組み合わせることで、追加のテストクラスサンプルを生成する。
我々は、平均化によってより典型的な表現をもたらす拡張子を介して平均化された特徴を得る。
論文 参考訳(メタデータ) (2024-02-28T12:37:30Z) - Training Class-Imbalanced Diffusion Model Via Overlap Optimization [55.96820607533968]
実世界のデータセットで訓練された拡散モデルは、尾クラスの忠実度が劣ることが多い。
拡散モデルを含む深い生成モデルは、豊富な訓練画像を持つクラスに偏りがある。
本研究では,異なるクラスに対する合成画像の分布の重複を最小限に抑えるために,コントラスト学習に基づく手法を提案する。
論文 参考訳(メタデータ) (2024-02-16T16:47:21Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - BOOT: Data-free Distillation of Denoising Diffusion Models with
Bootstrapping [64.54271680071373]
拡散モデルは多様な画像を生成する優れた可能性を示している。
知識蒸留は、推論ステップの数を1つか数に減らすための治療法として最近提案されている。
本稿では,効率的なデータフリー蒸留アルゴリズムにより限界を克服するBOOTと呼ばれる新しい手法を提案する。
論文 参考訳(メタデータ) (2023-06-08T20:30:55Z) - FoPro-KD: Fourier Prompted Effective Knowledge Distillation for
Long-Tailed Medical Image Recognition [5.64283273944314]
本稿では,FoPro-KDを提案する。FoPro-KDは,凍結事前学習モデルから学習した周波数パターンのパワーを利用して,転送性と圧縮性を向上するフレームワークである。
一般に利用可能な事前学習モデルから表現を活用することで、特に稀なクラスのパフォーマンスを大幅に向上させることができることを実証する。
われわれのフレームワークは既存の方法より優れており、まれな疾患分類のためのよりアクセスしやすい医療モデルを可能にしている。
論文 参考訳(メタデータ) (2023-05-27T09:01:21Z) - Self-Supervised Curricular Deep Learning for Chest X-Ray Image
Classification [1.6631602844999727]
Self-Supervised Learning Pretrainingは、ImageNetでスクラッチからトレーニングされたモデル、あるいは事前トレーニングされたモデルのパフォーマンスを向上する。
SSL-pretrained モデルは肺の領域において高い注意力を示す。
論文 参考訳(メタデータ) (2023-01-25T16:45:13Z) - Generative Transfer Learning: Covid-19 Classification with a few Chest
X-ray Images [0.0]
深層学習モデルは解釈を迅速化し、人間の専門家の仕事を軽減することができる。
Deep Transfer Learningは、パブリックドメインで事前訓練されたモデルを使用することで、この問題に対処する。
本稿では,既存の大規模事前学習モデルと同様に,単一の概念に基づいて事前学習した簡易な生成源モデルを提案する。
論文 参考訳(メタデータ) (2022-08-10T12:37:52Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Performance or Trust? Why Not Both. Deep AUC Maximization with
Self-Supervised Learning for COVID-19 Chest X-ray Classifications [72.52228843498193]
ディープラーニングモデルのトレーニングでは、パフォーマンスと信頼の間に妥協をしなければなりません。
本研究は、新型コロナウイルス患者のコンピュータ支援スクリーニングのための自己教師型学習と新しい代理損失を統合したものである。
論文 参考訳(メタデータ) (2021-12-14T21:16:52Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。