論文の概要: MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts
- arxiv url: http://arxiv.org/abs/2310.02000v1
- Date: Tue, 3 Oct 2023 12:19:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-04 14:30:35.615580
- Title: MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts
- Title(参考訳): MUSCLE:複数部位のX線画像の事前学習のためのマルチタスク型自己教師型連続学習
- Authors: Weibin Liao and Haoyi Xiong and Qingzhong Wang and Yan Mo and Xuhong
Li and Yi Liu and Zeyu Chen and Siyu Huang and Dejing Dou
- Abstract要約: MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
- 参考スコア(独自算出の注目度): 63.30352394004674
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: While self-supervised learning (SSL) algorithms have been widely used to
pre-train deep models, few efforts [11] have been done to improve
representation learning of X-ray image analysis with SSL pre-trained models. In
this work, we study a novel self-supervised pre-training pipeline, namely
Multi-task Self-super-vised Continual Learning (MUSCLE), for multiple medical
imaging tasks, such as classification and segmentation, using X-ray images
collected from multiple body parts, including heads, lungs, and bones.
Specifically, MUSCLE aggregates X-rays collected from multiple body parts for
MoCo-based representation learning, and adopts a well-designed continual
learning (CL) procedure to further pre-train the backbone subject various X-ray
analysis tasks jointly. Certain strategies for image pre-processing, learning
schedules, and regularization have been used to solve data heterogeneity,
overfitting, and catastrophic forgetting problems for multi-task/dataset
learning in MUSCLE.We evaluate MUSCLE using 9 real-world X-ray datasets with
various tasks, including pneumonia classification, skeletal abnormality
classification, lung segmentation, and tuberculosis (TB) detection. Comparisons
against other pre-trained models [7] confirm the proof-of-concept that
self-supervised multi-task/dataset continual pre-training could boost the
performance of X-ray image analysis.
- Abstract(参考訳): 自己教師付き学習(SSL)アルゴリズムは深層モデルの事前訓練に広く用いられているが, SSL事前訓練モデルを用いたX線画像解析の表現学習を改善する試みは少ない。
本研究では, 頭部, 肺, 骨を含む複数の身体部位から収集したX線画像を用いて, 分類やセグメンテーションなどの複数の医療画像処理を行うための, マルチタスク・セルフスーパービジョン型連続学習(MUSCLE)という, 自己指導型事前学習パイプラインを提案する。
具体的には、複数の身体部位から収集したx線をモコベース表現学習に集約し、よく設計された連続学習(cl)手順を採用し、バックボーン対象の様々なx線分析タスクを共同で事前学習する。
MUSCLEにおけるマルチタスク/データセット学習におけるデータ不均一性,過度な適合性,破滅的な忘れを解消するための,画像前処理,学習スケジュール,正規化のための戦略が,肺炎分類,骨格異常分類,肺分節,結核(TB)検出など,9つの実世界のX線データセットを用いて,MUSCLEを評価する。
他の事前学習モデルとの比較 [7] は、自己教師付きマルチタスク/データセットの継続的な事前訓練がx線画像解析の性能を高めるという概念実証を確認した。
関連論文リスト
- MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - DiCoM -- Diverse Concept Modeling towards Enhancing Generalizability in Chest X-Ray Studies [6.83819481805979]
胸部X線(胸部X線、CXR)は、広く用いられている画像モダリティである。
自己指導型プレトレーニングは、多くの下流視覚タスクにおいて教師付きプレトレーニングよりも優れていることが証明されている。
本稿では,新しい自己教師型トレーニングパラダイムであるDiCoMについて紹介する。
論文 参考訳(メタデータ) (2024-02-22T20:51:37Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful Representations from X-Ray Images [49.24576562557866]
X線画像から意味のある表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
RGMIMは、トレーニングセットの5%や10%といった小さなデータボリュームのパフォーマンスを、他の方法と比較して大幅に改善した。
論文 参考訳(メタデータ) (2022-11-01T07:41:03Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Multi-task UNet: Jointly Boosting Saliency Prediction and Disease
Classification on Chest X-ray Images [3.8637285238278434]
本稿では,胸部X線(CXR)画像のビジュアル・サリエンシ予測のための新しい深層学習モデルについて述べる。
データ不足に対処するため,マルチタスク学習手法を応用し,同時にCXRの疾患分類に取り組む。
提案したディープラーニングモデルと新しい学習手法を併用した実験により,サリエンシ予測や画像分類のための既存手法よりも優れることを示す。
論文 参考訳(メタデータ) (2022-02-15T01:12:42Z) - Generalized Multi-Task Learning from Substantially Unlabeled
Multi-Source Medical Image Data [11.061381376559053]
MultiMixは、病気の分類と解剖学的セグメンテーションを半教師付きで共同で学習する、新しいマルチタスク学習モデルである。
トレーニングセットにおける多ソースラベル付きデータの多量化実験により,MultiMixの有効性が確認された。
論文 参考訳(メタデータ) (2021-10-25T18:09:19Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - MultiMix: Sparingly Supervised, Extreme Multitask Learning From Medical
Images [13.690075845927606]
本稿では,病気の分類と解剖学的分類を軽視的に学習する新しいマルチタスク学習モデルであるMultiMixを提案する。
胸部X線画像からの肺炎の分類と肺の分画に対するマルチタスキングモデルの有効性について検討した。
論文 参考訳(メタデータ) (2020-10-28T03:47:29Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。