論文の概要: RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful
Representation from X-Ray Images
- arxiv url: http://arxiv.org/abs/2211.00313v4
- Date: Sun, 21 May 2023 14:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 05:28:50.813307
- Title: RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful
Representation from X-Ray Images
- Title(参考訳): RGMIM:X線画像から有意な表現を学習するための領域誘導マスク画像モデリング
- Authors: Guang Li, Ren Togo, Takahiro Ogawa, Miki Haseyama
- Abstract要約: X線画像から有意な表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
トレーニングセット全体を使用する場合、RGMIMは他の同等の方法よりも優れ、0.962肺疾患検出精度が達成された。
- 参考スコア(独自算出の注目度): 38.65823547986758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Self-supervised learning has been gaining attention in the medical
field for its potential to improve computer-aided diagnosis. One popular method
of self-supervised learning is masked image modeling (MIM), which involves
masking a subset of input pixels and predicting the masked pixels. However,
traditional MIM methods typically use a random masking strategy, which may not
be ideal for medical images that often have a small region of interest for
disease detection. To address this issue, this work aims to improve MIM for
medical images and evaluate its effectiveness in an open X-ray image dataset.
Methods: In this paper, we present a novel method called region-guided masked
image modeling (RGMIM) for learning meaningful representation from X-ray
images. Our method adopts a new masking strategy that utilizes organ mask
information to identify valid regions for learning more meaningful
representations. The proposed method was contrasted with five self-supervised
learning techniques (MAE, SKD, Cross, BYOL, and, SimSiam). We conduct
quantitative evaluations on an open lung X-ray image dataset as well as masking
ratio hyperparameter studies. Results: When using the entire training set,
RGMIM outperformed other comparable methods, achieving a 0.962 lung disease
detection accuracy. Specifically, RGMIM significantly improved performance in
small data volumes, such as 5% and 10% of the training set (846 and 1,693
images) compared to other methods, and achieved a 0.957 detection accuracy even
when only 50% of the training set was used. Conclusions: RGMIM can mask more
valid regions, facilitating the learning of discriminative representations and
the subsequent high-accuracy lung disease detection. RGMIM outperforms other
state-of-the-art self-supervised learning methods in experiments, particularly
when limited training data is used.
- Abstract(参考訳): 目的: 自己指導型学習は, コンピュータ支援型診断を改善する可能性を秘めている。
自己教師あり学習の一般的な方法は、入力ピクセルのサブセットをマスクし、マスクされたピクセルを予測するマスク画像モデリング(mim)である。
しかし、伝統的なmim法はランダムなマスキング戦略を用いるが、これは疾患検出に関心のある小さな領域を持つ医療画像には理想的ではない。
本研究は,医療画像のMIMを改善することを目的として,オープンX線画像データセットの有効性を評価する。
方法:本論文では,X線画像から有意な表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
提案手法では,臓器マスク情報を用いて有効な領域を同定し,より意味のある表現を学習する。
提案手法は,5つの自己教師型学習手法(MAE,SKD,Cross,BYOL,SimSiam)と対比した。
オープン肺X線画像データセットとマスキング比ハイパーパラメーターによる定量的評価を行った。
結果: トレーニングセット全体を使用する場合, RGMIMは他の同等の方法より優れ, 0.962肺疾患検出精度が得られた。
具体的には、トレーニングセット(846画像と1,693画像)の5%と10%といった小さなデータボリュームのパフォーマンスを他の方法と比較して有意に改善し、トレーニングセットの50%しか使用していない場合でも0.957検出精度を達成した。
結論: rgmimはより有効な領域を隠蔽し、識別表現の学習とその後の高精度肺疾患の検出を促進する。
RGMIMは、特に限られたトレーニングデータを使用する場合、実験において、最先端の自己教師付き学習方法よりも優れている。
関連論文リスト
- MLVICX: Multi-Level Variance-Covariance Exploration for Chest X-ray Self-Supervised Representation Learning [6.4136876268620115]
MLVICXは、胸部X線画像からの埋め込みの形でリッチな表現をキャプチャするアプローチである。
自己教師付き胸部X線表現学習におけるMLVICXの性能を示す。
論文 参考訳(メタデータ) (2024-03-18T06:19:37Z) - MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - DINO-CXR: A self supervised method based on vision transformer for chest
X-ray classification [0.9883261192383611]
本稿では,胸部X線分類のための視覚変換器に基づく自己監督法であるDINO-CXRを提案する。
肺炎とCOVID-19の両方の検出において提案法の有効性を示すために比較分析を行った。
論文 参考訳(メタデータ) (2023-08-01T11:58:49Z) - Vision-Language Modelling For Radiological Imaging and Reports In The
Low Data Regime [70.04389979779195]
本稿では,視覚および言語入力を共通空間に埋め込んだ医用視覚言語モデル(VLM)について検討する。
本稿では,新しい画像領域やテキスト領域への汎用事前学習モデルの適用など,低データ性能向上のためのいくつかの候補手法について検討する。
テキスト・ツー・イメージ検索をベンチマークとして,2つの胸部X線および放射線学的報告を用いた可変サイズのトレーニングデータセットを用いて,これらの手法の性能評価を行った。
論文 参考訳(メタデータ) (2023-03-30T18:20:00Z) - Advancing Radiograph Representation Learning with Masked Record Modeling [52.04899592688968]
我々は2つの相補的な目的として自己と報告の補完を定式化し、マスク付きレコードモデリング(MRM)に基づく統一的な枠組みを提案する。
MRMは、知識強化されたセマンティック表現を学ぶためのマルチタスクスキームに従って、マスクされた画像パッチとマスクされたレポートトークンを再構築する。
具体的には、MRMはラベル効率の良い微調整において優れた性能を提供する。
論文 参考訳(メタデータ) (2023-01-30T18:33:32Z) - Identification of lung nodules CT scan using YOLOv5 based on convolution
neural network [0.0]
本研究は, 肺に発生する結節を同定することを目的とした。
1段階検出器YOLOv5は280 CT SCANで訓練された。
論文 参考訳(メタデータ) (2022-12-31T17:31:22Z) - COVID-19 Detection Based on Self-Supervised Transfer Learning Using
Chest X-Ray Images [38.65823547986758]
胸部X線(CXR)画像から新型コロナウイルスを検出するための自己教師伝達学習法を提案する。
オープンなCOVID-19 CXRデータセットの定量的評価と,視覚検査のための質的結果について検討した。
論文 参考訳(メタデータ) (2022-12-19T07:10:51Z) - BMD-GAN: Bone mineral density estimation using x-ray image decomposition
into projections of bone-segmented quantitative computed tomography using
hierarchical learning [1.8762753243053634]
そこで本研究では,QCTを用いて生成的対位ネットワーク(GAN)を訓練し,X線画像を骨分節QCTの投影に分解する手法を提案する。
変形性膝関節症患者200名を対象に, 予測真理と地上真理のピアソン相関係数が0.888であった。
論文 参考訳(メタデータ) (2022-07-07T10:33:12Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。