論文の概要: RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful
Representation from X-Ray Images
- arxiv url: http://arxiv.org/abs/2211.00313v4
- Date: Sun, 21 May 2023 14:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-24 05:28:50.813307
- Title: RGMIM: Region-Guided Masked Image Modeling for Learning Meaningful
Representation from X-Ray Images
- Title(参考訳): RGMIM:X線画像から有意な表現を学習するための領域誘導マスク画像モデリング
- Authors: Guang Li, Ren Togo, Takahiro Ogawa, Miki Haseyama
- Abstract要約: X線画像から有意な表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
トレーニングセット全体を使用する場合、RGMIMは他の同等の方法よりも優れ、0.962肺疾患検出精度が達成された。
- 参考スコア(独自算出の注目度): 38.65823547986758
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Purpose: Self-supervised learning has been gaining attention in the medical
field for its potential to improve computer-aided diagnosis. One popular method
of self-supervised learning is masked image modeling (MIM), which involves
masking a subset of input pixels and predicting the masked pixels. However,
traditional MIM methods typically use a random masking strategy, which may not
be ideal for medical images that often have a small region of interest for
disease detection. To address this issue, this work aims to improve MIM for
medical images and evaluate its effectiveness in an open X-ray image dataset.
Methods: In this paper, we present a novel method called region-guided masked
image modeling (RGMIM) for learning meaningful representation from X-ray
images. Our method adopts a new masking strategy that utilizes organ mask
information to identify valid regions for learning more meaningful
representations. The proposed method was contrasted with five self-supervised
learning techniques (MAE, SKD, Cross, BYOL, and, SimSiam). We conduct
quantitative evaluations on an open lung X-ray image dataset as well as masking
ratio hyperparameter studies. Results: When using the entire training set,
RGMIM outperformed other comparable methods, achieving a 0.962 lung disease
detection accuracy. Specifically, RGMIM significantly improved performance in
small data volumes, such as 5% and 10% of the training set (846 and 1,693
images) compared to other methods, and achieved a 0.957 detection accuracy even
when only 50% of the training set was used. Conclusions: RGMIM can mask more
valid regions, facilitating the learning of discriminative representations and
the subsequent high-accuracy lung disease detection. RGMIM outperforms other
state-of-the-art self-supervised learning methods in experiments, particularly
when limited training data is used.
- Abstract(参考訳): 目的: 自己指導型学習は, コンピュータ支援型診断を改善する可能性を秘めている。
自己教師あり学習の一般的な方法は、入力ピクセルのサブセットをマスクし、マスクされたピクセルを予測するマスク画像モデリング(mim)である。
しかし、伝統的なmim法はランダムなマスキング戦略を用いるが、これは疾患検出に関心のある小さな領域を持つ医療画像には理想的ではない。
本研究は,医療画像のMIMを改善することを目的として,オープンX線画像データセットの有効性を評価する。
方法:本論文では,X線画像から有意な表現を学習するための領域誘導マスク画像モデリング(RGMIM)を提案する。
提案手法では,臓器マスク情報を用いて有効な領域を同定し,より意味のある表現を学習する。
提案手法は,5つの自己教師型学習手法(MAE,SKD,Cross,BYOL,SimSiam)と対比した。
オープン肺X線画像データセットとマスキング比ハイパーパラメーターによる定量的評価を行った。
結果: トレーニングセット全体を使用する場合, RGMIMは他の同等の方法より優れ, 0.962肺疾患検出精度が得られた。
具体的には、トレーニングセット(846画像と1,693画像)の5%と10%といった小さなデータボリュームのパフォーマンスを他の方法と比較して有意に改善し、トレーニングセットの50%しか使用していない場合でも0.957検出精度を達成した。
結論: rgmimはより有効な領域を隠蔽し、識別表現の学習とその後の高精度肺疾患の検出を促進する。
RGMIMは、特に限られたトレーニングデータを使用する場合、実験において、最先端の自己教師付き学習方法よりも優れている。
関連論文リスト
- MUSCLE: Multi-task Self-supervised Continual Learning to Pre-train Deep
Models for X-ray Images of Multiple Body Parts [63.30352394004674]
MUSCLE(Multi-task Self-super-vised Continual Learning)は、医用画像処理タスクのための、新しい自己教師付き事前学習パイプラインである。
MUSCLEは、複数の身体部分から収集したX線を集約して表現学習を行い、よく設計された連続学習手順を採用する。
肺炎分類,骨格異常分類,肺セグメンテーション,結核(TB)検出など,9つの実世界のX線データセットを用いてMUSCLEを評価する。
論文 参考訳(メタデータ) (2023-10-03T12:19:19Z) - DINO-CXR: A self supervised method based on vision transformer for chest
X-ray classification [0.9883261192383611]
本稿では,胸部X線分類のための視覚変換器に基づく自己監督法であるDINO-CXRを提案する。
肺炎とCOVID-19の両方の検出において提案法の有効性を示すために比較分析を行った。
論文 参考訳(メタデータ) (2023-08-01T11:58:49Z) - Domain Transfer Through Image-to-Image Translation for Uncertainty-Aware
Prostate Cancer Classification [60.20736568336466]
臨床的に有意なPCa分類のための前立腺mp-MRIの非対位画像変換のための新しいアプローチを提案する。
我々は、明らかなディープラーニングアプローチにより、モデルの不確実性を見積もる。
提案手法は, ROC曲線(AUC)を20%以上改善することを示した。
論文 参考訳(メタデータ) (2023-07-02T05:26:54Z) - LVM-Med: Learning Large-Scale Self-Supervised Vision Models for Medical
Imaging via Second-order Graph Matching [59.01894976615714]
LVM-Medは、大規模医療データセットに基づいてトレーニングされた、最初のディープネットワークファミリーである。
55の公開データセットから約13万の医療画像を収集しました。
LVM-Medは、多くの最先端の教師付き、自己監督型、基礎モデルよりも経験的に優れている。
論文 参考訳(メタデータ) (2023-06-20T22:21:34Z) - COVID-19 Detection Based on Self-Supervised Transfer Learning Using
Chest X-Ray Images [38.65823547986758]
胸部X線(CXR)画像から新型コロナウイルスを検出するための自己教師伝達学習法を提案する。
オープンなCOVID-19 CXRデータセットの定量的評価と,視覚検査のための質的結果について検討した。
論文 参考訳(メタデータ) (2022-12-19T07:10:51Z) - Self-Supervised-RCNN for Medical Image Segmentation with Limited Data
Annotation [0.16490701092527607]
ラベルなしMRIスキャンによる自己教師付き事前学習に基づく新たなディープラーニング学習戦略を提案する。
我々の事前学習アプローチはまず、ラベルのない画像のランダム領域に異なる歪みをランダムに適用し、次に歪みの種類と情報の損失を予測する。
異なる事前学習シナリオと微調整シナリオにおけるセグメンテーション課題に対する提案手法の有効性を評価する。
論文 参考訳(メタデータ) (2022-07-17T13:28:52Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z) - Unsupervised deep clustering and reinforcement learning can accurately
segment MRI brain tumors with very small training sets [0.0]
我々は,非教師付き深層クラスタリングと強化学習を脳腫瘍セグメントに応用する原理実証実験を行った。
このアプローチは、手引きアノテーションを必要とせずに放射線科医からの最小限の入力を必要とする人間同盟AIを表します。
論文 参考訳(メタデータ) (2020-12-24T16:46:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。