論文の概要: CheXseg: Combining Expert Annotations with DNN-generated Saliency Maps
for X-ray Segmentation
- arxiv url: http://arxiv.org/abs/2102.10484v1
- Date: Sun, 21 Feb 2021 00:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 15:33:37.154081
- Title: CheXseg: Combining Expert Annotations with DNN-generated Saliency Maps
for X-ray Segmentation
- Title(参考訳): CheXseg: エキスパートアノテーションとDNN生成したSaliency Mapsを組み合わせてX線セグメンテーション
- Authors: Soham Gadgil, Mark Endo, Emily Wen, Andrew Y. Ng, Pranav Rajpurkar
- Abstract要約: 本稿では,高画質のピクセルレベルのエキスパートアノテーションと粗いDNN生成サリエンシーマップのスケールを組み合わせる手法を提案する。
我々はCheXsegと呼ばれる半教師付き手法のマルチラベル胸部X線解釈への応用を実演する。
- 参考スコア(独自算出の注目度): 5.64692772904991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation models are typically supervised by expert
annotations at the pixel-level, which can be expensive to acquire. In this
work, we propose a method that combines the high quality of pixel-level expert
annotations with the scale of coarse DNN-generated saliency maps for training
multi-label semantic segmentation models. We demonstrate the application of our
semi-supervised method, which we call CheXseg, on multi-label chest x-ray
interpretation. We find that CheXseg improves upon the performance (mIoU) of
fully-supervised methods that use only pixel-level expert annotations by 13.4%
and weakly-supervised methods that use only DNN-generated saliency maps by
91.2%. Furthermore, we implement a semi-supervised method using knowledge
distillation and find that though it is outperformed by CheXseg, it exceeds the
performance (mIoU) of the best fully-supervised method by 4.83%. Our best
method is able to match radiologist agreement on three out of ten pathologies
and reduces the overall performance gap by 71.6% as compared to
weakly-supervised methods.
- Abstract(参考訳): 医療画像のセグメンテーションモデルは通常、ピクセルレベルで専門家のアノテーションによって監督される。
本研究では,多ラベルセマンティックセグメンテーションモデルのトレーニングのために,高品質の画素レベルのエキスパートアノテーションと粗いDNN生成サリエンシマップのスケールを組み合わせる手法を提案する。
我々はCheXsegと呼ばれる半教師付き手法のマルチラベル胸部X線解釈への応用を実演する。
CheXsegは、ピクセルレベルのエキスパートアノテーションのみを13.4%、DNN生成のサリエンシーマップのみを91.2%、完全に監視されたメソッドのパフォーマンス(mIoU)を改善する。
さらに, ナレッジ蒸留を用いた半監督法を実装し, CheXseg が優勢であるにもかかわらず, 最良完全監督法の性能 (mIoU) を4.83%上回ることがわかった。
我々の最善の方法は10の病理のうち3つについて放射線科医の合意を一致させ、全体的な性能の差を71.6%削減できる。
関連論文リスト
- Semi-Supervised Segmentation via Embedding Matching [0.8896991256227597]
深層畳み込みニューラルネットワークは医用画像セグメンテーションで広く使われているが、訓練には多くのラベル付き画像を必要とする。
本稿では,ほとんどラベルのない画像とラベル付き画像の小さなセットをトレーニングで活用する,新しい半教師付きセグメンテーション手法を提案する。
提案手法はハースドルフの95番目のパーセンタイル (HD95) と0.929のイオウ (IoU) で、HD95 (4.07) とイオウ (0.927) を最短で上回った。
論文 参考訳(メタデータ) (2024-07-05T16:49:21Z) - Position-Guided Prompt Learning for Anomaly Detection in Chest X-Rays [46.78926066405227]
胸部X線異常検出は重要な課題である。
近年,多数の医用画像に基づいて事前トレーニングされたCLIPベースの手法は,ゼロ/フェーショットダウンストリームタスクにおいて顕著な性能を示した。
凍結したCLIPモデルにタスクデータを適応させる位置誘導型プロンプト学習法を提案する。
論文 参考訳(メタデータ) (2024-05-20T12:11:41Z) - A comparative analysis of deep learning models for lung segmentation on X-ray images [0.0]
61の論文のうち、実装または事前訓練されたモデルが9つしか提供されなかった。
CE-Netは、ダイス類似度係数とユニオン計量上の交わりの最高値を示す。
論文 参考訳(メタデータ) (2024-04-09T16:55:23Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - SwinCheX: Multi-label classification on chest X-ray images with
transformers [4.549831511476249]
本稿では,Swin Transformer をバックボーンとしたマルチラベル分類深層モデルを提案する。
我々は「Chest X-ray14」とよばれる最も広く使われている、かつ最大のX線データセットの1つについて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2022-06-09T03:17:57Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - Weakly-Supervised Segmentation for Disease Localization in Chest X-Ray
Images [0.0]
医用胸部X線画像のセマンティックセグメンテーションに対する新しいアプローチを提案する。
本手法は肺と胸壁の間の異常な空気量を検出するための胸部X線検査に適用可能である。
論文 参考訳(メタデータ) (2020-07-01T20:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。