論文の概要: CheXseg: Combining Expert Annotations with DNN-generated Saliency Maps
for X-ray Segmentation
- arxiv url: http://arxiv.org/abs/2102.10484v1
- Date: Sun, 21 Feb 2021 00:47:30 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-24 15:33:37.154081
- Title: CheXseg: Combining Expert Annotations with DNN-generated Saliency Maps
for X-ray Segmentation
- Title(参考訳): CheXseg: エキスパートアノテーションとDNN生成したSaliency Mapsを組み合わせてX線セグメンテーション
- Authors: Soham Gadgil, Mark Endo, Emily Wen, Andrew Y. Ng, Pranav Rajpurkar
- Abstract要約: 本稿では,高画質のピクセルレベルのエキスパートアノテーションと粗いDNN生成サリエンシーマップのスケールを組み合わせる手法を提案する。
我々はCheXsegと呼ばれる半教師付き手法のマルチラベル胸部X線解釈への応用を実演する。
- 参考スコア(独自算出の注目度): 5.64692772904991
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation models are typically supervised by expert
annotations at the pixel-level, which can be expensive to acquire. In this
work, we propose a method that combines the high quality of pixel-level expert
annotations with the scale of coarse DNN-generated saliency maps for training
multi-label semantic segmentation models. We demonstrate the application of our
semi-supervised method, which we call CheXseg, on multi-label chest x-ray
interpretation. We find that CheXseg improves upon the performance (mIoU) of
fully-supervised methods that use only pixel-level expert annotations by 13.4%
and weakly-supervised methods that use only DNN-generated saliency maps by
91.2%. Furthermore, we implement a semi-supervised method using knowledge
distillation and find that though it is outperformed by CheXseg, it exceeds the
performance (mIoU) of the best fully-supervised method by 4.83%. Our best
method is able to match radiologist agreement on three out of ten pathologies
and reduces the overall performance gap by 71.6% as compared to
weakly-supervised methods.
- Abstract(参考訳): 医療画像のセグメンテーションモデルは通常、ピクセルレベルで専門家のアノテーションによって監督される。
本研究では,多ラベルセマンティックセグメンテーションモデルのトレーニングのために,高品質の画素レベルのエキスパートアノテーションと粗いDNN生成サリエンシマップのスケールを組み合わせる手法を提案する。
我々はCheXsegと呼ばれる半教師付き手法のマルチラベル胸部X線解釈への応用を実演する。
CheXsegは、ピクセルレベルのエキスパートアノテーションのみを13.4%、DNN生成のサリエンシーマップのみを91.2%、完全に監視されたメソッドのパフォーマンス(mIoU)を改善する。
さらに, ナレッジ蒸留を用いた半監督法を実装し, CheXseg が優勢であるにもかかわらず, 最良完全監督法の性能 (mIoU) を4.83%上回ることがわかった。
我々の最善の方法は10の病理のうち3つについて放射線科医の合意を一致させ、全体的な性能の差を71.6%削減できる。
関連論文リスト
- Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Attention-based Saliency Maps Improve Interpretability of Pneumothorax
Classification [52.77024349608834]
視覚変換器(ViT)の胸部X線撮影(CXR)分類性能と注意ベース唾液の解釈可能性について検討する。
ViTは、CheXpert、Chest X-Ray 14、MIMIC CXR、VinBigDataの4つの公開データセットを用いて、肺疾患分類のために微調整された。
ViTsは最先端のCNNと比べてCXR分類AUCに匹敵するものであった。
論文 参考訳(メタデータ) (2023-03-03T12:05:41Z) - Deep Superpixel Generation and Clustering for Weakly Supervised
Segmentation of Brain Tumors in MR Images [0.0]
本研究は、弱教師付き脳腫瘍セグメント化を実現するために、スーパーピクセル生成モデルとスーパーピクセルクラスタリングモデルを使用することを提案する。
われわれは、Multimodal Brain tumor Challenge 2020データセットからの2Dの磁気共鳴脳スキャンと、パイプラインを訓練するための腫瘍の存在を示すラベルを用いた。
提案手法は平均Dice係数0.691と平均95%Hausdorff距離18.1を達成し,既存のスーパーピクセルベースの弱教師付きセグメンテーション法より優れていた。
論文 参考訳(メタデータ) (2022-09-20T18:08:34Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - SwinCheX: Multi-label classification on chest X-ray images with
transformers [4.549831511476249]
本稿では,Swin Transformer をバックボーンとしたマルチラベル分類深層モデルを提案する。
我々は「Chest X-ray14」とよばれる最も広く使われている、かつ最大のX線データセットの1つについて、我々のモデルを評価する。
論文 参考訳(メタデータ) (2022-06-09T03:17:57Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - To be Critical: Self-Calibrated Weakly Supervised Learning for Salient
Object Detection [95.21700830273221]
弱教師付き有色物体検出(WSOD)は,画像レベルのアノテーションを用いた有色度モデルの開発を目的としている。
擬似ラベルとネットワーク予測の相互校正ループを明確に設定し,自己校正学習戦略を提案する。
十分に整合したアノテーションを持つはるかに小さなデータセットであっても、モデルがより優れたパフォーマンスと一般化性を達成するのに役立ちます。
論文 参考訳(メタデータ) (2021-09-04T02:45:22Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - PDCOVIDNet: A Parallel-Dilated Convolutional Neural Network Architecture
for Detecting COVID-19 from Chest X-Ray Images [1.4824891788575418]
新型コロナウイルスのパンデミックは、世界保健システムの繁栄を著しく損なわれ続けている。
胸部X線画像による放射線学的評価は,重要なスクリーニング技術の一つである。
胸部X線画像を用いた並列拡散畳み込みニューラルネットワークによる新型コロナウイルス検出システムを提案する。
論文 参考訳(メタデータ) (2020-07-29T12:28:16Z) - Weakly-Supervised Segmentation for Disease Localization in Chest X-Ray
Images [0.0]
医用胸部X線画像のセマンティックセグメンテーションに対する新しいアプローチを提案する。
本手法は肺と胸壁の間の異常な空気量を検出するための胸部X線検査に適用可能である。
論文 参考訳(メタデータ) (2020-07-01T20:48:35Z) - Exploration of Interpretability Techniques for Deep COVID-19
Classification using Chest X-ray Images [10.01138352319106]
5種類のディープラーニングモデル(ResNet18、ResNet34、InceptionV3、InceptionResNetV2、DenseNet161)とそれらのEnsembleは、Chest X-Ray画像を用いて、新型コロナウイルス、肺炎、健康な被験者を分類するために使用されている。
新型コロナウイルスの分類における平均的なMicro-F1スコアは0.66から0.875の範囲で、ネットワークモデルのアンサンブルは0.89である。
論文 参考訳(メタデータ) (2020-06-03T22:55:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。