論文の概要: Weighing Features of Lung and Heart Regions for Thoracic Disease
Classification
- arxiv url: http://arxiv.org/abs/2105.12430v1
- Date: Wed, 26 May 2021 09:37:39 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-27 13:17:15.607406
- Title: Weighing Features of Lung and Heart Regions for Thoracic Disease
Classification
- Title(参考訳): 胸部疾患分類における肺と心臓領域の重み付け特徴
- Authors: Jiansheng Fang, Yanwu Xu, Yitian Zhao, Yuguang Yan, Junling Liu and
Jiang Liu
- Abstract要約: 本研究では,肺・心臓領域の識別情報を探索するための新しいディープラーニングフレームワークを提案する。
注意図における非肺・心臓領域の特徴をゼロにすることにより,肺・心臓領域における疾患特異的手がかりを効果的に活用することができる。
- 参考スコア(独自算出の注目度): 15.128119121297507
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Chest X-rays are the most commonly available and affordable radiological
examination for screening thoracic diseases. According to the domain knowledge
of screening chest X-rays, the pathological information usually lay on the lung
and heart regions. However, it is costly to acquire region-level annotation in
practice, and model training mainly relies on image-level class labels in a
weakly supervised manner, which is highly challenging for computer-aided chest
X-ray screening. To address this issue, some methods have been proposed
recently to identify local regions containing pathological information, which
is vital for thoracic disease classification. Inspired by this, we propose a
novel deep learning framework to explore discriminative information from lung
and heart regions. We design a feature extractor equipped with a multi-scale
attention module to learn global attention maps from global images. To exploit
disease-specific cues effectively, we locate lung and heart regions containing
pathological information by a well-trained pixel-wise segmentation model to
generate binarization masks. By introducing element-wise logical AND operator
on the learned global attention maps and the binarization masks, we obtain
local attention maps in which pixels are $1$ for lung and heart region and $0$
for other regions. By zeroing features of non-lung and heart regions in
attention maps, we can effectively exploit their disease-specific cues in lung
and heart regions. Compared to existing methods fusing global and local
features, we adopt feature weighting to avoid weakening visual cues unique to
lung and heart regions. Evaluated by the benchmark split on the publicly
available chest X-ray14 dataset, the comprehensive experiments show that our
method achieves superior performance compared to the state-of-the-art methods.
- Abstract(参考訳): 胸部X線は胸部疾患のスクリーニングにおいて最も一般的で安価な放射線検査である。
胸部x線スクリーニング領域の知識によれば、病理情報は通常は肺と心臓の領域に置かれる。
しかし、実際に領域レベルのアノテーションを取得するのはコストがかかるため、モデルトレーニングは主に画像レベルのクラスラベルに依存しており、コンピュータ支援胸部X線スクリーニングでは極めて困難である。
この問題を解決するために, 胸部疾患分類に不可欠な病理情報を含む地域を特定する手法が近年提案されている。
そこで本研究では,肺および心臓領域からの識別情報を探索する新しい深層学習フレームワークを提案する。
我々は,グローバル画像からグローバルアテンションマップを学ぶために,マルチスケールアテンションモジュールを備えた特徴抽出器を設計する。
疾患特異的な手がかりを効果的に活用するために,よく訓練されたピクセルワイドセグメンテーションモデルを用いて病理情報を含む肺と心臓の領域を特定し,バイナライズマスクを生成する。
学習したグローバルアテンションマップとバイナライズマスクに要素的論理的および演算子を導入することにより,各画素が肺および心臓領域に対して1ドル,他領域に対して0ドルとなる局所アテンションマップを得る。
アテンションマップにおける非肺および心臓領域の特徴をゼロにすることで、肺および心臓領域における疾患特異的な手がかりを効果的に活用することができる。
グローバルとローカルの特徴を融合させる既存の手法と比較して,肺や心臓に特有の視覚手がかりを弱めるのを避けるため,特徴重み付けを採用する。
胸部X-ray14データセットのベンチマーク分割により,本手法が最先端の手法と比較して優れた性能を発揮することを示す。
関連論文リスト
- Multi-task Explainable Skin Lesion Classification [54.76511683427566]
少ないラベル付きデータでよく一般化する皮膚病変に対する数発のショットベースアプローチを提案する。
提案手法は,アテンションモジュールや分類ネットワークとして機能するセグメンテーションネットワークの融合を含む。
論文 参考訳(メタデータ) (2023-10-11T05:49:47Z) - Long-Tailed Classification of Thorax Diseases on Chest X-Ray: A New
Benchmark Study [75.05049024176584]
胸部X線上の胸部疾患の特定領域における長期学習問題についてベンチマーク研究を行った。
我々は,自然に分布する胸部X線データから学ぶことに集中し,一般的な「頭部」クラスだけでなく,稀ながら重要な「尾」クラスよりも分類精度を最適化する。
このベンチマークは、19と20の胸郭疾患分類のための2つの胸部X線データセットで構成され、53,000のクラスと7のラベル付きトレーニング画像を含む。
論文 参考訳(メタデータ) (2022-08-29T04:34:15Z) - Generative Residual Attention Network for Disease Detection [51.60842580044539]
本稿では, 条件付き生成逆学習を用いたX線疾患発生のための新しいアプローチを提案する。
我々は,患者の身元を保存しながら,対象領域に対応する放射線画像を生成する。
次に、ターゲット領域で生成されたX線画像を用いてトレーニングを増強し、検出性能を向上させる。
論文 参考訳(メタデータ) (2021-10-25T14:15:57Z) - AnaXNet: Anatomy Aware Multi-label Finding Classification in Chest X-ray [9.087789790647786]
画像の発見を正確に分類し,解剖学的に正しい領域に局在する新しいマルチラベル胸部X線分類モデルを提案する。
後者はグラフ畳み込みネットワークを用いてラベル依存だけでなく,胸部X線における解剖学的領域間の関係も学習する。
論文 参考訳(メタデータ) (2021-05-20T17:58:02Z) - Global Guidance Network for Breast Lesion Segmentation in Ultrasound
Images [84.03487786163781]
我々は,大域的誘導ブロック(GGB)と乳房病変境界検出モジュールを備えた深部畳み込みニューラルネットワークを開発した。
当社のネットワークは、乳房超音波病変分割における他の医療画像分割方法および最近のセマンティックセグメンテーション方法よりも優れています。
論文 参考訳(メタデータ) (2021-04-05T13:15:22Z) - Weakly Supervised Thoracic Disease Localization via Disease Masks [29.065791290544983]
画像レベルのアノテーションのみを使用する弱監督ローカリゼーション手法が提案されている。
本稿では,主に疾患の発生領域を記述した病マスクを用いた空間的注意法を提案する。
提案手法は,最先端手法と比較して位置決め性能に優れることを示す。
論文 参考訳(メタデータ) (2021-01-25T06:52:57Z) - Contralaterally Enhanced Networks for Thoracic Disease Detection [120.60868136876599]
胸骨、肺野、気管支管など、胸部左右に類似した構造が多数存在する。
このような類似性は、広義の放射線学者の経験から、胸部X線における疾患の同定に利用することができる。
本稿では,病状提案の特徴表現を強化するために,対向的コンテキスト情報を活用するディープ・エンド・ツー・エンド・モジュールを提案する。
論文 参考訳(メタデータ) (2020-10-09T10:15:26Z) - Explainable Disease Classification via weakly-supervised segmentation [4.154485485415009]
CAD(Computer Aided Diagnosis)に対するディープラーニングアプローチは、画像分類(Normal or Abnormal)問題として問題を引き起こすのが一般的である。
本稿では,この問題を考察し,診断に先立ってエビデンスを探す臨床実践を模倣するアプローチを提案する。
提案法はマンモグラフィー画像から乳癌検出に適応する。
論文 参考訳(メタデータ) (2020-08-24T09:00:30Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - Thoracic Disease Identification and Localization using Distance Learning
and Region Verification [15.851040584898463]
本稿では,画像三重項間の識別的特徴を学習し,領域の特徴を周期的に訓練し,注意領域が疾患の情報を含んでいるかどうかを検証する方法を提案する。
我々のモデルは、挑戦的なChestX-ray14データセット上で最先端の分類性能を達成でき、我々のアブレーション研究は、距離学習と領域検証の両方が全体的な分類性能に寄与していることを示している。
論文 参考訳(メタデータ) (2020-06-07T16:56:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。