論文の概要: AnaXNet: Anatomy Aware Multi-label Finding Classification in Chest X-ray
- arxiv url: http://arxiv.org/abs/2105.09937v1
- Date: Thu, 20 May 2021 17:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-21 13:46:52.761636
- Title: AnaXNet: Anatomy Aware Multi-label Finding Classification in Chest X-ray
- Title(参考訳): AnaXNet:胸部X線におけるマルチラベル検索分類を意識した解剖学
- Authors: Nkechinyere N. Agu, Joy T. Wu, Hanqing Chao, Ismini Lourentzou, Arjun
Sharma, Mehdi Moradi, Pingkun Yan, James Hendler
- Abstract要約: 画像の発見を正確に分類し,解剖学的に正しい領域に局在する新しいマルチラベル胸部X線分類モデルを提案する。
後者はグラフ畳み込みネットワークを用いてラベル依存だけでなく,胸部X線における解剖学的領域間の関係も学習する。
- 参考スコア(独自算出の注目度): 9.087789790647786
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Radiologists usually observe anatomical regions of chest X-ray images as well
as the overall image before making a decision. However, most existing deep
learning models only look at the entire X-ray image for classification, failing
to utilize important anatomical information. In this paper, we propose a novel
multi-label chest X-ray classification model that accurately classifies the
image finding and also localizes the findings to their correct anatomical
regions. Specifically, our model consists of two modules, the detection module
and the anatomical dependency module. The latter utilizes graph convolutional
networks, which enable our model to learn not only the label dependency but
also the relationship between the anatomical regions in the chest X-ray. We
further utilize a method to efficiently create an adjacency matrix for the
anatomical regions using the correlation of the label across the different
regions. Detailed experiments and analysis of our results show the
effectiveness of our method when compared to the current state-of-the-art
multi-label chest X-ray image classification methods while also providing
accurate location information.
- Abstract(参考訳): 放射線医は通常、判定する前に胸部X線像の解剖学的領域と全体像を観察する。
しかし、既存のディープラーニングモデルは、分類のためにX線画像全体を見るだけで、重要な解剖学的情報を利用できない。
本稿では,画像発見を正確に分類し,適切な解剖学的領域に局在する,新しいマルチラベル胸部X線分類モデルを提案する。
具体的には,検出モジュールと解剖依存性モジュールという2つのモジュールからなる。
後者はグラフ畳み込みネットワークを利用しており、このモデルではラベル依存だけでなく、胸部x線中の解剖学的領域の関係も学習できる。
さらに,各領域のラベルの相関を利用して,解剖学的領域の隣接行列を効率的に作成する手法を利用する。
本研究の詳細な実験と解析により, 胸部x線画像分類法と比較し, 正確な位置情報を提供しつつ, 提案手法の有効性が示された。
関連論文リスト
- Region-based Contrastive Pretraining for Medical Image Retrieval with
Anatomic Query [56.54255735943497]
医用画像検索のための地域別コントラスト事前トレーニング(RegionMIR)
医用画像検索のための領域ベースコントラスト事前トレーニング(RegionMIR)について紹介する。
論文 参考訳(メタデータ) (2023-05-09T16:46:33Z) - Employing similarity to highlight differences: On the impact of
anatomical assumptions in chest X-ray registration methods [2.080328156648695]
我々は,国立衛生研究所(NIH)データセット上に,解剖学的にペナル化した畳み込み型多段階解を開発した。
本手法は,ワープフィールドの折り畳み率を技術状態の1/6に制限する自然な方法であることを示す。
本手法の利点を統計的に評価し,胸部X線登録における現在使用されている指標の限界を強調した。
論文 参考訳(メタデータ) (2023-01-23T09:42:49Z) - Long-Tailed Classification of Thorax Diseases on Chest X-Ray: A New
Benchmark Study [75.05049024176584]
胸部X線上の胸部疾患の特定領域における長期学習問題についてベンチマーク研究を行った。
我々は,自然に分布する胸部X線データから学ぶことに集中し,一般的な「頭部」クラスだけでなく,稀ながら重要な「尾」クラスよりも分類精度を最適化する。
このベンチマークは、19と20の胸郭疾患分類のための2つの胸部X線データセットで構成され、53,000のクラスと7のラベル付きトレーニング画像を含む。
論文 参考訳(メタデータ) (2022-08-29T04:34:15Z) - CheXRelNet: An Anatomy-Aware Model for Tracking Longitudinal
Relationships between Chest X-Rays [2.9212099078191764]
我々は2つの胸部X線間の縦断的病理変化関係を追跡できる神経モデルであるCheXRelNetを提案する。
CheXRelNetは、ローカルおよびグローバルな視覚機能を導入し、画像内および画像内解剖情報を使用し、解剖学的領域属性間の依存関係を学習する。
論文 参考訳(メタデータ) (2022-08-08T02:22:09Z) - Interpretation of Chest x-rays affected by bullets using deep transfer
learning [0.8189696720657246]
放射線学における深層学習は、異なる疾患を分類し、検出し、分類する機会を提供する。
提案した研究では,X線を銃弾の影響を受け,局所的に分類する医療画像の非自明な側面について検討した。
深層学習を用いた弾による放射線画像の検出と分類に関する最初の研究である。
論文 参考訳(メタデータ) (2022-03-25T05:53:45Z) - SQUID: Deep Feature In-Painting for Unsupervised Anomaly Detection [76.01333073259677]
無線画像からの異常検出のための空間認識型メモリキューを提案する(略してSQUID)。
SQUIDは, 微細な解剖学的構造を逐次パターンに分類でき, 推測では画像中の異常(見えない/修正されたパターン)を識別できる。
論文 参考訳(メタデータ) (2021-11-26T13:47:34Z) - GREN: Graph-Regularized Embedding Network for Weakly-Supervised Disease
Localization in X-ray images [35.18562405272593]
コンテキスト情報や補償情報として、クロスリージョンとクロスイメージの関係は、より一貫性のある統合された領域を得るために不可欠である。
胸部X線画像上の疾患の特定に画像内および画像間情報を活用するグラフ正規化埋め込みネットワーク(GREN)を提案する。
このことから,本研究はNIH胸部X線データを用いた軽度疾患局所化のための最先端の成果を得られた。
論文 参考訳(メタデータ) (2021-07-14T01:27:07Z) - Cross-Modal Contrastive Learning for Abnormality Classification and
Localization in Chest X-rays with Radiomics using a Feedback Loop [63.81818077092879]
医療画像のためのエンドツーエンドのセミスーパーバイスドクロスモーダルコントラスト学習フレームワークを提案する。
まず、胸部X線を分類し、画像特徴を生成するために画像エンコーダを適用する。
放射能の特徴は別の専用エンコーダを通過し、同じ胸部x線から生成された画像の特徴の正のサンプルとして機能する。
論文 参考訳(メタデータ) (2021-04-11T09:16:29Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Learning Invariant Feature Representation to Improve Generalization
across Chest X-ray Datasets [55.06983249986729]
我々は、トレーニングデータと同じデータセットでテストすると、ディープラーニングモデルが、異なるソースからデータセットでテストされると、パフォーマンスが低下し始めることを示す。
対戦型トレーニング戦略を用いることで、ネットワークはソース不変表現を学習せざるを得ないことを示す。
論文 参考訳(メタデータ) (2020-08-04T07:41:15Z) - Weakly-Supervised Segmentation for Disease Localization in Chest X-Ray
Images [0.0]
医用胸部X線画像のセマンティックセグメンテーションに対する新しいアプローチを提案する。
本手法は肺と胸壁の間の異常な空気量を検出するための胸部X線検査に適用可能である。
論文 参考訳(メタデータ) (2020-07-01T20:48:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。