論文の概要: Multi-Label Generalized Zero Shot Learning for the Classification of
Disease in Chest Radiographs
- arxiv url: http://arxiv.org/abs/2107.06563v1
- Date: Wed, 14 Jul 2021 09:04:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-15 14:19:08.964686
- Title: Multi-Label Generalized Zero Shot Learning for the Classification of
Disease in Chest Radiographs
- Title(参考訳): 胸部x線写真における疾患分類のためのマルチラベル一般化ゼロショット学習
- Authors: Nasir Hayat, Hazem Lashen, Farah E. Shamout
- Abstract要約: 胸部X線画像の複数の病変を同時に予測できるゼロショット学習ネットワークを提案する。
ネットワークはエンドツーエンドのトレーニングが可能で、オフライン機能抽出器の独立した事前トレーニングは不要である。
我々のネットワークは、リコール、精度、f1スコア、受信機動作特性曲線の領域において、2つの強いベースラインを上回ります。
- 参考スコア(独自算出の注目度): 0.7734726150561088
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Despite the success of deep neural networks in chest X-ray (CXR) diagnosis,
supervised learning only allows the prediction of disease classes that were
seen during training. At inference, these networks cannot predict an unseen
disease class. Incorporating a new class requires the collection of labeled
data, which is not a trivial task, especially for less frequently-occurring
diseases. As a result, it becomes inconceivable to build a model that can
diagnose all possible disease classes. Here, we propose a multi-label
generalized zero shot learning (CXR-ML-GZSL) network that can simultaneously
predict multiple seen and unseen diseases in CXR images. Given an input image,
CXR-ML-GZSL learns a visual representation guided by the input's corresponding
semantics extracted from a rich medical text corpus. Towards this ambitious
goal, we propose to map both visual and semantic modalities to a latent feature
space using a novel learning objective. The objective ensures that (i) the most
relevant labels for the query image are ranked higher than irrelevant labels,
(ii) the network learns a visual representation that is aligned with its
semantics in the latent feature space, and (iii) the mapped semantics preserve
their original inter-class representation. The network is end-to-end trainable
and requires no independent pre-training for the offline feature extractor.
Experiments on the NIH Chest X-ray dataset show that our network outperforms
two strong baselines in terms of recall, precision, f1 score, and area under
the receiver operating characteristic curve. Our code is publicly available at:
https://github.com/nyuad-cai/CXR-ML-GZSL.git
- Abstract(参考訳): 胸部x線(cxr)診断におけるディープニューラルネットワークの成功にもかかわらず、教師付き学習はトレーニング中に見られた疾患クラスを予測できるのみである。
推論では、これらのネットワークは未発見の疾患クラスを予測できない。
新しいクラスを組み込むにはラベル付きデータの収集が必要ですが、これはささいな作業ではありません。
結果として、可能なすべての疾患クラスを診断できるモデルを構築することは不可能になる。
そこで本研究では,CXR画像中の複数の疾患や見えない疾患を同時に予測できる多ラベル一般化ゼロショット学習(CXR-ML-GZSL)ネットワークを提案する。
入力画像が与えられた場合、CXR-ML-GZSLは、リッチな医療用テキストコーパスから抽出された入力の対応するセマンティクスによってガイドされる視覚表現を学習する。
この野心的な目標に向けて,視覚と意味のモダリティを新しい学習目標を用いて潜在特徴空間にマッピングすることを提案する。
この目的により、(i)クエリ画像の最も関連性の高いラベルは、無関係なラベルよりも上位にランクされ、(ii)ネットワークは、潜在特徴空間におけるセマンティクスと整合した視覚表現を学習し、(iii)マッピングされたセマンティクスが元のクラス間表現を保存する。
ネットワークはエンドツーエンドのトレーニングが可能で、オフライン機能抽出器の独立した事前トレーニングは不要である。
NIH Chest X-rayデータセットの実験により、我々のネットワークはリコール、精度、f1スコア、受信機動作特性曲線の領域で2つの強いベースラインを上回ります。
私たちのコードは、https://github.com/nyuad-cai/cxr-ml-gzsl.gitで公開されている。
関連論文リスト
- GenSelfDiff-HIS: Generative Self-Supervision Using Diffusion for
Histopathological Image Segmentation [5.049466204159458]
自己教師付き学習(SSL)は、注釈のないデータのみを利用するモデルを構築することで、いくつかの欠点を提供する代替パラダイムである。
本稿では,生成拡散モデルを用いて病理像をセグメント化するためのSSLアプローチを提案する。
本手法は,拡散モデルがセグメント化タスクに似た画像から画像への変換タスクを効果的に解くことに基づく。
論文 参考訳(メタデータ) (2023-09-04T09:49:24Z) - Class Attention to Regions of Lesion for Imbalanced Medical Image
Recognition [59.28732531600606]
データ不均衡問題に対処するため,textbfClass textbfAttention to textbfRegions of the lesion (CARE)を提案する。
CAREフレームワークは、まれな疾患の病変領域を表すために、バウンディングボックスを必要とする。
その結果,自動バウンディングボックス生成によるCARE変種は,オリジナルのCAREフレームワークに匹敵することがわかった。
論文 参考訳(メタデータ) (2023-07-19T15:19:02Z) - Intelligent Masking: Deep Q-Learning for Context Encoding in Medical
Image Analysis [48.02011627390706]
我々は,対象地域を排除し,事前訓練の手順を改善する,新たな自己指導型アプローチを開発した。
予測モデルに対してエージェントを訓練することで、下流の分類タスクで抽出した意味的特徴を大幅に改善できることを示す。
論文 参考訳(メタデータ) (2022-03-25T19:05:06Z) - 3N-GAN: Semi-Supervised Classification of X-Ray Images with a 3-Player
Adversarial Framework [0.0]
医用画像の半教師付き分類を行うために,3N-GAN (3 Network Generative Adversarial Networks) を提案する。
予備的な結果は、様々なアルゴリズムによる分類性能とGAN世代の改善を示している。
論文 参考訳(メタデータ) (2021-09-22T23:18:59Z) - Semi-supervised classification of radiology images with NoTeacher: A
Teacher that is not Mean [10.880392855729552]
一貫性に基づく半教師付き学習フレームワークであるNoTeacherを紹介する。
NoTeacherは2つの独立したネットワークを採用しており、教師ネットワークの必要性を排除している。
我々は,NoTeacherが5~15%未満のラベル付予算で,フル教師付きAUROCの90~95%以上を達成していることを示す。
論文 参考訳(メタデータ) (2021-08-10T03:08:35Z) - Semantic Segmentation with Generative Models: Semi-Supervised Learning
and Strong Out-of-Domain Generalization [112.68171734288237]
本論文では,画像とラベルの再生モデルを用いた識別画素レベルのタスクのための新しいフレームワークを提案する。
我々は,共同画像ラベルの分布を捕捉し,未ラベル画像の大規模な集合を用いて効率的に訓練する生成的対向ネットワークを学習する。
ドメイン内性能をいくつかのベースラインと比較し,ドメイン外一般化を極端に示す最初の例である。
論文 参考訳(メタデータ) (2021-04-12T21:41:25Z) - Many-to-One Distribution Learning and K-Nearest Neighbor Smoothing for
Thoracic Disease Identification [83.6017225363714]
ディープラーニングは、病気の識別性能を改善するための最も強力なコンピュータ支援診断技術となった。
胸部X線撮影では、大規模データの注釈付けには専門的なドメイン知識が必要で、時間を要する。
本論文では、単一モデルにおける疾患同定性能を改善するために、複数対1の分布学習(MODL)とK-nearest neighbor smoothing(KNNS)手法を提案する。
論文 参考訳(メタデータ) (2021-02-26T02:29:30Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Weakly-Supervised Segmentation for Disease Localization in Chest X-Ray
Images [0.0]
医用胸部X線画像のセマンティックセグメンテーションに対する新しいアプローチを提案する。
本手法は肺と胸壁の間の異常な空気量を検出するための胸部X線検査に適用可能である。
論文 参考訳(メタデータ) (2020-07-01T20:48:35Z) - Deep Mining External Imperfect Data for Chest X-ray Disease Screening [57.40329813850719]
我々は、外部のCXRデータセットを組み込むことで、不完全なトレーニングデータにつながると論じ、課題を提起する。
本研究は,多ラベル病分類問題を重み付き独立二分課題として分類する。
我々のフレームワークは、ドメインとラベルの相違を同時にモデル化し、対処し、優れた知識マイニング能力を実現する。
論文 参考訳(メタデータ) (2020-06-06T06:48:40Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。