論文の概要: Cross- and Intra-image Prototypical Learning for Multi-label Disease Diagnosis and Interpretation
- arxiv url: http://arxiv.org/abs/2411.04607v1
- Date: Thu, 07 Nov 2024 10:46:01 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-08 19:38:38.951376
- Title: Cross- and Intra-image Prototypical Learning for Multi-label Disease Diagnosis and Interpretation
- Title(参考訳): マルチラベル病の診断と解釈のためのクロス・イン・イン・イン・イメージ型学習
- Authors: Chong Wang, Fengbei Liu, Yuanhong Chen, Helen Frazer, Gustavo Carneiro,
- Abstract要約: 医用画像からの正確なマルチラベル診断と解釈のためのクロスタイプおよびイントライメージ型学習フレームワークを提案する。
本稿では,一貫性のある画像内情報を効果的に活用し,解釈の堅牢性と予測性能を向上させる2段階アライメントに基づく新たな正規化戦略を提案する。
- 参考スコア(独自算出の注目度): 15.303610605543746
- License:
- Abstract: Recent advances in prototypical learning have shown remarkable potential to provide useful decision interpretations associating activation maps and predictions with class-specific training prototypes. Such prototypical learning has been well-studied for various single-label diseases, but for quite relevant and more challenging multi-label diagnosis, where multiple diseases are often concurrent within an image, existing prototypical learning models struggle to obtain meaningful activation maps and effective class prototypes due to the entanglement of the multiple diseases. In this paper, we present a novel Cross- and Intra-image Prototypical Learning (CIPL) framework, for accurate multi-label disease diagnosis and interpretation from medical images. CIPL takes advantage of common cross-image semantics to disentangle the multiple diseases when learning the prototypes, allowing a comprehensive understanding of complicated pathological lesions. Furthermore, we propose a new two-level alignment-based regularisation strategy that effectively leverages consistent intra-image information to enhance interpretation robustness and predictive performance. Extensive experiments show that our CIPL attains the state-of-the-art (SOTA) classification accuracy in two public multi-label benchmarks of disease diagnosis: thoracic radiography and fundus images. Quantitative interpretability results show that CIPL also has superiority in weakly-supervised thoracic disease localisation over other leading saliency- and prototype-based explanation methods.
- Abstract(参考訳): 原型学習の最近の進歩は、アクティベーションマップとクラス固有のトレーニングプロトタイプの予測を関連付ける上で有用な決定解釈を提供する上で、顕著な可能性を示している。
このような原型学習は、様々なシングルラベル疾患に対してよく研究されてきたが、画像内で複数の疾患が同時に発生する非常に関連性があり、より困難なマルチラベル診断のために、既存の原型学習モデルは、複数の疾患の絡み合いによる有意義な活性化マップと効果的なクラスプロトタイプを得るのに苦労している。
本稿では,医療画像からの正確なマルチラベル診断と解釈のための,クロスタイプおよびイントライメージ型学習(CIPL)フレームワークを提案する。
CIPLは、一般的なクロスイメージのセマンティクスを利用して、プロトタイプの学習時に複数の疾患を混乱させ、複雑な病理病変の包括的理解を可能にする。
さらに、一貫した画像内情報を効果的に活用し、解釈の堅牢性と予測性能を向上させる2段階アライメントに基づく新たな正規化戦略を提案する。
胸部X線写真と眼底画像の2つの公的診断基準において, 当科におけるCIPLは, 最先端(SOTA)分類精度が得られた。
定量的解析により,CIPLは,他の主要な唾液量およびプロトタイプに基づく説明法よりも,弱い制御による胸部疾患の局所化に優れていたことが示唆された。
関連論文リスト
- Enhancing Multimodal Medical Image Classification using Cross-Graph Modal Contrastive Learning [5.660131312162423]
本稿では,マルチモーダルな医用画像分類のためのクロスグラフ・モーダルコントラスト学習フレームワークを提案する。
提案手法は、パーキンソン病(PD)データセットと公共メラノーマデータセットの2つのデータセットで評価される。
以上の結果から,CGMCLは従来手法よりも精度,解釈可能性,早期疾患予測に優れていたことが示唆された。
論文 参考訳(メタデータ) (2024-10-23T01:25:25Z) - Benchmarking In-the-wild Multimodal Disease Recognition and A Versatile Baseline [42.49727243388804]
そこで本研究では,植物病原体認識データセットを提案する。
病気のクラスが最も多いだけでなく、各疾患に関するテキストベースの記述も含んでいる。
提案したデータセットは,実世界の疾患認識手法を評価するための理想的なテストベッドとみなすことができる。
論文 参考訳(メタデータ) (2024-08-06T11:49:13Z) - CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - Semi-Supervised Disease Classification based on Limited Medical Image Data [9.633774896301436]
本稿では、半教師付き疾患分類のためのH"older divergenceにインスパイアされた新しい生成モデルを提案する。
PU医学学習によく用いられる5つのベンチマークデータセットについて実験を行った。
本手法は,5つの疾患分類ベンチマークにおいて,最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-05-07T13:11:08Z) - A Clinical-oriented Multi-level Contrastive Learning Method for Disease Diagnosis in Low-quality Medical Images [4.576524795036682]
コントラスト学習(CL)により誘導される疾患診断法は,病変の特徴表現において有意な優位性を示した。
本稿では,病変の特徴を抽出するためのモデルの能力向上を目的とした,臨床指向型多段階CLフレームワークを提案する。
提案されたCLフレームワークは、EyeQとChest X-rayの2つの公開医療画像データセットで検証されている。
論文 参考訳(メタデータ) (2024-04-07T09:08:14Z) - Pixel-Level Explanation of Multiple Instance Learning Models in
Biomedical Single Cell Images [52.527733226555206]
複数のインスタンス学習モデルを説明するための4つの属性法について検討する。
急性骨髄性白血病の2つのデータセットと100万以上の単細胞画像について検討した。
我々は、属性マップと医療専門家の注釈を比較し、モデルの意思決定が人間の基準とどのように異なるかを確認する。
論文 参考訳(メタデータ) (2023-03-15T14:00:11Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - Learning Binary Semantic Embedding for Histology Image Classification
and Retrieval [56.34863511025423]
バイナリ・セマンティック・エンベディング(LBSE)の学習方法を提案する。
効率的な埋め込み、分類、検索を行い、組織像の解釈可能なコンピュータ支援診断を提供する。
3つのベンチマークデータセットで実施された実験は、様々なシナリオにおいてLBSEの優位性を検証する。
論文 参考訳(メタデータ) (2020-10-07T08:36:44Z) - Multi-label Thoracic Disease Image Classification with Cross-Attention
Networks [65.37531731899837]
胸部X線画像から胸部疾患を自動分類するためのCAN(Cross-Attention Networks)を提案する。
また,クロスエントロピー損失を超える新たな損失関数を設計し,クラス間の不均衡を克服する。
論文 参考訳(メタデータ) (2020-07-21T14:37:00Z) - Semi-supervised Medical Image Classification with Relation-driven
Self-ensembling Model [71.80319052891817]
医用画像分類のための関係駆動型半教師付きフレームワークを提案する。
これは、摂動下で与えられた入力の予測一貫性を促進することでラベルのないデータを利用する。
本手法は,シングルラベルおよびマルチラベル画像分類のシナリオにおいて,最先端の半教師付き学習手法よりも優れる。
論文 参考訳(メタデータ) (2020-05-15T06:57:54Z) - Diagnosis of Coronavirus Disease 2019 (COVID-19) with Structured Latent
Multi-View Representation Learning [48.05232274463484]
最近、コロナウイルス病2019(COVID-19)の流行は世界中で急速に広まっている。
多くの患者と医師の重労働のために、機械学習アルゴリズムによるコンピュータ支援診断が緊急に必要である。
本研究では,CT画像から抽出した一連の特徴を用いて,COVID-19の診断を行うことを提案する。
論文 参考訳(メタデータ) (2020-05-06T15:19:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。