論文の概要: Classification of lung cancer subtypes on CT images with synthetic
pathological priors
- arxiv url: http://arxiv.org/abs/2308.04663v1
- Date: Wed, 9 Aug 2023 02:04:05 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-10 15:19:51.854016
- Title: Classification of lung cancer subtypes on CT images with synthetic
pathological priors
- Title(参考訳): 合成病理組織を用いたCT画像における肺癌亜型の分類
- Authors: Wentao Zhu and Yuan Jin and Gege Ma and Geng Chen and Jan Egger and
Shaoting Zhang and Dimitris N. Metaxas
- Abstract要約: 同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
- 参考スコア(独自算出の注目度): 41.75054301525535
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: The accurate diagnosis on pathological subtypes for lung cancer is of
significant importance for the follow-up treatments and prognosis managements.
In this paper, we propose self-generating hybrid feature network (SGHF-Net) for
accurately classifying lung cancer subtypes on computed tomography (CT) images.
Inspired by studies stating that cross-scale associations exist in the image
patterns between the same case's CT images and its pathological images, we
innovatively developed a pathological feature synthetic module (PFSM), which
quantitatively maps cross-modality associations through deep neural networks,
to derive the "gold standard" information contained in the corresponding
pathological images from CT images. Additionally, we designed a radiological
feature extraction module (RFEM) to directly acquire CT image information and
integrated it with the pathological priors under an effective feature fusion
framework, enabling the entire classification model to generate more indicative
and specific pathologically related features and eventually output more
accurate predictions. The superiority of the proposed model lies in its ability
to self-generate hybrid features that contain multi-modality image information
based on a single-modality input. To evaluate the effectiveness, adaptability,
and generalization ability of our model, we performed extensive experiments on
a large-scale multi-center dataset (i.e., 829 cases from three hospitals) to
compare our model and a series of state-of-the-art (SOTA) classification
models. The experimental results demonstrated the superiority of our model for
lung cancer subtypes classification with significant accuracy improvements in
terms of accuracy (ACC), area under the curve (AUC), and F1 score.
- Abstract(参考訳): 肺癌の病的亜型の正確な診断は, 経過観察および予後管理において重要である。
本稿では,CT画像から肺がんサブタイプを正確に分類するための自己生成型ハイブリッド特徴ネットワーク(SGHF-Net)を提案する。
本研究は,同症例のCT画像と病理画像間の画像パターンに,クロススケールな関連性が存在することを示す研究から着想を得て,深層ニューラルネットワークによる相互モダリティ関連を定量的にマッピングし,対応する画像に含まれる「ゴールドスタンダード」情報をCT画像から導出する病的特徴合成モジュール(PFSM)を開発した。
さらに,放射線学的特徴抽出モジュール(rfem)を設計し,ct画像情報を直接取得し,有効な特徴融合フレームワークで病理前駆体と統合することで,分類モデル全体がより指示的かつ特異的な病理関連特徴を生成し,最終的にはより正確な予測を行う。
提案モデルの優位性は、単一モダリティ入力に基づくマルチモダリティ画像情報を含むハイブリッド機能を自己生成する能力にある。
本モデルの有効性,適応性,一般化性を評価するために,大規模多施設データセット(病院3施設から829例)を用いて大規模実験を行い,本モデルと最先端(sota)分類モデルの比較を行った。
実験の結果, 肺がんの亜型分類において, 精度 (acc), 曲線下面積 (auc), およびf1得点の点で有意な精度改善が得られた。
関連論文リスト
- Multiscale Latent Diffusion Model for Enhanced Feature Extraction from Medical Images [5.395912799904941]
CTスキャナーモデルと取得プロトコルのバリエーションは、抽出した放射能特性に有意な変動をもたらす。
LTDiff++は医療画像の特徴抽出を強化するために設計されたマルチスケール潜在拡散モデルである。
論文 参考訳(メタデータ) (2024-10-05T02:13:57Z) - CC-DCNet: Dynamic Convolutional Neural Network with Contrastive Constraints for Identifying Lung Cancer Subtypes on Multi-modality Images [13.655407979403945]
肺がんサブタイプを多次元・多モード画像で正確に分類するための新しい深層学習ネットワークを提案する。
提案モデルの強みは, 対のCT-病理画像セットと独立のCT画像セットの両方を動的に処理できることにある。
また,ネットワーク学習を通じてモダリティ関係を定量的にマッピングするコントラスト制約モジュールも開発した。
論文 参考訳(メタデータ) (2024-07-18T01:42:00Z) - A Unified Multi-Phase CT Synthesis and Classification Framework for
Kidney Cancer Diagnosis with Incomplete Data [18.15801599933636]
非完全多相CTを用いた腎癌診断のための統合的枠組みを提案する。
同時に、欠落したCT画像を復元し、完了した画像セットを使用して癌サブタイプを分類する。
提案するフレームワークは,完全な3次元畳み込みニューラルネットワークに基づいている。
論文 参考訳(メタデータ) (2023-12-09T11:34:14Z) - Histopathologic Cancer Detection [0.0]
この作業では、PatchCamelyonベンチマークデータセットを使用して、モデルをマルチレイヤのパーセプトロンと畳み込みモデルでトレーニングし、精度の高いリコール、F1スコア、精度、AUCスコアでモデルのパフォーマンスを観察する。
また,データ拡張を伴うResNet50とInceptionNetモデルを導入し,ResNet50が最先端モデルに勝てることを示す。
論文 参考訳(メタデータ) (2023-11-13T19:51:46Z) - Conversion Between CT and MRI Images Using Diffusion and Score-Matching
Models [7.745729132928934]
本稿では,拡散モデルとスコアマッチングモデルという,新たなディープラーニングフレームワークを提案する。
以上の結果から, 拡散およびスコアマッチングモデルにより, CNNおよびGANモデルよりも優れた合成CT画像が生成されることがわかった。
本研究は,相補的な画像モダリティを用いて得られた画像に基づいて高品質な画像を生成するために,拡散とスコアマッチングモデルが優れていることを示唆する。
論文 参考訳(メタデータ) (2022-09-24T23:50:54Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - CoRSAI: A System for Robust Interpretation of CT Scans of COVID-19
Patients Using Deep Learning [133.87426554801252]
我々は,深部畳み込み神経網のアンサンブルを用いた肺CTスキャンのセグメンテーションによるアプローチを採用した。
本モデルを用いて, 病変の分類, 患者の動態の評価, 病変による肺の相対体積の推定, 肺の損傷ステージの評価が可能となった。
論文 参考訳(メタデータ) (2021-05-25T12:06:55Z) - Malignancy Prediction and Lesion Identification from Clinical
Dermatological Images [65.1629311281062]
臨床皮膚画像から機械学習に基づく悪性度予測と病変の同定を検討する。
まず, サブタイプや悪性度に関わらず画像に存在するすべての病変を同定し, その悪性度を推定し, 凝集により, 画像レベルの悪性度も生成する。
論文 参考訳(メタデータ) (2021-04-02T20:52:05Z) - G-MIND: An End-to-End Multimodal Imaging-Genetics Framework for
Biomarker Identification and Disease Classification [49.53651166356737]
診断によって誘導される画像データと遺伝データを統合し、解釈可能なバイオマーカーを提供する新しいディープニューラルネットワークアーキテクチャを提案する。
2つの機能的MRI(fMRI)パラダイムとSingle Nucleotide Polymorphism (SNP)データを含む統合失調症の集団研究で本モデルを評価した。
論文 参考訳(メタデータ) (2021-01-27T19:28:04Z) - A Multi-Stage Attentive Transfer Learning Framework for Improving
COVID-19 Diagnosis [49.3704402041314]
新型コロナの診断を改善するための多段階集中移動学習フレームワークを提案する。
提案するフレームワークは、複数のソースタスクと異なるドメインのデータから知識を学習し、正確な診断モデルを訓練する3つの段階からなる。
本稿では,肺CT画像のマルチスケール表現を学習するための自己教師付き学習手法を提案する。
論文 参考訳(メタデータ) (2021-01-14T01:39:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。