論文の概要: A Knowledge-enhanced Pathology Vision-language Foundation Model for Cancer Diagnosis
- arxiv url: http://arxiv.org/abs/2412.13126v1
- Date: Tue, 17 Dec 2024 17:45:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-18 13:57:25.215771
- Title: A Knowledge-enhanced Pathology Vision-language Foundation Model for Cancer Diagnosis
- Title(参考訳): 癌診断のための知識強調型病理ビジョン言語基盤モデル
- Authors: Xiao Zhou, Luoyi Sun, Dexuan He, Wenbin Guan, Ruifen Wang, Lifeng Wang, Xin Sun, Kun Sun, Ya Zhang, Yanfeng Wang, Weidi Xie,
- Abstract要約: 本稿では,疾患知識を階層型セマンティックグループ内のアライメントに組み込む知識強化型視覚言語事前学習手法を提案する。
KEEPはゼロショット癌診断タスクにおいて最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 58.85247337449624
- License:
- Abstract: Deep learning has enabled the development of highly robust foundation models for various pathological tasks across diverse diseases and patient cohorts. Among these models, vision-language pre-training, which leverages large-scale paired data to align pathology image and text embedding spaces, and provides a novel zero-shot paradigm for downstream tasks. However, existing models have been primarily data-driven and lack the incorporation of domain-specific knowledge, which limits their performance in cancer diagnosis, especially for rare tumor subtypes. To address this limitation, we establish a Knowledge-enhanced Pathology (KEEP) foundation model that harnesses disease knowledge to facilitate vision-language pre-training. Specifically, we first construct a disease knowledge graph (KG) that covers 11,454 human diseases with 139,143 disease attributes, including synonyms, definitions, and hypernym relations. We then systematically reorganize the millions of publicly available noisy pathology image-text pairs, into 143K well-structured semantic groups linked through the hierarchical relations of the disease KG. To derive more nuanced image and text representations, we propose a novel knowledge-enhanced vision-language pre-training approach that integrates disease knowledge into the alignment within hierarchical semantic groups instead of unstructured image-text pairs. Validated on 18 diverse benchmarks with more than 14,000 whole slide images (WSIs), KEEP achieves state-of-the-art performance in zero-shot cancer diagnostic tasks. Notably, for cancer detection, KEEP demonstrates an average sensitivity of 89.8% at a specificity of 95.0% across 7 cancer types. For cancer subtyping, KEEP achieves a median balanced accuracy of 0.456 in subtyping 30 rare brain cancers, indicating strong generalizability for diagnosing rare tumors.
- Abstract(参考訳): 深層学習は、様々な疾患や患者コホートにまたがる様々な病理学的タスクのための、高度に堅牢な基礎モデルの開発を可能にした。
これらのモデルの中で、視覚言語による事前訓練は、大規模なペアデータを利用して、病理画像とテキスト埋め込み空間を整列させ、下流タスクのための新しいゼロショットパラダイムを提供する。
しかし、既存のモデルは、主にデータ駆動であり、特にまれな腫瘍のサブタイプにおいて、がんの診断におけるパフォーマンスを制限するドメイン固有の知識が組み込まれていない。
この限界に対処するため,我々は,視覚言語による事前学習を促進するために,疾患知識を活用する知識強化病理学(KEEP)基盤モデルを構築した。
具体的には、まず、同義語、定義、ハイパーネム関係を含む139,143の疾患属性を持つ11,454のヒト疾患をカバーする疾患知識グラフ(KG)を構築する。
そこで我々は,KGの階層的関係を介し,数百万もの公用ノイズ病理画像テキストペアを143Kのよく構造化されたセマンティックグループに体系的に再構成した。
よりニュアンスな画像とテキスト表現を導出するために,病的知識を非構造化画像とテキストのペアではなく階層的セマンティックグループ内のアライメントに統合する,知識強化型視覚言語事前学習手法を提案する。
14,000以上のスライド画像(WSI)を持つ18の多様なベンチマークで検証されたKEEPは、ゼロショットがん診断タスクで最先端のパフォーマンスを達成する。
特に、がん検出において、KEEPは7種類の癌に対して平均89.8%の感度を95.0%の特異性で示している。
KEEPは、がんのサブタイピングにおいて、30の稀な脳がんのサブタイピングにおいて、0.456の中央値のバランス精度を達成し、稀な腫瘍の診断に強い一般化性を示す。
関連論文リスト
- Boosting Medical Image-based Cancer Detection via Text-guided Supervision from Reports [68.39938936308023]
本研究では, 高精度ながん検出を実現するための新しいテキスト誘導学習法を提案する。
本手法は,大規模プレトレーニングVLMによる臨床知識の活用により,一般化能力の向上が期待できる。
論文 参考訳(メタデータ) (2024-05-23T07:03:38Z) - Knowledge-enhanced Visual-Language Pretraining for Computational Pathology [68.6831438330526]
本稿では,公共資源から収集した大規模画像テキストペアを利用した視覚的表現学習の課題について考察する。
ヒト32組織から病理診断を必要とする4,718の疾患に対して50,470個の情報属性からなる病理知識ツリーをキュレートする。
論文 参考訳(メタデータ) (2024-04-15T17:11:25Z) - Virchow: A Million-Slide Digital Pathology Foundation Model [34.38679208931425]
本稿では,コンピュータ病理学の基礎モデルであるVirchowを紹介する。
Virchowは、150万のヘマトキシリンとエオシン染色されたスライドイメージに基づいて、632万のパラメータをトレーニングしたビジョントランスフォーマーモデルである。
論文 参考訳(メタデータ) (2023-09-14T15:09:35Z) - CAMIL: Context-Aware Multiple Instance Learning for Cancer Detection and Subtyping in Whole Slide Images [3.1118773046912382]
がん診断のためのコンテキスト認識型マルチインスタンス学習(CAMIL)アーキテクチャを提案する。
CAMILは隣接する制約のある注意を取り入れて、WSI(Whole Slide Images)内のタイル間の依存関係を考慮し、コンテキスト制約を事前の知識として統合する。
CAMILは非小細胞肺癌(TCGA-NSCLC)の亜型であり,リンパ節転移は検出され,AUCは97.5%,95.9%,88.1%であった。
論文 参考訳(メタデータ) (2023-05-09T10:06:37Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z) - Pan-Cancer Integrative Histology-Genomic Analysis via Interpretable
Multimodal Deep Learning [4.764927152701701]
14種類のがん患者5,720人のスライド画像,RNA配列,コピー数の変化,および突然変異データを統合する。
我々の解釈可能な、弱教師付き、マルチモーダルなディープラーニングアルゴリズムは、これらの不均一なモダリティを融合して結果を予測することができる。
本研究は,全ての癌型にまたがる予後予測に寄与する形態学的および分子マーカーを解析する。
論文 参考訳(メタデータ) (2021-08-04T20:40:05Z) - Wide & Deep neural network model for patch aggregation in CNN-based
prostate cancer detection systems [51.19354417900591]
前立腺癌(PCa)は、2020年に約141万件の新規感染者と約37万5000人の死者を出した男性の死因の1つである。
自動診断を行うには、まず前立腺組織サンプルをギガピクセル分解能全スライド画像にデジタイズする。
パッチと呼ばれる小さなサブイメージが抽出され、予測され、パッチレベルの分類が得られる。
論文 参考訳(メタデータ) (2021-05-20T18:13:58Z) - In-Line Image Transformations for Imbalanced, Multiclass Computer Vision
Classification of Lung Chest X-Rays [91.3755431537592]
本研究は、COVID-19 LCXRデータ不足のバランスをとるために画像変換を適用するために、文献の体系を活用することを目的としている。
convolutional neural networks(cnns)のようなディープラーニング技術は、健康状態と疾患状態を区別する特徴を選択することができる。
本研究は,CNNアーキテクチャを用いて高速多クラスLCXR分類を94%精度で行う。
論文 参考訳(メタデータ) (2021-04-06T02:01:43Z) - Hierarchical Deep Learning Ensemble to Automate the Classification of
Breast Cancer Pathology Reports by ICD-O Topography [0.0]
本稿では,2201の病理報告の自動ラベリングに,アート畳み込みニューラルネットワークモデルの状態を取り入れた階層型深層学習アンサンブル法を提案する。
その結果,F1マイクロは14%以上,F1マクロスコアは55%以上であった。
論文 参考訳(メタデータ) (2020-08-28T10:29:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。