論文の概要: PathoHR: Breast Cancer Survival Prediction on High-Resolution Pathological Images
- arxiv url: http://arxiv.org/abs/2503.17970v1
- Date: Sun, 23 Mar 2025 07:37:24 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-25 14:34:14.402384
- Title: PathoHR: Breast Cancer Survival Prediction on High-Resolution Pathological Images
- Title(参考訳): 高解像度病理像を用いた乳癌生存率の予測
- Authors: Yang Luo, Shiru Wang, Jun Liu, Jiaxuan Xiao, Rundong Xue, Zeyu Zhang, Hao Zhang, Yu Lu, Yang Zhao, Yutong Xie,
- Abstract要約: 乳癌生存予測のための新しいパイプラインであるPathoHRを提案する。
当社のアプローチでは,パッチワイドWSI表現を強化するために,プラグイン・アンド・プレイ高解像度ビジョン変換器(ViT)を組み込む必要がある。
- 参考スコア(独自算出の注目度): 25.80544600229013
- License:
- Abstract: Breast cancer survival prediction in computational pathology presents a remarkable challenge due to tumor heterogeneity. For instance, different regions of the same tumor in the pathology image can show distinct morphological and molecular characteristics. This makes it difficult to extract representative features from whole slide images (WSIs) that truly reflect the tumor's aggressive potential and likely survival outcomes. In this paper, we present PathoHR, a novel pipeline for accurate breast cancer survival prediction that enhances any size of pathological images to enable more effective feature learning. Our approach entails (1) the incorporation of a plug-and-play high-resolution Vision Transformer (ViT) to enhance patch-wise WSI representation, enabling more detailed and comprehensive feature extraction, (2) the systematic evaluation of multiple advanced similarity metrics for comparing WSI-extracted features, optimizing the representation learning process to better capture tumor characteristics, (3) the demonstration that smaller image patches enhanced follow the proposed pipeline can achieve equivalent or superior prediction accuracy compared to raw larger patches, while significantly reducing computational overhead. Experimental findings valid that PathoHR provides the potential way of integrating enhanced image resolution with optimized feature learning to advance computational pathology, offering a promising direction for more accurate and efficient breast cancer survival prediction. Code will be available at https://github.com/AIGeeksGroup/PathoHR.
- Abstract(参考訳): 計算病理学における乳癌生存予測は腫瘍の不均一性による顕著な課題である。
例えば、病理像における同一腫瘍の異なる領域は、異なる形態学的および分子的特徴を示すことができる。
これにより、腫瘍の攻撃的可能性と生存の可能性を真に反映した全スライド画像(WSI)から代表的特徴を抽出することが困難になる。
本稿では,乳がん生存予測のための新しいパイプラインであるPathoHRについて述べる。
提案手法では,(1)パッチワイドなWSI表現を向上し,より詳細かつ包括的な特徴抽出を可能にするプラグイン・アンド・プレイ高解像度ビジョン・トランスフォーマー(ViT)の導入,(2)WSI抽出した特徴を比較するための複数の高度な類似度指標の体系的評価,表現学習プロセスの最適化による腫瘍特性の把握,(3)提案したパイプラインに追従した小さな画像パッチの精度向上,および,計算オーバーヘッドを大幅に低減する。
実験結果から,PathoHRは画像分解能を最適化した特徴学習と統合し,より正確かつ効率的な乳がん生存予測のための有望な方向を提供する可能性が示唆された。
コードはhttps://github.com/AIGeeksGroup/PathoHRで入手できる。
関連論文リスト
- Deep learning for automated detection of breast cancer in deep ultraviolet fluorescence images with diffusion probabilistic model [6.658963545934998]
拡散確率モデル(DPM)は高品質な画像を生成する可能性を示している。
本稿では,乳がん分類の改善を目的とした深部紫外線蛍光(DUV)画像データセットの増強にDPMを適用した。
論文 参考訳(メタデータ) (2024-07-01T05:00:26Z) - Optimizing Synthetic Correlated Diffusion Imaging for Breast Cancer Tumour Delineation [71.91773485443125]
CDI$s$ - 最適化されたモダリティにより最高のAUCが達成され、金標準のモダリティが0.0044より優れていることを示す。
特に、最適化されたCDI$s$モダリティは、最適化されていないCDI$s$値よりも0.02以上のAUC値を達成する。
論文 参考訳(メタデータ) (2024-05-13T16:07:58Z) - Improving Breast Cancer Grade Prediction with Multiparametric MRI Created Using Optimized Synthetic Correlated Diffusion Imaging [71.91773485443125]
乳がん治療計画において、グレーディングは重要な役割を担っている。
現在の腫瘍グレード法では、患者から組織を抽出し、ストレス、不快感、医療費の上昇につながる。
本稿では,CDI$s$の最適化による乳癌の診断精度の向上について検討する。
論文 参考訳(メタデータ) (2024-05-13T15:48:26Z) - Leveraging Medical Foundation Model Features in Graph Neural Network-Based Retrieval of Breast Histopathology Images [1.48419209885019]
本稿では,胸部組織像検索のための新しいアテンションベース逆正則変分グラフオートエンコーダモデルを提案する。
UNIの特徴でトレーニングされた当社のトップパフォーマンスモデルでは,平均mAP/mMVスコアが96.7%/91.5%,97.6%/94.2%,BACHデータセットが97.6%/94.2%であった。
論文 参考訳(メタデータ) (2024-05-07T11:24:37Z) - MM-SurvNet: Deep Learning-Based Survival Risk Stratification in Breast
Cancer Through Multimodal Data Fusion [18.395418853966266]
乳がん生存リスク階層化のための新しい深層学習手法を提案する。
画像特徴抽出には視覚変換器、特にMaxViTモデルを使用し、患者レベルでの複雑な画像関係のキャプチャには自己注意を用いる。
二重クロスアテンション機構はこれらの特徴を遺伝データと融合させ、臨床データを最終層に組み込んで予測精度を高める。
論文 参考訳(メタデータ) (2024-02-19T02:31:36Z) - Hierarchical Transformer for Survival Prediction Using Multimodality
Whole Slide Images and Genomics [63.76637479503006]
下流タスクのためのギガピクセルレベルのスライド病理画像(WSI)の良質な表現を学習することが重要である。
本稿では,病理画像と対応する遺伝子間の階層的マッピングを学習する階層型マルチモーダルトランスフォーマーフレームワークを提案する。
より優れたWSI表現能力を維持しながら、ベンチマーク手法と比較してGPUリソースが少ないアーキテクチャです。
論文 参考訳(メタデータ) (2022-11-29T23:47:56Z) - Texture Characterization of Histopathologic Images Using Ecological
Diversity Measures and Discrete Wavelet Transform [82.53597363161228]
本稿では,病理組織像間でテクスチャを特徴付ける手法を提案する。
2つのHIデータセットに有望な精度で、そのような画像の固有特性を定量化することが可能である。
論文 参考訳(メタデータ) (2022-02-27T02:19:09Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - ESTAN: Enhanced Small Tumor-Aware Network for Breast Ultrasound Image
Segmentation [0.0]
本稿では,乳腺腫瘍を正確に分類するための新しいディープニューラルネットワークアーキテクチャであるESTAN(Enhanced Small tumor-Aware Network)を提案する。
ESTANは、2つのエンコーダを導入し、異なるスケールで画像コンテキスト情報を抽出し、フューズする。
論文 参考訳(メタデータ) (2020-09-27T16:42:59Z) - Representation Learning of Histopathology Images using Graph Neural
Networks [12.427740549056288]
本稿では,WSI表現学習のための2段階フレームワークを提案する。
色に基づく手法を用いて関連するパッチをサンプリングし、グラフニューラルネットワークを用いてサンプルパッチ間の関係を学習し、画像情報を単一のベクトル表現に集約する。
肺腺癌 (LUAD) と肺扁平上皮癌 (LUSC) の2つの亜型を鑑別するためのアプローチの有用性について検討した。
論文 参考訳(メタデータ) (2020-04-16T00:09:20Z) - Stan: Small tumor-aware network for breast ultrasound image segmentation [68.8204255655161]
本研究では,小腫瘍認識ネットワーク(Small tumor-Aware Network,STAN)と呼ばれる新しいディープラーニングアーキテクチャを提案する。
提案手法は, 乳腺腫瘍の分節化における最先端のアプローチよりも優れていた。
論文 参考訳(メタデータ) (2020-02-03T22:25:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。