論文の概要: Leveraging Medical Foundation Model Features in Graph Neural Network-Based Retrieval of Breast Histopathology Images
- arxiv url: http://arxiv.org/abs/2405.04211v3
- Date: Thu, 12 Dec 2024 18:42:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-13 13:29:21.839110
- Title: Leveraging Medical Foundation Model Features in Graph Neural Network-Based Retrieval of Breast Histopathology Images
- Title(参考訳): グラフニューラルネットワークを用いた乳腺病理像検索における医療基礎モデルの特徴の活用
- Authors: Nematollah Saeidi, Hossein Karshenas, Bijan Shoushtarian, Sepideh Hatamikia, Ramona Woitek, Amirreza Mahbod,
- Abstract要約: 本稿では,胸部組織像検索のための新しいアテンションベース逆正則変分グラフオートエンコーダモデルを提案する。
UNIの特徴でトレーニングされた当社のトップパフォーマンスモデルでは,平均mAP/mMVスコアが96.7%/91.5%,97.6%/94.2%,BACHデータセットが97.6%/94.2%であった。
- 参考スコア(独自算出の注目度): 1.48419209885019
- License:
- Abstract: Breast cancer is the most common cancer type in women worldwide. Early detection and appropriate treatment can significantly reduce its impact. While histopathology examinations play a vital role in rapid and accurate diagnosis, they often require experienced medical experts for proper recognition and cancer grading. Automated image retrieval systems have the potential to assist pathologists in identifying cancerous tissues, thereby accelerating the diagnostic process. Nevertheless, proposing an accurate image retrieval model is challenging due to considerable variability among the tissue and cell patterns in histological images. In this work, we leverage the features from foundation models in a novel attention-based adversarially regularized variational graph autoencoder model for breast histological image retrieval. Our results confirm the superior performance of models trained with foundation model features compared to those using pre-trained convolutional neural networks (up to 7.7% and 15.5% for mAP and mMV, respectively), with the pre-trained general-purpose self-supervised model for computational pathology (UNI) delivering the best overall performance. By evaluating two publicly available histology image datasets of breast cancer, our top-performing model, trained with UNI features, achieved average mAP/mMV scores of 96.7%/91.5% and 97.6%/94.2% for the BreakHis and BACH datasets, respectively. Our proposed retrieval model has the potential to be used in clinical settings to enhance diagnostic performance and ultimately benefit patients.
- Abstract(参考訳): 乳がんは世界でも最も多いがんである。
早期発見と適切な治療は、その影響を著しく減少させる。
病理組織学的検査は、迅速かつ正確な診断において重要な役割を担っているが、経験豊富な医療専門家が適切な認識とがんの診断に必要とされることが多い。
自動画像検索システムは、病理学者ががん組織を同定するのを補助し、診断プロセスを加速する可能性がある。
しかし,組織像における組織や細胞パターンの変動がかなり大きいため,正確な画像検索モデルの提案は困難である。
本研究では,乳房組織像検索のための新しい注意型逆正則変分グラフオートエンコーダモデルにおいて,基礎モデルの特徴を利用する。
その結果, 基礎モデルを用いたモデルでは, 事前学習した畳み込みニューラルネットワーク(mAPとmMVはそれぞれ最大7.7%, 最大15.5%)と比較して, 基礎モデルで訓練したモデルの方が優れた性能を示した。
乳がんの病理組織学的画像データセットを2つ公開することにより、UNIの特徴で訓練された我々のトップパフォーマンスモデルは、平均mAP/mMVスコアを96.7%/91.5%と97.6%/94.2%と、BreakHisデータセットとBACHデータセットでそれぞれ達成した。
提案した検索モデルは,臨床現場で診断性能を高め,最終的には患者に利益をもたらす可能性がある。
関連論文リスト
- A Foundational Generative Model for Breast Ultrasound Image Analysis [42.618964727896156]
基礎モデルは臨床現場で様々な課題に対処するための強力なツールとして登場した。
乳房超音波検査に特化して設計された最初の基礎的生成モデルであるBUSGenについて述べる。
BUSGenは、数ショットの適応で、現実的で情報に富んだタスク固有のデータのリポジトリを生成することができる。
論文 参考訳(メタデータ) (2025-01-12T16:39:13Z) - MRANet: A Modified Residual Attention Networks for Lung and Colon Cancer Classification [0.0]
肺癌と大腸癌は、がんの死亡率に大きく寄与する。
異なる画像検出に画像技術を活用することで、学習モデルは癌分類の自動化において有望であることが示されている。
改良された注意ネットワークアーキテクチャに基づく新しいアプローチを提案する。
提案モデルの精度は99.30%,96.63%,97.56%であった。
論文 参考訳(メタデータ) (2024-12-23T16:31:45Z) - Histopathologic Cancer Detection [0.0]
この作業では、PatchCamelyonベンチマークデータセットを使用して、モデルをマルチレイヤのパーセプトロンと畳み込みモデルでトレーニングし、精度の高いリコール、F1スコア、精度、AUCスコアでモデルのパフォーマンスを観察する。
また,データ拡張を伴うResNet50とInceptionNetモデルを導入し,ResNet50が最先端モデルに勝てることを示す。
論文 参考訳(メタデータ) (2023-11-13T19:51:46Z) - Certification of Deep Learning Models for Medical Image Segmentation [44.177565298565966]
ランダムな平滑化と拡散モデルに基づく医用画像のための認定セグメンテーションベースラインを初めて提示する。
この結果から,拡散確率モデルをデノナイズするパワーを活用することで,ランダムな平滑化の限界を克服できることが示唆された。
論文 参考訳(メタデータ) (2023-10-05T16:40:33Z) - Classification of lung cancer subtypes on CT images with synthetic
pathological priors [41.75054301525535]
同症例のCT像と病理像との間には,画像パターンに大規模な関連性が存在する。
肺がんサブタイプをCT画像上で正確に分類するための自己生成型ハイブリッド機能ネットワーク(SGHF-Net)を提案する。
論文 参考訳(メタデータ) (2023-08-09T02:04:05Z) - Diagnose Like a Radiologist: Hybrid Neuro-Probabilistic Reasoning for
Attribute-Based Medical Image Diagnosis [42.624671531003166]
本稿では,属性に基づく医用画像診断のためのハイブリッド型ニューロ確率推論アルゴリズムを提案する。
我々は,ハイブリッド推論アルゴリズムを2つの困難な画像診断タスクに適用することに成功している。
論文 参考訳(メタデータ) (2022-08-19T12:06:46Z) - Application of Transfer Learning and Ensemble Learning in Image-level
Classification for Breast Histopathology [9.037868656840736]
CAD(Computer-Aided Diagnosis)では、従来の分類モデルでは、主に1つのネットワークを使って特徴を抽出する。
本稿では良性病変と悪性病変のバイナリ分類のための画像レベルラベルに基づく深層アンサンブルモデルを提案する。
結果: アンサンブルネットワークモデルにおいて、画像レベルのバイナリ分類は9,8.90%の精度を達成する。
論文 参考訳(メタデータ) (2022-04-18T13:31:53Z) - EMT-NET: Efficient multitask network for computer-aided diagnosis of
breast cancer [58.720142291102135]
乳腺腫瘍の分類と分別を同時に行うための,効率的で軽量な学習アーキテクチャを提案する。
腫瘍分類ネットワークにセグメンテーションタスクを組み込むことにより,腫瘍領域に着目したバックボーンネットワークで表現を学習する。
腫瘍分類の精度、感度、特異性はそれぞれ88.6%、94.1%、85.3%である。
論文 参考訳(メタデータ) (2022-01-13T05:24:40Z) - Synthesizing lesions using contextual GANs improves breast cancer
classification on mammograms [0.4297070083645048]
本稿では, マンモグラムの病変を現実的に合成し, 除去するデータ拡張のための, GANモデルを提案する。
自己注意と半教師付き学習コンポーネントにより、U-netベースのアーキテクチャは高解像度(256x256px)の出力を生成することができる。
論文 参考訳(メタデータ) (2020-05-29T21:23:00Z) - An interpretable classifier for high-resolution breast cancer screening
images utilizing weakly supervised localization [45.00998416720726]
医用画像の特徴に対処する枠組みを提案する。
このモデルはまず、画像全体の低容量だがメモリ効率のよいネットワークを使用して、最も情報性の高い領域を識別する。
次に、選択したリージョンから詳細を収集するために、別の高容量ネットワークを適用します。
最後に、グローバルおよびローカル情報を集約して最終的な予測を行うフュージョンモジュールを使用する。
論文 参考訳(メタデータ) (2020-02-13T15:28:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。