論文の概要: A Versatile Foundation Model for AI-enabled Mammogram Interpretation
- arxiv url: http://arxiv.org/abs/2509.20271v1
- Date: Wed, 24 Sep 2025 16:04:39 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.892339
- Title: A Versatile Foundation Model for AI-enabled Mammogram Interpretation
- Title(参考訳): AIを用いたマンモグラム解釈のためのVersatile Foundation Model
- Authors: Fuxiang Huang, Jiayi Zhu, Yunfang Yu, Yu Xie, Yuan Guo, Qingcong Kong, Mingxiang Wu, Xinrui Jiang, Shu Yang, Jiabo Ma, Ziyi Liu, Zhe Xu, Zhixuan Chen, Yujie Tan, Zifan He, Luhui Mao, Xi Wang, Junlin Hou, Lei Zhang, Qiong Luo, Zhenhui Li, Herui Yao, Hao Chen,
- Abstract要約: VersaMammoは制限を克服するために設計されたマンモグラムの汎用基盤モデルである。
まず,教師モデルは自己教師型学習を用いて学習し,ラベルのないマンモグラムから伝達可能な特徴を抽出する。
そして、教師付き学習と知識蒸留を組み合わせることで、特徴と臨床知識の両方をVersaMammoに転送する。
- 参考スコア(独自算出の注目度): 36.48796962019666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Breast cancer is the most commonly diagnosed cancer and the leading cause of cancer-related mortality in women globally. Mammography is essential for the early detection and diagnosis of breast lesions. Despite recent progress in foundation models (FMs) for mammogram analysis, their clinical translation remains constrained by several fundamental limitations, including insufficient diversity in training data, limited model generalizability, and a lack of comprehensive evaluation across clinically relevant tasks. Here, we introduce VersaMammo, a versatile foundation model for mammograms, designed to overcome these limitations. We curated the largest multi-institutional mammogram dataset to date, comprising 706,239 images from 21 sources. To improve generalization, we propose a two-stage pre-training strategy to develop VersaMammo, a mammogram foundation model. First, a teacher model is trained via self-supervised learning to extract transferable features from unlabeled mammograms. Then, supervised learning combined with knowledge distillation transfers both features and clinical knowledge into VersaMammo. To ensure a comprehensive evaluation, we established a benchmark comprising 92 specific tasks, including 68 internal tasks and 24 external validation tasks, spanning 5 major clinical task categories: lesion detection, segmentation, classification, image retrieval, and visual question answering. VersaMammo achieves state-of-the-art performance, ranking first in 50 out of 68 specific internal tasks and 20 out of 24 external validation tasks, with average ranks of 1.5 and 1.2, respectively. These results demonstrate its superior generalization and clinical utility, offering a substantial advancement toward reliable and scalable breast cancer screening and diagnosis.
- Abstract(参考訳): 乳がんは最も一般的に診断されるがんであり、世界中の女性のがん関連死亡の原因となっている。
乳腺病変の早期発見と診断にはマンモグラフィーが不可欠である。
近年のマンモグラム解析の基礎モデル(FM)の進歩にもかかわらず、それらの臨床翻訳は、トレーニングデータの多様性の不足、モデルの一般化可能性の制限、臨床関連タスクにおける包括的な評価の欠如など、いくつかの基本的な制限によって制限されている。
本稿では,これらの制約を克服するために,マンモグラムの多元的基礎モデルであるVersaMammoを紹介する。
これまでで最大の多施設マンモグラフィーデータセットを収集し,21源706,239枚の画像を得た。
一般化を改善するため,マンモグラム基礎モデルであるVersaMammoを開発するための2段階事前学習戦略を提案する。
まず,教師モデルは自己教師型学習を用いて学習し,ラベルのないマンモグラムから伝達可能な特徴を抽出する。
そして、教師付き学習と知識蒸留を組み合わせることで、特徴と臨床知識の両方をVersaMammoに転送する。
包括的評価を確保するため,68の内的タスクと24の外部的検証タスクを含む92の特定タスクからなるベンチマークを構築し,病変検出,セグメンテーション,分類,画像検索,視覚的質問応答の5つの主要な臨床タスクカテゴリにまたがった。
VersaMammoは最先端のパフォーマンスを達成し、68の特定の内部タスクのうち50にランクインし、24の外部検証タスクのうち20にランクインする。
以上の結果から, 乳がん検診・診断の信頼性向上に寄与し, より優れた一般化と臨床的有用性を示した。
関連論文リスト
- A Disease-Centric Vision-Language Foundation Model for Precision Oncology in Kidney Cancer [54.58205672910646]
RenalCLIPは、腎腫瘤の特徴、診断、予後のための視覚言語基盤モデルである。
腎がんの完全な臨床ワークフローにまたがる10のコアタスクにおいて、優れたパフォーマンスと優れた一般化性を実現した。
論文 参考訳(メタデータ) (2025-08-22T17:48:19Z) - DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model [69.20140430678092]
DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-17T00:41:39Z) - Revisiting Invariant Learning for Out-of-Domain Generalization on Multi-Site Mammogram Datasets [8.080495390226115]
本稿では,乳がんリスク評価における不変学習の適用性について,マンモグラフィーを用いて再検討する。
評価指標には、精度、平均精度、曲線下の面積が含まれる。
本研究では,マンモグラム分類における不変学習の利点,限界,課題について検討する。
論文 参考訳(メタデータ) (2025-03-09T20:28:04Z) - Pathological Prior-Guided Multiple Instance Learning For Mitigating Catastrophic Forgetting in Breast Cancer Whole Slide Image Classification [50.899861205016265]
乳癌のWSI分類における破滅的忘れを緩和する新しい枠組みであるPaGMILを提案する。
私たちのフレームワークでは、共通のMILモデルアーキテクチャに2つの重要なコンポーネントを導入しています。
複数の乳がんデータセットを対象としたPaGMILの連続学習性能の評価を行った。
論文 参考訳(メタデータ) (2025-03-08T04:51:58Z) - Mammo-Clustering: A Multi-views Tri-level Information Fusion Context Clustering Framework for Localization and Classification in Mammography [13.581151516877238]
マンモグラフィー画像は通常、非常に高解像度で、病変はごく小さな領域のみを占める。
ニューラルネットワークのダウンサンプリングは、マイクロ石灰化や微妙な構造が失われることを容易に引き起こす。
本稿では,三重情報融合を用いたコンテキストクラスタリングネットワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T10:17:13Z) - GMAI-MMBench: A Comprehensive Multimodal Evaluation Benchmark Towards General Medical AI [67.09501109871351]
LVLM(Large Vision-Language Model)は、画像、テキスト、生理学的信号などの多様なデータタイプを扱うことができる。
GMAI-MMBenchは、よく分類されたデータ構造と、これまででもっとも包括的な一般医療用AIベンチマークである。
38の医療画像モダリティ、18の臨床関連タスク、18の部門、視覚質問回答(VQA)フォーマットの4つの知覚的粒度からなる284のデータセットで構成されている。
論文 参考訳(メタデータ) (2024-08-06T17:59:21Z) - Panoptic Segmentation of Mammograms with Text-To-Image Diffusion Model [1.2130800774416757]
視覚言語拡散モデルは、様々な下流タスクに対する画像生成と転送性において顕著な性能を示した。
本稿では,安定拡散モデルから最新のパン光学セグメントアーキテクチャへの入力として,事前学習した特徴を活用することを提案する。
論文 参考訳(メタデータ) (2024-07-19T14:04:05Z) - Mammo-CLIP: Leveraging Contrastive Language-Image Pre-training (CLIP) for Enhanced Breast Cancer Diagnosis with Multi-view Mammography [6.537171378333966]
Mammo-CLIPはマルチビューマンモグラムと対応する単純なテキストを処理する最初のマルチモーダルフレームワークである。
学習効率を向上させるため、CLIPイメージと微調整パラメータ用のテキストエンコーダにプラグアンドプレイアダプタが加えられている。
その結果,マンモCLIPはAUCの最先端のクロスビュートランスよりも優れていた。
論文 参考訳(メタデータ) (2024-04-24T16:07:31Z) - MammoDG: Generalisable Deep Learning Breaks the Limits of Cross-Domain
Multi-Center Breast Cancer Screening [4.587250201300601]
マンモグラフィーは高い変動性とマンモグラフィーのパターンのために課題を提起する。
MammoDGはクロスドメインマルチセンターマンモグラフィーデータの汎用的で信頼性の高い解析のための新しいディープラーニングフレームワークである。
論文 参考訳(メタデータ) (2023-08-02T10:10:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。