論文の概要: ProFound: A moderate-sized vision foundation model for multi-task prostate imaging
- arxiv url: http://arxiv.org/abs/2603.03961v1
- Date: Wed, 04 Mar 2026 11:46:12 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-05 21:29:15.284574
- Title: ProFound: A moderate-sized vision foundation model for multi-task prostate imaging
- Title(参考訳): ProFound: マルチタスク前立腺イメージングのための中程度の視覚基礎モデル
- Authors: Yipei Wang, Yinsong Xu, Weixi Yi, Shaheer Ullah Saeed, Natasha Thorley, Alexander Ng, Yukun Zhou, Wen Yan, Dean Barratt, Shonit Punwani, Veeru Kasivisvanathan, Mark Emberton, Daniel C. Alexander, Yipeng Hu,
- Abstract要約: ProFoundは、前立腺mpMRIのためのドメイン特化視覚基盤モデルである。
5000人の患者を多種多様な多施設で収集する自己管理アプローチのいくつかの変種を用いて事前訓練されている。
ProFoundは一貫して、最先端の専門モデルに勝っているか、競争力がある。
- 参考スコア(独自算出の注目度): 41.28922970886428
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many diagnostic and therapeutic clinical tasks for prostate cancer increasingly rely on multi-parametric MRI. Automating these tasks is challenging because they necessitate expert interpretations, which are difficult to scale to capitalise on modern deep learning. Although modern automated systems achieve expert-level performance in isolated tasks, their general clinical utility remains limited by the requirement of large task-specific labelled datasets. In this paper, we present ProFound, a domain-specialised vision foundation model for volumetric prostate mpMRI. ProFound is pre-trained using several variants of self-supervised approaches on a diverse, multi-institutional collection of 5,000 patients, with a total of over 22,000 unique 3D MRI volumes (over 1,800,000 2D image slices). We conducted a systematic evaluation of ProFound across a broad spectrum of $11$ downstream clinical tasks on over 3,000 independent patients, including prostate cancer detection, Gleason grading, lesion localisation, gland volume estimation, zonal and surrounding structure segmentation. Experimental results demonstrate that finetuned ProFound consistently outperforms or remains competitive with state-of-the-art specialised models and existing medical vision foundation models trained/finetuned on the same data.
- Abstract(参考訳): 前立腺癌に対する多くの診断および治療的臨床的タスクは、ますます多パラメータMRIに依存している。
これらのタスクの自動化は、専門的な解釈を必要とするため、現代のディープラーニングを活かすのが難しいため、難しい。
現代の自動化システムは、独立したタスクにおいて専門家レベルのパフォーマンスを達成するが、その一般的な臨床的有用性は、大きなタスク固有のラベル付きデータセットの要求によって制限されている。
本稿では,大容量前立腺mpMRIのためのドメイン特化視覚基盤モデルProFoundを提案する。
ProFoundは、5000人の患者を多種多様な多施設で収集する自己教師型アプローチのいくつかのバリエーションを使って事前訓練されており、合計で22,000以上の3D MRIボリューム(1800,000,000の2D画像スライス)がある。
前立腺癌検出, グリーソングレーディング, 病変の局在, 腺容積推定, 帯状および周囲構造セグメンテーションなど, 3000人以上の独立した患者を対象に, 広範囲にわたるProFoundの系統的評価を行った。
実験結果から、微調整されたProFoundは、最先端の特殊化モデルと既存の医療ビジョン基盤モデルと、同じデータに基づいてトレーニング/微調整されたモデルに一貫して優れるか、競争力を維持していることが示された。
関連論文リスト
- A Vision-Language Foundation Model for Zero-shot Clinical Collaboration and Automated Concept Discovery in Dermatology [31.639593207459058]
本稿では,マスク付き潜在モデルとコントラスト学習を用いて学習した皮膚科視覚言語基礎モデルであるDermFM-Zeroを紹介する。
我々は、ゼロショット診断とマルチモーダル検索にまたがる20のベンチマークで評価を行い、タスク固有の適応を伴わずに最先端のパフォーマンスを実現した。
以上より, 基礎モデルにより, 効果的, 安全, 透明なゼロショット臨床診断支援が可能であることが示唆された。
論文 参考訳(メタデータ) (2026-02-11T08:14:20Z) - MMedExpert-R1: Strengthening Multimodal Medical Reasoning via Domain-Specific Adaptation and Clinical Guideline Reinforcement [63.82954136824963]
医療ビジョンランゲージモデルでは、現実世界のシナリオで必要とされる複雑な臨床推論を伴う知覚タスクが優れている。
本稿ではドメイン固有の適応とガイドライン強化を通じてこれらの課題に対処する新しい推論MedVLMを提案する。
論文 参考訳(メタデータ) (2026-01-16T02:32:07Z) - Decipher-MR: A Vision-Language Foundation Model for 3D MRI Representations [12.805804608410739]
Decipher-MRは、大規模なデータセットに基づいて訓練された3次元MRI固有の視覚言語基盤モデルである。
Decipher-MRは、自己指導型視覚学習とレポート誘導型テキスト監視を統合し、堅牢で一般化可能な表現を構築する。
以上の結果から,Decipher-MRはMRIベースのAIのスケーラブルで汎用的な基盤として確立され,臨床および研究領域における効率的な開発が促進される。
論文 参考訳(メタデータ) (2025-09-25T14:43:33Z) - DermINO: Hybrid Pretraining for a Versatile Dermatology Foundation Model [92.66916452260553]
DermNIOは皮膚科学の多目的基盤モデルである。
自己教師型学習パラダイムを増強する、新しいハイブリッド事前学習フレームワークが組み込まれている。
さまざまなタスクにおいて、最先端のモデルよりも一貫して優れています。
論文 参考訳(メタデータ) (2025-08-17T00:41:39Z) - An Agentic System for Rare Disease Diagnosis with Traceable Reasoning [69.46279475491164]
大型言語モデル(LLM)を用いた最初のまれな疾患診断エージェントシステムであるDeepRareを紹介する。
DeepRareは、まれな疾患の診断仮説を分類し、それぞれに透明な推論の連鎖が伴う。
このシステムは2,919の疾患に対して異常な診断性能を示し、1013の疾患に対して100%の精度を達成している。
論文 参考訳(メタデータ) (2025-06-25T13:42:26Z) - EndoBench: A Comprehensive Evaluation of Multi-Modal Large Language Models for Endoscopy Analysis [62.00431604976949]
EndoBenchは、内視鏡的プラクティスの全スペクトルにわたるMLLMを評価するために特別に設計された最初の包括的なベンチマークである。
我々は、汎用、医療特化、プロプライエタリMLLMを含む23の最先端モデルをベンチマークする。
私たちの実験では、プロプライエタリなMLLMは、オープンソースや医療専門のモデルよりも優れていますが、それでも人間の専門家を追い越しています。
論文 参考訳(メタデータ) (2025-05-29T16:14:34Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z) - A Concept-based Interpretable Model for the Diagnosis of Choroid
Neoplasias using Multimodal Data [28.632437578685842]
我々は成人で最も多い眼がんである脈絡膜新生症(5.1%)に焦点を当てた。
本研究は,3種類の脈絡膜腫瘍を識別する概念に基づく解釈可能なモデルを提案する。
注目すべきは、このモデルがブラックボックスモデルに匹敵するF1スコアの0.91を達成する一方で、ジュニア医師の診断精度を42%向上させることである。
論文 参考訳(メタデータ) (2024-03-08T07:15:53Z) - Large-scale Long-tailed Disease Diagnosis on Radiology Images [51.453990034460304]
RadDiagは、様々なモダリティと解剖学にわたる2Dおよび3D入力をサポートする基礎モデルである。
私たちのデータセットであるRP3D-DiagDSは、5,568の障害をカバーする195,010のスキャンで40,936の症例を含む。
論文 参考訳(メタデータ) (2023-12-26T18:20:48Z) - AMOS: A Large-Scale Abdominal Multi-Organ Benchmark for Versatile
Medical Image Segmentation [32.938687630678096]
AMOSは、腹部臓器の分節のための大規模で多様な臨床データセットである。
さまざまなターゲットとシナリオの下で堅牢なセグメンテーションアルゴリズムを研究する上で、難しい例とテストベッドを提供する。
我々は、この新たな挑戦的データセット上で既存の方法の現状を評価するために、最先端の医療セグメンテーションモデルをいくつかベンチマークする。
論文 参考訳(メタデータ) (2022-06-16T09:27:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。