論文の概要: MedSAM3: Delving into Segment Anything with Medical Concepts
- arxiv url: http://arxiv.org/abs/2511.19046v1
- Date: Mon, 24 Nov 2025 12:34:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.192318
- Title: MedSAM3: Delving into Segment Anything with Medical Concepts
- Title(参考訳): MedSAM3: 医療概念にこだわる
- Authors: Anglin Liu, Rundong Xue, Xu R. Cao, Yifan Shen, Yi Lu, Xiang Li, Qianqian Chen, Jintai Chen,
- Abstract要約: 医用画像とビデオのセグメンテーションのためのテキストプロンプト可能な医療セグメンテーションモデルであるMedSAM-3を提案する。
Segment Anything Model (SAM) 3 アーキテクチャをセマンティックな概念ラベルと組み合わせた医療画像に微調整することで、MedSAM-3 は医用Promptable Concept (PCS) を可能にする。
MedSAM-3 Agentは複雑な推論と反復的な洗練をループ内のエージェントワークフローに統合するフレームワークである。
- 参考スコア(独自算出の注目度): 14.669287067007419
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image segmentation is fundamental for biomedical discovery. Existing methods lack generalizability and demand extensive, time-consuming manual annotation for new clinical application. Here, we propose MedSAM-3, a text promptable medical segmentation model for medical image and video segmentation. By fine-tuning the Segment Anything Model (SAM) 3 architecture on medical images paired with semantic conceptual labels, our MedSAM-3 enables medical Promptable Concept Segmentation (PCS), allowing precise targeting of anatomical structures via open-vocabulary text descriptions rather than solely geometric prompts. We further introduce the MedSAM-3 Agent, a framework that integrates Multimodal Large Language Models (MLLMs) to perform complex reasoning and iterative refinement in an agent-in-the-loop workflow. Comprehensive experiments across diverse medical imaging modalities, including X-ray, MRI, Ultrasound, CT, and video, demonstrate that our approach significantly outperforms existing specialist and foundation models. We will release our code and model at https://github.com/Joey-S-Liu/MedSAM3.
- Abstract(参考訳): 医用画像のセグメンテーションは生物医学的な発見の基礎である。
既存の方法には、新しい臨床応用のための広範囲かつ時間を要するマニュアルアノテーションが欠如している。
本稿では,医用画像とビデオのセグメンテーションのためのテキストプロンプト可能な医療セグメンテーションモデルであるMedSAM-3を提案する。
セグメンテーションモデル(SAM)3アーキテクチャを意味論的概念ラベルと組み合わせた医療画像に微調整することにより、MedSAM-3は、単に幾何学的なプロンプトではなく、オープン語彙のテキスト記述による解剖学的構造を正確にターゲティングできる医療的プロンプタブル概念セグメンテーション(PCS)を可能にする。
さらに,MLLM(Multimodal Large Language Models)を統合するフレームワークであるMedSAM-3 Agentを導入する。
X線、MRI、超音波、CT、ビデオなど、様々な医療画像モダリティの総合的な実験は、我々のアプローチが既存の専門家や基礎モデルよりも大幅に優れていることを実証している。
コードとモデルはhttps://github.com/Joey-S-Liu/MedSAM3.comで公開します。
関連論文リスト
- MedGemma Technical Report [75.88152277443179]
MedGemmaは、Gemma 3 4Bと27Bをベースとした医療ビジョン言語基盤モデルの集合体である。
MedGemmaは、画像とテキストの高度な医学的理解と推論を実証する。
また、SigLIPから派生した医用目視エンコーダであるMedSigLIPを紹介する。
論文 参考訳(メタデータ) (2025-07-07T17:01:44Z) - MedSeg-R: Reasoning Segmentation in Medical Images with Multimodal Large Language Models [48.24824129683951]
本稿では,複雑で暗黙的な医療指導に基づくセグメンテーションマスク作成を目的とした新しい課題である医用画像推論セグメンテーションを紹介する。
そこで本稿では,MLLMの推論能力を利用して臨床問題を理解するエンドツーエンドフレームワークであるMedSeg-Rを提案する。
1)画像の解釈と複雑な医用命令の理解を行い,マルチモーダルな中間トークンを生成するグローバルコンテキスト理解モジュール,2)これらのトークンをデコードして正確なセグメンテーションマスクを生成するピクセルレベルのグラウンドモジュールである。
論文 参考訳(メタデータ) (2025-06-12T08:13:38Z) - Dynamically evolving segment anything model with continuous learning for medical image segmentation [50.92344083895528]
ダイナミックに進化する医療画像セグメンテーションモデルであるEvoSAMを紹介する。
EvoSAMは、継続的に拡張されるシナリオとタスクの配列から新しい知識を蓄積する。
血管セグメンテーションに関する外科医による実験により、EvoSAMはユーザプロンプトに基づいてセグメンテーション効率を高めることが確認された。
論文 参考訳(メタデータ) (2025-03-08T14:37:52Z) - Medical SAM 2: Segment medical images as video via Segment Anything Model 2 [17.469217682817586]
医用SAM2(MedSAM-2)は,汎用的な2次元および3次元の医用画像セグメンテーションのための自動追跡モデルである。
われわれはMedSAM-2を5つの2Dタスクおよび9つの3Dタスク、例えば、白血球、視神経、網膜血管、下顎骨、冠動脈、腎臓腫瘍、肝腫瘍、乳癌、鼻咽喉頭癌、前庭シュワン、縦隔リンパ結節、大脳動脈、歯槽下神経、腹部臓器などについて評価した。
論文 参考訳(メタデータ) (2024-08-01T18:49:45Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - MedLSAM: Localize and Segment Anything Model for 3D CT Images [13.320012515543116]
MedLAM(MedLAM)は,数個のテンプレートスキャンを用いて体内の解剖学的部位を正確に同定する3次元基礎局在モデルである。
私たちはMedLAMとSegment Anything Model(SAM)を統合してMedLSAMを開発した。
1)MedLSAMはSAMの性能と,その専門的な医療適応を手動のプロンプトと密に一致させ,データセット全体にわたる広範なポイントアノテーションの必要性を最小限に抑えながら,いくつかのテンプレートスキャンを用いて解剖学的構造を直接ローカライズすることができる。
論文 参考訳(メタデータ) (2023-06-26T15:09:02Z) - Towards Segment Anything Model (SAM) for Medical Image Segmentation: A
Survey [8.76496233192512]
本稿では,セグメンテーションモデルの成功を医療画像のセグメンテーションタスクに拡張する取り組みについて論じる。
医用画像解析の基礎モデルを開発するために、将来の研究を導くために多くの洞察が導かれる。
論文 参考訳(メタデータ) (2023-05-05T16:48:45Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。