論文の概要: Landmark Detection for Medical Images using a General-purpose Segmentation Model
- arxiv url: http://arxiv.org/abs/2507.11551v1
- Date: Sun, 13 Jul 2025 07:17:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-17 19:00:11.057376
- Title: Landmark Detection for Medical Images using a General-purpose Segmentation Model
- Title(参考訳): 汎用セグメンテーションモデルを用いた医用画像のランドマーク検出
- Authors: Ekaterina Stansfield, Jennifer A. Mitterer, Abdulrahman Altahhan,
- Abstract要約: 本稿では,他の汎用非基礎モデルであるYOLOを提案する。
YOLOはオブジェクト検出に優れており、SAMの入力プロンプトとして機能するバウンディングボックスを提供することができる。
YOLO生成した境界ボックスを用いてSAMを誘導し, 整形外科的骨盤X線像を正確に分割するハイブリッドモデルを訓練した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Radiographic images are a cornerstone of medical diagnostics in orthopaedics, with anatomical landmark detection serving as a crucial intermediate step for information extraction. General-purpose foundational segmentation models, such as SAM (Segment Anything Model), do not support landmark segmentation out of the box and require prompts to function. However, in medical imaging, the prompts for landmarks are highly specific. Since SAM has not been trained to recognize such landmarks, it cannot generate accurate landmark segmentations for diagnostic purposes. Even MedSAM, a medically adapted variant of SAM, has been trained to identify larger anatomical structures, such as organs and their parts, and lacks the fine-grained precision required for orthopaedic pelvic landmarks. To address this limitation, we propose leveraging another general-purpose, non-foundational model: YOLO. YOLO excels in object detection and can provide bounding boxes that serve as input prompts for SAM. While YOLO is efficient at detection, it is significantly outperformed by SAM in segmenting complex structures. In combination, these two models form a reliable pipeline capable of segmenting not only a small pilot set of eight anatomical landmarks but also an expanded set of 72 landmarks and 16 regions with complex outlines, such as the femoral cortical bone and the pelvic inlet. By using YOLO-generated bounding boxes to guide SAM, we trained the hybrid model to accurately segment orthopaedic pelvic radiographs. Our results show that the proposed combination of YOLO and SAM yields excellent performance in detecting anatomical landmarks and intricate outlines in orthopaedic pelvic radiographs.
- Abstract(参考訳): 放射線画像は整形外科における診断の基礎であり、解剖学的ランドマーク検出は情報抽出の重要な中間段階である。
SAM(Segment Anything Model)のような汎用的な基本的なセグメンテーションモデルは、最初からランドマークセグメンテーションをサポートしておらず、機能するプロンプトを必要とする。
しかし、医用画像では、ランドマークのプロンプトは非常に具体的である。
SAMはこれらのランドマークを認識するために訓練されていないため、診断目的のために正確なランドマークのセグメンテーションを生成することはできない。
SAMの医学的適応型であるMedSAMでさえ、臓器やその部分のような大きな解剖学的構造を特定するために訓練されており、整形外科の骨盤のランドマークに必要な微細な精度が欠如している。
この制限に対処するため、別の汎用非境界モデルであるYOLOを提案する。
YOLOはオブジェクト検出に優れており、SAMの入力プロンプトとして機能するバウンディングボックスを提供することができる。
YOLOは検出に効率的であるが、SAMにより複雑な構造のセグメント化において著しく優れていた。
これら2つのモデルは信頼性の高いパイプラインを形成し、8つの解剖学的ランドマークからなる小さなパイロットセットだけでなく、大腿皮質骨や骨盤入口のような複雑な輪郭を持つ72のランドマークと16の領域の拡張セットをセグメント化することができる。
YOLO生成した境界ボックスを用いてSAMを誘導し, 整形外科的骨盤X線像を正確に分割するハイブリッドモデルを訓練した。
以上の結果より, YOLOとSAMの併用は, 解剖学的所見の検出に優れ, 骨盤X線像の複雑なアウトラインが得られた。
関連論文リスト
- Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Assessing Foundational Medical 'Segment Anything' (Med-SAM1, Med-SAM2) Deep Learning Models for Left Atrial Segmentation in 3D LGE MRI [0.0]
心房細動(AF)は心不整脈の最も一般的な疾患であり、心不全や脳卒中と関連している。
多様なデータセットで事前トレーニングされたSegment Anything Model(SAM)のようなディープラーニングモデルは、ジェネリックセグメンテーションタスクにおいて有望であることを示している。
MedSAMモデルの可能性にもかかわらず、3D LGE-MRIにおけるLAセグメンテーションの複雑なタスクについてはまだ評価されていない。
論文 参考訳(メタデータ) (2024-11-08T20:49:54Z) - DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - Path-SAM2: Transfer SAM2 for digital pathology semantic segmentation [6.721564277355789]
Path-SAM2はSAM2モデルに初めて適応し,病的セマンティックセグメンテーションの課題に適応する。
病理組織学における最大の事前学習型視覚エンコーダ(UNI)とオリジナルのSAM2エンコーダを統合し,病理学に基づく事前知識を付加する。
3つの腺腫の病理データセットにおいて、Path-SAM2は最先端のパフォーマンスを達成した。
論文 参考訳(メタデータ) (2024-08-07T09:30:51Z) - Segmentation by registration-enabled SAM prompt engineering using five reference images [40.58383603965483]
SAMを用いた医用画像セグメンテーションのための新規な登録ベースプロンプトエンジニアリングフレームワークを提案する。
分割ラベルを必要とせずに,確立された画像登録アルゴリズムを用いて,新しい画像(分割)と少数の参照画像の整列を行う。
この戦略は、定義されたポイントプロンプトを持つ5つまでの参照イメージを必要とするため、セグメンテーションラベルを必要とせずに、実質的にSAMに新しいイメージの推論を促せる。
論文 参考訳(メタデータ) (2024-07-25T10:46:29Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - MedCLIP-SAM: Bridging Text and Image Towards Universal Medical Image Segmentation [2.2585213273821716]
本稿では,CLIPモデルとSAMモデルを組み合わせて臨床スキャンのセグメンテーションを生成する新しいフレームワーク MedCLIP-SAM を提案する。
3つの多様なセグメンテーションタスクと医用画像モダリティを広範囲にテストすることにより、提案手法は優れた精度を示した。
論文 参考訳(メタデータ) (2024-03-29T15:59:11Z) - Mask-Enhanced Segment Anything Model for Tumor Lesion Semantic Segmentation [48.107348956719775]
Mask-Enhanced SAM (M-SAM) は, 腫瘍の3次元セグメント化に適した革新的なアーキテクチャである。
本稿では,M-SAM内におけるMask-Enhanced Adapter (MEA) を提案する。
我々のM-SAMは高いセグメンテーション精度を達成し、またロバストな一般化を示す。
論文 参考訳(メタデータ) (2024-03-09T13:37:02Z) - Segment Anything Model-guided Collaborative Learning Network for
Scribble-supervised Polyp Segmentation [45.15517909664628]
ポリープのセグメンテーションは、初期におけるポリープの正確な位置決定に重要な役割を担っている。
診断中の医師によるポリープ画像に対するピクセルワイドアノテーションは、時間と費用の両方がかかる。
本稿では,スクリブル制御ポリプセグメンテーションのためのSAM誘導協調学習ネットワーク(SAM-CLNet)を提案する。
論文 参考訳(メタデータ) (2023-12-01T03:07:13Z) - Exploring SAM Ablations for Enhancing Medical Segmentation in Radiology
and Pathology [2.5462695047893025]
Segment Anything Model(SAM)は、さまざまなドメインにまたがるセグメンテーション課題に対処するための、有望なフレームワークとして登場した。
SAMの微調整について検討し、セグメンテーション結果の精度と信頼性にその影響を深く評価する。
先進的なセグメンテーション技術と医療の要求要件のギャップを埋めることを目指しています。
論文 参考訳(メタデータ) (2023-09-30T21:58:12Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。