論文の概要: Comprehensive Multimodal Segmentation in Medical Imaging: Combining
YOLOv8 with SAM and HQ-SAM Models
- arxiv url: http://arxiv.org/abs/2310.12995v1
- Date: Wed, 4 Oct 2023 20:30:49 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-29 16:22:41.346282
- Title: Comprehensive Multimodal Segmentation in Medical Imaging: Combining
YOLOv8 with SAM and HQ-SAM Models
- Title(参考訳): 医療画像における総合的マルチモーダルセグメンテーション : YOLOv8とSAMおよびHQ-SAMモデルを組み合わせて
- Authors: Sumit Pandey, Kuan-Fu Chen, Erik B. Dam
- Abstract要約: 提案手法は, YOLOv8モデルを用いて, モダリティ間の近似境界ボックス検出を行う。
境界ボックスを生成するために、YOLOv8モデルは、各モードから100の画像とマスクの限られたセットを使用して訓練された。
YOLOv8, YOLOv8+SAM, YOLOv8+HQ-SAMモデルの個人および複合性能を評価するために比較分析を行った。
- 参考スコア(独自算出の注目度): 0.24578723416255752
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a comprehensive approach for segmenting regions of
interest (ROI) in diverse medical imaging datasets, encompassing ultrasound, CT
scans, and X-ray images. The proposed method harnesses the capabilities of the
YOLOv8 model for approximate boundary box detection across modalities,
alongside the Segment Anything Model (SAM) and High Quality (HQ) SAM for fully
automatic and precise segmentation. To generate boundary boxes, the YOLOv8
model was trained using a limited set of 100 images and masks from each
modality. The results obtained from our approach are extensively computed and
analyzed, demonstrating its effectiveness and potential in medical image
analysis. Various evaluation metrics, including precision, recall, F1 score,
and Dice Score, were employed to quantify the accuracy of the segmentation
results. A comparative analysis was conducted to assess the individual and
combined performance of the YOLOv8, YOLOv8+SAM, and YOLOv8+HQ-SAM models. The
results indicate that the SAM model performs better than the other two models,
exhibiting higher segmentation accuracy and overall performance. While HQ-SAM
offers potential advantages, its incremental gains over the standard SAM model
may not justify the additional computational cost. The YOLOv8+SAM model shows
promise for enhancing medical image segmentation and its clinical implications.
- Abstract(参考訳): 本稿では、超音波、CTスキャン、X線画像を含む様々な医用画像データセットにおける関心領域のセグメンテーション(ROI)に対する包括的アプローチを提案する。
提案手法は,完全自動的かつ高精度なセグメンテーションのために,セグメント・エバンスモデル (sam) とハイクオリティ (hq) sam と並行して,境界ボックスの近似検出にyolov8モデルの能力を利用する。
境界ボックスを生成するために、YOLOv8モデルは、各モードから100の画像とマスクの限られたセットを使用して訓練された。
提案手法から得られた結果は広く計算・解析され,医用画像解析の有効性と可能性を示す。
セグメンテーション結果の精度を定量化するために、精度、リコール、F1スコア、Dice Scoreなどの様々な評価指標が用いられた。
YOLOv8, YOLOv8+SAM, YOLOv8+HQ-SAMモデルの個人および組み合わせ性能の評価を行った。
その結果,SAMモデルは他の2モデルよりも優れた性能を示し,セグメンテーション精度と全体的な性能を示した。
HQ-SAMは潜在的な利点を提供するが、標準的なSAMモデルよりも漸進的なゲインは、追加の計算コストを正当化しないかもしれない。
YOLOv8+SAMモデルは、医用画像セグメンテーションの強化とその臨床的意義を示す。
関連論文リスト
- SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - Segment Anything Model (SAM) for Radiation Oncology [13.556384944315958]
臨床放射線治療におけるSegment Anything Model(SAM)の有用性について検討した。
以上の結果から,SAMのセグメンテーション・モードは,ほとんどの臓器・リスク(OAR)において臨床的に許容できるセグメンテーションを達成できることが示唆された。
臓器の大きさと境界の明快さを考えると、SAMは明確な境界を持つ大きな臓器ではより良い性能を示すが、境界が不明瞭な小さな臓器ではより悪い性能を示す。
論文 参考訳(メタデータ) (2023-06-20T17:59:14Z) - Zero-shot performance of the Segment Anything Model (SAM) in 2D medical
imaging: A comprehensive evaluation and practical guidelines [0.13854111346209866]
Segment Anything Model (SAM)は、大規模なトレーニングデータセットを使用して、ほぼすべてのオブジェクトをセグメント化する。
この結果から,SAMのゼロショット性能は,現在の最先端技術に匹敵するものであることが判明した。
我々は、一貫して堅牢な結果をもたらしながら、最小限の相互作用を必要とする実践的ガイドラインを提案する。
論文 参考訳(メタデータ) (2023-04-28T22:07:24Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - Ambiguous Medical Image Segmentation using Diffusion Models [60.378180265885945]
我々は,グループ洞察の分布を学習することで,複数の可算出力を生成する単一拡散モデルに基づくアプローチを提案する。
提案モデルでは,拡散の固有のサンプリングプロセスを利用してセグメンテーションマスクの分布を生成する。
その結果,提案手法は既存の最先端曖昧なセグメンテーションネットワークよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-04-10T17:58:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。