論文の概要: Accuracy of Segment-Anything Model (SAM) in medical image segmentation
tasks
- arxiv url: http://arxiv.org/abs/2304.09324v2
- Date: Thu, 27 Apr 2023 22:41:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-01 16:32:12.895374
- Title: Accuracy of Segment-Anything Model (SAM) in medical image segmentation
tasks
- Title(参考訳): 医用画像分割作業におけるSegment-Anything Model(SAM)の精度
- Authors: Sheng He, Rina Bao, Jingpeng Li, P. Ellen Grant, Yangming Ou
- Abstract要約: 画像セグメンテーションの基本モデルとして, SAM ( segment-anything model) を導入した。
1100万枚の自然画像から10億枚以上のマスクを使って訓練された。
医療画像の再トレーニングを行わないSAMは,U-Netや他の深層学習モデルほど正確ではないことがわかった。
- 参考スコア(独自算出の注目度): 1.8899300124593648
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The segment-anything model (SAM), was introduced as a fundamental model for
segmenting images. It was trained using over 1 billion masks from 11 million
natural images. The model can perform zero-shot segmentation of images by using
various prompts such as masks, boxes, and points. In this report, we explored
(1) the accuracy of SAM on 12 public medical image segmentation datasets which
cover various organs (brain, breast, chest, lung, skin, liver, bowel, pancreas,
and prostate), image modalities (2D X-ray, histology, endoscropy, and 3D MRI
and CT), and health conditions (normal, lesioned). (2) if the computer vision
foundational segmentation model SAM can provide promising research directions
for medical image segmentation. We found that SAM without re-training on
medical images does not perform as accurately as U-Net or other deep learning
models trained on medical images.
- Abstract(参考訳): segment-anything model (SAM) は、画像のセグメント化の基本モデルとして導入された。
1100万枚の自然画像から10億枚以上のマスクを使って訓練された。
このモデルは、マスク、ボックス、ポイントなどの様々なプロンプトを使用して、画像のゼロショットセグメンテーションを実行することができる。
本報告では, 各種臓器(脳, 胸, 胸, 肺, 皮膚, 肝臓, 腸, 膵臓, 前立腺), 画像モダリティ(2d x線, 組織学, 内臓, および3d mri, ct) および健康状態(正常, 病変)をカバーする12の医療画像分割データセットにおけるsamの精度について検討した。
2)コンピュータビジョン基礎セグメンテーションモデルSAMが医療画像セグメンテーションに有望な研究方向を提供できる場合。
医療画像の再トレーニングを行わないSAMは,U-Netや他の深層学習モデルほど正確ではないことがわかった。
関連論文リスト
- DB-SAM: Delving into High Quality Universal Medical Image Segmentation [100.63434169944853]
本稿では,2次元医療データと2次元医療データとのギャップを埋めるために,DB-SAMという二分岐型SAMフレームワークを提案する。
文献における最近の医療用SAMアダプタと比較して,DB-SAMは8.8%向上した。
論文 参考訳(メタデータ) (2024-10-05T14:36:43Z) - SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Segment Anything Model for Medical Images? [38.44750512574108]
Segment Anything Model (SAM) は一般画像分割のための最初の基礎モデルである。
我々は18のモダリティ、84のオブジェクト、125のオブジェクトとモダリティのペアターゲット、1050Kの2Dイメージ、6033Kマスクを備えた大規模な医療セグメンテーションデータセットを構築した。
SAMはいくつかの特定のオブジェクトで顕著なパフォーマンスを示したが、不安定、不完全、あるいは他の状況で完全に失敗した。
論文 参考訳(メタデータ) (2023-04-28T07:23:31Z) - Generalist Vision Foundation Models for Medical Imaging: A Case Study of
Segment Anything Model on Zero-Shot Medical Segmentation [5.547422331445511]
9つの医用画像セグメンテーションベンチマークにおいて,定量および定性的ゼロショットセグメンテーションの結果を報告する。
本研究は,医用画像における一般視基盤モデルの汎用性を示すものである。
論文 参考訳(メタデータ) (2023-04-25T08:07:59Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。