論文の概要: $\mathrm{SAM^{Med}}$: A medical image annotation framework based on
large vision model
- arxiv url: http://arxiv.org/abs/2307.05617v2
- Date: Mon, 18 Sep 2023 02:19:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-20 19:17:48.585456
- Title: $\mathrm{SAM^{Med}}$: A medical image annotation framework based on
large vision model
- Title(参考訳): $\mathrm{SAM^{Med}}$:大きなビジョンモデルに基づく医用画像アノテーションフレームワーク
- Authors: Chenglong Wang, Dexuan Li, Sucheng Wang, Chengxiu Zhang, Yida Wang,
Yun Liu, Guang Yang
- Abstract要約: 大規模ビジョンモデル、Segment Anything Model (SAM)はコンピュータビジョン分野に革命をもたらした。
本研究では,医用画像アノテーションのための拡張フレームワークである$mathrmSAMMed$を提案する。
その結果,入力点が5点程度しかなく,セグメンテーション精度が著しく向上した。
- 参考スコア(独自算出の注目度): 23.095778923771732
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, large vision model, Segment Anything Model (SAM), has
revolutionized the computer vision field, especially for image segmentation.
SAM presented a new promptable segmentation paradigm that exhibit its
remarkable zero-shot generalization ability. An extensive researches have
explore the potential and limits of SAM in various downstream tasks. In this
study, we presents $\mathrm{SAM^{Med}}$, an enhanced framework for medical
image annotation that leverages the capabilities of SAM. $\mathrm{SAM^{Med}}$
framework consisted of two submodules, namely $\mathrm{SAM^{assist}}$ and
$\mathrm{SAM^{auto}}$. The $\mathrm{SAM^{assist}}$ demonstrates the
generalization ability of SAM to the downstream medical segmentation task using
the prompt-learning approach. Results show a significant improvement in
segmentation accuracy with only approximately 5 input points. The
$\mathrm{SAM^{auto}}$ model aims to accelerate the annotation process by
automatically generating input prompts. The proposed SAP-Net model achieves
superior segmentation performance with only five annotated slices, achieving an
average Dice coefficient of 0.80 and 0.82 for kidney and liver segmentation,
respectively. Overall, $\mathrm{SAM^{Med}}$ demonstrates promising results in
medical image annotation. These findings highlight the potential of leveraging
large-scale vision models in medical image annotation tasks.
- Abstract(参考訳): 近年,大規模な視覚モデルであるSAM(Seegment Anything Model)がコンピュータビジョン分野,特に画像セグメンテーションに革命をもたらした。
SAMは、その顕著なゼロショット一般化能力を示す新しいプロンプト可能なセグメンテーションパラダイムを提示した。
様々な下流タスクにおけるSAMの可能性と限界について広範な研究がなされている。
本研究では、SAMの能力を生かした医療画像アノテーションのための拡張フレームワークである$\mathrm{SAM^{Med}}$を提示する。
$\mathrm{SAM^{Med}}$ frameworkは2つのサブモジュール、すなわち$\mathrm{SAM^{assist}}$と$\mathrm{SAM^{auto}}$から成る。
この$\mathrm{sam^{assist}}$ は、プロンプトラーニングアプローチを用いたダウンストリーム医療セグメンテーションタスクへのsamの一般化能力を示している。
その結果,約5点の入力点でセグメント化精度が有意に向上した。
$\mathrm{sam^{auto}}$モデルは、自動的に入力プロンプトを生成してアノテーションプロセスを加速することを目的としている。
提案したSAP-Netモデルでは,5つのアノテートスライスのみを用いて,腎臓と肝臓のセグメンテーションにおいて平均Dice係数0.80と0.82を達成し,優れたセグメンテーション性能を実現する。
全体として、$\mathrm{SAM^{Med}}$は医療画像アノテーションで有望な結果を示す。
これらの結果は,医用画像アノテーションタスクに大規模視覚モデルを活用する可能性を示している。
関連論文リスト
- SAM-UNet:Enhancing Zero-Shot Segmentation of SAM for Universal Medical Images [40.4422523499489]
Segment Anything Model (SAM) は、様々な自然画像のセグメンテーションタスクにおいて印象的な性能を示した。
本稿では,U-Netを元のSAMに組み込んだ新たな基盤モデルSAMUNetを提案する。
我々は,SA-Med2D-16MでSAM-UNetをトレーニングした。
論文 参考訳(メタデータ) (2024-08-19T11:01:00Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - TinySAM: Pushing the Envelope for Efficient Segment Anything Model [76.21007576954035]
我々は,強力なゼロショット性能を維持しつつ,小さなセグメントの任意のモデル(TinySAM)を得るためのフレームワークを提案する。
本研究は,まず,軽量学生モデルを蒸留するためのハードプロンプトサンプリングとハードマスク重み付け戦略を用いた,フルステージの知識蒸留法を提案する。
また、学習後の量子化を高速化可能なセグメンテーションタスクに適用し、計算コストをさらに削減する。
論文 参考訳(メタデータ) (2023-12-21T12:26:11Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AutoSAM: Adapting SAM to Medical Images by Overloading the Prompt
Encoder [101.28268762305916]
この作業では、Segment Anything Modelを同じ入力イメージで動作するエンコーダに置き換える。
複数の医用画像とビデオのベンチマークで最先端の結果を得る。
内部の知識を検査し、軽量なセグメンテーションソリューションを提供するために、浅いデコンボリューションネットワークによってマスクに復号化することを学ぶ。
論文 参考訳(メタデータ) (2023-06-10T07:27:00Z) - Customized Segment Anything Model for Medical Image Segmentation [10.933449793055313]
我々は,大規模画像分割モデルであるSAM(Segment Anything Model)に基づいて,医用画像分割のための大規模モデルをカスタマイズする新たな研究パラダイムを探求する。
SAMedは、SAMイメージエンコーダにローランクベース(LoRA)ファインタニング戦略を適用し、ラベル付き医用画像セグメンテーションデータセットにプロンプトエンコーダとマスクデコーダを併用する。
我々の訓練されたSAMedモデルは,最先端の手法に匹敵する医用画像のセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2023-04-26T19:05:34Z) - Medical SAM Adapter: Adapting Segment Anything Model for Medical Image
Segmentation [51.770805270588625]
Segment Anything Model (SAM)は画像セグメンテーションの分野で最近人気を集めている。
近年の研究では、SAMは医用画像のセグメンテーションにおいて過小評価されている。
ドメイン固有の医療知識をセグメンテーションモデルに組み込んだ医療SAMアダプタ(Med-SA)を提案する。
論文 参考訳(メタデータ) (2023-04-25T07:34:22Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Segment Anything Model for Medical Image Analysis: an Experimental Study [19.95972201734614]
Segment Anything Model (SAM) は、ユーザ定義オブジェクトをインタラクティブな方法でセグメント化する基礎モデルである。
SAMの医用画像の分類能力について,各種のモダリティと解剖から,19の医用画像データセットの集合体を用いて評価した。
論文 参考訳(メタデータ) (2023-04-20T17:50:18Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。