論文の概要: SonoSAM -- Segment Anything on Ultrasound Images
- arxiv url: http://arxiv.org/abs/2310.16872v1
- Date: Wed, 25 Oct 2023 16:42:26 GMT
- ステータス: 処理完了
- システム内更新日: 2023-10-27 23:55:50.443705
- Title: SonoSAM -- Segment Anything on Ultrasound Images
- Title(参考訳): SonoSAM -- 超音波画像のセグメンテーション
- Authors: Hariharan Ravishankar, Rohan Patil, Vikram Melapudi, Parminder Bhatia,
Kass-Hout Taha, Pavan Annangi
- Abstract要約: SonoSAMは、超音波画像に注目する対象をセグメント化するための、迅速な基礎モデルである。
SonoSAMは8つの未知の超音波データセットに対して最先端の性能を示す。
SonoSAMを3D (2-D +t) アプリケーションに拡張し、優れた性能を示す。
- 参考スコア(独自算出の注目度): 9.11470148968728
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present SonoSAM - a promptable foundational model for
segmenting objects of interest on ultrasound images. Fine-tuned exclusively on
a rich, diverse set of objects from roughly 200k ultrasound image-mask pairs,
SonoSAM demonstrates state-of-the-art performance on 8 unseen ultrasound
data-sets, outperforming competing methods by a significant margin on all
metrics of interest. SonoSAM achieves average dice similarity score of more
than 90% on almost all test datasets within 2-6 clicks on an average, making it
a valuable tool for annotating ultrasound images. We also extend SonoSAM to 3-D
(2-D +t) applications and demonstrate superior performance making it a valuable
tool for generating dense annotations from ultrasound cine-loops. Further, to
increase practical utility of SonoSAM, we propose a two-step process of
fine-tuning followed by knowledge distillation to a smaller footprint model
without comprising the performance. We present detailed qualitative and
quantitative comparisons of SonoSAM with state-of-the art methods showcasing
efficacy of SonoSAM as one of the first reliable, generic foundational model
for ultrasound.
- Abstract(参考訳): 本稿では,超音波画像に注目する対象をセグメント化するための素早い基礎モデルであるSanoSAMを提案する。
sonosamは、約200万個の超音波画像マスクペアから、リッチで多様なオブジェクトのセットのみを微調整し、8つの未認識の超音波データセットで最先端のパフォーマンスを示す。
SonoSAMは、平均2~6クリック以内のほぼすべてのテストデータセットで平均ダイス類似度スコアを90%以上達成し、超音波画像の注釈付けに有用なツールである。
また,SanoSAMを3D (2-D +t) アプリケーションに拡張し,超音波シネループから高密度アノテーションを生成する上で,優れた性能を示す。
さらに, ソノサムの実用性を高めるため, 性能を損なうことなく, 微調整と知識蒸留の2段階のプロセスを提案する。
本研究は,超音波の基礎モデルとしてのソノサムの有効性を示す最新の手法とソノサムの質的,定量的比較を行った。
関連論文リスト
- UltraSam: A Foundation Model for Ultrasound using Large Open-Access Segmentation Datasets [2.450042775481447]
超音波画像の自動解析は、解剖学的複雑さと限られた注釈データのために困難である。
データ中心のアプローチを採り、最大公用超音波セグメンテーションデータセットを組み立て、超音波に適した多目的視覚基盤モデルを訓練する。
Segment Anything Model(SAM)の適応版であるUltraSamを導入する。
論文 参考訳(メタデータ) (2024-11-25T09:33:44Z) - SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - Ultrasound SAM Adapter: Adapting SAM for Breast Lesion Segmentation in Ultrasound Images [8.495954318776139]
Segment Anything Model (SAM)は、最近、自然画像セグメンテーションの分野で驚くべき成果を上げている。
本稿では,主に超音波画像のセグメンテーションに焦点を当てる。
乳房超音波Segment Anything Model (BUSSAM) と呼ばれる新しい乳房超音波SAMアダプタを開発した。
論文 参考訳(メタデータ) (2024-04-23T08:43:32Z) - TriSAM: Tri-Plane SAM for zero-shot cortical blood vessel segmentation in VEM images [31.012744937603436]
VEM画像における皮質血管のセグメンテーションに特化して設計された,第1級パブリックベンチマークであるBvEMを紹介する。
私たちのBvEMベンチマークは、成体マウス、マカク、ヒトの3匹の哺乳類のvEM画像量に基づいています。
我々は,TriSAMと呼ばれる,強力なセグメンテーションモデルSAMを3次元セグメンテーションに活用したゼロショット皮質血管セグメンテーション法を開発した。
論文 参考訳(メタデータ) (2024-01-25T05:50:48Z) - Joint Depth Prediction and Semantic Segmentation with Multi-View SAM [59.99496827912684]
我々は,Segment Anything Model(SAM)のリッチなセマンティック特徴を利用した深度予測のためのマルチビューステレオ(MVS)手法を提案する。
この拡張深度予測は、Transformerベースのセマンティックセグメンテーションデコーダのプロンプトとして役立ちます。
論文 参考訳(メタデータ) (2023-10-31T20:15:40Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - False Negative/Positive Control for SAM on Noisy Medical Images [10.654917277821495]
Segment Anything Model (SAM) は画像セグメンテーションのための全範囲基盤モデルである。
医療画像のセグメンテーションにおけるSAMの性能向上を目的とした改良されたテストフェーズプロンプト拡張手法を提案する。
ノイズの多い低コントラストの医用画像においても,SAMの有効利用が可能となった。
論文 参考訳(メタデータ) (2023-08-20T23:01:46Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。