論文の概要: SonoSAMTrack -- Segment and Track Anything on Ultrasound Images
- arxiv url: http://arxiv.org/abs/2310.16872v3
- Date: Thu, 16 Nov 2023 16:12:46 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-17 22:22:53.356540
- Title: SonoSAMTrack -- Segment and Track Anything on Ultrasound Images
- Title(参考訳): SonoSAMTrack -- 超音波画像のセグメンテーションと追跡
- Authors: Hariharan Ravishankar, Rohan Patil, Vikram Melapudi, Harsh Suthar,
Stephan Anzengruber, Parminder Bhatia, Kass-Hout Taha, Pavan Annangi
- Abstract要約: SonoSAMTrackは、SonoSAMと呼ばれる超音波画像に興味のあるオブジェクトをセグメント化するための、迅速な基礎モデルを組み合わせる。
SonoSAMは、7つの目に見えないデータセットで最先端のパフォーマンスを示し、競合するメソッドよりもかなりの差がある。
- 参考スコア(独自算出の注目度): 8.19114188484929
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: In this paper, we present SonoSAMTrack - that combines a promptable
foundational model for segmenting objects of interest on ultrasound images
called SonoSAM, with a state-of-the art contour tracking model to propagate
segmentations on 2D+t and 3D ultrasound datasets. Fine-tuned and tested
exclusively on a rich, diverse set of objects from $\approx200$k ultrasound
image-mask pairs, SonoSAM demonstrates state-of-the-art performance on 7 unseen
ultrasound data-sets, outperforming competing methods by a significant margin.
We also extend SonoSAM to 2-D +t applications and demonstrate superior
performance making it a valuable tool for generating dense annotations and
segmentation of anatomical structures in clinical workflows. Further, to
increase practical utility of the work, we propose a two-step process of
fine-tuning followed by knowledge distillation to a smaller footprint model
without comprising the performance. We present detailed qualitative and
quantitative comparisons of SonoSAM with state-of-the-art methods showcasing
efficacy of the method. This is followed by demonstrating the reduction in
number of clicks in a dense video annotation problem of adult cardiac
ultrasound chamber segmentation using SonoSAMTrack.
- Abstract(参考訳): 本稿では,2d+tおよび3d超音波データセットのセグメンテーションを伝搬する最先端の輪郭追跡モデルと,超音波画像に興味のある物体をセグメンテーションするための高速基礎モデルであるsomsamtrackを提案する。
精巧に調整され、テストされたのは、約200ドルの超音波画像マスクペアから、リッチで多様なオブジェクトセットのみであり、ソノサムは7つの未発見の超音波データセットで最先端のパフォーマンスを示し、競合する方法を大幅に上回るパフォーマンスを示している。
SonoSAMを2-D +tアプリケーションに拡張し、より優れた性能を示し、臨床ワークフローにおける高密度アノテーションの生成と解剖学的構造のセグメンテーションに有用なツールであることを示す。
さらに, 作業の実用性を高めるために, ファインチューニングと知識蒸留の2段階プロセスを, 性能を考慮せずにより小さなフットプリントモデルに導入することを提案する。
本研究は,ソノサムの質的,定量的比較を行い,その有効性を示す。
SonoSAMTrack を用いた成人心エコー検査における高密度ビデオアノテーション問題において, クリック回数の減少が示された。
関連論文リスト
- UltraSam: A Foundation Model for Ultrasound using Large Open-Access Segmentation Datasets [2.450042775481447]
超音波画像の自動解析は、解剖学的複雑さと限られた注釈データのために困難である。
データ中心のアプローチを採り、最大公用超音波セグメンテーションデータセットを組み立て、超音波に適した多目的視覚基盤モデルを訓練する。
Segment Anything Model(SAM)の適応版であるUltraSamを導入する。
論文 参考訳(メタデータ) (2024-11-25T09:33:44Z) - SAM2-UNet: Segment Anything 2 Makes Strong Encoder for Natural and Medical Image Segmentation [51.90445260276897]
我々は,Segment Anything Model 2 (SAM2) がU字型セグメンテーションモデルの強力なエンコーダであることを証明した。
本稿では, SAM2-UNet と呼ばれる, 汎用画像分割のための簡易かつ効果的なフレームワークを提案する。
論文 参考訳(メタデータ) (2024-08-16T17:55:38Z) - Ultrasound SAM Adapter: Adapting SAM for Breast Lesion Segmentation in Ultrasound Images [8.495954318776139]
Segment Anything Model (SAM)は、最近、自然画像セグメンテーションの分野で驚くべき成果を上げている。
本稿では,主に超音波画像のセグメンテーションに焦点を当てる。
乳房超音波Segment Anything Model (BUSSAM) と呼ばれる新しい乳房超音波SAMアダプタを開発した。
論文 参考訳(メタデータ) (2024-04-23T08:43:32Z) - TriSAM: Tri-Plane SAM for zero-shot cortical blood vessel segmentation in VEM images [31.012744937603436]
VEM画像における皮質血管のセグメンテーションに特化して設計された,第1級パブリックベンチマークであるBvEMを紹介する。
私たちのBvEMベンチマークは、成体マウス、マカク、ヒトの3匹の哺乳類のvEM画像量に基づいています。
我々は,TriSAMと呼ばれる,強力なセグメンテーションモデルSAMを3次元セグメンテーションに活用したゼロショット皮質血管セグメンテーション法を開発した。
論文 参考訳(メタデータ) (2024-01-25T05:50:48Z) - Joint Depth Prediction and Semantic Segmentation with Multi-View SAM [59.99496827912684]
我々は,Segment Anything Model(SAM)のリッチなセマンティック特徴を利用した深度予測のためのマルチビューステレオ(MVS)手法を提案する。
この拡張深度予測は、Transformerベースのセマンティックセグメンテーションデコーダのプロンプトとして役立ちます。
論文 参考訳(メタデータ) (2023-10-31T20:15:40Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SAM3D: Segment Anything Model in Volumetric Medical Images [11.764867415789901]
本稿では,3次元ボリューム画像解析に適した革新的適応であるSAM3Dを紹介する。
我々のSAM3Dモデルは、ボリュームを個別に2次元スライスに変換することでボリュームデータを分割する現在のSAMベース手法とは異なり、統一的なアプローチで全3次元ボリューム画像を処理する。
論文 参考訳(メタデータ) (2023-09-07T06:05:28Z) - False Negative/Positive Control for SAM on Noisy Medical Images [10.654917277821495]
Segment Anything Model (SAM) は画像セグメンテーションのための全範囲基盤モデルである。
医療画像のセグメンテーションにおけるSAMの性能向上を目的とした改良されたテストフェーズプロンプト拡張手法を提案する。
ノイズの多い低コントラストの医用画像においても,SAMの有効利用が可能となった。
論文 参考訳(メタデータ) (2023-08-20T23:01:46Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - OADAT: Experimental and Synthetic Clinical Optoacoustic Data for
Standardized Image Processing [62.993663757843464]
オプトアコースティック(OA)イメージングは、ナノ秒レーザーパルスによる生体組織の励起と、光吸収による熱弾性膨張によって発生する超音波の検出に基づいている。
OAイメージングは、深部組織における豊富な光学コントラストと高分解能の強力な組み合わせを特徴としている。
臨床環境でのOAの幅広い応用を促進するために、異なるタイプの実験的なセットアップと関連する処理手法で生成される標準化データセットは存在しない。
論文 参考訳(メタデータ) (2022-06-17T08:11:26Z) - Learning Affinity-Aware Upsampling for Deep Image Matting [83.02806488958399]
アップサンプリングにおける学習親和性は、ディープ・ネットワークにおけるペアワイズ・インタラクションを効果的かつ効率的に利用するためのアプローチであることを示す。
特に、コンポジション1kマッチングデータセットの結果は、A2Uが強いベースラインに対してSAD測定値の14%の相対的な改善を達成していることを示している。
最先端のマッティングネットワークと比較すると、モデル複雑度は40%に過ぎず、8%高いパフォーマンスを実現しています。
論文 参考訳(メタデータ) (2020-11-29T05:09:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。