論文の概要: UltraSam: A Foundation Model for Ultrasound using Large Open-Access Segmentation Datasets
- arxiv url: http://arxiv.org/abs/2411.16222v1
- Date: Mon, 25 Nov 2024 09:33:44 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-11-26 14:18:59.324937
- Title: UltraSam: A Foundation Model for Ultrasound using Large Open-Access Segmentation Datasets
- Title(参考訳): UltraSam: 大規模開集合セグメンテーションデータセットを用いた超音波の基礎モデル
- Authors: Adrien Meyer, Aditya Murali, Didier Mutter, Nicolas Padoy,
- Abstract要約: 超音波画像の自動解析は、解剖学的複雑さと限られた注釈データのために困難である。
データ中心のアプローチを採り、最大公用超音波セグメンテーションデータセットを組み立て、超音波に適した多目的視覚基盤モデルを訓練する。
Segment Anything Model(SAM)の適応版であるUltraSamを導入する。
- 参考スコア(独自算出の注目度): 2.450042775481447
- License:
- Abstract: Purpose: Automated ultrasound image analysis is challenging due to anatomical complexity and limited annotated data. To tackle this, we take a data-centric approach, assembling the largest public ultrasound segmentation dataset and training a versatile visual foundation model tailored for ultrasound. Methods: We compile US-43d, a large-scale collection of 43 open-access ultrasound datasets with over 280,000 images and segmentation masks for more than 50 anatomical structures. We then introduce UltraSam, an adaptation of the Segment Anything Model (SAM) that is trained on US-43d and supports both point- and box-prompts. Finally, we introduce a new use case for SAM-style models by using UltraSam as a model initialization that can be fine-tuned for various downstream analysis tasks, demonstrating UltraSam's foundational capabilities. Results: UltraSam achieves vastly improved performance over existing SAM-style models for prompt-based segmentation on three diverse public datasets. Moreover, an UltraSam-initialized Vision Transformer surpasses ImageNet-, SAM-, and MedSAM-initialized models in various downstream segmentation and classification tasks, highlighting UltraSam's effectiveness as a foundation model. Conclusion: We compile US-43d, a large-scale unified ultrasound dataset, and introduce UltraSam, a powerful multi-purpose SAM-style model for ultrasound images. We release our code and pretrained models at https://github.com/CAMMA-public/UltraSam and invite the community to further this effort by contributing high-quality datasets.
- Abstract(参考訳): 目的: 解剖学的複雑度と限られた注釈データにより, 自動超音波画像解析は困難である。
これを解決するために、我々は、最大規模の公的な超音波セグメンテーションデータセットを組み立て、超音波に適した多目的視覚基盤モデルを訓練する、データ中心のアプローチを採っている。
方法:US-43dは、280,000以上の画像と50以上の解剖学的構造のためのセグメンテーションマスクを備えた43のオープンアクセス超音波データセットの大規模なコレクションである。
次にUltraSamを導入する。これはSegment Anything Model(SAM)の適応であり、US-43dでトレーニングされ、ポイントとボックスのプロンプトの両方をサポートする。
最後に,UltraSamをモデル初期化として使用し,様々な下流分析タスクを微調整し,UltraSamの基本機能を示すことにより,SAMスタイルモデルの新しいユースケースを提案する。
結果: UltraSamは、既存のSAMスタイルモデルよりも大幅に向上し、3つの公開データセット上のプロンプトベースのセグメンテーションを実現している。
さらに、UltraSam初期化ビジョントランスフォーマーは、様々な下流セグメンテーションおよび分類タスクにおけるImageNet-, SAM-, MedSAM初期化モデルを超え、基盤モデルとしてのUltraSamの有効性を強調している。
結論:大規模な統一超音波データセットUS-43dをコンパイルし,超音波画像のための強力な多目的SAMスタイルモデルであるUltraSamを導入する。
私たちは、コードと事前トレーニングされたモデルをhttps://github.com/CAMMA-public/UltraSamでリリースし、高品質なデータセットを提供することで、コミュニティにこの取り組みをさらに促進させます。
関連論文リスト
- Adapting Segment Anything Model for Unseen Object Instance Segmentation [70.60171342436092]
Unseen Object Instance(UOIS)は、非構造環境で動作する自律ロボットにとって不可欠である。
UOISタスクのためのデータ効率のよいソリューションであるUOIS-SAMを提案する。
UOIS-SAMは、(i)HeatmapベースのPrompt Generator(HPG)と(ii)SAMのマスクデコーダに適応する階層識別ネットワーク(HDNet)の2つの重要なコンポーネントを統合する。
論文 参考訳(メタデータ) (2024-09-23T19:05:50Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - MAS-SAM: Segment Any Marine Animal with Aggregated Features [55.91291540810978]
そこで本研究では,海洋生物のセグメンテーションのためのMAS-SAMという新しい特徴学習フレームワークを提案する。
本手法により,グローバルな文脈的手がかりからよりリッチな海洋情報を抽出し,よりきめ細かな局部的詳細を抽出できる。
論文 参考訳(メタデータ) (2024-04-24T07:38:14Z) - Ultrasound SAM Adapter: Adapting SAM for Breast Lesion Segmentation in Ultrasound Images [8.495954318776139]
Segment Anything Model (SAM)は、最近、自然画像セグメンテーションの分野で驚くべき成果を上げている。
本稿では,主に超音波画像のセグメンテーションに焦点を当てる。
乳房超音波Segment Anything Model (BUSSAM) と呼ばれる新しい乳房超音波SAMアダプタを開発した。
論文 参考訳(メタデータ) (2024-04-23T08:43:32Z) - One Model to Rule them All: Towards Universal Segmentation for Medical Images with Text Prompts [62.55349777609194]
我々は、SATと呼ばれるテキストプロンプトによって駆動される放射線学的スキャンにおいて、任意のセグメンテーションを可能にするモデルを構築することを目指している。
トレーニングのために、最大かつ最も包括的なセグメンテーションデータセットを構築します。
我々はSAT-Nano(110Mパラメータ)とSAT-Pro(447Mパラメータ)をトレーニングし、データセット/サブセット毎にトレーニングされた72の専門家nnU-Netに匹敵する性能を示した。
論文 参考訳(メタデータ) (2023-12-28T18:16:00Z) - SonoSAMTrack -- Segment and Track Anything on Ultrasound Images [8.19114188484929]
SonoSAMTrackは、SonoSAMと呼ばれる超音波画像に興味のあるオブジェクトをセグメント化するための、迅速な基礎モデルを組み合わせる。
SonoSAMは、7つの目に見えないデータセットで最先端のパフォーマンスを示し、競合するメソッドよりもかなりの差がある。
論文 参考訳(メタデータ) (2023-10-25T16:42:26Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Beyond Adapting SAM: Towards End-to-End Ultrasound Image Segmentation via Auto Prompting [10.308637269138146]
超音波画像分割に適したユニバーサルモデルとしてSAMUSを提案する。
さらに、AutoSAMUSと表記されるエンドツーエンドで動作できるようにします。
AutoSAMUSは、SAMUSのマニュアルプロンプトエンコーダを置き換えるために自動プロンプトジェネレータ(APG)を導入することで実現されている。
論文 参考訳(メタデータ) (2023-09-13T09:15:20Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Customized Segment Anything Model for Medical Image Segmentation [10.933449793055313]
我々は,大規模画像分割モデルであるSAM(Segment Anything Model)に基づいて,医用画像分割のための大規模モデルをカスタマイズする新たな研究パラダイムを探求する。
SAMedは、SAMイメージエンコーダにローランクベース(LoRA)ファインタニング戦略を適用し、ラベル付き医用画像セグメンテーションデータセットにプロンプトエンコーダとマスクデコーダを併用する。
我々の訓練されたSAMedモデルは,最先端の手法に匹敵する医用画像のセマンティックセグメンテーションを実現する。
論文 参考訳(メタデータ) (2023-04-26T19:05:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。