論文の概要: ClickSAM: Fine-tuning Segment Anything Model using click prompts for
ultrasound image segmentation
- arxiv url: http://arxiv.org/abs/2402.05902v1
- Date: Thu, 8 Feb 2024 18:41:41 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-09 13:41:18.901871
- Title: ClickSAM: Fine-tuning Segment Anything Model using click prompts for
ultrasound image segmentation
- Title(参考訳): ClickSAM: 超音波画像分割のためのクリックプロンプトを用いた微調整セグメンテーションモデル
- Authors: Aimee Guo, Gace Fei, Hemanth Pasupuletic, and Jing Wang
- Abstract要約: 超音波画像のクリックプロンプトを使ってSegment Anything Modelを微調整する。
ClickSAMは他の超音波画像分割モデルと比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 2.5532662581102614
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The newly released Segment Anything Model (SAM) is a popular tool used in
image processing due to its superior segmentation accuracy, variety of input
prompts, training capabilities, and efficient model design. However, its
current model is trained on a diverse dataset not tailored to medical images,
particularly ultrasound images. Ultrasound images tend to have a lot of noise,
making it difficult to segment out important structures. In this project, we
developed ClickSAM, which fine-tunes the Segment Anything Model using click
prompts for ultrasound images. ClickSAM has two stages of training: the first
stage is trained on single-click prompts centered in the ground-truth contours,
and the second stage focuses on improving the model performance through
additional positive and negative click prompts. By comparing the first stage
predictions to the ground-truth masks, true positive, false positive, and false
negative segments are calculated. Positive clicks are generated using the true
positive and false negative segments, and negative clicks are generated using
the false positive segments. The Centroidal Voronoi Tessellation algorithm is
then employed to collect positive and negative click prompts in each segment
that are used to enhance the model performance during the second stage of
training. With click-train methods, ClickSAM exhibits superior performance
compared to other existing models for ultrasound image segmentation.
- Abstract(参考訳): 新たにリリースされたsegment anything model(sam)は、セグメンテーション精度、入力プロンプトの多様性、トレーニング能力、効率的なモデル設計のため、画像処理で使用される一般的なツールである。
しかし、現在のモデルは医療画像、特に超音波画像に適合しない多様なデータセットで訓練されている。
超音波画像にはノイズが多く、重要な構造を分割することは困難である。
このプロジェクトでは,超音波画像のクリックプロンプトを用いて,セグメンテーションモデル(Segment Anything Model)を微調整するClickSAMを開発した。
ClickSAMには2つのトレーニングステージがある。第1ステージは、接地輪郭を中心としたワンクリックプロンプトでトレーニングされ、第2ステージは、追加のプラスクリックプロンプトと負クリックプロンプトによるモデルパフォーマンスの改善に焦点を当てている。
第1段階の予測を地対面と比較することにより、真正、偽正、偽負のセグメントを算出する。
正の正負のセグメントと偽の負のセグメントで正のクリックを生成し、偽の正のセグメントで負のクリックを生成する。
次に,Centroidal Voronoi Tessellationアルゴリズムを用いて,第2段階のトレーニングにおいてモデル性能を向上させるために使用するセグメント毎に,正および負のクリックプロンプトを収集する。
クリックトレイン法では、ClickSAMは他の超音波画像分割モデルと比較して優れた性能を示す。
関連論文リスト
- IFSENet : Harnessing Sparse Iterations for Interactive Few-shot Segmentation Excellence [2.822194296769473]
新しいクラスのセグメンテーションを学ぶために必要な画像の数を減らします。
インタラクティブなセグメンテーション技術は、一度に1つのオブジェクトのセグメンテーションを漸進的に改善することのみに焦点を当てます。
2つの概念を組み合わせることで、新しいクラスのセグメンテーションモデルをトレーニングするのに要する労力を大幅に削減する。
論文 参考訳(メタデータ) (2024-03-22T10:15:53Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - False Negative/Positive Control for SAM on Noisy Medical Images [10.654917277821495]
Segment Anything Model (SAM) は画像セグメンテーションのための全範囲基盤モデルである。
医療画像のセグメンテーションにおけるSAMの性能向上を目的とした改良されたテストフェーズプロンプト拡張手法を提案する。
ノイズの多い低コントラストの医用画像においても,SAMの有効利用が可能となった。
論文 参考訳(メタデータ) (2023-08-20T23:01:46Z) - SurgicalSAM: Efficient Class Promptable Surgical Instrument Segmentation [65.52097667738884]
そこで本研究では,SAMの知識と外科的特異的情報を統合し,汎用性を向上させるための,新しいエンドツーエンドの効率的なチューニング手法であるScientialSAMを紹介した。
具体的には,タイピングのための軽量なプロトタイプベースクラスプロンプトエンコーダを提案し,クラスプロトタイプから直接プロンプト埋め込みを生成する。
また,手術器具カテゴリー間のクラス間差異の低さに対応するために,コントラッシブなプロトタイプ学習を提案する。
論文 参考訳(メタデータ) (2023-08-17T02:51:01Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z) - SimpSON: Simplifying Photo Cleanup with Single-Click Distracting Object
Segmentation Network [70.89436857471887]
ワンクリックでタスクを遂行するために最適化された対話型トラクタ選択法を提案する。
本手法は従来の単視分割法により達成された精度とリコールを超越した手法である。
実験により, 未知の物体を対話的に, グループで効果的に, 正確に識別できることが実証された。
論文 参考訳(メタデータ) (2023-05-28T04:05:24Z) - Personalize Segment Anything Model with One Shot [52.54453744941516]
我々は,Segment Anything Model (SAM) のためのトレーニング不要なパーソナライズ手法を提案する。
PerSAMは、参照マスクを持つ1つのイメージしか持たないため、最初にターゲットのコンセプトを以前のロケーションでローカライズする。
PerSAMは、ターゲット誘導された注意、ターゲットセマンティックなプロンプト、そしてカスケードされたポストリファインメントという3つのテクニックを通じて、他の画像やビデオにセグメントする。
論文 参考訳(メタデータ) (2023-05-04T17:59:36Z) - Segment Anything Model (SAM) for Digital Pathology: Assess Zero-shot
Segmentation on Whole Slide Imaging [12.533476185972527]
画像セグメンテーションの基礎モデルとしてセグメンテーションモデル(SAM)がリリースされた。
スライド画像全体(WSI)における代表セグメンテーションタスクにおけるSAMモデルのゼロショットセグメンテーション性能を評価する。
その結果,0ショットSAMモデルは大きな連結オブジェクトに対して顕著なセグメンテーション性能を実現することが示唆された。
論文 参考訳(メタデータ) (2023-04-09T04:06:59Z) - A Simple Baseline for Zero-shot Semantic Segmentation with Pre-trained
Vision-language Model [61.58071099082296]
オブジェクト検出やセマンティックセグメンテーションといった、より広範な視覚問題に対して、ゼロショット認識をどのようにうまく機能させるかは定かではない。
本稿では,既訓練の視覚言語モデルであるCLIPを用いて,ゼロショットセマンティックセマンティックセマンティックセマンティクスを構築することを目的とした。
実験結果から, この単純なフレームワークは, 従来の最先端をはるかに上回っていることが明らかとなった。
論文 参考訳(メタデータ) (2021-12-29T18:56:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。