論文の概要: Anytime, Anywhere, Anyone: Investigating the Feasibility of Segment Anything Model for Crowd-Sourcing Medical Image Annotations
- arxiv url: http://arxiv.org/abs/2403.15218v1
- Date: Fri, 22 Mar 2024 14:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 17:19:18.246890
- Title: Anytime, Anywhere, Anyone: Investigating the Feasibility of Segment Anything Model for Crowd-Sourcing Medical Image Annotations
- Title(参考訳): いつでも、どこでも、誰でも、クラウドソーシング・メディカル・イメージ・アノテーションのためのセグメンテーション・モデルの可能性を探る
- Authors: Pranav Kulkarni, Adway Kanhere, Dharmam Savani, Andrew Chan, Devina Chatterjee, Paul H. Yi, Vishwa S. Parekh,
- Abstract要約: Segment Anything Model (SAM)は、例外的なゼロショットの一般化性を備えたセマンティックセマンティックセマンティクスに革命をもたらした。
我々は,最先端のDLセグメンテーションモデルである3D nnU-Netモデルをトレーニングするための"dense"セグメンテーションマスクを生成する。
その結果, SAM生成アノテーションは, 接地真実アノテーションと比較してDiceスコアが高かったが, SAM生成アノテーションで訓練したnnU-Netモデルは, 接地真実アノテーションで訓練したnnU-Netモデルよりも有意に劣っていることがわかった。
- 参考スコア(独自算出の注目度): 3.426639188057685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Curating annotations for medical image segmentation is a labor-intensive and time-consuming task that requires domain expertise, resulting in "narrowly" focused deep learning (DL) models with limited translational utility. Recently, foundation models like the Segment Anything Model (SAM) have revolutionized semantic segmentation with exceptional zero-shot generalizability across various domains, including medical imaging, and hold a lot of promise for streamlining the annotation process. However, SAM has yet to be evaluated in a crowd-sourced setting to curate annotations for training 3D DL segmentation models. In this work, we explore the potential of SAM for crowd-sourcing "sparse" annotations from non-experts to generate "dense" segmentation masks for training 3D nnU-Net models, a state-of-the-art DL segmentation model. Our results indicate that while SAM-generated annotations exhibit high mean Dice scores compared to ground-truth annotations, nnU-Net models trained on SAM-generated annotations perform significantly worse than nnU-Net models trained on ground-truth annotations ($p<0.001$, all).
- Abstract(参考訳): 医用画像セグメンテーションのためのアノテーションのキュレーションは、ドメインの専門知識を必要とする労働集約的かつ時間を要するタスクであり、結果として翻訳ユーティリティに制限のある"狭い"集中型ディープラーニング(DL)モデルが生まれる。
最近、SAM(Segment Anything Model)のような基盤モデルは、医療画像を含む様々な領域で例外的なゼロショットの一般化性を持つセマンティックセグメンテーションに革命をもたらし、アノテーションプロセスの合理化を約束している。
しかし、SAMは3D DLセグメンテーションモデルをトレーニングするためのアノテーションをキュレートするためのクラウドソース設定ではまだ評価されていない。
本研究では,最新のDLセグメンテーションモデルである3D nnU-Netモデルをトレーニングするための"dense"セグメンテーションマスクを生成するために,非専門家から"sparse"アノテーションをクラウドソーシングするSAMの可能性を探る。
その結果, SAM生成アノテーションは, 接地真実アノテーションと比較してDiceスコアが高いが, SAM生成アノテーションで訓練したnnU-Netモデルは, 接地真実アノテーションで訓練したnnU-Netモデル(p<0.001$, all。
関連論文リスト
- Medical Image Segmentation with SAM-generated Annotations [12.432602118806573]
医療データのアノテーションツールとしてSegment Anything Model(SAM)の性能を評価する。
我々は,MSD (Medicical Decathlon) のCT (Computerd tomography) タスク上で,いわゆる「擬似ラベル」を生成する。
擬似ラベルは、弱教師付きでUNetモデルをトレーニングするために、地上の真理ラベルの代わりに使用される。
論文 参考訳(メタデータ) (2024-09-30T12:43:20Z) - Multi-Scale and Detail-Enhanced Segment Anything Model for Salient Object Detection [58.241593208031816]
Segment Anything Model (SAM) は、強力なセグメンテーションと一般化機能を提供する視覚的基本モデルとして提案されている。
実物検出のためのMDSAM(Multi-scale and Detail-enhanced SAM)を提案する。
実験により,複数のSODデータセット上でのモデルの優れた性能が示された。
論文 参考訳(メタデータ) (2024-08-08T09:09:37Z) - AlignSAM: Aligning Segment Anything Model to Open Context via Reinforcement Learning [61.666973416903005]
Segment Anything Model (SAM)は、オープンワールドシナリオにおいて、プロンプトのガイダンスによって、その印象的な一般化機能を実証した。
オープンコンテキストにSAMをアライメントするための自動プロンプトのための新しいフレームワークAlignSAMを提案する。
論文 参考訳(メタデータ) (2024-06-01T16:21:39Z) - SOHES: Self-supervised Open-world Hierarchical Entity Segmentation [82.45303116125021]
この研究は、人間のアノテーションを必要としない新しいアプローチであるSOHES(Self-supervised Open World Hierarchical Entities)を提示する。
視覚的特徴クラスタリングにより高品質な擬似ラベルを生成し,教師同士の学習によって擬似ラベルの雑音を補正する。
学習データとして生画像を用いることにより,自己監督型オープンワールドセグメンテーションにおける前例のない性能を実現する。
論文 参考訳(メタデータ) (2024-04-18T17:59:46Z) - Annotation Free Semantic Segmentation with Vision Foundation Models [11.026377387506216]
既存の基盤モデルを用いて,任意のセマンティックセグメンテーションデータセットに対してフリーアノテーションを生成する。
CLIPを使ってオブジェクトとSAMを検出し、高品質なオブジェクトマスクを生成します。
我々のアプローチは、最小限のトレーニングで事前訓練された視覚エンコーダに言語ベースのセマンティクスをもたらすことができる。
論文 参考訳(メタデータ) (2024-03-14T11:57:58Z) - Segment3D: Learning Fine-Grained Class-Agnostic 3D Segmentation without
Manual Labels [141.23836433191624]
現在の3Dシーンセグメンテーション手法は、手動で注釈付けされた3Dトレーニングデータセットに大きく依存している。
高品質な3Dセグメンテーションマスクを生成するクラス非依存の3Dシーンセグメンテーション法であるSegment3Dを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:57:11Z) - Leverage Weakly Annotation to Pixel-wise Annotation via Zero-shot
Segment Anything Model for Molecular-empowered Learning [4.722512095568422]
AIモデルの構築にはピクセルレベルのアノテーションが必要だ。
本稿では,最近のセグメンテーションモデル(SAM)を弱いボックスアノテーションに応用することにより,ピクセルレベルのデライン化を回避できる可能性を探る。
提案したSAM-Assisted molecular-empowered learning (SAM-L) は,弱いボックスアノテーションを必要とせず,レイアノテータのラベル付け作業の軽減を図っている。
論文 参考訳(メタデータ) (2023-08-10T16:44:24Z) - $\mathrm{SAM^{Med}}$: A medical image annotation framework based on
large vision model [23.095778923771732]
大規模ビジョンモデル、Segment Anything Model (SAM)はコンピュータビジョン分野に革命をもたらした。
本研究では,医用画像アノテーションのための拡張フレームワークである$mathrmSAMMed$を提案する。
その結果,入力点が5点程度しかなく,セグメンテーション精度が著しく向上した。
論文 参考訳(メタデータ) (2023-07-11T03:00:22Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - RefSAM: Efficiently Adapting Segmenting Anything Model for Referring Video Object Segmentation [53.4319652364256]
本稿では,ビデオオブジェクトのセグメンテーションを参照するためのSAMの可能性を探るRefSAMモデルを提案する。
提案手法は,Cross-RValModalを用いることで,モダリティ学習を向上させるためにオリジナルのSAMモデルに適応する。
我々は、言語と視覚の特徴を効果的に調整し、融合させるために、パラメータ効率のチューニング戦略を採用している。
論文 参考訳(メタデータ) (2023-07-03T13:21:58Z) - MedLSAM: Localize and Segment Anything Model for 3D CT Images [13.320012515543116]
MedLAM(MedLAM)は,数個のテンプレートスキャンを用いて体内の解剖学的部位を正確に同定する3次元基礎局在モデルである。
私たちはMedLAMとSegment Anything Model(SAM)を統合してMedLSAMを開発した。
1)MedLSAMはSAMの性能と,その専門的な医療適応を手動のプロンプトと密に一致させ,データセット全体にわたる広範なポイントアノテーションの必要性を最小限に抑えながら,いくつかのテンプレートスキャンを用いて解剖学的構造を直接ローカライズすることができる。
論文 参考訳(メタデータ) (2023-06-26T15:09:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。