論文の概要: Anytime, Anywhere, Anyone: Investigating the Feasibility of Segment Anything Model for Crowd-Sourcing Medical Image Annotations
- arxiv url: http://arxiv.org/abs/2403.15218v1
- Date: Fri, 22 Mar 2024 14:07:07 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-25 17:19:18.246890
- Title: Anytime, Anywhere, Anyone: Investigating the Feasibility of Segment Anything Model for Crowd-Sourcing Medical Image Annotations
- Title(参考訳): いつでも、どこでも、誰でも、クラウドソーシング・メディカル・イメージ・アノテーションのためのセグメンテーション・モデルの可能性を探る
- Authors: Pranav Kulkarni, Adway Kanhere, Dharmam Savani, Andrew Chan, Devina Chatterjee, Paul H. Yi, Vishwa S. Parekh,
- Abstract要約: Segment Anything Model (SAM)は、例外的なゼロショットの一般化性を備えたセマンティックセマンティックセマンティクスに革命をもたらした。
我々は,最先端のDLセグメンテーションモデルである3D nnU-Netモデルをトレーニングするための"dense"セグメンテーションマスクを生成する。
その結果, SAM生成アノテーションは, 接地真実アノテーションと比較してDiceスコアが高かったが, SAM生成アノテーションで訓練したnnU-Netモデルは, 接地真実アノテーションで訓練したnnU-Netモデルよりも有意に劣っていることがわかった。
- 参考スコア(独自算出の注目度): 3.426639188057685
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Curating annotations for medical image segmentation is a labor-intensive and time-consuming task that requires domain expertise, resulting in "narrowly" focused deep learning (DL) models with limited translational utility. Recently, foundation models like the Segment Anything Model (SAM) have revolutionized semantic segmentation with exceptional zero-shot generalizability across various domains, including medical imaging, and hold a lot of promise for streamlining the annotation process. However, SAM has yet to be evaluated in a crowd-sourced setting to curate annotations for training 3D DL segmentation models. In this work, we explore the potential of SAM for crowd-sourcing "sparse" annotations from non-experts to generate "dense" segmentation masks for training 3D nnU-Net models, a state-of-the-art DL segmentation model. Our results indicate that while SAM-generated annotations exhibit high mean Dice scores compared to ground-truth annotations, nnU-Net models trained on SAM-generated annotations perform significantly worse than nnU-Net models trained on ground-truth annotations ($p<0.001$, all).
- Abstract(参考訳): 医用画像セグメンテーションのためのアノテーションのキュレーションは、ドメインの専門知識を必要とする労働集約的かつ時間を要するタスクであり、結果として翻訳ユーティリティに制限のある"狭い"集中型ディープラーニング(DL)モデルが生まれる。
最近、SAM(Segment Anything Model)のような基盤モデルは、医療画像を含む様々な領域で例外的なゼロショットの一般化性を持つセマンティックセグメンテーションに革命をもたらし、アノテーションプロセスの合理化を約束している。
しかし、SAMは3D DLセグメンテーションモデルをトレーニングするためのアノテーションをキュレートするためのクラウドソース設定ではまだ評価されていない。
本研究では,最新のDLセグメンテーションモデルである3D nnU-Netモデルをトレーニングするための"dense"セグメンテーションマスクを生成するために,非専門家から"sparse"アノテーションをクラウドソーシングするSAMの可能性を探る。
その結果, SAM生成アノテーションは, 接地真実アノテーションと比較してDiceスコアが高いが, SAM生成アノテーションで訓練したnnU-Netモデルは, 接地真実アノテーションで訓練したnnU-Netモデル(p<0.001$, all。
関連論文リスト
- SOHES: Self-supervised Open-world Hierarchical Entity Segmentation [82.45303116125021]
この研究は、人間のアノテーションを必要としない新しいアプローチであるSOHES(Self-supervised Open World Hierarchical Entities)を提示する。
視覚的特徴クラスタリングにより高品質な擬似ラベルを生成し,教師同士の学習によって擬似ラベルの雑音を補正する。
学習データとして生画像を用いることにより,自己監督型オープンワールドセグメンテーションにおける前例のない性能を実現する。
論文 参考訳(メタデータ) (2024-04-18T17:59:46Z) - FreeSeg-Diff: Training-Free Open-Vocabulary Segmentation with Diffusion Models [56.71672127740099]
我々は,閉鎖語彙データセットのトレーニングモデルによって伝統的に解決されるイメージセグメンテーションの課題に焦点をあてる。
我々は、ゼロショットのオープン語彙セグメンテーションのために、異なる、比較的小さなオープンソース基盤モデルを活用している。
当社のアプローチ(別名FreeSeg-Diff)は、トレーニングに依存しないもので、Pascal VOCとCOCOデータセットの両方で多くのトレーニングベースのアプローチより優れています。
論文 参考訳(メタデータ) (2024-03-29T10:38:25Z) - Segment3D: Learning Fine-Grained Class-Agnostic 3D Segmentation without
Manual Labels [141.23836433191624]
現在の3Dシーンセグメンテーション手法は、手動で注釈付けされた3Dトレーニングデータセットに大きく依存している。
高品質な3Dセグメンテーションマスクを生成するクラス非依存の3Dシーンセグメンテーション法であるSegment3Dを提案する。
論文 参考訳(メタデータ) (2023-12-28T18:57:11Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [13.056321925093792]
本稿では SAM モデルと nnUNet モデルを統合し,より正確で堅牢な医用画像分割を実現する nnSAM を提案する。
nnSAMは、医療画像セグメンテーションの潜在的な新しいベンチマークとして、幅広い適用性と特殊な効率性を組み合わせたツールを提供している。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Leverage Weakly Annotation to Pixel-wise Annotation via Zero-shot
Segment Anything Model for Molecular-empowered Learning [4.722512095568422]
AIモデルの構築にはピクセルレベルのアノテーションが必要だ。
本稿では,最近のセグメンテーションモデル(SAM)を弱いボックスアノテーションに応用することにより,ピクセルレベルのデライン化を回避できる可能性を探る。
提案したSAM-Assisted molecular-empowered learning (SAM-L) は,弱いボックスアノテーションを必要とせず,レイアノテータのラベル付け作業の軽減を図っている。
論文 参考訳(メタデータ) (2023-08-10T16:44:24Z) - $\mathrm{SAM^{Med}}$: A medical image annotation framework based on
large vision model [23.095778923771732]
大規模ビジョンモデル、Segment Anything Model (SAM)はコンピュータビジョン分野に革命をもたらした。
本研究では,医用画像アノテーションのための拡張フレームワークである$mathrmSAMMed$を提案する。
その結果,入力点が5点程度しかなく,セグメンテーション精度が著しく向上した。
論文 参考訳(メタデータ) (2023-07-11T03:00:22Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - All-in-SAM: from Weak Annotation to Pixel-wise Nuclei Segmentation with
Prompt-based Finetuning [16.016139980843835]
Segment Anything Model (SAM) は、ゼロショットセグメンテーションアプローチにおいて、最近提案されたプロンプトベースのセグメンテーションモデルである。
推論段階で手動のプロンプトを必要とせずに,AI開発ワークフロー全体を通じてSAMを利用するパイプラインを導入する。
実験の結果,1) 提案したパイプラインは, 公開モヌセグデータセット上での核分割タスクにおいて, 最先端(SOTA)手法を超越し, 2) SAMファインタニングのための弱いアノテーションと少ないアノテーションの利用により, 競争性能が向上することがわかった。
論文 参考訳(メタデータ) (2023-07-01T10:12:46Z) - MedLSAM: Localize and Segment Anything Model for 3D CT Images [14.290321536041816]
3次元医用画像の局所化モデル(MedLAM)を開発した。
MedLAMは、ほんの少しのテンプレートスキャンを使用して、解剖学的構造を直接ローカライズすることができる。
将来の3D SAMモデルとシームレスに統合される可能性がある。
論文 参考訳(メタデータ) (2023-06-26T15:09:02Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。