論文の概要: Annotation-Efficient Task Guidance for Medical Segment Anything
- arxiv url: http://arxiv.org/abs/2412.08575v1
- Date: Wed, 11 Dec 2024 17:47:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-12 14:02:07.587518
- Title: Annotation-Efficient Task Guidance for Medical Segment Anything
- Title(参考訳): 医用セグメンテーションにおけるアノテーション-効率的なタスクガイダンス
- Authors: Tyler Ward, Abdullah-Al-Zubaer Imran,
- Abstract要約: 医用画像のセグメンテーションは画像ワークフローにおける重要なタスクであり、多くの画像ベースの決定に影響を与える。
従来の完全教師付きセグメンテーションモデルは、大量のラベル付きトレーニングデータに依存しており、これは高価で時間を要する、エラーを起こしやすいプロセスである。
医療画像セグメンテーションのための新しいマルチタスク学習フレームワークSAM-Mixを提案する。
- 参考スコア(独自算出の注目度): 0.31077024712075796
- License:
- Abstract: Medical image segmentation is a key task in the imaging workflow, influencing many image-based decisions. Traditional, fully-supervised segmentation models rely on large amounts of labeled training data, typically obtained through manual annotation, which can be an expensive, time-consuming, and error-prone process. This signals a need for accurate, automatic, and annotation-efficient methods of training these models. We propose SAM-Mix, a novel multitask learning framework for medical image segmentation that uses class activation maps produced by an auxiliary classifier to guide the predictions of the semi-supervised segmentation branch, which is based on the SAM framework. Experimental evaluations on the public LiTS dataset confirm the effectiveness of SAM-Mix for simultaneous classification and segmentation of the liver from abdominal computed tomography (CT) scans. When trained for 90% fewer epochs on only 50 labeled 2D slices, representing just 0.04% of the available labeled training data, SAM-Mix achieves a Dice improvement of 5.1% over the best baseline model. The generalization results for SAM-Mix are even more impressive, with the same model configuration yielding a 25.4% Dice improvement on a cross-domain segmentation task. Our code is available at https://github.com/tbwa233/SAM-Mix.
- Abstract(参考訳): 医用画像のセグメンテーションは画像ワークフローにおける重要なタスクであり、多くの画像ベースの決定に影響を与える。
従来の完全教師付きセグメンテーションモデルは大量のラベル付きトレーニングデータに依存しており、通常は手作業によるアノテーションによって得られる。
このことは、これらのモデルをトレーニングする正確で自動的でアノテーション効率のよい方法の必要性を示唆している。
SAM-Mixは,SAMフレームワークをベースとした半教師付きセグメンテーションブランチの予測を誘導するために,補助分類器によって生成されたクラスアクティベーションマップを用いた,医用画像セグメンテーションのための新しいマルチタスク学習フレームワークである。
腹部CT検査による肝の同時分類と分画に対するSAM-Mixの有用性について検討した。
50個のラベル付き2Dスライスで90%のエポックを減らし、利用可能なラベル付きトレーニングデータの0.04%しか表現していない場合、SAM-Mixは最高のベースラインモデルよりも5.1%のDice改善を実現している。
SAM-Mixの一般化結果はさらに印象的であり、同じモデル構成により、クロスドメインセグメンテーションタスクにおいて25.4%のDice改善が得られる。
私たちのコードはhttps://github.com/tbwa233/SAM-Mix.comから入手可能です。
関連論文リスト
- SAM Carries the Burden: A Semi-Supervised Approach Refining Pseudo Labels for Medical Segmentation [1.342749532731493]
我々は、Segment Anything Modelの抽象オブジェクト理解を医用画像セグメンテーションに活用し、半教師付き学習のための擬似ラベルを提供する。
提案手法は,注釈付きデータの限られた量から得られる初期セグメンテーションを改良する。
本手法は,強度に基づく後処理法より優れる。
論文 参考訳(メタデータ) (2024-11-19T16:06:21Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - nnSAM: Plug-and-play Segment Anything Model Improves nnUNet Performance [12.169801149021566]
Segment Anything Model (SAM)は、特定のドメイントレーニングなしで画像セグメンテーションのための汎用ツールとして登場した。
nnUNetのような従来のモデルは推論中に自動セグメンテーションを実行するが、広範なドメイン固有のトレーニングが必要である。
提案するnnSAMは,SAMの頑健な特徴抽出とnnUNetの自動構成を統合し,小さなデータセットのセグメンテーション精度を向上させる。
論文 参考訳(メタデータ) (2023-09-29T04:26:25Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - Semantic-SAM: Segment and Recognize Anything at Any Granularity [83.64686655044765]
本稿では,任意の粒度でセグメンテーションと認識を可能にする汎用画像セグメンテーションモデルであるSemantic-SAMを紹介する。
複数のデータセットを3つの粒度に集約し、オブジェクトとパーツの分離した分類を導入する。
マルチグラニュラリティ機能を実現するために,各クリックで複数のレベルのマスクを生成できるマルチ選択学習方式を提案する。
論文 参考訳(メタデータ) (2023-07-10T17:59:40Z) - How to Efficiently Adapt Large Segmentation Model(SAM) to Medical Images [15.181219203629643]
Segment Anything (SAM)は、自然画像のゼロショットセグメンテーションにおいて印象的な機能を示す。
しかし、医療画像に適用すると、SAMは顕著なパフォーマンス低下に悩まされる。
本研究では,SAMエンコーダを凍結し,軽量なタスク固有予測ヘッドを微調整することを提案する。
論文 参考訳(メタデータ) (2023-06-23T18:34:30Z) - Input Augmentation with SAM: Boosting Medical Image Segmentation with
Segmentation Foundation Model [36.015065439244495]
Segment Anything Model (SAM) はコンピュータビジョンタスクのための汎用セグメンテーションのための大規模モデルである。
SAMは100万枚の画像と10億枚以上のマスクを使って訓練され、自然の風景画像に広範囲のオブジェクトのセグメンテーション結果を生成することができる。
本報告では,SAMは医用画像データに高品質なセグメンテーションを提供していないが,その生成マスク,特徴,安定性スコアは,より優れた医用画像セグメンテーションモデルの構築と訓練に有用であることを示す。
論文 参考訳(メタデータ) (2023-04-22T07:11:53Z) - Edge-Based Self-Supervision for Semi-Supervised Few-Shot Microscopy
Image Cell Segmentation [16.94384366469512]
本稿では,未ラベル画像の訓練を自己監督するためのエッジマップの予測を提案する。
実験の結果,従来のトレーニングセットの10%など,少数のアノテートされたイメージだけが,完全なアノテートされたデータベースを1~10ショットで処理するのと同じようなパフォーマンスに達するには十分であることがわかった。
論文 参考訳(メタデータ) (2022-08-03T14:35:00Z) - Jigsaw Clustering for Unsupervised Visual Representation Learning [68.09280490213399]
本稿では,新しいjigsawクラスタリング・プレテキストタスクを提案する。
本手法は画像内情報と画像間情報の両方を利用する。
トレーニングバッチの半分しか使用されていない場合、コントラスト学習方法にも匹敵します。
論文 参考訳(メタデータ) (2021-04-01T08:09:26Z) - ATSO: Asynchronous Teacher-Student Optimization for Semi-Supervised
Medical Image Segmentation [99.90263375737362]
教師-学生最適化の非同期版であるATSOを提案する。
ATSOはラベルのないデータを2つのサブセットに分割し、モデルの微調整に1つのサブセットを交互に使用し、他のサブセットのラベルを更新する。
医用画像のセグメンテーションデータセットを2つ評価し,様々な半教師付き環境において優れた性能を示す。
論文 参考訳(メタデータ) (2020-06-24T04:05:12Z) - 3D medical image segmentation with labeled and unlabeled data using
autoencoders at the example of liver segmentation in CT images [58.720142291102135]
本研究では、畳み込みニューラルネットワークによるセグメンテーションを改善するために、オートエンコーダ抽出機能の可能性を検討する。
コンボリューション・オートエンコーダを用いてラベルのないデータから特徴を抽出し,CT画像における3次元肝セグメンテーションの目標タスクを実行するために,マルチスケールの完全畳み込みCNNを用いた。
論文 参考訳(メタデータ) (2020-03-17T20:20:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。