論文の概要: Autoadaptive Medical Segment Anything Model
- arxiv url: http://arxiv.org/abs/2507.01828v1
- Date: Wed, 02 Jul 2025 15:44:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.363689
- Title: Autoadaptive Medical Segment Anything Model
- Title(参考訳): 自己適応型医療セグメントモデル
- Authors: Tyler Ward, Meredith K. Owen, O'Kira Coleman, Brian Noehren, Abdullah-Al-Zubaer Imran,
- Abstract要約: 本稿では,医療画像セグメンテーションのための新しいマルチタスク学習フレームワークであるADA-SAM(Automated, Domain-specific, Adaptive segment any model)を提案する。
提案手法は,ラベル設定が制限された場合,全教師付きベースラインと半教師付きベースラインを2桁で上回る。
- 参考スコア(独自算出の注目度): 0.2359291431338925
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Medical image segmentation is a key task in the imaging workflow, influencing many image-based decisions. Traditional, fully-supervised segmentation models rely on large amounts of labeled training data, typically obtained through manual annotation, which can be an expensive, time-consuming, and error-prone process. This signals a need for accurate, automatic, and annotation-efficient methods of training these models. We propose ADA-SAM (automated, domain-specific, and adaptive segment anything model), a novel multitask learning framework for medical image segmentation that leverages class activation maps from an auxiliary classifier to guide the predictions of the semi-supervised segmentation branch, which is based on the Segment Anything (SAM) framework. Additionally, our ADA-SAM model employs a novel gradient feedback mechanism to create a learnable connection between the segmentation and classification branches by using the segmentation gradients to guide and improve the classification predictions. We validate ADA-SAM on real-world clinical data collected during rehabilitation trials, and demonstrate that our proposed method outperforms both fully-supervised and semi-supervised baselines by double digits in limited label settings. Our code is available at: https://github.com/tbwa233/ADA-SAM.
- Abstract(参考訳): 医用画像のセグメンテーションは画像ワークフローにおける重要なタスクであり、多くの画像ベースの決定に影響を与える。
従来の完全教師付きセグメンテーションモデルは大量のラベル付きトレーニングデータに依存しており、通常は手作業によるアノテーションによって得られる。
このことは、これらのモデルをトレーニングする正確で自動的でアノテーション効率のよい方法の必要性を示唆している。
本稿では,Segment Anything(SAM)フレームワークに基づく半教師付きセグメンテーションブランチの予測を誘導する補助分類器からクラス活性化マップを活用する,医療画像セグメンテーションのための新しいマルチタスク学習フレームワークであるADA-SAM(Automated, Domain-specific,aptive segment any model)を提案する。
さらに、Ada-SAMモデルでは、セグメント化勾配を用いて分類予測をガイドし、改善することにより、セグメント化と分類枝の間の学習可能な接続を作成するために、新しい勾配フィードバック機構を採用している。
リハビリテーション期間中に収集した実世界の臨床データに基づいてADA-SAMの有効性を検証し,本手法がラベル設定の2桁で完全教師付きベースラインと半教師付きベースラインの両方より優れていることを示す。
私たちのコードは、https://github.com/tbwa233/ADA-SAM.comで利用可能です。
関連論文リスト
- BiSeg-SAM: Weakly-Supervised Post-Processing Framework for Boosting Binary Segmentation in Segment Anything Models [6.74659948545092]
BiSeg-SAMは、ポリープと皮膚病変の分節のための弱い制御されたプロンプトと境界の精製ネットワークである。
本手法は5つのポリプデータセットと1つの皮膚がんデータセットでテストした場合, 最先端(SOTA)法よりも有意な優位性を示した。
論文 参考訳(メタデータ) (2025-04-02T08:04:37Z) - Learnable Prompting SAM-induced Knowledge Distillation for Semi-supervised Medical Image Segmentation [47.789013598970925]
半教師型医用画像分割のための知識蒸留フレームワークKnowSAMを提案する。
我々のモデルは最先端の半教師付きセグメンテーションアプローチより優れている。
論文 参考訳(メタデータ) (2024-12-18T11:19:23Z) - Annotation-Efficient Task Guidance for Medical Segment Anything [0.31077024712075796]
医用画像のセグメンテーションは画像ワークフローにおける重要なタスクであり、多くの画像ベースの決定に影響を与える。
従来の完全教師付きセグメンテーションモデルは、大量のラベル付きトレーニングデータに依存しており、これは高価で時間を要する、エラーを起こしやすいプロセスである。
医療画像セグメンテーションのための新しいマルチタスク学習フレームワークSAM-Mixを提案する。
論文 参考訳(メタデータ) (2024-12-11T17:47:00Z) - Prompting Segment Anything Model with Domain-Adaptive Prototype for Generalizable Medical Image Segmentation [49.5901368256326]
医用画像のセグメンテーションにおけるセグメンテーションモデル(DAPSAM)の微調整のための新しいドメイン適応型プロンプトフレームワークを提案する。
DAPSAMは,2つの医療画像分割タスクにおいて,異なるモダリティで最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2024-09-19T07:28:33Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - SamDSK: Combining Segment Anything Model with Domain-Specific Knowledge
for Semi-Supervised Learning in Medical Image Segmentation [27.044797468878837]
Segment Anything Model (SAM)は、自然画像に広範囲のオブジェクトを分割する機能を示す。
本稿では、SAMとドメイン固有の知識を組み合わせて、ラベルなし画像の信頼性の高い利用法を提案する。
本研究は,医用画像セグメンテーションのための半教師あり学習の新たな方向性を創出する。
論文 参考訳(メタデータ) (2023-08-26T04:46:10Z) - SAM.MD: Zero-shot medical image segmentation capabilities of the Segment
Anything Model [1.1221592576472588]
医用画像のセグメンテーションにおけるセグメンテーションモデル(Segment Anything Model)のゼロショット機能の評価を行った。
SAMはCTデータによく対応し,半自動セグメンテーションツールの進歩の触媒となる可能性が示唆された。
論文 参考訳(メタデータ) (2023-04-10T18:20:29Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - UniT: Unified Knowledge Transfer for Any-shot Object Detection and
Segmentation [52.487469544343305]
オブジェクト検出とセグメンテーションの方法は、トレーニングのための大規模インスタンスレベルのアノテーションに依存します。
本稿では,直感的かつ統一的な半教師付きモデルを提案する。
論文 参考訳(メタデータ) (2020-06-12T22:45:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。