論文の概要: Adapting Foundation Models for Few-Shot Medical Image Segmentation: Actively and Sequentially
- arxiv url: http://arxiv.org/abs/2502.01000v1
- Date: Mon, 03 Feb 2025 02:47:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-05 14:59:32.903427
- Title: Adapting Foundation Models for Few-Shot Medical Image Segmentation: Actively and Sequentially
- Title(参考訳): Few-Shot の医用画像分割のための基礎モデルへの適応--能動的および逐次的
- Authors: Jingyun Yang, Guoqing Zhang, Jingge Wang, Yang Li,
- Abstract要約: FSDAにおける動的補助的データセット選択のためのフレームワークを提案する。
我々は、目標タスクと密接に一致した補助データセットのトレーニングを優先する効率的な報酬関数を導出する。
提案手法はMRIでは平均27.75%,CTでは7.52%,Diceでは平均27.75%であった。
- 参考スコア(独自算出の注目度): 4.65647362545504
- License:
- Abstract: Recent advances in foundation models have brought promising results in computer vision, including medical image segmentation. Fine-tuning foundation models on specific low-resource medical tasks has become a standard practice. However, ensuring reliable and robust model adaptation when the target task has a large domain gap and few annotated samples remains a challenge. Previous few-shot domain adaptation (FSDA) methods seek to bridge the distribution gap between source and target domains by utilizing auxiliary data. The selection and scheduling of auxiliaries are often based on heuristics, which can easily cause negative transfer. In this work, we propose an Active and Sequential domain AdaPtation (ASAP) framework for dynamic auxiliary dataset selection in FSDA. We formulate FSDA as a multi-armed bandit problem and derive an efficient reward function to prioritize training on auxiliary datasets that align closely with the target task, through a single-round fine-tuning. Empirical validation on diverse medical segmentation datasets demonstrates that our method achieves favorable segmentation performance, significantly outperforming the state-of-the-art FSDA methods, achieving an average gain of 27.75% on MRI and 7.52% on CT datasets in Dice score. Code is available at the git repository: https://github.com/techicoco/ASAP.
- Abstract(参考訳): 基礎モデルの最近の進歩は、医療画像セグメンテーションを含むコンピュータビジョンの有望な成果をもたらしている。
特定の低リソース医療タスクに関するファインチューニング基盤モデルは、標準的慣行となっている。
しかし、ターゲットタスクが大きなドメインギャップを持ち、注釈付きサンプルが少ない場合、信頼性が高く堅牢なモデル適応を保証することは、依然として課題である。
従来の数ショット領域適応法(FSDA)は、補助データを利用することで、ソースとターゲットドメイン間の分配ギャップを埋めようとしている。
補助体の選択とスケジューリングは、しばしばヒューリスティックに基づいており、容易に負の移動を引き起こす。
本研究では,FSDA における動的補助データセット選択のための Active and Sequential Domain AdaPtation (ASAP) フレームワークを提案する。
我々はFSDAをマルチアームバンディット問題として定式化し、単一ラウンドの微調整により、目標タスクと密接に整合した補助データセットのトレーニングを優先する効率的な報酬関数を導出する。
種々の医用セグメンテーションデータセットに対する実証的検証により,本手法が良好なセグメンテーション性能を達成し,最先端のFSDA法を著しく上回り,MRIでは27.75%,Diceスコアでは7.52%を達成できた。
コードはgitリポジトリで入手できる。
関連論文リスト
- An Uncertainty-guided Tiered Self-training Framework for Active Source-free Domain Adaptation in Prostate Segmentation [10.061310311839856]
Source-free Domain Adaptation (SFDA)は、プライバシとセキュリティ上の問題に対処するために、深いセグメンテーションモデルを適用するための有望なテクニックである。
安定したドメイン適応を実現するための新しい不確実性誘導型自己学習(UGTST)フレームワークを提案する。
論文 参考訳(メタデータ) (2024-07-03T08:13:16Z) - DG-TTA: Out-of-domain medical image segmentation through Domain Generalization and Test-Time Adaptation [43.842694540544194]
本稿では、ドメインの一般化とテスト時間適応を組み合わせることで、未確認対象領域で事前学習したモデルを再利用するための非常に効果的なアプローチを提案する。
本手法は,事前訓練した全身CTモデルと組み合わせることで,MR画像を高精度に分割できることを実証する。
論文 参考訳(メタデータ) (2023-12-11T10:26:21Z) - Subject-Based Domain Adaptation for Facial Expression Recognition [51.10374151948157]
ディープラーニングモデルを特定の対象個人に適用することは、難しい表情認識タスクである。
本稿では、FERにおける主観的ドメイン適応のための新しいMSDA手法を提案する。
複数の情報源からの情報を効率的に利用して、ディープFERモデルを単一のターゲット個人に適応させる。
論文 参考訳(メタデータ) (2023-12-09T18:40:37Z) - Robust Source-Free Domain Adaptation for Fundus Image Segmentation [3.585032903685044]
Unlabelled Domain Adaptation (UDA)は、ラベル付きデータから学習した知識を、未ラベルデータのみを使用してターゲットドメインに転送する学習技術である。
本研究では,ロバストドメイン適応のための2段階トレーニングステージを提案する。
本稿では,ラベルのないターゲットデータを有効利用して擬似ラベルと擬似境界を生成する,ロバストな擬似ラベルと擬似境界(PLPB)手法を提案する。
論文 参考訳(メタデータ) (2023-10-25T14:25:18Z) - Source-Free Collaborative Domain Adaptation via Multi-Perspective
Feature Enrichment for Functional MRI Analysis [55.03872260158717]
安静時MRI機能(rs-fMRI)は、神経疾患の分析を助けるために多地点で研究されている。
ソース領域とターゲット領域の間のfMRIの不均一性を低減するための多くの手法が提案されている。
しかし、マルチサイト研究における懸念やデータストレージの負担のため、ソースデータの取得は困難である。
我々は、fMRI解析のためのソースフリー協調ドメイン適応フレームワークを設計し、事前訓練されたソースモデルとラベルなしターゲットデータのみにアクセスできるようにする。
論文 参考訳(メタデータ) (2023-08-24T01:30:18Z) - Source-Free Domain Adaptation for Medical Image Segmentation via
Prototype-Anchored Feature Alignment and Contrastive Learning [57.43322536718131]
医用画像セグメンテーションのための2段階のソースフリードメイン適応(SFDA)フレームワークを提案する。
プロトタイプアンコールされた特徴アライメントの段階では,まず,事前学習した画素ワイド分類器の重みを原プロトタイプとして利用する。
そこで,本研究では,目標となる特徴とクラスプロトタイプとの整合性を期待するコストを最小化し,双方向輸送を導入する。
論文 参考訳(メタデータ) (2023-07-19T06:07:12Z) - Learnable Weight Initialization for Volumetric Medical Image Segmentation [66.3030435676252]
本稿では,学習可能な重みに基づくハイブリッド医療画像セグメンテーション手法を提案する。
我々のアプローチはどんなハイブリッドモデルにも簡単に統合でき、外部のトレーニングデータを必要としない。
多臓器・肺がんセグメンテーションタスクの実験は、我々のアプローチの有効性を実証している。
論文 参考訳(メタデータ) (2023-06-15T17:55:05Z) - MADAv2: Advanced Multi-Anchor Based Active Domain Adaptation
Segmentation [98.09845149258972]
セマンティックセグメンテーションタスクに関するドメイン適応を支援するために,アクティブなサンプル選択を導入する。
これらのサンプルを手動でアノテートする作業量が少ないため、ターゲット領域分布の歪みを効果的に緩和することができる。
長期分布問題を緩和するために、強力な半教師付きドメイン適応戦略を提案する。
論文 参考訳(メタデータ) (2023-01-18T07:55:22Z) - Target and Task specific Source-Free Domain Adaptive Image Segmentation [73.78898054277538]
ソースフリー領域適応画像分割のための2段階のアプローチを提案する。
我々は,高エントロピー領域を抑えつつ,ターゲット固有の擬似ラベルを生成することに注力する。
第2段階では、タスク固有の表現にネットワークを適用することに重点を置いている。
論文 参考訳(メタデータ) (2022-03-29T17:50:22Z) - A Field of Experts Prior for Adapting Neural Networks at Test Time [8.244295783641396]
画像解析タスクにおける畳み込みニューラルネットワーク(CNN)の性能は、しばしば、トレーニングとテストイメージの間の取得関連分布シフトによって損なわれる。
テスト画像ごとに訓練されたCNNを微調整することでこの問題に対処することが提案されている。
テスト時間適応(TTA)は,テスト画像とトレーニング画像の特徴分布を一致させて行う。
論文 参考訳(メタデータ) (2022-02-10T11:44:45Z) - Adapt Everywhere: Unsupervised Adaptation of Point-Clouds and Entropy
Minimisation for Multi-modal Cardiac Image Segmentation [10.417009344120917]
マルチモーダル心臓画像分割のための新しいUDA法を提案する。
提案手法は、逆学習に基づいて、異なる空間におけるソースとターゲットドメイン間のネットワーク特徴を適応する。
本手法はannotated source domainからunannotated target domainへの適応により2つの心データセットで検証した。
論文 参考訳(メタデータ) (2021-03-15T08:59:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。