論文の概要: I-MedSAM: Implicit Medical Image Segmentation with Segment Anything
- arxiv url: http://arxiv.org/abs/2311.17081v1
- Date: Tue, 28 Nov 2023 00:43:52 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 00:18:19.730182
- Title: I-MedSAM: Implicit Medical Image Segmentation with Segment Anything
- Title(参考訳): I-MedSAM: セグメンテーションによる医用画像セグメンテーション
- Authors: Xiaobao Wei, Jiajun Cao, Yizhu Jin, Ming Lu, Guangyu Wang, Shanghang
Zhang
- Abstract要約: I-MedSAMは、連続表現とSegment Anything Model(SAM)の両方の利点を利用して、ドメイン横断能力と正確な境界線を求める。
Inlicit Neural Representation (INR) の効率的な学習のための不確実性誘導型サンプリング戦略を提案する。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および連続的な手法を含む既存の手法よりも優れている。
- 参考スコア(独自算出の注目度): 25.479086547001177
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: With the development of Deep Neural Networks (DNNs), many efforts have been
made to handle medical image segmentation. Traditional methods such as nnUNet
train specific segmentation models on the individual datasets. Plenty of recent
methods have been proposed to adapt the foundational Segment Anything Model
(SAM) to medical image segmentation. However, they still focus on discrete
representations to generate pixel-wise predictions, which are spatially
inflexible and scale poorly to higher resolution. In contrast, implicit methods
learn continuous representations for segmentation, which is crucial for medical
image segmentation. In this paper, we propose I-MedSAM, which leverages the
benefits of both continuous representations and SAM, to obtain better
cross-domain ability and accurate boundary delineation. Since medical image
segmentation needs to predict detailed segmentation boundaries, we designed a
novel adapter to enhance the SAM features with high-frequency information
during Parameter Efficient Fine Tuning (PEFT). To convert the SAM features and
coordinates into continuous segmentation output, we utilize Implicit Neural
Representation (INR) to learn an implicit segmentation decoder. We also propose
an uncertainty-guided sampling strategy for efficient learning of INR.
Extensive evaluations on 2D medical image segmentation tasks have shown that
our proposed method with only 1.6M trainable parameters outperforms existing
methods including discrete and continuous methods. The code will be released.
- Abstract(参考訳): ディープニューラルネットワーク(DNN)の開発により、医療画像のセグメンテーションに多くの取り組みがなされている。
nnUNetのような従来の手法では、個々のデータセット上で特定のセグメンテーションモデルをトレーニングしている。
基礎的なセグメンテーションモデル(SAM)を医用画像セグメンテーションに適用する手法が,近年提案されている。
しかし、彼らは依然として離散的な表現に注目してピクセル単位で予測し、空間的に柔軟性がなく、より高解像度にスケールしにくい。
対照的に、暗黙的手法は、医用画像のセグメンテーションに欠かせないセグメンテーションの連続的な表現を学習する。
本稿では,連続表現とSAMの両方の利点を利用するI-MedSAMを提案する。
医用画像セグメンテーションは,詳細なセグメンテーション境界を予測する必要があるため,パラメータ効率の良い微調整(peft)時に,高周波情報を用いたsam機能を強化する新しいアダプタを設計した。
samの特徴と座標を連続的なセグメンテーション出力に変換するために、暗黙的なニューラルネットワーク表現(inr)を使用して、暗黙的なセグメンテーションデコーダを学習する。
また、INRの効率的な学習のための不確実性誘導サンプリング戦略を提案する。
2次元医用画像セグメンテーションタスクの広範な評価を行った結果, 学習可能なパラメータが1.6mに満たない手法は, 離散的および連続的手法を含む既存の手法よりも優れていることがわかった。
コードはリリースされます。
関連論文リスト
- SAMIHS: Adaptation of Segment Anything Model for Intracranial Hemorrhage
Segmentation [18.867207134086193]
脳梗塞診断と手術計画において,頭蓋内出血分節は重要かつ困難なステップである。
そこで我々は,脳内出血セグメンテーションのためのSAM-based parameter- efficient fine-tuning法(SAMIHS)を提案する。
2つの公開データセットに対する実験結果から,提案手法の有効性が示された。
論文 参考訳(メタデータ) (2023-11-14T14:23:09Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - SamDSK: Combining Segment Anything Model with Domain-Specific Knowledge
for Semi-Supervised Learning in Medical Image Segmentation [27.044797468878837]
Segment Anything Model (SAM)は、自然画像に広範囲のオブジェクトを分割する機能を示す。
本稿では、SAMとドメイン固有の知識を組み合わせて、ラベルなし画像の信頼性の高い利用法を提案する。
本研究は,医用画像セグメンテーションのための半教師あり学習の新たな方向性を創出する。
論文 参考訳(メタデータ) (2023-08-26T04:46:10Z) - 3DSAM-adapter: Holistic Adaptation of SAM from 2D to 3D for Promptable
Medical Image Segmentation [56.50064853710202]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - PCA: Semi-supervised Segmentation with Patch Confidence Adversarial
Training [52.895952593202054]
医用画像セグメンテーションのためのPatch Confidence Adrial Training (PCA) と呼ばれる半教師付き対向法を提案する。
PCAは各パッチの画素構造とコンテキスト情報を学習し、十分な勾配フィードバックを得る。
本手法は, 医用画像のセグメンテーションにおいて, 最先端の半教師付き手法より優れており, その有効性を示している。
論文 参考訳(メタデータ) (2022-07-24T07:45:47Z) - Diffusion Models for Implicit Image Segmentation Ensembles [1.444701913511243]
拡散モデルに基づく新しいセマンティックセグメンテーション手法を提案する。
トレーニングとサンプリングの手法を改良することにより,拡散モデルが医用画像の病変分割を行うことができることを示す。
最先端セグメンテーションモデルと比較して,本手法は良好なセグメンテーション結果と有意義な不確実性マップが得られる。
論文 参考訳(メタデータ) (2021-12-06T16:28:15Z) - Towards Cross-modality Medical Image Segmentation with Online Mutual
Knowledge Distillation [71.89867233426597]
本稿では,あるモダリティから学習した事前知識を活用し,別のモダリティにおけるセグメンテーション性能を向上させることを目的とする。
モーダル共有知識を徹底的に活用する新しい相互知識蒸留法を提案する。
MMWHS 2017, MMWHS 2017 を用いた多クラス心筋セグメンテーション実験の結果, CT セグメンテーションに大きな改善が得られた。
論文 参考訳(メタデータ) (2020-10-04T10:25:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。