論文の概要: SAMIHS: Adaptation of Segment Anything Model for Intracranial Hemorrhage
Segmentation
- arxiv url: http://arxiv.org/abs/2311.08190v1
- Date: Tue, 14 Nov 2023 14:23:09 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-15 13:48:59.283665
- Title: SAMIHS: Adaptation of Segment Anything Model for Intracranial Hemorrhage
Segmentation
- Title(参考訳): samihs:脳内出血分画に対する segment anything モデルの適応
- Authors: Yinuo Wang, Kai Chen, Weimin Yuan, Cai Meng, XiangZhi Bai
- Abstract要約: 脳梗塞診断と手術計画において,頭蓋内出血分節は重要かつ困難なステップである。
そこで我々は,脳内出血セグメンテーションのためのSAM-based parameter- efficient fine-tuning法(SAMIHS)を提案する。
2つの公開データセットに対する実験結果から,提案手法の有効性が示された。
- 参考スコア(独自算出の注目度): 18.867207134086193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Segment Anything Model (SAM), a vision foundation model trained on
large-scale annotations, has recently continued raising awareness within
medical image segmentation. Despite the impressive capabilities of SAM on
natural scenes, it struggles with performance decline when confronted with
medical images, especially those involving blurry boundaries and highly
irregular regions of low contrast. In this paper, a SAM-based
parameter-efficient fine-tuning method, called SAMIHS, is proposed for
intracranial hemorrhage segmentation, which is a crucial and challenging step
in stroke diagnosis and surgical planning. Distinguished from previous SAM and
SAM-based methods, SAMIHS incorporates parameter-refactoring adapters into
SAM's image encoder and considers the efficient and flexible utilization of
adapters' parameters. Additionally, we employ a combo loss that combines binary
cross-entropy loss and boundary-sensitive loss to enhance SAMIHS's ability to
recognize the boundary regions. Our experimental results on two public datasets
demonstrate the effectiveness of our proposed method. Code is available at
https://github.com/mileswyn/SAMIHS .
- Abstract(参考訳): 大規模アノテーションに基づいて訓練された視覚基盤モデルであるSegment Anything Model (SAM)は、医療画像セグメンテーションにおける認識を高め続けている。
SAMの自然界における印象的な能力にもかかわらず、医療画像、特にぼやけた境界と非常に不規則な低コントラスト領域に直面すると、パフォーマンスの低下に悩まされる。
本稿では,脳卒中診断と手術計画における重要なステップである頭蓋内出血セグメンテーションにおいて,SAMを用いたパラメータ効率の高い微調整法SAMIHSを提案する。
従来のSAMおよびSAMベースの手法とは違い、SAMIHSはSAMのイメージエンコーダにパラメータリファクタリングアダプタを導入し、アダプタのパラメータの効率的かつ柔軟な利用について検討している。
さらに,SAMIHSによる境界領域認識能力を高めるために,二元的クロスエントロピー損失と境界感性損失を組み合わせたコンボ損失を用いる。
2つの公開データセットに対する実験結果から,提案手法の有効性が示された。
コードはhttps://github.com/mileswyn/SAMIHSで入手できる。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Improving Segment Anything on the Fly: Auxiliary Online Learning and Adaptive Fusion for Medical Image Segmentation [52.172885882728174]
医療画像の文脈では、SAMがそのセグメンテーション予測を生成した後、人間の専門家が特定のテストサンプルのセグメンテーションを修正することは珍しくない。
我々は、オンライン機械学習の利点を活用して、テスト期間中にSegment Anything(SA)を強化する新しいアプローチを導入する。
医用画像におけるSAのセグメンテーション品質を改善することを目的として,オンライン学習のための修正アノテーションを用いた。
論文 参考訳(メタデータ) (2024-06-03T03:16:25Z) - Uncertainty-Aware Adapter: Adapting Segment Anything Model (SAM) for Ambiguous Medical Image Segmentation [20.557472889654758]
Segment Anything Model (SAM) は自然画像のセグメンテーションにおいて大きな成功を収めた。
自然画像とは異なり、医療画像の多くの組織や病変はぼやけており、曖昧である可能性がある。
本研究では,不確実性を認識した医療画像のセグメンテーションのためにSAMを効率よく微調整するUncertainty-aware Adapterという新しいモジュールを提案する。
論文 参考訳(メタデータ) (2024-03-16T14:11:54Z) - ProMISe: Promptable Medical Image Segmentation using SAM [11.710367186709432]
ターゲット領域にユークリッド適応プロンプトを付加したSAMベースの基盤モデルを提供する自動プロンプトモジュール(APM)を提案する。
また、SAMを特定の医療領域に適応させるために、Incrmental Pattern Shifting (IPS) と呼ばれる新しい非侵襲的手法を提案する。
これら2つの手法を結合することにより,プロンプタブル・メディカルイメージのためのエンドツーエンドな非微調整フレームワークであるProMISeを提案する。
論文 参考訳(メタデータ) (2024-03-07T02:48:42Z) - Dual-scale Enhanced and Cross-generative Consistency Learning for Semi-supervised Medical Image Segmentation [49.57907601086494]
医用画像のセグメンテーションはコンピュータ支援診断において重要な役割を担っている。
半教師型医用画像(DEC-Seg)のための新しいDual-scale Enhanced and Cross-generative consistency learning frameworkを提案する。
論文 参考訳(メタデータ) (2023-12-26T12:56:31Z) - I-MedSAM: Implicit Medical Image Segmentation with Segment Anything [24.04558900909617]
提案するI-MedSAMは、連続表現とSAMの両方の利点を利用して、クロスドメイン能力と正確な境界線を求める。
トレーニング可能なパラメータが1.6Mしかない提案手法は、離散的および暗黙的を含む既存の手法よりも優れている。
論文 参考訳(メタデータ) (2023-11-28T00:43:52Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - AMLP:Adaptive Masking Lesion Patches for Self-supervised Medical Image
Segmentation [67.97926983664676]
自己監督型マスク画像モデリングは自然画像に対して有望な結果を示した。
しかし,このような手法を医用画像に直接適用することは依然として困難である。
適応型マスキング病変パッチ(AMLP)の自己管理型医用画像分割フレームワークを提案する。
論文 参考訳(メタデータ) (2023-09-08T13:18:10Z) - SAMedOCT: Adapting Segment Anything Model (SAM) for Retinal OCT [3.2495192768429924]
Segment Anything Model (SAM) は画像セグメンテーションの分野で大きな注目を集めている。
我々は,RETOUCH チャレンジによる大規模な OCT データセット上で,SAM とその適応の包括的評価を行う。
網膜CTスキャンにおいてSAMの有効性は強力なセグメンテーションモデルとして応用されたが,確立された方法には遅れがみられた。
論文 参考訳(メタデータ) (2023-08-18T06:26:22Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。