論文の概要: Temporal-spatial Adaptation of Promptable SAM Enhance Accuracy and Generalizability of cine CMR Segmentation
- arxiv url: http://arxiv.org/abs/2403.10009v2
- Date: Mon, 15 Jul 2024 18:22:28 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-17 21:18:43.118380
- Title: Temporal-spatial Adaptation of Promptable SAM Enhance Accuracy and Generalizability of cine CMR Segmentation
- Title(参考訳): シネCMRセグメンテーションの確率的SAMエンハンス精度と一般化可能性の時空間適応
- Authors: Zhennong Chen, Sekeun Kim, Hui Ren, Quanzheng Li, Xiang Li,
- Abstract要約: 本研究では,時間的情報と空間的情報の両方をモデルアーキテクチャに組み込んだcineCMR-SAMを提案する。
STACOM 2011データセットでは,データ固有モデルのセグメンテーション精度が向上した。
我々はcineCMR-SAMにテキストプロンプト機能を導入し、入力スライスのビュータイプを指定する。
- 参考スコア(独自算出の注目度): 10.911758824265736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Accurate myocardium segmentation across all phases in one cardiac cycle in cine cardiac magnetic resonance (CMR) scans is crucial for comprehensively cardiac function analysis. Despite advancements in deep learning (DL) for automatic cine CMR segmentation, generalizability on unseen data remains a significant challenge. Recently, the segment-anything-model (SAM) has been invented as a segmentation foundation model, known for its accurate segmentation and more importantly, zero-shot generalization. SAM was trained on two-dimensional (2D) natural images; to adapt it for comprehensive cine CMR segmentation, we propose cineCMR-SAM which incorporates both temporal and spatial information through a modified model architecture. Compared to other state-of-the-art (SOTA) methods, our model achieved superior data-specific model segmentation accuracy on the STACOM2011 when fine-tuned on this dataset and demonstrated superior zero-shot generalization on two other large public datasets (ACDC and M&Ms) unseen during fine-tuning. Additionally, we introduced a text prompt feature in cineCMR-SAM to specify the view type of input slices (short-axis or long-axis), enhancing performance across all view types.
- Abstract(参考訳): 心臓磁気共鳴(CMR)スキャンでは,全期にわたる正確な心筋セグメンテーションが心機能解析に不可欠である。
自動シネCMRセグメンテーションのためのディープラーニング(DL)の進歩にもかかわらず、目に見えないデータの一般化は依然として大きな課題である。
近年、セグメンテーション基礎モデル(SAM)が発明され、その正確なセグメンテーションと、より重要なゼロショット一般化が知られている。
SAMは2次元(2次元)の自然画像に基づいて訓練され,それを包括的シネCMRセグメンテーションに適用するために,時間的・空間的な情報を含むcineCMR-SAMを提案する。
従来のSOTA法と比較すると,このデータセットを微調整したSTACOM2011では,データ固有モデルのセグメンテーション精度が優れており,また,他の2つの大規模公開データセット(ACDC,M&Ms)ではゼロショットの一般化に優れていた。
さらに、cineCMR-SAMにテキストプロンプト機能を導入し、入力スライス(短軸または長軸)のビュータイプを指定することで、すべてのビュータイプのパフォーマンスを向上させる。
関連論文リスト
- Assessing Foundational Medical 'Segment Anything' (Med-SAM1, Med-SAM2) Deep Learning Models for Left Atrial Segmentation in 3D LGE MRI [0.0]
心房細動(AF)は心不整脈の最も一般的な疾患であり、心不全や脳卒中と関連している。
多様なデータセットで事前トレーニングされたSegment Anything Model(SAM)のようなディープラーニングモデルは、ジェネリックセグメンテーションタスクにおいて有望であることを示している。
MedSAMモデルの可能性にもかかわらず、3D LGE-MRIにおけるLAセグメンテーションの複雑なタスクについてはまだ評価されていない。
論文 参考訳(メタデータ) (2024-11-08T20:49:54Z) - Continuous Spatio-Temporal Memory Networks for 4D Cardiac Cine MRI Segmentation [5.542949496418442]
半教師付き全心と全シーケンスcMRセグメンテーションのための連続STM(CSTM)ネットワークを提案する。
我々のネットワークは、基礎となる心臓構造に先立って空間的・時空間的・平面的連続性を最大限に活用し、正確かつ高速な4Dセグメンテーションを実現する。
論文 参考訳(メタデータ) (2024-10-30T16:45:59Z) - MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - Novel adaptation of video segmentation to 3D MRI: efficient zero-shot knee segmentation with SAM2 [1.6237741047782823]
Segment Anything Model 2 を応用した3次元膝関節MRIのゼロショット単発セグメンテーション法を提案する。
3次元医用ボリュームのスライスを個々のビデオフレームとして扱うことで、SAM2の高度な能力を利用して、モーションおよび空間認識の予測を生成する。
SAM2は、訓練や微調整を伴わずに、ゼロショット方式でセグメント化タスクを効率的に実行できることを実証する。
論文 参考訳(メタデータ) (2024-08-08T21:39:15Z) - ASPS: Augmented Segment Anything Model for Polyp Segmentation [77.25557224490075]
SAM(Segment Anything Model)は、ポリープセグメンテーションに先例のないポテンシャルを導入している。
SAMのTransformerベースの構造は、グローバルおよび低周波情報を優先する。
CFAはトレーニング可能なCNNエンコーダブランチと凍結したViTエンコーダを統合し、ドメイン固有の知識の統合を可能にする。
論文 参考訳(メタデータ) (2024-06-30T14:55:32Z) - Segment anything model for head and neck tumor segmentation with CT, PET
and MRI multi-modality images [0.04924932828166548]
本研究は,最小限の人的プロンプトを必要とすると認識されるセグメンション・アプライシング・モデル(SAM)について検討する。
具体的には,大規模な医用画像を用いたSAMのバージョンであるMedSAMについて検討する。
本研究は,超微調整SAMのセグメンテーション精度が向上し,既に有効なゼロショット結果が得られたことを実証する。
論文 参考訳(メタデータ) (2024-02-27T12:26:45Z) - Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - CMRxRecon: An open cardiac MRI dataset for the competition of
accelerated image reconstruction [62.61209705638161]
ディープラーニングベースのCMRイメージングアルゴリズムへの関心が高まっている。
ディープラーニング手法は大規模なトレーニングデータセットを必要とする。
このデータセットには300人の被験者のマルチコントラスト、マルチビュー、マルチスライス、マルチコイルCMRイメージングデータが含まれている。
論文 参考訳(メタデータ) (2023-09-19T15:14:42Z) - MA-SAM: Modality-agnostic SAM Adaptation for 3D Medical Image
Segmentation [58.53672866662472]
我々はMA-SAMと命名されたモダリティに依存しないSAM適応フレームワークを提案する。
本手法は,重量増加のごく一部だけを更新するためのパラメータ効率の高い微調整戦略に根ざしている。
画像エンコーダのトランスバータブロックに一連の3Dアダプタを注入することにより,事前学習した2Dバックボーンが入力データから3次元情報を抽出することができる。
論文 参考訳(メタデータ) (2023-09-16T02:41:53Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。