論文の概要: SegmentAnyBone: A Universal Model that Segments Any Bone at Any Location
on MRI
- arxiv url: http://arxiv.org/abs/2401.12974v1
- Date: Tue, 23 Jan 2024 18:59:25 GMT
- ステータス: 処理完了
- システム内更新日: 2024-01-24 14:47:43.156096
- Title: SegmentAnyBone: A Universal Model that Segments Any Bone at Any Location
on MRI
- Title(参考訳): SegmentAnyBone:MRIでどんな場所にでも骨を分割できるユニバーサルモデル
- Authors: Hanxue Gu, Roy Colglazier, Haoyu Dong, Jikai Zhang, Yaqian Chen, Zafer
Yildiz, Yuwen Chen, Lin Li, Jichen Yang, Jay Willhite, Alex M. Meyer, Brian
Guo, Yashvi Atul Shah, Emily Luo, Shipra Rajput, Sally Kuehn, Clark Bulleit,
Kevin A. Wu, Jisoo Lee, Brandon Ramirez, Darui Lu, Jay M. Levin, Maciej A.
Mazurowski
- Abstract要約: 本稿では,MRIにおける骨分割のための汎用的,一般公開的なディープラーニングモデルを提案する。
提案モデルでは,完全自動セグメンテーションとプロンプトベースセグメンテーションの2つのモードで動作可能である。
1) さまざまなMRIプロトコルにまたがる新しいMRIデータセットの収集,注釈付けを行い,300以上の注釈付きボリュームと8485個の注釈付きスライスを含む。
- 参考スコア(独自算出の注目度): 13.912230325828943
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Magnetic Resonance Imaging (MRI) is pivotal in radiology, offering
non-invasive and high-quality insights into the human body. Precise
segmentation of MRIs into different organs and tissues would be highly
beneficial since it would allow for a higher level of understanding of the
image content and enable important measurements, which are essential for
accurate diagnosis and effective treatment planning. Specifically, segmenting
bones in MRI would allow for more quantitative assessments of musculoskeletal
conditions, while such assessments are largely absent in current radiological
practice. The difficulty of bone MRI segmentation is illustrated by the fact
that limited algorithms are publicly available for use, and those contained in
the literature typically address a specific anatomic area. In our study, we
propose a versatile, publicly available deep-learning model for bone
segmentation in MRI across multiple standard MRI locations. The proposed model
can operate in two modes: fully automated segmentation and prompt-based
segmentation. Our contributions include (1) collecting and annotating a new MRI
dataset across various MRI protocols, encompassing over 300 annotated volumes
and 8485 annotated slices across diverse anatomic regions; (2) investigating
several standard network architectures and strategies for automated
segmentation; (3) introducing SegmentAnyBone, an innovative foundational
model-based approach that extends Segment Anything Model (SAM); (4) comparative
analysis of our algorithm and previous approaches; and (5) generalization
analysis of our algorithm across different anatomical locations and MRI
sequences, as well as an external dataset. We publicly release our model at
https://github.com/mazurowski-lab/SegmentAnyBone.
- Abstract(参考訳): 磁気共鳴イメージング(MRI)は放射線学において重要であり、人体に対する非侵襲的で高品質な洞察を提供する。
異なる臓器や組織へのMRIの精密な分割は、画像内容のより高度な理解と、正確な診断と効果的な治療計画に不可欠な重要な測定を可能にするため、非常に有益である。
具体的には、mriで骨を分割することで筋骨格の状態をより定量的に評価できるが、その評価は現在の放射線治療ではほとんど欠落している。
骨MRIのセグメント化の難しさは、限られたアルゴリズムが一般に利用可能であり、文献に含まれるものは通常特定の解剖学的領域に対処しているという事実によって説明される。
そこで本研究では,MRIにおける骨分割のための汎用的,一般公開なディープラーニングモデルを提案する。
提案モデルでは,完全自動セグメンテーションとプロンプトベースセグメンテーションの2つのモードで動作可能である。
Our contributions include (1) collecting and annotating a new MRI dataset across various MRI protocols, encompassing over 300 annotated volumes and 8485 annotated slices across diverse anatomic regions; (2) investigating several standard network architectures and strategies for automated segmentation; (3) introducing SegmentAnyBone, an innovative foundational model-based approach that extends Segment Anything Model (SAM); (4) comparative analysis of our algorithm and previous approaches; and (5) generalization analysis of our algorithm across different anatomical locations and MRI sequences, as well as an external dataset.
モデルはhttps://github.com/mazurowski-lab/SegmentAnyBone.comで公開しています。
関連論文リスト
- MedCLIP-SAMv2: Towards Universal Text-Driven Medical Image Segmentation [2.2585213273821716]
MedCLIP-SAMv2はCLIPとSAMモデルを統合して臨床スキャンのセグメンテーションを行う新しいフレームワークである。
提案手法は,DHN-NCE(Decoupled Hard Negative Noise Contrastive Estimation)によるBiomedCLIPモデルの微調整を含む。
また,ゼロショットセグメンテーションラベルを弱教師付きパラダイム内で使用することにより,セグメンテーション品質をさらに向上する。
論文 参考訳(メタデータ) (2024-09-28T23:10:37Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - Style transfer between Microscopy and Magnetic Resonance Imaging via
Generative Adversarial Network in small sample size settings [49.84018914962972]
磁気共鳴イメージング(MRI)のクロスモーダル増強と、同じ組織サンプルに基づく顕微鏡イメージングが期待できる。
コンディショナル・ジェネレーティブ・逆境ネットワーク (cGAN) アーキテクチャを用いて, コーパス・カロサムのMRI画像から顕微鏡組織像を生成する方法を検討した。
論文 参考訳(メタデータ) (2023-10-16T13:58:53Z) - Brain tumor multi classification and segmentation in MRI images using
deep learning [3.1248717814228923]
この分類モデルはEfficientNetB1アーキテクチャに基づいており、画像は髄膜腫、グリオーマ、下垂体腺腫、腫瘍の4つのクラスに分類するよう訓練されている。
セグメンテーションモデルはU-Netアーキテクチャに基づいており、MRI画像から腫瘍を正確にセグメンテーションするように訓練されている。
論文 参考訳(メタデータ) (2023-04-20T01:32:55Z) - SMU-Net: Style matching U-Net for brain tumor segmentation with missing
modalities [4.855689194518905]
MRI画像における脳腫瘍のセグメント化のためのスタイルマッチングU-Net(SMU-Net)を提案する。
我々の共同学習手法は、コンテンツとスタイルマッチング機構を用いて、全モダリティネットワークから欠落したモダリティネットワークに情報的特徴を蒸留する。
我々のスタイルマッチングモジュールは、一致した関数を学習して表現空間を適応的に再構成し、情報的特徴とテクスチャ的特徴を完全なモダリティパスから欠落モダリティパスに転送する。
論文 参考訳(メタデータ) (2022-04-06T17:55:19Z) - A unified 3D framework for Organs at Risk Localization and Segmentation
for Radiation Therapy Planning [56.52933974838905]
現在の医療ワークフローは、OAR(Organs-at-risk)のマニュアル記述を必要とする
本研究は,OARローカライゼーション・セグメンテーションのための統合された3Dパイプラインの導入を目的とする。
提案手法は医用画像に固有の3Dコンテキスト情報の活用を可能にする。
論文 参考訳(メタデータ) (2022-03-01T17:08:41Z) - Dilated Inception U-Net (DIU-Net) for Brain Tumor Segmentation [0.9176056742068814]
U-Netに基づく新しいエンド・ツー・エンド脳腫瘍セグメンテーションアーキテクチャを提案する。
提案モデルでは, 腫瘍コアと全腫瘍セグメンテーションについて, 最先端のU-Netモデルよりも有意に優れた性能を示した。
論文 参考訳(メタデータ) (2021-08-15T16:04:09Z) - Modality Completion via Gaussian Process Prior Variational Autoencoders
for Multi-Modal Glioma Segmentation [75.58395328700821]
本稿では,患者スキャンに欠落するサブモダリティを1つ以上のインプットするために,MGP-VAE(Multi-modal Gaussian Process Prior Variational Autoencoder)を提案する。
MGP-VAEは、変分オートエンコーダ(VAE)に先立ってガウス過程(GP)を利用して、被験者/患者およびサブモダリティ相関を利用することができる。
4つのサブモダリティのうち2つ、または3つが欠落している脳腫瘍に対するMGP-VAEの適用性を示す。
論文 参考訳(メタデータ) (2021-07-07T19:06:34Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z) - Neural Architecture Search for Gliomas Segmentation on Multimodal
Magnetic Resonance Imaging [2.66512000865131]
マルチモーダルMRIスキャンにおける脳腫瘍セグメント化課題に対するニューラルアーキテクチャサーチ(NAS)に基づくソリューションを提案する。
開発されたソリューションは、また、脳MRI処理に適した正規化とパッチ戦略を統合する。
論文 参考訳(メタデータ) (2020-05-13T14:32:00Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。