論文の概要: VIBESegmentator: Full Body MRI Segmentation for the NAKO and UK Biobank
- arxiv url: http://arxiv.org/abs/2406.00125v4
- Date: Mon, 08 Sep 2025 14:44:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-09 14:07:02.664438
- Title: VIBESegmentator: Full Body MRI Segmentation for the NAKO and UK Biobank
- Title(参考訳): VIBESegmentator:NAKOと英国バイオバンクのためのフルボディMRIセグメンテーション
- Authors: Robert Graf, Paul-Sören Platzek, Evamaria Olga Riedel, Constanze Ramschütz, Sophie Starck, Hendrik Kristian Möller, Matan Atad, Henry Völzke, Robin Bülow, Carsten Oliver Schmidt, Julia Rüdebusch, Matthias Jung, Marco Reisert, Jakob Weiss, Maximilian Löffler, Fabian Bamberg, Bene Wiestler, Johannes C. Paetzold, Daniel Rueckert, Jan Stefan Kirschke,
- Abstract要約: 本稿では,MRIおよびCT画像のためのディープラーニングに基づく胴分割モデルを提案する。
我々のモデルは、Amos上の最良のモデルと0,81+-0.14のDiceで結びついているが、視野は広く、さらに多くの構造を含んでいる。
- 参考スコア(独自算出の注目度): 13.370382898117226
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Objectives: To present a publicly available deep learning-based torso segmentation model that provides comprehensive voxel-wise coverage, including delineations that extend to the boundaries of anatomical compartments. Materials and Methods: We extracted preliminary segmentations from TotalSegmentator, spine, and body composition models for Magnetic Resonance Tomography (MR) images, then improved them iteratively and retrained an nnUNet model. Using a random retrospective subset of German National Cohort (NAKO), UK Biobank, internal MR and Computed Tomography (CT) data (Training: 2897 series from 626 subjects, 290 female; mean age 53+-16; 3-fold-cross validation (20% hold-out). Internal testing 36 series from 12 subjects, 6 male; mean age 60+-11), we segmented 71 structures in torso MR and 72 in CT images: 20 organs, 10 muscles, 19 vessels, 16 bones, ribs in CT, intervertebral discs, spinal cord, spinal canal and body composition (subcutaneous fat, unclassified muscles and visceral fat). For external validation, we used existing automatic organ segmentations, independent ground truth segmentations on gradient echo images, and the Amos data. We used non-parametric bootstrapping for confidence intervals and Wilcoxon rank-sum test for computing statistical significance. Results: We achieved an average Dice score of 0.90+-0.06 on our internal gradient echo test set, which included 71 semantic segmentation labels. Our model ties with the best model on Amos with a Dice of 0,81+-0.14, while having a larger field of view and a considerably higher number structures included. Conclusion: Our work presents a publicly available full-torso segmentation model for MRI and CT images that classifies almost all subject voxels to date.
- Abstract(参考訳): 目的: 解剖学的区画の境界まで及ぶ記述を含む、包括的なボクセル単位のカバレッジを提供する、公開可能なディープラーニングベースのトルソセグメンテーションモデルを示す。
材料と方法:磁気共鳴トモグラフィー(MR)画像のためのTotalSegmentator, spine, and body composition modelから予備セグメントを抽出し,反復的に改善し,nnUNetモデルを再訓練した。
ドイツ国立コーホート(NAKO)、英国バイオバンク、内部MRおよびCTデータ(Training: 2897 series from 626 subjects, 290 female; mean age 53+-16; 3-fold-cross validation (20% hold-out)。
被検者12名,男性6名,平均年齢60歳-11名), 胸部MRI71例, CT画像72例, 臓器20例, 筋肉10例, 血管19例, 骨16例, 胸骨16例, 椎間板16例, 脊髄, 脊柱管および体組成(皮下脂肪, 未分類筋肉, 内臓脂肪)について検討した。
外的検証には、既存の自動臓器分割、勾配エコー画像上の独立した基底真理分割、およびAmosデータを用いた。
我々は、信頼区間に非パラメトリックブートストラップを用い、統計学的意義にウィルコクソンランクサム試験を行った。
結果: 内部勾配エコーテストセットでは, 71のセマンティックセグメンテーションラベルを含む平均Diceスコア0.90+-0.06を達成した。
我々のモデルは、Amos上の最良のモデルと0,81+-0.14のDiceで結びついているが、視野は広く、さらに多くの構造を含んでいる。
結語:本研究はMRIとCT画像のフルトーソ・セグメンテーションモデルを用いて,現在までにほぼ全ての被験者のボクセルを分類する。
関連論文リスト
- BreastSegNet: Multi-label Segmentation of Breast MRI [12.138053457221002]
BreastSegNetは乳房MRIのためのマルチラベルセグメンテーションアルゴリズムである。
線維腺組織(FGT)、血管、筋肉、骨、病変、リンパ節、心臓、肝臓、インプラントの9つの解剖学的ラベルを含んでいる。
nnU-Net ResEncMは全レーベルの平均Diceスコアが0.694である。
論文 参考訳(メタデータ) (2025-07-18T02:16:00Z) - SMILE-UHURA Challenge -- Small Vessel Segmentation at Mesoscopic Scale from Ultra-High Resolution 7T Magnetic Resonance Angiograms [60.35639972035727]
公開されている注釈付きデータセットの欠如は、堅牢で機械学習駆動のセグメンテーションアルゴリズムの開発を妨げている。
SMILE-UHURAチャレンジは、7T MRIで取得したTime-of-Flightアンジオグラフィーの注釈付きデータセットを提供することで、公開されている注釈付きデータセットのギャップに対処する。
Diceスコアは、それぞれのデータセットで0.838 $pm$0.066と0.716 $pm$ 0.125まで到達し、平均パフォーマンスは0.804 $pm$ 0.15までになった。
論文 参考訳(メタデータ) (2024-11-14T17:06:00Z) - SALT: Introducing a Framework for Hierarchical Segmentations in Medical Imaging using Softmax for Arbitrary Label Trees [1.004700727815227]
本研究は, 解剖学的ランドマークの階層構造を地図化するために条件付き確率を利用するCT画像の新しいセグメンテーション手法を提案する。
The Cancer Imaging Archive (TCIA)のSAROSデータセットを用いて、893人の患者から900の身体領域を分離したモデルを開発した。
SAROS, CT-ORG, FLARE22, LCTSC, LUNA16, WORDなど,各種データセットのDiceスコアを用いて評価を行った。
論文 参考訳(メタデータ) (2024-07-11T21:33:08Z) - TotalSegmentator MRI: Sequence-Independent Segmentation of 59 Anatomical Structures in MR images [62.53931644063323]
本研究では,TotalSegmentatorをMR画像に拡張した。
このデータセットに基づいてnnU-Netセグメンテーションアルゴリズムを訓練し、類似度係数(Dice)を計算し、モデルの性能を評価した。
このモデルは、他の2つの公開セグメンテーションモデル(Dice score 0.824 vs 0.762; p0.001 and 0.762 versus 0.542; p)を大きく上回った。
論文 参考訳(メタデータ) (2024-05-29T20:15:54Z) - MRISegmentator-Abdomen: A Fully Automated Multi-Organ and Structure Segmentation Tool for T1-weighted Abdominal MRI [12.236789438183138]
複数の臓器や構造のボクセルレベルのアノテーションを備えた腹部MRIデータセットは公開されていない。
MRISegmentator-Abdomen(略してMRISegmentator)と呼ばれる3D nnUNetモデルをこのデータセットでトレーニングした。
このツールは、T1強調腹部MRIの62の臓器と構造の、自動的、正確で、堅牢なセグメンテーションを提供する。
論文 参考訳(メタデータ) (2024-05-09T17:33:09Z) - SPINEPS -- Automatic Whole Spine Segmentation of T2-weighted MR images using a Two-Phase Approach to Multi-class Semantic and Instance Segmentation [6.931184815441744]
我々は,T2wMRI画像中の14個の脊髄構造の意味とインスタンスセグメンテーションのためのオープンソースのディープラーニング手法を提案する。
SPIDERデータセット(被験者218名,女性63%)とドイツ国立コホート(被験者1423名,平均53名,女性49%)をトレーニングおよび評価に使用した。
自動生成アノテーションのトレーニングとGNCによる手動修正試験データによる評価では、脊椎では0.900点、椎間板では0.960点、脊椎では0.947点が得られた。
論文 参考訳(メタデータ) (2024-02-26T07:45:14Z) - M3BUNet: Mobile Mean Max UNet for Pancreas Segmentation on CT-Scans [25.636974007788986]
我々は,M3BUNetを提案する。M3BUNetはMobileNetとU-Netニューラルネットワークの融合で,2段階に分けて膵CT像を段階的に分割する,新しい平均値(MM)アテンションを備える。
細かなセグメンテーションの段階では、ウェーブレット分解フィルタを用いてマルチインプット画像を作成することにより、膵のセグメンテーション性能が向上することがわかった。
提案手法は,最大89.53%のDice similarity Coefficient(DSC)値と最大81.16のIntersection Over Union(IOU)スコアをNIH pancreasデータセットで達成する。
論文 参考訳(メタデータ) (2024-01-18T23:10:08Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Reliable Joint Segmentation of Retinal Edema Lesions in OCT Images [55.83984261827332]
本稿では,信頼性の高いマルチスケールウェーブレットエンハンストランスネットワークを提案する。
本研究では,ウェーブレット型特徴抽出器ネットワークとマルチスケール変圧器モジュールを統合したセグメンテーションバックボーンを開発した。
提案手法は,他の最先端セグメンテーション手法と比較して信頼性の高いセグメンテーション精度を実現する。
論文 参考訳(メタデータ) (2022-12-01T07:32:56Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - WSSS4LUAD: Grand Challenge on Weakly-supervised Tissue Semantic
Segmentation for Lung Adenocarcinoma [51.50991881342181]
この課題には10,091個のパッチレベルのアノテーションと1300万以上のラベル付きピクセルが含まれる。
第一位チームは0.8413mIoUを達成した(腫瘍:0.8389、ストーマ:0.7931、正常:0.8919)。
論文 参考訳(メタデータ) (2022-04-13T15:27:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。