論文の概要: Fully-automated Body Composition Analysis in Routine CT Imaging Using 3D
Semantic Segmentation Convolutional Neural Networks
- arxiv url: http://arxiv.org/abs/2002.10776v1
- Date: Tue, 25 Feb 2020 10:17:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-28 22:03:52.012980
- Title: Fully-automated Body Composition Analysis in Routine CT Imaging Using 3D
Semantic Segmentation Convolutional Neural Networks
- Title(参考訳): 3次元セマンティックセグメンテーション畳み込みニューラルネットワークを用いた全身CT画像の完全自動体組成解析
- Authors: Sven Koitka, Lennard Kroll, Eugen Malamutmann, Arzu Oezcelik, Felix
Nensa
- Abstract要約: 生体組織組成は、心臓血管疾患、腫瘍疾患、整形外科疾患において高い診断と予後を有するバイオマーカーである。
本研究の目的は,腹部CT検査による全身組織組成の完全自動的,再現性,定量的な3次元容積化を開発することである。
- 参考スコア(独自算出の注目度): 0.6999740786886535
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Body tissue composition is a long-known biomarker with high diagnostic and
prognostic value in cardiovascular, oncological and orthopaedic diseases, but
also in rehabilitation medicine or drug dosage. In this study, the aim was to
develop a fully automated, reproducible and quantitative 3D volumetry of body
tissue composition from standard CT examinations of the abdomen in order to be
able to offer such valuable biomarkers as part of routine clinical imaging.
Therefore an in-house dataset of 40 CTs for training and 10 CTs for testing
were fully annotated on every fifth axial slice with five different semantic
body regions: abdominal cavity, bones, muscle, subcutaneous tissue, and
thoracic cavity. Multi-resolution U-Net 3D neural networks were employed for
segmenting these body regions, followed by subclassifying adipose tissue and
muscle using known hounsfield unit limits. The S{\o}rensen Dice scores averaged
over all semantic regions was 0.9553 and the intra-class correlation
coefficients for subclassified tissues were above 0.99. Our results show that
fully-automated body composition analysis on routine CT imaging can provide
stable biomarkers across the whole abdomen and not just on L3 slices, which is
historically the reference location for analysing body composition in the
clinical routine.
- Abstract(参考訳): 体組織組成物は、心血管疾患、腫瘍疾患、整形外科疾患において高い診断と予後の指標であり、またリハビリテーション医療や薬物投与においても高い値を持つ。
本研究の目的は, 標準的な腹部ct検査から身体組織組成の完全自動化, 再現性, 定量的な3次元体積法を開発し, 臨床画像診断の一環として有用なバイオマーカーを提供することである。
したがって, 腹腔, 骨, 筋肉, 皮下組織, 胸腔の5つの異なる意味体領域を有する5軸スライス毎に, トレーニング用40 cts とテスト用10 ct の社内データセットを完全アノテートした。
マルチレゾリューションのu-net 3dニューラルネットワークを用いて体領域を分割し, ハウンズフィールド単位の制限により脂肪組織と筋肉のサブクラス化を行った。
全意味領域の平均S{\o}rensen Diceスコアは0.9553であり, 亜分類組織のクラス内相関係数は0.99以上であった。
L3スライスのみに限らず,全腹部に安定なバイオマーカーを付与し,全身CT画像による完全自動体組成解析が臨床経過における身体組成解析の基準位置であることを示す。
関連論文リスト
- Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Longitudinal Variability Analysis on Low-dose Abdominal CT with Deep
Learning-based Segmentation [20.38282484296331]
2次元低線量シングルスライスCT(CT)は高分解能で定量的な組織マップを提供する。
自動セグメンテーションを併用した低用量シングルスライスCTの経時変化に関する総合的な研究は行われていない。
今回,ボルチモア縦断法(BLSA)腹部データセット1469例の1816個のスライスについて検討した。
論文 参考訳(メタデータ) (2022-09-28T16:43:29Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Automated segmentation of 3-D body composition on computed tomography [0.0]
VAT,SAT,IMAT,SM,骨の5種類の異なる体組成を手動でアノテートした。
畳み込みニューラルネットワーク(CNN)の性能評価と評価に10倍のクロスバリデーション法が用いられた。
3つのCNNモデルの中で、UNetは5つのボディ構成を共同でセグメント化する上で、最高の全体的な性能を示した。
論文 参考訳(メタデータ) (2021-12-16T15:38:27Z) - Comprehensive Validation of Automated Whole Body Skeletal Muscle,
Adipose Tissue, and Bone Segmentation from 3D CT images for Body Composition
Analysis: Towards Extended Body Composition [0.6176955945418618]
ディープラーニングのような強力な人工知能のツールは、3D画像全体を分割し、すべての内部解剖の正確な測定を生成することができるようになった。
これにより、これまで存在した深刻なボトルネック、すなわち手動セグメンテーションの必要性の克服が可能になる。
これらの測定は不可能であったため、フィールドを非常に小さく限られたサブセットに制限した。
論文 参考訳(メタデータ) (2021-06-01T17:30:45Z) - iPhantom: a framework for automated creation of individualized
computational phantoms and its application to CT organ dosimetry [58.943644554192936]
本研究の目的は、患者固有の幻覚やデジタル双眼鏡の自動作成のための新しいフレームワーク、iPhantomを開発し、検証することである。
この枠組みは、個々の患者のCT画像における放射線感受性臓器への放射線線量を評価するために応用される。
iPhantomは、アンカーオルガンのDice similarity Coefficients (DSC) >0.6の精度で全ての臓器の位置を正確に予測し、他のオルガンのDSCは0.3-0.9である。
論文 参考訳(メタデータ) (2020-08-20T01:50:49Z) - Fully Automated and Standardized Segmentation of Adipose Tissue
Compartments by Deep Learning in Three-dimensional Whole-body MRI of
Epidemiological Cohort Studies [11.706960468832301]
全身MR画像から異なる脂肪組織成分の定量化と局在化が,代謝状態の解明に重要である。
本稿では,頑健で客観的なセグメンテーションを実現するために,3次元畳み込みニューラルネットワーク(DCNet)を提案する。
高速(5-7秒)かつ信頼性の高い脂肪組織セグメンテーションを高Dice重なりで得ることができる。
論文 参考訳(メタデータ) (2020-08-05T17:30:14Z) - Deep Negative Volume Segmentation [60.44793799306154]
対象物を取り囲むすべての組織間で空の空間を分割する3Dセグメント化タスクに対する新しい角度を提案する。
我々のアプローチは骨分割のためのV-Netを含むエンドツーエンドパイプラインである。
顎顔面領域の専門医が注釈を付した50名の患者データセットにおけるCTスキャンの考え方を検証した。
論文 参考訳(メタデータ) (2020-06-22T16:55:23Z) - Deep Reinforcement Learning for Organ Localization in CT [59.23083161858951]
我々はCTにおける臓器局所化のための深層強化学習手法を提案する。
この研究において、人工エージェントは、その主張や誤りから学習することで、CT内の臓器の局所化を積極的に行う。
本手法は,任意の臓器をローカライズするためのプラグイン・アンド・プレイモジュールとして利用できる。
論文 参考訳(メタデータ) (2020-05-11T10:06:13Z) - Large-scale biometry with interpretable neural network regression on UK
Biobank body MRI [1.3439502310822151]
イギリスのバイオバンクがMRIで3万2000人以上の被験者を画像化
研究の可能性にもかかわらず、この膨大な量のデータは、確立された評価方法への挑戦を示す。
この研究では、ネック・トゥ・クニー・ボディMRIから様々な生物学的指標を自動的に推測するために、画像に基づく回帰のためにニューラルネットワークを訓練した。
論文 参考訳(メタデータ) (2020-02-17T09:47:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。