論文の概要: Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling
- arxiv url: http://arxiv.org/abs/2306.03934v1
- Date: Tue, 6 Jun 2023 18:01:08 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-08 17:35:33.298901
- Title: Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling
- Title(参考訳): 体積擬似ラベリングによるX線写真におけるヒト解剖の精密微粒化
- Authors: Constantin Seibold, Alexander Jaus, Matthias A. Fink, Moon Kim, Simon
Rei{\ss}, Ken Herrmann, Jens Kleesiek, Rainer Stiefelhagen
- Abstract要約: 我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
- 参考スコア(独自算出の注目度): 66.75096111651062
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Purpose: Interpreting chest radiographs (CXR) remains challenging due to the
ambiguity of overlapping structures such as the lungs, heart, and bones. To
address this issue, we propose a novel method for extracting fine-grained
anatomical structures in CXR using pseudo-labeling of three-dimensional
computed tomography (CT) scans.
Methods: We created a large-scale dataset of 10,021 thoracic CTs with 157
labels and applied an ensemble of 3D anatomy segmentation models to extract
anatomical pseudo-labels. These labels were projected onto a two-dimensional
plane, similar to the CXR, allowing the training of detailed semantic
segmentation models for CXR without any manual annotation effort.
Results: Our resulting segmentation models demonstrated remarkable
performance on CXR, with a high average model-annotator agreement between two
radiologists with mIoU scores of 0.93 and 0.85 for frontal and lateral anatomy,
while inter-annotator agreement remained at 0.95 and 0.83 mIoU. Our anatomical
segmentations allowed for the accurate extraction of relevant explainable
medical features such as the cardio-thoracic-ratio.
Conclusion: Our method of volumetric pseudo-labeling paired with CT
projection offers a promising approach for detailed anatomical segmentation of
CXR with a high agreement with human annotators. This technique may have
important clinical implications, particularly in the analysis of various
thoracic pathologies.
- Abstract(参考訳): 目的: 胸部X線写真(CXR)の解釈は, 肺, 心臓, 骨などの重なり合う構造の曖昧さのため, 依然として困難である。
そこで本研究では,CTスキャンの擬似ラベル法を用いて,CXRの微細な解剖構造を抽出する手法を提案する。
方法: 157ラベルの10,021個の胸部CTの大規模データセットを作成し,解剖学的擬似ラベル抽出に3次元解剖学的セグメンテーションモデルを用いた。
これらのラベルはCXRと同様の2次元平面に投影され、手動の注釈なしにCXRの詳細なセマンティックセグメンテーションモデルの訓練が可能となった。
結果: 得られたセグメンテーションモデルでは, mIoUスコアが0.93, 0.85, 左右解剖は0.95, 0.83 mIoUの2人の放射線技師間で平均的モデルアノテータ一致が認められた。
解剖学的分節は,心臓胸腔鏡などの説明可能な医療的特徴の正確な抽出を可能にした。
結語:CTプロジェクションを併用したボリューム擬似ラベル法は,ヒトアノテータとの高一致でCXRの詳細な解剖学的セグメンテーションに有望なアプローチを提供する。
このテクニックは、特に様々な胸郭病変の分析において重要な臨床的意味を持つ可能性がある。
関連論文リスト
- Anatomy-guided Pathology Segmentation [56.883822515800205]
本研究では, 解剖学的特徴と病理学的情報を組み合わせた汎用的セグメンテーションモデルを構築し, 病理学的特徴のセグメンテーション精度を高めることを目的とする。
我々の解剖学・病理学交流(APEx)訓練では,ヒト解剖学の問合せ表現に結合特徴空間をデコードする問合せベースのセグメンテーション変換器を用いている。
これにより、FDG-PET-CTとChest X-Rayの病理分類タスクにおいて、強力なベースライン法に比べて最大3.3%のマージンで、ボード全体で最高の結果を報告できる。
論文 参考訳(メタデータ) (2024-07-08T11:44:15Z) - AGFA-Net: Attention-Guided and Feature-Aggregated Network for Coronary Artery Segmentation using Computed Tomography Angiography [5.583495103569884]
CCTA画像を用いた冠動脈セグメンテーションのための注意誘導型3Dディープネットワーク(AGFA-Net)を提案する。
AGFA-Netは注意機構と機能改善モジュールを活用して、有能な特徴を捉え、セグメンテーションの精度を高める。
1000個のCCTAスキャンからなるデータセットの評価はAGFA-Netの優れた性能を示し、平均Dice係数は86.74%、ハウスドルフ距離は0.23mmである。
論文 参考訳(メタデータ) (2024-06-13T01:04:47Z) - Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines [113.08940153125616]
我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
論文 参考訳(メタデータ) (2023-07-25T09:48:13Z) - Automatic Classification of Symmetry of Hemithoraces in Canine and
Feline Radiographs [0.0]
畳み込みニューラルネットワーク(CNN)とアクティブな輪郭に基づくヘミトトラス分割法を提案する。
提案手法のロバスト性を検証するため, 被曝・露出過多に対するソラックスセグメンテーション法を用いて, 適切に露光したラジオグラフィーを合成的に劣化させた。
論文 参考訳(メタデータ) (2023-02-24T22:46:16Z) - Med-Query: Steerable Parsing of 9-DoF Medical Anatomies with Query
Embedding [15.98677736544302]
本稿では,3次元医療データ中の解剖の検出,識別,セグメンテーションを行うための,安定かつ堅牢で効率的な計算フレームワークを提案する。
解剖学の複雑な形状、大きさ、配向を考えると、9自由度(9-DoF)のポーズ推定解をフル3次元空間で提示する。
胸骨, 脊椎, 腹部臓器の3つの画像解析課題について, 提案手法の有効性を検証した。
論文 参考訳(メタデータ) (2022-12-05T04:04:21Z) - Improving Classification Model Performance on Chest X-Rays through Lung
Segmentation [63.45024974079371]
本稿では, セグメンテーションによる異常胸部X線(CXR)識別性能を向上させるための深層学習手法を提案する。
提案手法は,CXR画像中の肺領域を局所化するための深層ニューラルネットワーク(XLSor)と,大規模CXRデータセットで事前学習した自己教師あり運動量コントラスト(MoCo)モデルのバックボーンを用いたCXR分類モデルである。
論文 参考訳(メタデータ) (2022-02-22T15:24:06Z) - Pulmonary Vessel Segmentation based on Orthogonal Fused U-Net++ of Chest
CT Images [1.8692254863855962]
胸部CT画像から肺血管セグメンテーションの枠組みと改善過程について検討した。
アプローチの鍵となるのは、3つの軸から2.5D区分けネットワークを応用し、堅牢で完全に自動化された肺血管区分け結果を示す。
提案手法は,他のネットワーク構造よりも大きなマージンで優れ,平均DICEスコア0.9272,精度0.9310を極端に上回っている。
論文 参考訳(メタデータ) (2021-07-03T21:46:29Z) - A Deep Learning-Based Approach to Extracting Periosteal and Endosteal
Contours of Proximal Femur in Quantitative CT Images [25.76523855274612]
セグメンテーションタスクのために,3次元の終端(3D)完全畳み込みニューラルネットワークを開発した。
同一のネットワーク構造を持つ2つのモデルが訓練され、それぞれ腹腔内輪郭と内皮輪郭に対して97.87%と96.49%のサイコロ類似係数(DSC)を達成した。
大腿骨頚部骨折のリスク予測や有限要素解析などの臨床応用の可能性を示した。
論文 参考訳(メタデータ) (2021-02-03T10:23:41Z) - Segmentation of the Myocardium on Late-Gadolinium Enhanced MRI based on
2.5 D Residual Squeeze and Excitation Deep Learning Model [55.09533240649176]
本研究の目的は,LGE-MRIを用いた心筋境界領域の深部学習モデルに基づく正確な自動セグメンテーション法を開発することである。
合計320回の試験(平均6回の試験)と28回の試験が行われた。
ベーススライスとミドルスライスにおけるアンサンブルモデルの性能解析は, サーバ内調査と同等であり, アトピーススライスではわずかに低かった。
論文 参考訳(メタデータ) (2020-05-27T20:44:38Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。