論文の概要: Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines
- arxiv url: http://arxiv.org/abs/2307.13375v1
- Date: Tue, 25 Jul 2023 09:48:13 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-26 17:35:12.465805
- Title: Towards Unifying Anatomy Segmentation: Automated Generation of a
Full-body CT Dataset via Knowledge Aggregation and Anatomical Guidelines
- Title(参考訳): 解剖分類の統一に向けて:知識集約と解剖ガイドラインによる全身CTデータセットの自動生成
- Authors: Alexander Jaus, Constantin Seibold, Kelsey Hermann, Alexandra Walter,
Kristina Giske, Johannes Haubold, Jens Kleesiek, Rainer Stiefelhagen
- Abstract要約: 我々は533巻のボクセルレベルのラベルを142ドル(約1万2000円)で、全身CTスキャンのデータセットを作成し、解剖学的包括的カバレッジを提供する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
我々はCTデータに142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルをリリースする。
- 参考スコア(独自算出の注目度): 113.08940153125616
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this study, we present a method for generating automated anatomy
segmentation datasets using a sequential process that involves nnU-Net-based
pseudo-labeling and anatomy-guided pseudo-label refinement. By combining
various fragmented knowledge bases, we generate a dataset of whole-body CT
scans with $142$ voxel-level labels for 533 volumes providing comprehensive
anatomical coverage which experts have approved. Our proposed procedure does
not rely on manual annotation during the label aggregation stage. We examine
its plausibility and usefulness using three complementary checks: Human expert
evaluation which approved the dataset, a Deep Learning usefulness benchmark on
the BTCV dataset in which we achieve 85% dice score without using its training
dataset, and medical validity checks. This evaluation procedure combines
scalable automated checks with labor-intensive high-quality expert checks.
Besides the dataset, we release our trained unified anatomical segmentation
model capable of predicting $142$ anatomical structures on CT data.
- Abstract(参考訳): 本研究では,nnu-netに基づく擬似ラベル処理と解剖ガイド付き擬似ラベル改良を含むシーケンシャルプロセスを用いて,自動的に解剖学的セグメント化データセットを生成する手法を提案する。
様々な断片化された知識ベースを組み合わせることで、専門家が承認した包括的な解剖学的カバレッジを提供する533巻のボクセルレベルラベルを含む全身ctスキャンのデータセットを生成する。
提案手法はラベル集約段階において手作業によるアノテーションに依存しない。
データセットを承認した人間エキスパート評価,トレーニングデータセットを使用せずに85%のdiceスコアを達成したbtcvデータセットのディープラーニングの有用性ベンチマーク,医学的妥当性チェックの3つの補完的チェックを用いて,その信頼性と有用性について検討した。
この評価手法は、スケーラブルな自動チェックと労働集約的な高品質なエキスパートチェックを組み合わせる。
データセットの他に,CTデータ上に142ドルの解剖学的構造を予測できる統一解剖学的セグメンテーションモデルもリリースした。
関連論文リスト
- A Dataset for Deep Learning-based Bone Structure Analyses in Total Hip
Arthroplasty [8.604089365903029]
全股関節解剖(THA)は整形外科において広く用いられている外科手術である。
ディープラーニング技術は有望だが、学習には高品質なラベル付きデータが必要である。
ディープラーニング指向のデータセットを生成するための効率的なデータアノテーションパイプラインを提案する。
論文 参考訳(メタデータ) (2023-06-07T16:28:53Z) - Accurate Fine-Grained Segmentation of Human Anatomy in Radiographs via
Volumetric Pseudo-Labeling [66.75096111651062]
我々は,10,021個の胸部CTと157個のラベルの大規模データセットを作成した。
解剖学的擬似ラベル抽出のために3次元解剖分類モデルのアンサンブルを適用した。
得られたセグメンテーションモデルはCXRで顕著な性能を示した。
論文 参考訳(メタデータ) (2023-06-06T18:01:08Z) - Clinically Acceptable Segmentation of Organs at Risk in Cervical Cancer
Radiation Treatment from Clinically Available Annotations [0.0]
子宮頸癌放射線治療におけるOAR(Organs at Risk)の自動セグメンテーションのためのディープラーニングモデルを学習するためのアプローチを提案する。
我々は、データの不均一性、ラベルノイズ、アノテーションの欠如を最小限に抑えるために、自動データのクリーニングにシンプルな手法を採用している。
そこで本研究では,教師が指導するシステム,アノテーション命令,不確実性誘導学習を利用して,アノテーションの欠如の有無を学習する半教師付き学習手法を開発した。
論文 参考訳(メタデータ) (2023-02-21T13:24:40Z) - Ensemble uncertainty as a criterion for dataset expansion in distinct
bone segmentation from upper-body CT images [0.7388859384645263]
個々の骨の局所化と分節化は多くの計画およびナビゲーションアプリケーションにおいて重要な前処理ステップである。
上半身CTにおいて125個の異なる骨を分割できるエンドツーエンド学習アルゴリズムを提案する。
また、アンサンブルベースの不確実性対策も提供し、スキャンを単一にしてトレーニングデータセットを拡大します。
論文 参考訳(メタデータ) (2022-08-19T08:39:23Z) - TotalSegmentator: robust segmentation of 104 anatomical structures in CT
images [48.50994220135258]
身体CT画像の深層学習セグメント化モデルを提案する。
このモデルは、臓器の容積、疾患の特徴、外科的または放射線療法計画などのユースケースに関連する104の解剖学的構造を区分することができる。
論文 参考訳(メタデータ) (2022-08-11T15:16:40Z) - Deeply supervised UNet for semantic segmentation to assist
dermatopathological assessment of Basal Cell Carcinoma (BCC) [2.031570465477242]
unetアーキテクチャに基づく複数のモデルを用いた意味セグメンテーションによる基底細胞癌(bcc)の検出に焦点を当てた。
unetネットワークの最初の2つの異なるエンコーダと2つの追加のトレーニング戦略を分析した。
最高のモデルは、テストセット上の96%、精度、感度、および特異性を達成します。
論文 参考訳(メタデータ) (2021-03-05T15:39:55Z) - Chest x-ray automated triage: a semiologic approach designed for
clinical implementation, exploiting different types of labels through a
combination of four Deep Learning architectures [83.48996461770017]
本研究では,異なる畳み込みアーキテクチャの後期融合に基づく深層学習手法を提案する。
公開胸部x線画像と機関アーカイブを組み合わせたトレーニングデータセットを4つ構築した。
4つの異なるディープラーニングアーキテクチャをトレーニングし、それらのアウトプットとレイトフュージョン戦略を組み合わせることで、統一されたツールを得ました。
論文 参考訳(メタデータ) (2020-12-23T14:38:35Z) - An Extensive Study on Cross-Dataset Bias and Evaluation Metrics
Interpretation for Machine Learning applied to Gastrointestinal Tract
Abnormality Classification [2.985964157078619]
GI領域における疾患の自動解析は、コンピュータ科学や医学関連雑誌でホットな話題となっている。
クロスデータセットによる評価指標と機械学習モデルの明確な理解は、この分野の研究を新たな品質レベルに導くために不可欠である。
16種類のGIトラクタ条件を分類できる5つの異なる機械学習モデルの包括的評価を行う。
論文 参考訳(メタデータ) (2020-05-08T08:59:31Z) - Self-Training with Improved Regularization for Sample-Efficient Chest
X-Ray Classification [80.00316465793702]
挑戦的なシナリオで堅牢なモデリングを可能にするディープラーニングフレームワークを提案する。
その結果,85%のラベル付きデータを用いて,大規模データ設定で学習した分類器の性能に適合する予測モデルを構築することができた。
論文 参考訳(メタデータ) (2020-05-03T02:36:00Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。