論文の概要: Generalized Dice Focal Loss trained 3D Residual UNet for Automated
Lesion Segmentation in Whole-Body FDG PET/CT Images
- arxiv url: http://arxiv.org/abs/2309.13553v1
- Date: Sun, 24 Sep 2023 05:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 19:03:48.502956
- Title: Generalized Dice Focal Loss trained 3D Residual UNet for Automated
Lesion Segmentation in Whole-Body FDG PET/CT Images
- Title(参考訳): 全身FDG PET/CT画像におけるDice Focal Lossトレーニング3次元残像UNetの有用性
- Authors: Shadab Ahamed, Arman Rahmim
- Abstract要約: 我々は,AutoPETチャレンジ2023のトレーニングデータセット上で,一般化Dice Focal Loss関数を用いて3次元残留UNetをトレーニングする。
予備試験段階では、平均アンサンブルは、それぞれ0.5417、0.8261ml、0.2538mlのDice類似係数(DSC)、偽陽性体積(FPV)、偽負体積(FNV)を達成した。
- 参考スコア(独自算出の注目度): 0.4630436098920747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated segmentation of cancerous lesions in PET/CT images is a vital
initial task for quantitative analysis. However, it is often challenging to
train deep learning-based segmentation methods to high degree of accuracy due
to the diversity of lesions in terms of their shapes, sizes, and radiotracer
uptake levels. These lesions can be found in various parts of the body, often
close to healthy organs that also show significant uptake. Consequently,
developing a comprehensive PET/CT lesion segmentation model is a demanding
endeavor for routine quantitative image analysis. In this work, we train a 3D
Residual UNet using Generalized Dice Focal Loss function on the AutoPET
challenge 2023 training dataset. We develop our models in a 5-fold
cross-validation setting and ensemble the five models via average and
weighted-average ensembling. On the preliminary test phase, the average
ensemble achieved a Dice similarity coefficient (DSC), false-positive volume
(FPV) and false negative volume (FNV) of 0.5417, 0.8261 ml, and 0.2538 ml,
respectively, while the weighted-average ensemble achieved 0.5417, 0.8186 ml,
and 0.2538 ml, respectively. Our algorithm can be accessed via this link:
https://github.com/ahxmeds/autosegnet.
- Abstract(参考訳): pet/ct画像における癌病変の自動分割は, 定量的解析に不可欠である。
しかし, 深層学習に基づくセグメンテーション法は, 形状, サイズ, 放射線透過率の面で, 病変の多様性から高い精度で訓練することがしばしば困難である。
これらの病変は身体の様々な部分で見られ、しばしば健康な臓器に近づき、摂取量も顕著である。
したがって, 包括的pet/ct病変分割モデルの開発は, 日常的な定量的画像解析に欠かせない課題である。
本研究では,AutoPETチャレンジ2023トレーニングデータセット上で,汎用Dice Focal Loss関数を用いて3次元残留UNetをトレーニングする。
モデルを5倍のクロスバリデーション設定で開発し、平均および重み付き平均アンサンブルにより5つのモデルをアンサンブルする。
予備試験段階では,dice類似度係数 (dsc), 偽陽性体積 (fpv), 偽陰性体積 (fnv) はそれぞれ 0.5417, 0.8261 ml, 0.2538 ml となり, 重み付き平均アンサンブルはそれぞれ 0.5417, 0.8186 ml, 0.2538 ml となった。
私たちのアルゴリズムは、このリンクを通じてアクセスすることができる。
関連論文リスト
- Diffusion Models for Counterfactual Generation and Anomaly Detection in
Brain Images [59.85702949046042]
病気の画像の健全なバージョンを生成し,それを用いて画素単位の異常マップを得るための弱教師付き手法を提案する。
健常者を対象にした拡散モデルを用いて, サンプリングプロセスの各ステップで拡散拡散確率モデル (DDPM) と拡散拡散確率モデル (DDIM) を組み合わせる。
本手法が正常なサンプルに適用された場合,入力画像は大幅な修正を伴わずに再構成されることを確認した。
論文 参考訳(メタデータ) (2023-08-03T21:56:50Z) - Significantly improving zero-shot X-ray pathology classification via
fine-tuning pre-trained image-text encoders [51.14431540035141]
下流のゼロショット病理分類性能を改善するために,文サンプリングと正対損失緩和に基づく新たな微調整手法を提案する。
4種類の胸部X線データセットを用いてゼロショット病理分類性能を劇的に改善した。
論文 参考訳(メタデータ) (2022-12-14T06:04:18Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - Whole-Body Lesion Segmentation in 18F-FDG PET/CT [11.662584140924725]
提案モデルは, 全身の病変を予測するために, 2D と 3D nnUNET アーキテクチャを基礎として設計されている。
提案手法は, ダイススコア, 偽陽性ボリューム, 偽陰性ボリュームの計測値において, 病変のセグメンテーション性能を計測するAutoPet Challengeの文脈で評価する。
論文 参考訳(メタデータ) (2022-09-16T10:49:53Z) - AutoPET Challenge 2022: Step-by-Step Lesion Segmentation in Whole-body
FDG-PET/CT [0.0]
この問題に対処する新しいステップバイステップ3Dセグメンテーション法を提案する。
予備試験では,Diceスコア0.92,偽陽性ボリューム0.89,偽陰ボリューム0.53を達成した。
論文 参考訳(メタデータ) (2022-09-04T13:49:26Z) - AutoPET Challenge 2022: Automatic Segmentation of Whole-body Tumor
Lesion Based on Deep Learning and FDG PET/CT [0.0]
そこで本研究では,腫瘍の領域分割が可能な深層学習モデルを構築するための新たなトレーニング戦略を提案する。
本手法はAutoPET 2022 Challengeのトレーニングセットで検証される。
論文 参考訳(メタデータ) (2022-08-31T09:14:44Z) - Evidential segmentation of 3D PET/CT images [20.65495780362289]
3D PET/CT画像におけるリンパ腫のセグメント化には、信念関数に基づくセグメンテーション法が提案されている。
アーキテクチャは特徴抽出モジュールと明白なセグメンテーション(ES)モジュールで構成されている。
びまん性大細胞性b細胞リンパ腫173例のデータベース上で評価した。
論文 参考訳(メタデータ) (2021-04-27T16:06:27Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - Volumetric Attention for 3D Medical Image Segmentation and Detection [53.041572035020344]
3次元医用画像のセグメンテーションと検出のためのボリュームアテンション(VA)モジュールを提案する。
VAアテンションはビデオ処理の最近の進歩にインスパイアされ、2.5Dネットワークはz方向のコンテキスト情報を活用することができる。
そのMask R-CNNへの統合は、肝腫瘍(LiTS)チャレンジにおける最先端のパフォーマンスを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-04-04T18:55:06Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。