論文の概要: Generalized Dice Focal Loss trained 3D Residual UNet for Automated
Lesion Segmentation in Whole-Body FDG PET/CT Images
- arxiv url: http://arxiv.org/abs/2309.13553v1
- Date: Sun, 24 Sep 2023 05:29:45 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-26 19:03:48.502956
- Title: Generalized Dice Focal Loss trained 3D Residual UNet for Automated
Lesion Segmentation in Whole-Body FDG PET/CT Images
- Title(参考訳): 全身FDG PET/CT画像におけるDice Focal Lossトレーニング3次元残像UNetの有用性
- Authors: Shadab Ahamed, Arman Rahmim
- Abstract要約: 我々は,AutoPETチャレンジ2023のトレーニングデータセット上で,一般化Dice Focal Loss関数を用いて3次元残留UNetをトレーニングする。
予備試験段階では、平均アンサンブルは、それぞれ0.5417、0.8261ml、0.2538mlのDice類似係数(DSC)、偽陽性体積(FPV)、偽負体積(FNV)を達成した。
- 参考スコア(独自算出の注目度): 0.4630436098920747
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Automated segmentation of cancerous lesions in PET/CT images is a vital
initial task for quantitative analysis. However, it is often challenging to
train deep learning-based segmentation methods to high degree of accuracy due
to the diversity of lesions in terms of their shapes, sizes, and radiotracer
uptake levels. These lesions can be found in various parts of the body, often
close to healthy organs that also show significant uptake. Consequently,
developing a comprehensive PET/CT lesion segmentation model is a demanding
endeavor for routine quantitative image analysis. In this work, we train a 3D
Residual UNet using Generalized Dice Focal Loss function on the AutoPET
challenge 2023 training dataset. We develop our models in a 5-fold
cross-validation setting and ensemble the five models via average and
weighted-average ensembling. On the preliminary test phase, the average
ensemble achieved a Dice similarity coefficient (DSC), false-positive volume
(FPV) and false negative volume (FNV) of 0.5417, 0.8261 ml, and 0.2538 ml,
respectively, while the weighted-average ensemble achieved 0.5417, 0.8186 ml,
and 0.2538 ml, respectively. Our algorithm can be accessed via this link:
https://github.com/ahxmeds/autosegnet.
- Abstract(参考訳): pet/ct画像における癌病変の自動分割は, 定量的解析に不可欠である。
しかし, 深層学習に基づくセグメンテーション法は, 形状, サイズ, 放射線透過率の面で, 病変の多様性から高い精度で訓練することがしばしば困難である。
これらの病変は身体の様々な部分で見られ、しばしば健康な臓器に近づき、摂取量も顕著である。
したがって, 包括的pet/ct病変分割モデルの開発は, 日常的な定量的画像解析に欠かせない課題である。
本研究では,AutoPETチャレンジ2023トレーニングデータセット上で,汎用Dice Focal Loss関数を用いて3次元残留UNetをトレーニングする。
モデルを5倍のクロスバリデーション設定で開発し、平均および重み付き平均アンサンブルにより5つのモデルをアンサンブルする。
予備試験段階では,dice類似度係数 (dsc), 偽陽性体積 (fpv), 偽陰性体積 (fnv) はそれぞれ 0.5417, 0.8261 ml, 0.2538 ml となり, 重み付き平均アンサンブルはそれぞれ 0.5417, 0.8186 ml, 0.2538 ml となった。
私たちのアルゴリズムは、このリンクを通じてアクセスすることができる。
関連論文リスト
- AutoPET Challenge III: Testing the Robustness of Generalized Dice Focal Loss trained 3D Residual UNet for FDG and PSMA Lesion Segmentation from Whole-Body PET/CT Images [0.0]
本研究では,3次元残差UNetモデルを用いて,汎用Dice Loss関数を用いてAutoPET Challenge 2024データセット上でモデルをトレーニングする。
Task-1の予備試験段階では、平均アンサンブルは平均Dice similarity Coefficient(DSC)が0.6687、平均偽陰体積(FNV)が10.9522ml、平均偽正体積(FPV)が2.9684mlに達した。
論文 参考訳(メタデータ) (2024-09-16T10:27:30Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - CT-GLIP: 3D Grounded Language-Image Pretraining with CT Scans and Radiology Reports for Full-Body Scenarios [53.94122089629544]
我々は,CT-GLIP(Grounded Language- Image Pretraining with CT scans)を導入する。
本手法は,104臓器にわたる17,702症例を対象に,44,011例の臓器レベルの視覚テキストペアからなるマルチモーダルCTデータセットを用いて訓練し,自然言語を用いて臓器と異常をゼロショットで識別できることを実証した。
論文 参考訳(メタデータ) (2024-04-23T17:59:01Z) - 3D Lymphoma Segmentation on PET/CT Images via Multi-Scale Information Fusion with Cross-Attention [6.499725732124126]
本研究は,びまん性大細胞型B細胞リンパ腫(DLBCL)の正確な分節法を開発することを目的とする。
シフトウインドウ変換器とマルチスケール情報融合(MSIF)モジュールを用いた3次元デュアルブランチエンコーダセグメンテーション法を提案する。
このモデルは5倍のクロスバリデーションを用いて165名のDLBCL患者のデータセットを用いて訓練および検証を行った。
論文 参考訳(メタデータ) (2024-02-04T05:25:12Z) - Weakly-Supervised Detection of Bone Lesions in CT [48.34559062736031]
骨格領域は乳腺と前立腺に転移性癌が拡がる一般的な部位の1つである。
代用セグメンテーションタスクによりCTボリュームの骨病変を検出するパイプラインを開発した。
不完全および部分的トレーニングデータを用いたにもかかわらず,CTでは96.7%,47.3%の精度で骨病変が検出された。
論文 参考訳(メタデータ) (2024-01-31T21:05:34Z) - Whole-body tumor segmentation of 18F -FDG PET/CT using a cascaded and
ensembled convolutional neural networks [2.735686397209314]
本研究の目的は、18F-FDG PET/CT画像全体において癌疑い領域を自動的に分割するディープニューラルネットワークの性能を報告することである。
PET/CT画像を6mmの解像度で3D UNET CNNの重ね合わせで処理するケースドアプローチを開発した。
論文 参考訳(メタデータ) (2022-10-14T19:25:56Z) - AutoPET Challenge 2022: Step-by-Step Lesion Segmentation in Whole-body
FDG-PET/CT [0.0]
この問題に対処する新しいステップバイステップ3Dセグメンテーション法を提案する。
予備試験では,Diceスコア0.92,偽陽性ボリューム0.89,偽陰ボリューム0.53を達成した。
論文 参考訳(メタデータ) (2022-09-04T13:49:26Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - M3Lung-Sys: A Deep Learning System for Multi-Class Lung Pneumonia
Screening from CT Imaging [85.00066186644466]
マルチタスク型マルチスライス深層学習システム(M3Lung-Sys)を提案する。
COVID-19とHealthy, H1N1, CAPとの鑑別に加えて, M3 Lung-Sysも関連病変の部位を特定できる。
論文 参考訳(メタデータ) (2020-10-07T06:22:24Z) - Volumetric Attention for 3D Medical Image Segmentation and Detection [53.041572035020344]
3次元医用画像のセグメンテーションと検出のためのボリュームアテンション(VA)モジュールを提案する。
VAアテンションはビデオ処理の最近の進歩にインスパイアされ、2.5Dネットワークはz方向のコンテキスト情報を活用することができる。
そのMask R-CNNへの統合は、肝腫瘍(LiTS)チャレンジにおける最先端のパフォーマンスを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-04-04T18:55:06Z) - Machine-Learning-Based Multiple Abnormality Prediction with Large-Scale
Chest Computed Tomography Volumes [64.21642241351857]
19,993症例から36,316巻の胸部CTデータセットを収集,解析した。
自由テキストラジオグラフィーレポートから異常ラベルを自動的に抽出するルールベース手法を開発した。
胸部CTボリュームの多臓器・多臓器分類モデルも開発した。
論文 参考訳(メタデータ) (2020-02-12T00:59:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。