論文の概要: AutoPET Challenge III: Testing the Robustness of Generalized Dice Focal Loss trained 3D Residual UNet for FDG and PSMA Lesion Segmentation from Whole-Body PET/CT Images
- arxiv url: http://arxiv.org/abs/2409.10151v1
- Date: Mon, 16 Sep 2024 10:27:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-17 16:00:03.466764
- Title: AutoPET Challenge III: Testing the Robustness of Generalized Dice Focal Loss trained 3D Residual UNet for FDG and PSMA Lesion Segmentation from Whole-Body PET/CT Images
- Title(参考訳): AutoPET Challenge III: Whole-Body PET/CT画像からのFDGおよびPSMA病変分割のための一般Dice Focal Lossトレーニング3D残像UNetのロバスト性試験
- Authors: Shadab Ahamed,
- Abstract要約: 本研究では,3次元残差UNetモデルを用いて,汎用Dice Loss関数を用いてAutoPET Challenge 2024データセット上でモデルをトレーニングする。
Task-1の予備試験段階では、平均アンサンブルは平均Dice similarity Coefficient(DSC)が0.6687、平均偽陰体積(FNV)が10.9522ml、平均偽正体積(FPV)が2.9684mlに達した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Automated segmentation of cancerous lesions in PET/CT scans is a crucial first step in quantitative image analysis. However, training deep learning models for segmentation with high accuracy is particularly challenging due to the variations in lesion size, shape, and radiotracer uptake. These lesions can appear in different parts of the body, often near healthy organs that also exhibit considerable uptake, making the task even more complex. As a result, creating an effective segmentation model for routine PET/CT image analysis is challenging. In this study, we utilized a 3D Residual UNet model and employed the Generalized Dice Focal Loss function to train the model on the AutoPET Challenge 2024 dataset. We conducted a 5-fold cross-validation and used an average ensembling technique using the models from the five folds. In the preliminary test phase for Task-1, the average ensemble achieved a mean Dice Similarity Coefficient (DSC) of 0.6687, mean false negative volume (FNV) of 10.9522 ml and mean false positive volume (FPV) 2.9684 ml. More details about the algorithm can be found on our GitHub repository: https://github.com/ahxmeds/autosegnet2024.git. The training code has been shared via the repository: https://github.com/ahxmeds/autopet2024.git.
- Abstract(参考訳): PET/CTスキャンにおける癌病変の自動分離は定量的画像解析における重要な第一歩である。
しかし, 高精度なセグメンテーションのための深層学習モデルの訓練は, 病変の大きさ, 形状, 放射線線量の変化により特に困難である。
これらの病変は身体の異なる部位に現れ、しばしば健康な器官の近くに現れ、かなりの吸収力を持ち、作業はさらに複雑になる。
その結果,日常的なPET/CT画像解析に有効なセグメンテーションモデルを作成することは困難である。
本研究では,3次元残差UNetモデルを用いて,一般Dice Focal Loss関数を用いてAutoPET Challenge 2024データセット上でモデルをトレーニングした。
5倍のクロスバリデーションを行い,5倍のモデルを用いて平均アンサンブル手法を用いた。
Task-1の予備試験段階では、平均アンサンブルは平均Dice similarity Coefficient(DSC)が0.6687、平均偽陰体積(FNV)が10.9522ml、平均偽正体積(FPV)が2.9684mlに達した。
アルゴリズムの詳細はGitHubリポジトリにある。 https://github.com/ahxmeds/autosegnet2024.git。
トレーニングコードはリポジトリ経由で共有されている。
関連論文リスト
- KaLDeX: Kalman Filter based Linear Deformable Cross Attention for Retina Vessel Segmentation [46.57880203321858]
カルマンフィルタを用いた線形変形型クロスアテンション(LDCA)モジュールを用いた血管セグメンテーションのための新しいネットワーク(KaLDeX)を提案する。
我々のアプローチは、カルマンフィルタ(KF)ベースの線形変形可能な畳み込み(LD)とクロスアテンション(CA)モジュールの2つの重要なコンポーネントに基づいている。
提案手法は,網膜基底画像データセット(DRIVE,CHASE_BD1,STARE)とOCTA-500データセットの3mm,6mmを用いて評価した。
論文 参考訳(メタデータ) (2024-10-28T16:00:42Z) - Brain Tumor Classification on MRI in Light of Molecular Markers [61.77272414423481]
1p/19q遺伝子の同時欠失は、低グレードグリオーマの臨床成績と関連している。
本研究の目的は,MRIを用いた畳み込みニューラルネットワークを脳がん検出に活用することである。
論文 参考訳(メタデータ) (2024-09-29T07:04:26Z) - Data Diet: Can Trimming PET/CT Datasets Enhance Lesion Segmentation? [70.38903555729081]
我々はAutoPET3データ中心のトラックで競合するアプローチについて述べる。
AutoPETIIIデータセットでは、データセット全体をトレーニングしたモデルが望ましくない特性を示す。
我々は、スクラッチから再トレーニングする前に、モデル損失によって測定されたトレーニングデータセットから最も簡単なサンプルを取り除き、これを対処する。
論文 参考訳(メタデータ) (2024-09-20T14:47:58Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - Generalized Dice Focal Loss trained 3D Residual UNet for Automated
Lesion Segmentation in Whole-Body FDG PET/CT Images [0.4630436098920747]
我々は,AutoPETチャレンジ2023のトレーニングデータセット上で,一般化Dice Focal Loss関数を用いて3次元残留UNetをトレーニングする。
予備試験段階では、平均アンサンブルは、それぞれ0.5417、0.8261ml、0.2538mlのDice類似係数(DSC)、偽陽性体積(FPV)、偽負体積(FNV)を達成した。
論文 参考訳(メタデータ) (2023-09-24T05:29:45Z) - AutoPET Challenge 2022: Step-by-Step Lesion Segmentation in Whole-body
FDG-PET/CT [0.0]
この問題に対処する新しいステップバイステップ3Dセグメンテーション法を提案する。
予備試験では,Diceスコア0.92,偽陽性ボリューム0.89,偽陰ボリューム0.53を達成した。
論文 参考訳(メタデータ) (2022-09-04T13:49:26Z) - AutoPET Challenge 2022: Automatic Segmentation of Whole-body Tumor
Lesion Based on Deep Learning and FDG PET/CT [0.0]
そこで本研究では,腫瘍の領域分割が可能な深層学習モデルを構築するための新たなトレーニング戦略を提案する。
本手法はAutoPET 2022 Challengeのトレーニングセットで検証される。
論文 参考訳(メタデータ) (2022-08-31T09:14:44Z) - Evidential segmentation of 3D PET/CT images [20.65495780362289]
3D PET/CT画像におけるリンパ腫のセグメント化には、信念関数に基づくセグメンテーション法が提案されている。
アーキテクチャは特徴抽出モジュールと明白なセグメンテーション(ES)モジュールで構成されている。
びまん性大細胞性b細胞リンパ腫173例のデータベース上で評価した。
論文 参考訳(メタデータ) (2021-04-27T16:06:27Z) - Automated Model Design and Benchmarking of 3D Deep Learning Models for
COVID-19 Detection with Chest CT Scans [72.04652116817238]
3D胸部CTスキャン分類のための3D DLモデルを自動的に検索するための差別化可能なニューラルネットワーク探索(DNAS)フレームワークを提案する。
また,我々のモデルのクラスアクティベーションマッピング(cam)技術を利用して,結果の解釈可能性を提供する。
論文 参考訳(メタデータ) (2021-01-14T03:45:01Z) - Revisiting 3D Context Modeling with Supervised Pre-training for
Universal Lesion Detection in CT Slices [48.85784310158493]
CTスライスにおける普遍的病変検出のための3Dコンテキスト強化2D特徴を効率的に抽出するための修飾擬似3次元特徴ピラミッドネットワーク(MP3D FPN)を提案する。
新たな事前学習手法により,提案したMP3D FPNは,DeepLesionデータセット上での最先端検出性能を実現する。
提案された3Dプリトレーニングウェイトは、他の3D医療画像分析タスクのパフォーマンスを高めるために使用できる。
論文 参考訳(メタデータ) (2020-12-16T07:11:16Z) - Volumetric Attention for 3D Medical Image Segmentation and Detection [53.041572035020344]
3次元医用画像のセグメンテーションと検出のためのボリュームアテンション(VA)モジュールを提案する。
VAアテンションはビデオ処理の最近の進歩にインスパイアされ、2.5Dネットワークはz方向のコンテキスト情報を活用することができる。
そのMask R-CNNへの統合は、肝腫瘍(LiTS)チャレンジにおける最先端のパフォーマンスを可能にすることが示されている。
論文 参考訳(メタデータ) (2020-04-04T18:55:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。