論文の概要: Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT
- arxiv url: http://arxiv.org/abs/2409.12155v1
- Date: Wed, 18 Sep 2024 17:16:57 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-19 16:35:11.483597
- Title: Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT
- Title(参考訳): Autopet III 課題 : PET/CTにおける病変セグメンテーションのための nnUNet への解剖学的知識の取り込み
- Authors: Hamza Kalisch, Fabian Hörst, Ken Herrmann, Jens Kleesiek, Constantin Seibold,
- Abstract要約: AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
- 参考スコア(独自算出の注目度): 4.376648893167674
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Lesion segmentation in PET/CT imaging is essential for precise tumor characterization, which supports personalized treatment planning and enhances diagnostic precision in oncology. However, accurate manual segmentation of lesions is time-consuming and prone to inter-observer variability. Given the rising demand and clinical use of PET/CT, automated segmentation methods, particularly deep-learning-based approaches, have become increasingly more relevant. The autoPET III Challenge focuses on advancing automated segmentation of tumor lesions in PET/CT images in a multitracer multicenter setting, addressing the clinical need for quantitative, robust, and generalizable solutions. Building on previous challenges, the third iteration of the autoPET challenge introduces a more diverse dataset featuring two different tracers (FDG and PSMA) from two clinical centers. To this extent, we developed a classifier that identifies the tracer of the given PET/CT based on the Maximum Intensity Projection of the PET scan. We trained two individual nnUNet-ensembles for each tracer where anatomical labels are included as a multi-label task to enhance the model's performance. Our final submission achieves cross-validation Dice scores of 76.90% and 61.33% for the publicly available FDG and PSMA datasets, respectively. The code is available at https://github.com/hakal104/autoPETIII/ .
- Abstract(参考訳): PET/CT画像における病変のセグメンテーションは、腫瘍の正確な特徴付けに不可欠であり、個別の治療計画をサポートし、腫瘍学における診断精度を高める。
しかし、正確な手動による病変の分割は時間を要するため、サーバ間の変動が難しくなる。
PET/CTの需要の高まりと臨床利用を考えると、自動化セグメンテーション法、特にディープラーニングベースのアプローチはますます関連性が高まっている。
AutoPET III Challengeは、PET/CT画像における腫瘍病変の自動分離をマルチトラックで進めることに焦点を当て、定量的で堅牢で一般化可能なソリューションに対する臨床ニーズに対処する。
以前の課題に基づいて、AutoPETチャレンジの第3イテレーションでは、2つの臨床センターから2つの異なるトレーサ(FDGとPSMA)を特徴とする、より多様なデータセットが導入されている。
そこで我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサーを識別する分類器を開発した。
モデルの性能を高めるために,解剖学的ラベルをマルチラベルタスクとして含むトレーサ毎に2つのnnUNetアンサンブルを訓練した。
我々の最終提出は、公開FDGデータセットとPSMAデータセットでそれぞれ76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
コードはhttps://github.com/hakal104/autoPETIII/ で公開されている。
関連論文リスト
- A cascaded deep network for automated tumor detection and segmentation
in clinical PET imaging of diffuse large B-cell lymphoma [0.41579653852022364]
PET画像からのDLBCL腫瘍の自動検出と分画のための高速で効率的な3段階の深層学習モデルの開発と検証を行った。
本モデルは,全身PET画像における腫瘍の分節化において,単一のエンドツーエンドネットワークよりも有効である。
論文 参考訳(メタデータ) (2024-03-11T18:36:55Z) - Improving Lesion Segmentation in FDG-18 Whole-Body PET/CT scans using
Multilabel approach: AutoPET II challenge [0.039550447522409014]
肝臓、脾臓、脳、膀胱などの放射性物質の取り込みが増加する臓器の存在は、しばしば課題に繋がる。
本稿では, 臓器と病変のセグメンテーションに新たなアプローチを提案し, 自動病変セグメンテーション法の性能を高めることを目的とする。
以上の結果から,本手法がテストデータセットの上位ランキングを達成できたことが示唆された。
論文 参考訳(メタデータ) (2023-11-02T19:51:54Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - ISA-Net: Improved spatial attention network for PET-CT tumor
segmentation [22.48294544919023]
多モードポジトロン放射トモグラフィー(PET-CT)に基づく深層学習セグメンテーション法を提案する。
腫瘍検出におけるPETやCTの精度を高めるために,改良された空間注意ネットワーク(ISA-Net)を設計した。
今回提案したISA-Net法を,軟部組織肉腫 (STS) と頭頸部腫瘍 (HECKTOR) の2つの臨床データセットで検証した。
論文 参考訳(メタデータ) (2022-11-04T04:15:13Z) - Exploring Vanilla U-Net for Lesion Segmentation from Whole-body
FDG-PET/CT Scans [16.93163630413171]
FDG-PETスキャンは代謝情報のみを提供するため、不規則なグルコース消費を伴う健康な組織や良性疾患はがんと誤認される可能性がある。
本稿では,ネットワークアーキテクチャ,データ前処理,データ拡張という3つの側面から,全身FDG-PET/CTスキャンにおける病変分割のためのU-Netの可能性について検討する。
本手法は, AutoPET 2022 チャレンジの予備的, 最終的リーダボードにおいて第1位となる。
論文 参考訳(メタデータ) (2022-10-14T03:37:18Z) - Data-Efficient Vision Transformers for Multi-Label Disease
Classification on Chest Radiographs [55.78588835407174]
視覚変換器(ViT)は一般的な画像の分類性能が高いにもかかわらず、このタスクには適用されていない。
ViTは、畳み込みではなくパッチベースの自己アテンションに依存しており、CNNとは対照的に、ローカル接続に関する事前の知識は存在しない。
以上の結果から,ViTとCNNのパフォーマンスはViTの利点に匹敵するものの,DeiTsはトレーニング用に適度に大規模なデータセットが利用可能であれば,前者よりも優れることがわかった。
論文 参考訳(メタデータ) (2022-08-17T09:07:45Z) - Multiple Time Series Fusion Based on LSTM An Application to CAP A Phase
Classification Using EEG [56.155331323304]
本研究では,深層学習に基づく脳波チャンネルの特徴レベル融合を行う。
チャネル選択,融合,分類手順を2つの最適化アルゴリズムで最適化した。
論文 参考訳(メタデータ) (2021-12-18T14:17:49Z) - Cross-Site Severity Assessment of COVID-19 from CT Images via Domain
Adaptation [64.59521853145368]
CT画像によるコロナウイルス病2019(COVID-19)の早期かつ正確な重症度評価は,集中治療単位のイベント推定に有効である。
ラベル付きデータを拡張し、分類モデルの一般化能力を向上させるためには、複数のサイトからデータを集約する必要がある。
この課題は、軽度の感染症と重度の感染症の集団不均衡、部位間のドメイン分布の相違、不均一な特徴の存在など、いくつかの課題に直面する。
論文 参考訳(メタデータ) (2021-09-08T07:56:51Z) - Multimodal Spatial Attention Module for Targeting Multimodal PET-CT Lung
Tumor Segmentation [11.622615048002567]
マルチモーダル空間アテンションモジュール(MSAM)は腫瘍に関連する領域を強調することを学ぶ。
MSAMは一般的なバックボーンアーキテクチャやトレーニングされたエンドツーエンドに適用できる。
論文 参考訳(メタデータ) (2020-07-29T10:27:22Z) - A Global Benchmark of Algorithms for Segmenting Late Gadolinium-Enhanced
Cardiac Magnetic Resonance Imaging [90.29017019187282]
現在世界最大の心臓LGE-MRIデータセットである154個の3D LGE-MRIを用いた「2018 left Atrium Challenge」。
技術および生物学的指標を用いた提案アルゴリズムの解析を行った。
その結果, 最上部法は93.2%, 平均表面は0.7mmであった。
論文 参考訳(メタデータ) (2020-04-26T08:49:17Z) - VerSe: A Vertebrae Labelling and Segmentation Benchmark for
Multi-detector CT Images [121.31355003451152]
大規模Vertebrae Challenge(VerSe)は、2019年と2020年に開催されたMICCAI(International Conference on Medical Image Computing and Computer Assisted Intervention)と共同で設立された。
本評価の結果を報告するとともに,脊椎レベル,スキャンレベル,および異なる視野での性能変化について検討した。
論文 参考訳(メタデータ) (2020-01-24T21:09:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。