論文の概要: Towards Interactive Lesion Segmentation in Whole-Body PET/CT with Promptable Models
- arxiv url: http://arxiv.org/abs/2508.21680v1
- Date: Fri, 29 Aug 2025 14:49:58 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-01 19:45:11.085725
- Title: Towards Interactive Lesion Segmentation in Whole-Body PET/CT with Promptable Models
- Title(参考訳): プロンプブルモデルを用いた全体PET/CTのインタラクティブな病変分割に向けて
- Authors: Maximilian Rokuss, Yannick Kirchhoff, Fabian Isensee, Klaus H. Maier-Hein,
- Abstract要約: われわれはAutoPET/CT IVチャレンジに応募する。
我々は、ユーザが提供するフォアグラウンドとバックグラウンドクリックを追加入力チャネルとしてエンコードすることで、迅速な機能でフレームワークを拡張します。
外部データおよび非外部データでトレーニングされたEDTベースのモデルのアンサンブルは、最強のクロスバリデーション性能を達成する。
- 参考スコア(独自算出の注目度): 9.254535645473311
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Whole-body PET/CT is a cornerstone of oncological imaging, yet accurate lesion segmentation remains challenging due to tracer heterogeneity, physiological uptake, and multi-center variability. While fully automated methods have advanced substantially, clinical practice benefits from approaches that keep humans in the loop to efficiently refine predicted masks. The autoPET/CT IV challenge addresses this need by introducing interactive segmentation tasks based on simulated user prompts. In this work, we present our submission to Task 1. Building on the winning autoPET III nnU-Net pipeline, we extend the framework with promptable capabilities by encoding user-provided foreground and background clicks as additional input channels. We systematically investigate representations for spatial prompts and demonstrate that Euclidean Distance Transform (EDT) encodings consistently outperform Gaussian kernels. Furthermore, we propose online simulation of user interactions and a custom point sampling strategy to improve robustness under realistic prompting conditions. Our ensemble of EDT-based models, trained with and without external data, achieves the strongest cross-validation performance, reducing both false positives and false negatives compared to baseline models. These results highlight the potential of promptable models to enable efficient, user-guided segmentation workflows in multi-tracer, multi-center PET/CT. Code is publicly available at https://github.com/MIC-DKFZ/autoPET-interactive
- Abstract(参考訳): 全体PET/CTは腫瘍画像の基盤であるが, トレーサーの不均一性, 生理的取り込み, 多施設変動などにより, 正確な病変分割が困難である。
完全に自動化された手法は大幅に進歩しているが、予測されたマスクを効率よく洗練するために、人間のループを維持するアプローチから臨床実践の恩恵を受けている。
AutoPET/CT IVの課題は、シミュレーションされたユーザプロンプトに基づいた対話的なセグメンテーションタスクを導入することで、このニーズに対処する。
本研究では,タスク1への提出について述べる。
勝利したAutoPET III nnU-Netパイプラインに基づいて、ユーザが提供するフォアグラウンドとバックグラウンドクリックを追加入力チャネルとしてエンコードすることで、迅速な機能でフレームワークを拡張します。
空間的プロンプトの表現を体系的に検討し,Euclidean Distance Transform (EDT)エンコーディングがガウスカーネルより一貫して優れていることを示す。
さらに,ユーザインタラクションのオンラインシミュレーションと,現実的なプロンプト条件下での堅牢性向上のためのカスタムポイントサンプリング戦略を提案する。
外部データおよび非外部データを用いてトレーニングされたEDTモデルによるアンサンブルは、最強のクロスバリデーション性能を実現し、ベースラインモデルと比較して偽陽性と偽陰性の両方を減少させる。
これらの結果は,マルチトラック・マルチセンターPET/CTにおける効率的なユーザ誘導セグメンテーションワークフローを実現するために,プロンプト可能なモデルの可能性を強調している。
コードはhttps://github.com/MIC-DKFZ/autoPET-interactiveで公開されている。
関連論文リスト
- Efficient Parameter Adaptation for Multi-Modal Medical Image Segmentation and Prognosis [4.5445892770974154]
変圧器ベースセグメンテーションモデルの軽量アップグレードのためのパラメータ効率・マルチモーダル適応(PEMMA)フレームワークを提案する。
本手法は初期核融合に匹敵する性能を示すが、トレーニング可能なパラメータの8%しか持たず、単一モードで訓練した場合のPETスキャンにおけるDiceスコアが28%向上したことを示す。
論文 参考訳(メタデータ) (2025-04-18T11:52:21Z) - From FDG to PSMA: A Hitchhiker's Guide to Multitracer, Multicenter Lesion Segmentation in PET/CT Imaging [0.9384264274298444]
本稿では,ResEncL アーキテクチャを用いた nnU-Net フレームワークを用いたマルチトラス,マルチセンタの一般化を目的とした AutoPET III チャレンジの解決策を提案する。
主なテクニックは、CT、MR、PETデータセット間での誤調整データ拡張とマルチモーダル事前トレーニングである。
Diceスコアが57.61となったデフォルトのnnU-Netと比較して、Diceスコアが68.40であり、偽陽性(FPvol: 7.82)と偽陰性(FNvol: 10.35)が減少している。
論文 参考訳(メタデータ) (2024-09-14T16:39:17Z) - Multi-modal Evidential Fusion Network for Trustworthy PET/CT Tumor Segmentation [5.839660501978193]
臨床環境では,PET画像とCT画像の画質は著しく変化し,ネットワークによって抽出されるモダリティ情報の不確実性が生じる。
我々は,CFL(Cross-Modal Feature Learning)とMTF(Multi-Modal Trustworthy Fusion)の2つの基本段階からなる,新しいMulti-Modal Evidential Fusion Network(MEFN)を提案する。
本モデルでは, 自動セグメンテーション結果の受け入れや拒絶の判断において, セグメンテーション結果の確実な不確実性を, 放射線技師に提供することができる。
論文 参考訳(メタデータ) (2024-06-26T13:14:24Z) - ECLIPSE: Efficient Continual Learning in Panoptic Segmentation with Visual Prompt Tuning [54.68180752416519]
パノプティカルセグメンテーション(英: Panoptic segmentation)は、コンピュータビジョンの最先端タスクである。
ECLIPSE と呼ばれる Visual Prompt Tuning をベースとした,新規で効率的なパノプティカルセグメンテーション手法を提案する。
我々のアプローチは、基本モデルのパラメータを凍結し、小さなプロンプト埋め込みだけを微調整することであり、破滅的な忘れ物と塑性の両方に対処する。
論文 参考訳(メタデータ) (2024-03-29T11:31:12Z) - Generalized Face Forgery Detection via Adaptive Learning for Pre-trained Vision Transformer [54.32283739486781]
適応学習パラダイムの下で,textbfForgery-aware textbfAdaptive textbfVision textbfTransformer(FA-ViT)を提案する。
FA-ViTは、クロスデータセット評価において、Celeb-DFおよびDFDCデータセット上で93.83%と78.32%のAUCスコアを達成する。
論文 参考訳(メタデータ) (2023-09-20T06:51:11Z) - Multimodal Interactive Lung Lesion Segmentation: A Framework for
Annotating PET/CT Images based on Physiological and Anatomical Cues [16.159693927845975]
深層学習は、医療画像における様々な病気の正確なセグメンテーションを可能にした。
しかしながら、これらのパフォーマンスは通常、大量の手動のボクセルアノテーションを必要とする。
PET/CTデータから解剖学と生理学の手がかりを組み合わせることで,これらの問題を緩和する多モード対話型セグメンテーションフレームワークを提案する。
論文 参考訳(メタデータ) (2023-01-24T10:50:45Z) - UNETR++: Delving into Efficient and Accurate 3D Medical Image Segmentation [93.88170217725805]
本稿では,高画質なセグメンテーションマスクと,パラメータ,計算コスト,推論速度の両面での効率性を提供するUNETR++という3次元医用画像セグメンテーション手法を提案する。
我々の設計の核となるのは、空間的およびチャネル的な識別的特徴を効率的に学習する、新しい効率的な対注意ブロック(EPA)の導入である。
Synapse, BTCV, ACDC, BRaTs, Decathlon-Lungの5つのベンチマークで評価した結果, 効率と精度の両面で, コントリビューションの有効性が示された。
論文 参考訳(メタデータ) (2022-12-08T18:59:57Z) - DANCE: DAta-Network Co-optimization for Efficient Segmentation Model Training and Inference [86.03382625531951]
DANCEは、効率的なセグメンテーションモデルのトレーニングと推論のための自動データネットワーク協調最適化である。
入力イメージを適応的にダウンサンプル/ドロップする自動データスライミングを統合し、画像の空間的複雑さによって導かれるトレーニング損失に対するそれに対応するコントリビューションを制御する。
実験と非難研究により、DANCEは効率的なセグメンテーションに向けて「オールウィン」を達成できることを示した。
論文 参考訳(メタデータ) (2021-07-16T04:58:58Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。