論文の概要: SegAnyPET: Universal Promptable Segmentation from Positron Emission Tomography Images
- arxiv url: http://arxiv.org/abs/2502.14351v1
- Date: Thu, 20 Feb 2025 08:17:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-02-21 14:27:26.498477
- Title: SegAnyPET: Universal Promptable Segmentation from Positron Emission Tomography Images
- Title(参考訳): SegAnyPET: ポジトロン・エミッション・トモグラフィー画像からのユニバーサル・プロンプタブル・セグメンテーション
- Authors: Yichi Zhang, Le Xue, Wenbo Zhang, Lanlan Li, Yuchen Liu, Chen Jiang, Yuan Cheng, Yuan Qi,
- Abstract要約: 本研究は,PET画像からの普遍的プロンプト可能なセグメンテーションのためのモダリティ特異的な3次元基礎モデルであるSegAnyPETを開発する。
また,SegAnyPETは1点または数点のプロンプトポイントのみを用いて,視線と視線を正確にセグメント化できることを示す。
PET画像の最初の基盤モデルとして、SegAnyPETは、分子イメージングのための様々な下流タスクへの応用を推し進めると考えている。
- 参考スコア(独自算出の注目度): 21.883098685700666
- License:
- Abstract: Positron Emission Tomography (PET) imaging plays a crucial role in modern medical diagnostics by revealing the metabolic processes within a patient's body, which is essential for quantification of therapy response and monitoring treatment progress. However, the segmentation of PET images presents unique challenges due to their lower contrast and less distinct boundaries compared to other structural medical modalities. Recent developments in segmentation foundation models have shown superior versatility across diverse natural image segmentation tasks. Despite the efforts of medical adaptations, these works primarily focus on structural medical images with detailed physiological structural information and exhibit poor generalization ability when adapted to molecular PET imaging. In this paper, we collect and construct PETS-5k, the largest PET segmentation dataset to date, comprising 5,731 three-dimensional whole-body PET images and encompassing over 1.3M 2D images. Based on the established dataset, we develop SegAnyPET, a modality-specific 3D foundation model for universal promptable segmentation from PET images. To issue the challenge of discrepant annotation quality of PET images, we adopt a cross prompting confident learning (CPCL) strategy with an uncertainty-guided self-rectification process to robustly learn segmentation from high-quality labeled data and low-quality noisy labeled data. Experimental results demonstrate that SegAnyPET can correctly segment seen and unseen targets using only one or a few prompt points, outperforming state-of-the-art foundation models and task-specific fully supervised models with higher accuracy and strong generalization ability for universal segmentation. As the first foundation model for PET images, we believe that SegAnyPET will advance the applications to various downstream tasks for molecular imaging.
- Abstract(参考訳): ポジトロン・エミッション・トモグラフィ(PET)画像は、治療反応の定量化と治療の進行のモニタリングに不可欠である患者の体内の代謝過程を明らかにすることで、現代の医療診断において重要な役割を担っている。
しかし,PET画像のセグメンテーションは,他の構造的医学的モダリティと比較して,コントラストが低く,バウンダリが低かったため,独特な課題を呈している。
セグメンテーション基礎モデルの最近の進歩は、様々な自然画像セグメンテーションタスクにおいて優れた効率性を示している。
医学的適応の努力にもかかわらず、これらの研究は主に、詳細な生理的構造情報を持つ構造的医学的イメージに焦点を当て、分子PETイメージングに適応する際の一般化能力の低下を示す。
本稿では,これまでで最大のPETセグメンテーションデータセットであるPETS-5kの3次元PET画像5,731枚を収集,構築した。
確立されたデータセットに基づいて、PET画像から普遍的なプロンプト可能なセグメンテーションのためのモダリティ特異的な3D基礎モデルであるSegAnyPETを開発した。
PET画像のアノテーション品質の相違を解消するために,不確実性誘導による自己修正プロセスによる信頼度学習(CPCL)戦略を採用し,高品質なラベル付きデータと低品質のノイズ付きラベル付きデータからセグメンテーションを確実に学習する。
実験結果から,SegAnyPETは1点または数点のプロンプトポイントのみを用いて,視線と視線を正確にセグメンテーションできることがわかった。
PET画像の最初の基盤モデルとして、SegAnyPETは、分子イメージングのための様々な下流タスクへの応用を推し進めると考えている。
関連論文リスト
- Adaptive Whole-Body PET Image Denoising Using 3D Diffusion Models with ControlNet [3.83243615095535]
近年の深層学習に基づく denoising 手法は,臨床環境の多様性に適応する上で課題に直面している。
全身PET画像のための新しい3Dコントロールネットを用いたデノライズ手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T03:06:47Z) - Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT [4.376648893167674]
AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
論文 参考訳(メタデータ) (2024-09-18T17:16:57Z) - Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Self-Supervised Pre-Training for Deep Image Prior-Based Robust PET Image
Denoising [0.5999777817331317]
ポジトロン・エミッション・トモグラフィ(PET)画像修復にDeep Image prior (DIP) が有効である。
DIPに基づくPET画像復調性能を改善するための自己教師付き事前学習モデルを提案する。
論文 参考訳(メタデータ) (2023-02-27T06:55:00Z) - Spatio-Temporal Dual-Stream Neural Network for Sequential Whole-Body PET
Segmentation [10.344707825773252]
連続体PETスキャンをセグメント化する「デュアルストリーム」ニューラルネットワーク(ST-DSNN)を提案する。
我々のST-DSNNは、時間とともに行われたPET画像から画像の特徴を学習し、蓄積する。
その結果,本手法は最新のPET画像分割法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-09T10:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。