論文の概要: SegAnyPET: Universal Promptable Segmentation from Positron Emission Tomography Images
- arxiv url: http://arxiv.org/abs/2502.14351v3
- Date: Tue, 01 Jul 2025 15:07:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-02 15:54:40.034137
- Title: SegAnyPET: Universal Promptable Segmentation from Positron Emission Tomography Images
- Title(参考訳): SegAnyPET: ポジトロン・エミッション・トモグラフィー画像からのユニバーサル・プロンプタブル・セグメンテーション
- Authors: Yichi Zhang, Le Xue, Wenbo Zhang, Lanlan Li, Yuchen Liu, Chen Jiang, Yuan Cheng, Yuan Qi,
- Abstract要約: 本研究は,PET画像からの普遍的プロンプト可能なセグメンテーションのためのモダリティ特異的な3次元基礎モデルであるSegAnyPETを開発する。
実験の結果,SegAnyPETは1点または数点のプロンプトポイントのみを用いて対象臓器をセグメント化できることがわかった。
- 参考スコア(独自算出の注目度): 21.883098685700666
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Positron Emission Tomography (PET) is a powerful molecular imaging tool that plays a crucial role in modern medical diagnostics by visualizing radio-tracer distribution to reveal physiological processes. Accurate organ segmentation from PET images is essential for comprehensive multi-systemic analysis of interactions between different organs and pathologies. Existing segmentation methods are limited by insufficient annotation data and varying levels of annotation, resulting in weak generalization ability and difficulty in clinical application. Recent developments in segmentation foundation models have shown superior versatility across diverse segmentation tasks. Despite the efforts of medical adaptations, these works primarily focus on structural medical images with detailed physiological structural information and exhibit limited generalization performance on molecular PET imaging. In this paper, we collect and construct PETS-5k, the largest PET segmentation dataset to date, comprising 5,731 three-dimensional whole-body PET images and encompassing over 1.3M 2D images. Based on the established dataset, we develop SegAnyPET, a modality-specific 3D foundation model for universal promptable segmentation from PET images. To issue the challenge of discrepant annotation quality, we adopt a cross prompting confident learning (CPCL) strategy with an uncertainty-guided self-rectification process to robustly learn segmentation from high-quality labeled data and low-quality noisy labeled data for promptable segmentation. Experimental results demonstrate that SegAnyPET can segment seen and unseen target organs using only one or a few prompt points, outperforming state-of-the-art foundation models and task-specific fully supervised models with higher accuracy and strong generalization ability for universal segmentation.
- Abstract(参考訳): PET(Positron Emission Tomography)は、放射線・放射線の分布を可視化して生理過程を明らかにすることで、現代の医学診断において重要な役割を果たす強力な分子イメージングツールである。
PET画像からの正確な臓器分割は、異なる臓器と病理組織間の相互作用の総合的多系統解析に不可欠である。
既存のセグメンテーション法は、アノテーションの不十分なデータと様々なレベルのアノテーションによって制限され、その結果、一般化能力の弱さと臨床応用の難しさをもたらす。
セグメンテーション基礎モデルの最近の進歩は、多様なセグメンテーションタスクにおいて優れた効率性を示している。
医学的適応の努力にもかかわらず、これらの研究は主に、詳細な生理的構造情報を持つ構造的医用画像に焦点を当て、分子PETイメージングにおいて限られた一般化性能を示す。
本稿では,これまでで最大のPETセグメンテーションデータセットであるPETS-5kの3次元PET画像5,731枚を収集,構築した。
確立されたデータセットに基づいて、PET画像から普遍的なプロンプト可能なセグメンテーションのためのモダリティ特異的な3D基礎モデルであるSegAnyPETを開発した。
そこで我々は,高品質なラベル付きデータと低品質なラベル付きデータからセグメンテーションを積極的に学習し,セグメンテーションを促進可能なセグメンテーションを実現するために,不確実性誘導型自己修正プロセスを備えたクロスプロンプト型自信学習(CPCL)戦略を採用した。
実験結果から,SegAnyPETは1ないし数点のプロンプトポイントのみを用いて対象臓器のセグメント化が可能であり,精度が高く,汎用セグメンテーションのための強力な一般化能力を有する,最先端基礎モデルやタスク特異的完全教師付きモデルよりも優れていた。
関連論文リスト
- The Efficacy of Semantics-Preserving Transformations in Self-Supervised Learning for Medical Ultrasound [60.80780313225093]
本研究は, 肺超音波の自己教師あり学習におけるデータ拡張と前処理方略の影響を系統的に検討した。
画像領域に共通して使用されるベースラインパイプライン、超音波用に設計された新しいセマンティック保存パイプライン、両方のパイプラインから最も効果的な変換の蒸留セットの3つのデータ拡張パイプラインが評価された。
論文 参考訳(メタデータ) (2025-04-10T16:26:47Z) - Cross-Modal Interactive Perception Network with Mamba for Lung Tumor Segmentation in PET-CT Images [29.523577037519985]
深層学習モデルでは、画像品質の低下、運動アーティファクト、複雑な腫瘍形態などの問題に対処することが期待されている。
我々は,605例のPET-CT画像21,930対からなる,PCLT20Kと呼ばれる大規模PET-CT肺腫瘍セグメンテーションデータセットを紹介した。
PET-CT画像における肺腫瘍のセグメンテーションのためのMamba(CIPA)を用いたクロスモーダル対話型知覚ネットワークを提案する。
論文 参考訳(メタデータ) (2025-03-21T16:04:11Z) - Adaptive Whole-Body PET Image Denoising Using 3D Diffusion Models with ControlNet [3.83243615095535]
近年の深層学習に基づく denoising 手法は,臨床環境の多様性に適応する上で課題に直面している。
全身PET画像のための新しい3Dコントロールネットを用いたデノライズ手法を提案する。
論文 参考訳(メタデータ) (2024-11-08T03:06:47Z) - Autopet III challenge: Incorporating anatomical knowledge into nnUNet for lesion segmentation in PET/CT [4.376648893167674]
AutoPET III ChallengeはPET/CT画像における腫瘍病変の自動切除の進歩に焦点を当てている。
我々は,PETスキャンの最大強度投影に基づいて,与えられたPET/CTのトレーサを識別する分類器を開発した。
我々の最終提出書は、公開可能なFDGおよびPSMAデータセットに対して76.90%と61.33%のクロスバリデーションDiceスコアを達成している。
論文 参考訳(メタデータ) (2024-09-18T17:16:57Z) - Two-Phase Multi-Dose-Level PET Image Reconstruction with Dose Level Awareness [43.45142393436787]
線量レベルの認識が可能な新しい二相多段PET再構成アルゴリズムを設計する。
事前学習フェーズは、きめ細かい識別特徴と効果的な意味表現の両方を探索するために考案された。
SPET予測フェーズは、事前学習した線量レベルを利用した粗い予測ネットワークを採用して予備結果を生成する。
論文 参考訳(メタデータ) (2024-04-02T01:57:08Z) - QUBIQ: Uncertainty Quantification for Biomedical Image Segmentation Challenge [93.61262892578067]
医用画像分割作業の不確実性、特にラター間変動性は重要な課題である。
この可変性は、自動セグメンテーションアルゴリズムの開発と評価に直接影響を及ぼす。
バイオメディカル画像量化チャレンジ(QUBIQ)における不確実性の定量化のベンチマーク結果を報告する。
論文 参考訳(メタデータ) (2024-03-19T17:57:24Z) - Image2Points:A 3D Point-based Context Clusters GAN for High-Quality PET
Image Reconstruction [47.398304117228584]
LPETから高品質なSPET画像を再構成する3DポイントベースのコンテキストクラスタGAN(PCC-GAN)を提案する。
臨床とファントムの両方の実験により、PCC-GANは最先端の再建方法よりも優れています。
論文 参考訳(メタデータ) (2024-02-01T06:47:56Z) - Score-Based Generative Models for PET Image Reconstruction [38.72868748574543]
本稿では,PETによるスコアベース生成モデルの適応について提案する。
提案するフレームワークは, 2D PET と 3D PET の両方に対して開発された。
また,磁気共鳴画像を用いたガイド再構成の拡張も提供する。
論文 参考訳(メタデータ) (2023-08-27T19:43:43Z) - Contrastive Diffusion Model with Auxiliary Guidance for Coarse-to-Fine
PET Reconstruction [62.29541106695824]
本稿では, 粗い予測モジュール (CPM) と反復的修正モジュール (IRM) から構成される粗大なPET再構成フレームワークを提案する。
計算オーバーヘッドの大部分をCPMに委譲することで,本手法のサンプリング速度を大幅に向上させることができる。
2つの追加戦略、すなわち補助的な誘導戦略と対照的な拡散戦略が提案され、再構築プロセスに統合される。
論文 参考訳(メタデータ) (2023-08-20T04:10:36Z) - Disruptive Autoencoders: Leveraging Low-level features for 3D Medical
Image Pre-training [51.16994853817024]
本研究は、3Dラジオグラフィ画像のための効果的な事前学習フレームワークの設計に焦点をあてる。
ローカルマスキングと低レベルの摂動の組み合わせによって生成された破壊から、オリジナルのイメージを再構築しようとする事前トレーニングフレームワークであるDisruptive Autoencodersを紹介する。
提案する事前トレーニングフレームワークは、複数のダウンストリームタスクでテストされ、最先端のパフォーマンスを実現する。
論文 参考訳(メタデータ) (2023-07-31T17:59:42Z) - 3DSAM-adapter: Holistic adaptation of SAM from 2D to 3D for promptable tumor segmentation [52.699139151447945]
医用画像の領域分割を行うために, SAMを2次元から3次元に変換する新しい適応法を提案する。
本モデルでは, 腎腫瘍, 膵腫瘍, 大腸癌の3つのタスクのうち8.25%, 29.87%, 10.11%の3つのタスクにおいて, ドメイン・オブ・ザ・アーティヴ・メディカル・イメージ・セグメンテーション・モデルより優れ, 肝腫瘍セグメンテーションでも同様の性能が得られる。
論文 参考訳(メタデータ) (2023-06-23T12:09:52Z) - Spatio-Temporal Dual-Stream Neural Network for Sequential Whole-Body PET
Segmentation [10.344707825773252]
連続体PETスキャンをセグメント化する「デュアルストリーム」ニューラルネットワーク(ST-DSNN)を提案する。
我々のST-DSNNは、時間とともに行われたPET画像から画像の特徴を学習し、蓄積する。
その結果,本手法は最新のPET画像分割法よりも優れていた。
論文 参考訳(メタデータ) (2021-06-09T10:15:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。