論文の概要: Co-Seg++: Mutual Prompt-Guided Collaborative Learning for Versatile Medical Segmentation
- arxiv url: http://arxiv.org/abs/2506.17159v1
- Date: Fri, 20 Jun 2025 17:05:09 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-23 19:00:05.556744
- Title: Co-Seg++: Mutual Prompt-Guided Collaborative Learning for Versatile Medical Segmentation
- Title(参考訳): Co-Seg++:Versatile Medical Segmentationのための相互プロンプトガイドによる協調学習
- Authors: Qing Xu, Yuxiang Luo, Wenting Duan, Zhen Chen,
- Abstract要約: 医用画像解析は、臓器や組織を共同で分割する必要があるため、重要な課題である。
既存の研究は通常、異なるセグメンテーションタスクを独立した形で定式化している。
汎用医療セグメンテーションのためのCo-Seg++フレームワークを提案する。
- 参考スコア(独自算出の注目度): 4.584473085778697
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Medical image analysis is critical yet challenged by the need of jointly segmenting organs or tissues, and numerous instances for anatomical structures and tumor microenvironment analysis. Existing studies typically formulated different segmentation tasks in isolation, which overlooks the fundamental interdependencies between these tasks, leading to suboptimal segmentation performance and insufficient medical image understanding. To address this issue, we propose a Co-Seg++ framework for versatile medical segmentation. Specifically, we introduce a novel co-segmentation paradigm, allowing semantic and instance segmentation tasks to mutually enhance each other. We first devise a spatio-temporal prompt encoder (STP-Encoder) to capture long-range spatial and temporal relationships between segmentation regions and image embeddings as prior spatial constraints. Moreover, we devise a multi-task collaborative decoder (MTC-Decoder) that leverages cross-guidance to strengthen the contextual consistency of both tasks, jointly computing semantic and instance segmentation masks. Extensive experiments on diverse CT and histopathology datasets demonstrate that the proposed Co-Seg++ outperforms state-of-the-arts in the semantic, instance, and panoptic segmentation of dental anatomical structures, histopathology tissues, and nuclei instances. The source code is available at https://github.com/xq141839/Co-Seg-Plus.
- Abstract(参考訳): 医用画像解析は、臓器や組織を共同で分断する必要性や、解剖学的構造や腫瘍の微小環境分析の多くの例により、いまだに重要な課題である。
既存の研究は通常、異なるセグメンテーションタスクを分離して定式化し、これらのタスク間の基本的な相互依存性を見落とし、最適なセグメンテーション性能と不十分な医用画像理解をもたらす。
この問題に対処するために,汎用医療セグメント化のためのCo-Seg++フレームワークを提案する。
具体的には、セグメンテーションタスクとインスタンスセグメンテーションタスクを相互に強化する、新しいコセグメンテーションパラダイムを導入する。
まず時空間プロンプトエンコーダ(STP-Encoder)を考案し,空間制約として分割領域と画像埋め込みの長距離空間的および時間的関係を捉える。
さらに,マルチタスク協調デコーダ(MTC-Decoder)を考案し,タスク間のコンテキスト整合性を強化する。
多様なCTおよび病理組織学的データセットに関する広範な実験により、提案されたCo-Seg++は、歯科解剖学的構造、病理組織、核のインスタンスの解剖学的、例、および汎視的セグメンテーションにおいて、最先端の成果を発揮することが示された。
ソースコードはhttps://github.com/xq141839/Co-Seg-Plusで入手できる。
関連論文リスト
- Image Segmentation in Foundation Model Era: A Survey [95.60054312319939]
イメージセグメンテーションにおける現在の研究は、異なる特徴、課題、解決策の詳細な分析を欠いている。
本調査は、FM駆動画像セグメンテーションを中心とした最先端の研究を徹底的にレビューすることで、このギャップを埋めようとしている。
現在の研究成果の広さを包括する,300以上のセグメンテーションアプローチの概要を概観する。
論文 参考訳(メタデータ) (2024-08-23T10:07:59Z) - CAT: Coordinating Anatomical-Textual Prompts for Multi-Organ and Tumor Segmentation [11.087654014615955]
CATは,医学領域の知識に富んだ3Dクロップ画像から得られた解剖学的プロンプトとテクスチャ的プロンプトをコーディネートする革新的なモデルである。
10のパブリックCTデータセットからなるコンソーシアムでトレーニングされたCATは、複数のセグメンテーションタスクにおいて優れたパフォーマンスを示している。
このアプローチは、マルチモーダルプロンプトのコーディネートが、医療領域における複雑なシナリオに対処するための有望な道であることを確認した。
論文 参考訳(メタデータ) (2024-06-11T09:22:39Z) - Implicit Anatomical Rendering for Medical Image Segmentation with
Stochastic Experts [11.007092387379078]
医用画像セグメンテーションの学習を支援するために,解剖学的レベルで設計された汎用的な暗黙的ニューラルネットワークレンダリングフレームワークであるMORSEを提案する。
医用画像のセグメンテーションをエンドツーエンドのレンダリング問題として定式化する。
実験の結果,MORSEは異なる医療セグメントのバックボーンでうまく機能することが示された。
論文 参考訳(メタデータ) (2023-04-06T16:44:03Z) - Self-Supervised Correction Learning for Semi-Supervised Biomedical Image
Segmentation [84.58210297703714]
半教師付きバイオメディカルイメージセグメンテーションのための自己教師付き補正学習パラダイムを提案する。
共有エンコーダと2つの独立デコーダを含むデュアルタスクネットワークを設計する。
異なるタスクのための3つの医用画像分割データセットの実験により,本手法の優れた性能が示された。
論文 参考訳(メタデータ) (2023-01-12T08:19:46Z) - Generalized Organ Segmentation by Imitating One-shot Reasoning using
Anatomical Correlation [55.1248480381153]
そこで我々は,アノテーション付きオルガンクラスから一般化されたオルガン概念を学習し,その概念を未知のクラスに転送するOrganNetを提案する。
そこで,OrganNetは臓器形態の幅広い変化に効果的に抵抗でき,一発分節タスクで最先端の結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-30T13:41:12Z) - Spatially Dependent U-Nets: Highly Accurate Architectures for Medical
Imaging Segmentation [10.77039660100327]
解剖学的構造に固有の空間的コヒーレンスを利用する新しいディープニューラルネットワークアーキテクチャを紹介します。
提案手法は,分割画素/ボクセル空間における長距離空間依存性を捉えるのに有効である。
本手法は一般的に使用されるU-NetおよびU-Net++アーキテクチャに好適に作用する。
論文 参考訳(メタデータ) (2021-03-22T10:37:20Z) - Few-shot Medical Image Segmentation using a Global Correlation Network
with Discriminative Embedding [60.89561661441736]
医療画像分割のための新しい手法を提案する。
深層畳み込みネットワークを用いた数ショット画像セグメンタを構築します。
深層埋め込みの識別性を高め,同一クラスの特徴領域のクラスタリングを促進する。
論文 参考訳(メタデータ) (2020-12-10T04:01:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。