論文の概要: Progressive Vision-Language Prompt for Multi-Organ Multi-Class Cell Semantic Segmentation with Single Branch
- arxiv url: http://arxiv.org/abs/2412.02978v1
- Date: Wed, 04 Dec 2024 02:44:38 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-05 15:08:26.406665
- Title: Progressive Vision-Language Prompt for Multi-Organ Multi-Class Cell Semantic Segmentation with Single Branch
- Title(参考訳): 多臓器多型セマンティックセマンティックセマンティックセグメンテーションのためのプログレッシブビジョンランゲージプロンプト
- Authors: Qing Zhang, Hang Guo, Siyuan Yang, Qingli Li, Yan Wang,
- Abstract要約: 単一ブランクH(MONCH)を用いたマルチオルガNマルチクラスセルセマンティックセグメンテーション法
テキストと多粒度視覚特徴の相乗効果に着想を得て,マルチモーダル情報を調和させるプログレッシブプロンプトデコーダを導入する。
PanNukeデータセットの実験では、クラス不均衡と微妙な細胞サイズと形状の変化があり、MONCHは最先端の細胞分割法やビジョン言語モデルよりも優れていることを示した。
- 参考スコア(独自算出の注目度): 23.307707756230513
- License:
- Abstract: Pathological cell semantic segmentation is a fundamental technology in computational pathology, essential for applications like cancer diagnosis and effective treatment. Given that multiple cell types exist across various organs, with subtle differences in cell size and shape, multi-organ, multi-class cell segmentation is particularly challenging. Most existing methods employ multi-branch frameworks to enhance feature extraction, but often result in complex architectures. Moreover, reliance on visual information limits performance in multi-class analysis due to intricate textural details. To address these challenges, we propose a Multi-OrgaN multi-Class cell semantic segmentation method with a single brancH (MONCH) that leverages vision-language input. Specifically, we design a hierarchical feature extraction mechanism to provide coarse-to-fine-grained features for segmenting cells of various shapes, including high-frequency, convolutional, and topological features. Inspired by the synergy of textual and multi-grained visual features, we introduce a progressive prompt decoder to harmonize multimodal information, integrating features from fine to coarse granularity for better context capture. Extensive experiments on the PanNuke dataset, which has significant class imbalance and subtle cell size and shape variations, demonstrate that MONCH outperforms state-of-the-art cell segmentation methods and vision-language models. Codes and implementations will be made publicly available.
- Abstract(参考訳): 病理細胞セマンティックセグメンテーションは、がん診断や効果的な治療などの応用に欠かせない、計算病理学の基本的な技術である。
細胞の大きさと形状が微妙に異なる様々な器官に複数の細胞型が存在することを考えると、多臓器多クラス細胞セグメンテーションは特に困難である。
既存のほとんどのメソッドは、機能抽出を強化するためにマルチブランチフレームワークを使用しているが、しばしば複雑なアーキテクチャをもたらす。
さらに、視覚情報への依存は、複雑なテクスチャの詳細による多クラス分析の性能を制限する。
これらの課題に対処するために,視覚言語入力を利用した単一ブランクH (MONCH) を用いたマルチオルガNマルチクラスセマンティックセマンティックセマンティックセマンティクス手法を提案する。
具体的には, 高周波, 畳み込み, トポロジカルな特徴を含む, 様々な形状の細胞を分節する粗粒度特徴を提供する階層的特徴抽出機構を設計する。
テキストと多粒度視覚特徴の相乗効果に着想を得て,多モーダル情報を調和させるプログレッシブプロンプトデコーダを導入する。
PanNukeデータセットの大規模な実験では、クラス不均衡と微妙な細胞サイズと形状の変化があり、MONCHは最先端の細胞分割法やビジョン言語モデルよりも優れていることを示した。
コードと実装は公開されます。
関連論文リスト
- CellPilot [3.2096430458509317]
この作業では,自動セグメンテーションとインタラクティブセグメンテーションのギャップを埋めるフレームワークであるCellPilotを導入する。
本モデルは16臓器にまたがる9種類の細胞および腺分節データセットの675,000以上のマスクを用いて訓練した。
このモデルとグラフィカルなユーザインターフェースは、実践者がオープンソースとして利用可能な大規模な注釈付きデータセットを作成するのを支援するように設計されています。
論文 参考訳(メタデータ) (2024-11-23T10:31:10Z) - PSVMA+: Exploring Multi-granularity Semantic-visual Adaption for Generalized Zero-shot Learning [116.33775552866476]
一般化ゼロショット学習(GZSL)は、目に見えない領域の知識を用いて、見えないものを識別する試みである。
GZSLは、属性の多様性とインスタンスの多様性により、視覚的セマンティックな対応が不十分である。
本稿では,不整合の解消に十分な視覚要素を収集できる多粒性プログレッシブ・セマンティック・視覚適応ネットワークを提案する。
論文 参考訳(メタデータ) (2024-10-15T12:49:33Z) - MorphoSeg: An Uncertainty-Aware Deep Learning Method for Biomedical Segmentation of Complex Cellular Morphologies [5.50767638479269]
深層学習は医学や生物学的イメージング、特にセグメンテーションのタスクに革命をもたらした。
細胞の形態の多様性と複雑さのため、生物学的な細胞を分断することは依然として困難である。
我々は多能性癌細胞株であるNtera-2細胞の新しいベンチマークデータセットを導入する。
トレーニング中の低線量領域からの仮想アウトリーチのサンプリングを取り入れた,複雑な細胞形態区分(MorphoSeg)のための不確実性を考慮したディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-25T17:25:06Z) - UniCell: Universal Cell Nucleus Classification via Prompt Learning [76.11864242047074]
ユニバーサル細胞核分類フレームワーク(UniCell)を提案する。
異なるデータセットドメインから対応する病理画像のカテゴリを均一に予測するために、新しいプロンプト学習機構を採用している。
特に,本フレームワークでは,原子核検出と分類のためのエンドツーエンドアーキテクチャを採用し,フレキシブルな予測ヘッドを用いて様々なデータセットを適応する。
論文 参考訳(メタデータ) (2024-02-20T11:50:27Z) - Single-cell Multi-view Clustering via Community Detection with Unknown
Number of Clusters [64.31109141089598]
シングルセルデータに適した,革新的なマルチビュークラスタリング手法である scUNC を導入する。
scUNCは、事前に定義された数のクラスタを必要とせずに、異なるビューからの情報をシームレスに統合する。
3つの異なる単一セルデータセットを用いて,SCUNCの総合評価を行った。
論文 参考訳(メタデータ) (2023-11-28T08:34:58Z) - Topology-Guided Multi-Class Cell Context Generation for Digital
Pathology [28.43244574309888]
空間統計学とトポロジカルデータ解析の数学的ツールをいくつか紹介する。
高品質なマルチクラスセルレイアウトを初めて生成する。
トポロジに富んだセルレイアウトは,データ拡張やセル分類などの下流タスクの性能向上に有効であることを示す。
論文 参考訳(メタデータ) (2023-04-05T07:01:34Z) - Learning from partially labeled data for multi-organ and tumor
segmentation [102.55303521877933]
本稿では,トランスフォーマーに基づく動的オンデマンドネットワーク(TransDoDNet)を提案する。
動的ヘッドにより、ネットワークは複数のセグメンテーションタスクを柔軟に達成することができる。
我々はMOTSと呼ばれる大規模にラベル付けされたMulti-Organ and tumorベンチマークを作成し、他の競合相手よりもTransDoDNetの方が優れた性能を示す。
論文 参考訳(メタデータ) (2022-11-13T13:03:09Z) - Multi-Class Cell Detection Using Spatial Context Representation [23.542218679448624]
デジタル病理学では、細胞の自動診断および予後タスクにおいて、細胞の検出と分類の両方が重要である。
既存の方法は、個々の細胞の形態学的外観に焦点をあてるが、実際は、病理学者は、しばしばその空間的文脈を通して細胞クラスを推測する。
本研究では,空間的文脈情報を明示的に組み込んだ検出と分類のための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-10T19:54:40Z) - w-Net: Dual Supervised Medical Image Segmentation Model with
Multi-Dimensional Attention and Cascade Multi-Scale Convolution [47.56835064059436]
医療画像中の小物体の正確なセグメンテーションを予測するために, カスケード型マルチスケール畳み込みを用いた多次元アテンションセグメンテーションモデルを提案する。
提案手法は, KiTS19, Decathlon-10 の Pancreas CT, MICCAI 2018 LiTS Challenge の3つのデータセットを用いて評価した。
論文 参考訳(メタデータ) (2020-11-15T13:54:22Z) - Fine-Grained Visual Classification via Progressive Multi-Granularity
Training of Jigsaw Patches [67.51747235117]
きめ細かい視覚分類(FGVC)は従来の分類よりもはるかに難しい。
最近の研究は主に、最も差別的な部分の発見に焦点をあてることによってこの問題に対処している。
本稿では,これらの問題に対処するための視覚的細粒度分類のための新しい枠組みを提案する。
論文 参考訳(メタデータ) (2020-03-08T19:27:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。