論文の概要: SPPNet: A Single-Point Prompt Network for Nuclei Image Segmentation
- arxiv url: http://arxiv.org/abs/2308.12231v1
- Date: Wed, 23 Aug 2023 16:13:58 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-24 13:40:27.393655
- Title: SPPNet: A Single-Point Prompt Network for Nuclei Image Segmentation
- Title(参考訳): SPPNet: 核画像分割のための単一点プロンプトネットワーク
- Authors: Qing Xu, Wenwei Kuang, Zeyu Zhang, Xueyao Bao, Haoran Chen, Wenting
Duan
- Abstract要約: 核画像分割のためのシングルポイントプロンプトネットワークを提案する。
オリジナル画像エンコーダを軽量な視覚変換器に置き換える。
提案モデルはMoNuSeg-2018データセットで評価される。
- 参考スコア(独自算出の注目度): 6.149725843029721
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image segmentation plays an essential role in nuclei image analysis.
Recently, the segment anything model has made a significant breakthrough in
such tasks. However, the current model exists two major issues for cell
segmentation: (1) the image encoder of the segment anything model involves a
large number of parameters. Retraining or even fine-tuning the model still
requires expensive computational resources. (2) in point prompt mode, points
are sampled from the center of the ground truth and more than one set of points
is expected to achieve reliable performance, which is not efficient for
practical applications. In this paper, a single-point prompt network is
proposed for nuclei image segmentation, called SPPNet. We replace the original
image encoder with a lightweight vision transformer. Also, an effective
convolutional block is added in parallel to extract the low-level semantic
information from the image and compensate for the performance degradation due
to the small image encoder. We propose a new point-sampling method based on the
Gaussian kernel. The proposed model is evaluated on the MoNuSeg-2018 dataset.
The result demonstrated that SPPNet outperforms existing U-shape architectures
and shows faster convergence in training. Compared to the segment anything
model, SPPNet shows roughly 20 times faster inference, with 1/70 parameters and
computational cost. Particularly, only one set of points is required in both
the training and inference phases, which is more reasonable for clinical
applications. The code for our work and more technical details can be found at
https://github.com/xq141839/SPPNet.
- Abstract(参考訳): 画像セグメンテーションは核画像解析において重要な役割を果たす。
最近、segment anythingモデルがこのようなタスクにおいて大きなブレークスルーをもたらしました。
しかし、現在のモデルには、(1)セグメントモデルのイメージエンコーダには、多数のパラメータを含むセルセグメンテーションの2つの大きな問題が存在する。
モデルの再訓練や微調整さえも、高価な計算資源を必要とする。
2) 点プロンプトモードでは, 点の真理の中心から点をサンプリングし, 1組以上の点が信頼性の高い性能を達成することが期待され, 実用化には適さない。
本稿では,SPPNetと呼ばれる核画像分割のためのシングルポイントプロンプトネットワークを提案する。
我々は、オリジナルの画像エンコーダを軽量な視覚トランスフォーマに置き換える。
また、画像から低レベルの意味情報を抽出し、小さな画像エンコーダによる性能劣化を補うために、効果的な畳み込みブロックを並列に追加する。
本稿では,ガウスカーネルに基づく新しい点サンプリング手法を提案する。
提案モデルはMoNuSeg-2018データセットで評価される。
その結果、SPPNetは既存のU字型アーキテクチャよりも優れており、トレーニングにおける収束の高速化が示されている。
セグメントモデルと比較すると、SPPNetは1/70のパラメータと計算コストで約20倍高速な推論を示している。
特に、トレーニングフェーズと推論フェーズの両方で1組のポイントしか必要とせず、臨床応用にはより合理的である。
私たちの仕事のコードと技術的な詳細はhttps://github.com/xq141839/SPPNet.com/で確認できます。
関連論文リスト
- Filling Missing Values Matters for Range Image-Based Point Cloud Segmentation [12.62718910894575]
ポイントクラウドセグメンテーション(PCS)は、ロボットの知覚とナビゲーションタスクにおいて重要な役割を果たす。
大規模屋外点雲を効率的に理解するために、その範囲画像表現が一般的である。
しかし、範囲画像の望ましくない欠落値は、物体の形状やパターンを損なう。
この問題は、オブジェクトからコヒーレントで完全な幾何学的情報を学ぶ際に、モデルにとって困難を生じさせる。
論文 参考訳(メタデータ) (2024-05-16T15:13:42Z) - Lidar Annotation Is All You Need [0.0]
本稿では,畳み込みニューラルネットワークを用いたマルチセンサ構成による画像分割の効率向上を目的とする。
当社のアプローチにおける重要な革新は、点雲からの粗い接地トラスマスクに対処する、マスク付き損失である。
ベンチマークデータセットに対するアプローチの実験的検証は、高品質の画像セグメンテーションモデルに匹敵する性能を示す。
論文 参考訳(メタデータ) (2023-11-08T15:55:18Z) - Bridging Vision and Language Encoders: Parameter-Efficient Tuning for
Referring Image Segmentation [72.27914940012423]
画像セグメンテーションの参照における効率的なチューニング問題について検討する。
クロスモーダル情報交換を容易にするBridgerと呼ばれる新しいアダプタを提案する。
画像分割のための軽量デコーダも設計する。
論文 参考訳(メタデータ) (2023-07-21T12:46:15Z) - Which Pixel to Annotate: a Label-Efficient Nuclei Segmentation Framework [70.18084425770091]
ディープニューラルネットワークは、H&E染色病理像の核インスタンスセグメンテーションに広く応用されている。
通常、類似したパターンと冗長なパターンを含む核画像のデータセットに全てのピクセルをラベル付けするのは非効率で不要である。
そこで本研究では,アノテートするイメージパッチを数個だけ選択し,選択したサンプルからトレーニングセットを増強し,半教師付きで核分割を実現する,新しいフル核分割フレームワークを提案する。
論文 参考訳(メタデータ) (2022-12-20T14:53:26Z) - Distilling Ensemble of Explanations for Weakly-Supervised Pre-Training
of Image Segmentation Models [54.49581189337848]
本稿では,分類データセットに基づく画像分割モデルのエンドツーエンド事前学習を可能にする手法を提案する。
提案手法は重み付きセグメンテーション学習法を利用して,重み付きセグメンテーションネットワークを事前訓練する。
実験の結果,ImageNetにソースデータセットとしてPSSLを伴って提案されたエンドツーエンドの事前トレーニング戦略が,さまざまなセグメンテーションモデルの性能向上に成功していることがわかった。
論文 参考訳(メタデータ) (2022-07-04T13:02:32Z) - SCNet: Enhancing Few-Shot Semantic Segmentation by Self-Contrastive
Background Prototypes [56.387647750094466]
Few-shot セマンティックセマンティックセマンティクスは,クエリイメージ内の新規クラスオブジェクトを,アノテーション付きの例で分割することを目的としている。
先進的なソリューションのほとんどは、各ピクセルを学習した前景のプロトタイプに合わせることでセグメンテーションを行うメトリクス学習フレームワークを利用している。
このフレームワークは、前景プロトタイプのみとのサンプルペアの不完全な構築のために偏った分類に苦しんでいます。
論文 参考訳(メタデータ) (2021-04-19T11:21:47Z) - Group-Wise Semantic Mining for Weakly Supervised Semantic Segmentation [49.90178055521207]
この研究は、画像レベルのアノテーションとピクセルレベルのセグメンテーションのギャップを埋めることを目標に、弱い監督されたセマンティックセグメンテーション(WSSS)に対処する。
画像群における意味的依存関係を明示的にモデル化し,より信頼性の高い擬似的基盤構造を推定する,新たなグループ学習タスクとしてWSSSを定式化する。
特に、入力画像がグラフノードとして表現されるグループ単位のセマンティックマイニングのためのグラフニューラルネットワーク(GNN)を考案する。
論文 参考訳(メタデータ) (2020-12-09T12:40:13Z) - Meta-DRN: Meta-Learning for 1-Shot Image Segmentation [0.12691047660244334]
1ショット画像分割のための新しい軽量CNNアーキテクチャを提案する。
画像分類に有効である4つのメタ学習アルゴリズムを用いて、モデルをトレーニングし、その結果を比較した。
論文 参考訳(メタデータ) (2020-08-01T11:23:37Z) - DoubleU-Net: A Deep Convolutional Neural Network for Medical Image
Segmentation [1.6416058750198184]
DoubleU-Netは2つのU-Netアーキテクチャの組み合わせである。
4つの医用セグメンテーションデータセットを用いてDoubleU-Netを評価した。
論文 参考訳(メタデータ) (2020-06-08T18:38:24Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。