論文の概要: LSP-DETR: Efficient and Scalable Nuclei Segmentation in Whole Slide Images
- arxiv url: http://arxiv.org/abs/2601.03163v1
- Date: Tue, 06 Jan 2026 16:35:46 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-07 17:02:13.025595
- Title: LSP-DETR: Efficient and Scalable Nuclei Segmentation in Whole Slide Images
- Title(参考訳): LSP-DETR:全スライド画像における効率よくスケーラブルな核分割
- Authors: Matěj Pekár, Vít Musil, Rudolf Nenutil, Petr Holub, Tomáš Brázdil,
- Abstract要約: 全体スライド画像は、大きな計算上の課題を生じさせる。
既存のスターベースの処理とコストのかかる後処理のアプローチは、コンテキストと効率の犠牲に頼っている。
フル・ツー・エンドの軽量・ツー・エンドフレームワークである LSP LDETR を紹介する。
- 参考スコア(独自算出の注目度): 4.681300232651755
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: Precise and scalable instance segmentation of cell nuclei is essential for computational pathology, yet gigapixel Whole-Slide Images pose major computational challenges. Existing approaches rely on patch-based processing and costly post-processing for instance separation, sacrificing context and efficiency. We introduce LSP-DETR (Local Star Polygon DEtection TRansformer), a fully end-to-end framework that uses a lightweight transformer with linear complexity to process substantially larger images without additional computational cost. Nuclei are represented as star-convex polygons, and a novel radial distance loss function allows the segmentation of overlapping nuclei to emerge naturally, without requiring explicit overlap annotations or handcrafted post-processing. Evaluations on PanNuke and MoNuSeg show strong generalization across tissues and state-of-the-art efficiency, with LSP-DETR being over five times faster than the next-fastest leading method. Code and models are available at https://github.com/RationAI/lsp-detr.
- Abstract(参考訳): 細胞核の精密でスケーラブルなインスタンスセグメンテーションは、計算病理学には不可欠であるが、ギガピクセルのWhole-Slide Imagesは大きな計算課題を提起している。
既存のアプローチは、パッチベースの処理と、インスタンス分離やコンテキストの犠牲化、効率性といったコストのかかる後処理に依存しています。
LSP-DETR(Local Star Polygon Detection TRansformer)は、線形複雑度の高い軽量トランスフォーマーを用いて、計算コストを増大させることなく、かなり大きな画像を処理できる完全なエンドツーエンドフレームワークである。
核は星-凸多角形として表現され、新しい放射距離損失関数により、明示的な重複アノテーションや手作り後処理を必要とせず、重なり合う核のセグメンテーションが自然に現れる。
PanNuke と MoNuSeg の評価では、組織全体にわたる強力な一般化と最先端の効率が示され、LSP-DETR は次の高速リード法よりも5倍以上高速である。
コードとモデルはhttps://github.com/RationAI/lsp-detr.comで公開されている。
関連論文リスト
- DiP: Taming Diffusion Models in Pixel Space [91.51011771517683]
Diffusion Transformer (DiT) バックボーンは、効率的なグローバル構造構築のために大きなパッチで動作する。
共同トレーニングされた軽量パッチディーラーヘッドは、コンテキスト機能を活用して、きめ細かいローカル詳細を復元する。
論文 参考訳(メタデータ) (2025-11-24T06:55:49Z) - PMFSNet: Polarized Multi-scale Feature Self-attention Network For
Lightweight Medical Image Segmentation [6.134314911212846]
現在の最先端の医用画像分割法は精度を優先するが、計算要求の増大とより大きなモデルサイズを犠牲にすることも多い。
計算冗長性を避けつつグローバルな局所特徴処理のバランスをとる新しい医用画像分割モデルPMFSNetを提案する。
長期依存関係をキャプチャするために,アテンション機構に基づいたマルチスケール機能拡張モジュールであるPMFSブロックをプラグインとして組み込んでいる。
論文 参考訳(メタデータ) (2024-01-15T10:26:47Z) - Diffusion-based Data Augmentation for Nuclei Image Segmentation [68.28350341833526]
核セグメンテーションのための拡散法を初めて導入する。
このアイデアは、多数のラベル付き画像を合成し、セグメンテーションモデルを訓練することを目的としている。
実験の結果,10%のラベル付き実データセットを合成サンプルで拡張することにより,同等のセグメンテーション結果が得られることがわかった。
論文 参考訳(メタデータ) (2023-10-22T06:16:16Z) - Padding-free Convolution based on Preservation of Differential
Characteristics of Kernels [1.3597551064547502]
本稿では,カーネルの差分特性の保存に基づくサイズ保持畳み込み法を提案する。
主なアイデアは、不完全なスライドウィンドウ上の畳み込みを、その中心画素で局所的に評価された線形微分作用素に"崩壊"させることである。
論文 参考訳(メタデータ) (2023-09-12T16:36:12Z) - PnP-DETR: Towards Efficient Visual Analysis with Transformers [146.55679348493587]
近年、DeTRはトランスフォーマーを用いたソリューションビジョンタスクの先駆者であり、画像特徴マップを直接オブジェクト結果に変換する。
最近の変圧器を用いた画像認識モデルとTTは、一貫した効率向上を示す。
論文 参考訳(メタデータ) (2021-09-15T01:10:30Z) - FarSee-Net: Real-Time Semantic Segmentation by Efficient Multi-scale
Context Aggregation and Feature Space Super-resolution [14.226301825772174]
Cascaded Factorized Atrous Space Pyramid Pooling (CF-ASPP) と呼ばれる新しい効率的なモジュールについて紹介する。
これは畳み込みニューラルネットワーク(CNN)のための軽量なカスケード構造であり、コンテキスト情報を効率的に活用する。
我々は1枚のNivida Titan X (Maxwell) GPUカードでCityscapesテストセットの84fpsで68.4% mIoUを達成した。
論文 参考訳(メタデータ) (2020-03-09T03:53:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。