論文の概要: Enabling Real-Time Colonoscopic Polyp Segmentation on Commodity CPUs via Ultra-Lightweight Architecture
- arxiv url: http://arxiv.org/abs/2602.04381v1
- Date: Wed, 04 Feb 2026 10:04:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-05 19:45:11.466474
- Title: Enabling Real-Time Colonoscopic Polyp Segmentation on Commodity CPUs via Ultra-Lightweight Architecture
- Title(参考訳): 超軽量アーキテクチャによるコモディティCPU上の実時間植民地型ポリプセグメンテーション
- Authors: Weihao Gao, Zhuo Deng, Zheng Gong, Lan Ma,
- Abstract要約: 我々は超圧縮方式(0.3Mパラメータ)で機能するUltraSegファミリーを提示する。
モデルは、精度を犠牲にすることなく、単一のCPUコア上で90FPSを達成する。
この研究は、大腸内視鏡のためのCPUネイティブなソリューションを提供するだけでなく、より広範に侵襲的な外科的視覚応用のための再現可能な青写真も提供する。
- 参考スコア(独自算出の注目度): 11.978087816729534
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Early detection of colorectal cancer hinges on real-time, accurate polyp identification and resection. Yet current high-precision segmentation models rely on GPUs, making them impractical to deploy in primary hospitals, mobile endoscopy units, or capsule robots. To bridge this gap, we present the UltraSeg family, operating in an extreme-compression regime (<0.3 M parameters). UltraSeg-108K (0.108 M parameters) is optimized for single-center data, while UltraSeg-130K (0.13 M parameters) generalizes to multi-center, multi-modal images. By jointly optimizing encoder-decoder widths, incorporating constrained dilated convolutions to enlarge receptive fields, and integrating a cross-layer lightweight fusion module, the models achieve 90 FPS on a single CPU core without sacrificing accuracy. Evaluated on seven public datasets, UltraSeg retains >94% of the Dice score of a 31 M-parameter U-Net while utilizing only 0.4% of its parameters, establishing a strong, clinically viable baseline for the extreme-compression domain and offering an immediately deployable solution for resource-constrained settings. This work provides not only a CPU-native solution for colonoscopy but also a reproducible blueprint for broader minimally invasive surgical vision applications. Source code is publicly available to ensure reproducibility and facilitate future benchmarking.
- Abstract(参考訳): 大腸癌の早期発見 : リアルタイム, 正確なポリープ同定と切除
しかし、現在の高精度セグメンテーションモデルはGPUに依存しており、プライマリ病院、モバイル内視鏡ユニット、カプセルロボットにデプロイするには実用的ではない。
このギャップを埋めるために、超圧縮状態(<0.3M)で動作するUltraSegファミリーを提示する。
UltraSeg-108K(0.108Mパラメータ)は単一中心データに最適化され、UltraSeg-130K(0.13Mパラメータ)は多中心マルチモーダル画像に一般化される。
エンコーダとデコーダの幅を最適化し、制限付き拡張畳み込みを組み込んで受容界を拡大し、層間軽量融合モジュールを統合することにより、モデルは精度を犠牲にすることなく単一のCPUコア上で90 FPSを達成する。
7つの公開データセットから評価すると、UltraSegは31MパラメータU-NetのDiceスコアの94%を保持できるが、パラメータのわずか0.4%しか利用せず、極端な圧縮領域の強力な臨床的に実行可能なベースラインを確立し、リソース制約のある設定に対して即座にデプロイ可能なソリューションを提供する。
この研究は、大腸内視鏡のためのCPUネイティブなソリューションを提供するだけでなく、より広範に侵襲的な外科的視覚応用のための再現可能な青写真も提供する。
ソースコードは再現性を確保し、将来のベンチマークを容易にするために公開されている。
関連論文リスト
- DRBD-Mamba for Robust and Efficient Brain Tumor Segmentation with Analytical Insights [54.87947751720332]
脳腫瘍の正確なセグメンテーションは、臨床診断と治療に重要である。
マンバを拠点とするState Space Modelsは、有望なパフォーマンスを示している。
本稿では,計算オーバーヘッドを最小限に抑えながら,マルチスケールの長距離依存関係をキャプチャするマルチ解像度双方向マンバを提案する。
論文 参考訳(メタデータ) (2025-10-16T07:31:21Z) - Automated MRI Tumor Segmentation using hybrid U-Net with Transformer and Efficient Attention [0.7456526005219317]
癌は異常な増殖であり、局所的に浸潤し、遠くの臓器に転移する可能性がある。
最近のAIベースのセグメンテーションモデルは一般的に、大規模な公開データセットでトレーニングされている。
本研究は,AI腫瘍セグメンテーションモデルを病院ソフトウェアに直接組み込んで,効率的な腫瘍治療計画と実施を行う。
論文 参考訳(メタデータ) (2025-06-18T15:36:37Z) - Simple is what you need for efficient and accurate medical image segmentation [7.2109224546543675]
本稿では,スケーラブルな超軽量医用画像分割モデルSimpleUNetを提案する。
記録破りの16KBパラメータ設定により、SimpleUNetはLBUNetや他の軽量ベンチマークを上回っている。
0.67MBの派生型は、より優れた効率(8.60 GFLOPs)と精度を実現し、マルチセンターの乳房病変のデータセットの平均DSC/IoUは85.76%/75.60%に達した。
論文 参考訳(メタデータ) (2025-06-16T12:31:48Z) - Accelerating Large Language Models through Partially Linear Feed-Forward Network [6.916037014703829]
大規模言語モデル(LLM)は、優れた機能を示すが、巨大なパラメータ数のため、デプロイメントの課題に直面している。
コンパイラ最適化における定数折り畳みに着想を得た新しい視点を示す。
頻繁に発生する入力範囲における線形関数を部分的に近似することにより,非線形なアクティベーションを伴うLLMの最適化を可能にするTARDISを提案する。
実験により、TARDISはフィードフォワードネットワークの80%のパラメータ削減を実現し、最先端のプルーニング手法であるWandaとRIAの精度は最大65%向上した。
論文 参考訳(メタデータ) (2025-01-17T09:20:56Z) - Towards a Benchmark for Colorectal Cancer Segmentation in Endorectal Ultrasound Videos: Dataset and Model Development [59.74920439478643]
本稿では,多様なERUSシナリオをカバーする最初のベンチマークデータセットを収集し,注釈付けする。
ERUS-10Kデータセットは77の動画と10,000の高解像度アノテートフレームで構成されています。
本稿では,ASTR (Adaptive Sparse-context TRansformer) という大腸癌セグメンテーションのベンチマークモデルを提案する。
論文 参考訳(メタデータ) (2024-08-19T15:04:42Z) - LATUP-Net: A Lightweight 3D Attention U-Net with Parallel Convolutions for Brain Tumor Segmentation [7.1789008189318455]
LATUP-Netは、並列畳み込みを備えた軽量な3DアテンションU-Netである。
高いセグメンテーション性能を維持しつつ、計算要求を大幅に削減するように設計されている。
BraTS 2020データセットの平均Diceスコアは88.41%、83.82%、73.67%であり、BraTS 2021データセットでは、それぞれ90.29%、89.54%、83.92%である。
論文 参考訳(メタデータ) (2024-04-09T00:05:45Z) - Towards a clinically accessible radiology foundation model: open-access and lightweight, with automated evaluation [113.5002649181103]
オープンソースの小型マルチモーダルモデル(SMM)を訓練し、放射線学における未測定臨床ニーズに対する能力ギャップを埋める。
トレーニングのために,697万以上の画像テキストペアからなる大規模なデータセットを組み立てる。
評価のために,GPT-4に基づく実測値CheXpromptを提案する。
LlaVA-Radの推論は高速で、単一のV100 GPU上でプライベート設定で実行できる。
論文 参考訳(メタデータ) (2024-03-12T18:12:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。