論文の概要: A Deployment-Friendly Foundational Framework for Efficient Computational Pathology
- arxiv url: http://arxiv.org/abs/2602.14010v1
- Date: Sun, 15 Feb 2026 06:31:50 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-17 14:17:28.597874
- Title: A Deployment-Friendly Foundational Framework for Efficient Computational Pathology
- Title(参考訳): 効率的な計算病理のためのデプロイフレンドリな基礎的フレームワーク
- Authors: Yu Cai, Cheng Jin, Jiabo Ma, Fengtao Zhou, Yingxue Xu, Zhengrui Guo, Yihui Wang, Zhengyu Zhang, Ling Liang, Yonghao Tan, Pingcheng Dong, Du Cai, On Ki Tang, Chenglong Zhao, Xi Wang, Can Yang, Yali Xu, Jing Cui, Zhenhui Li, Ronald Cheong Kin Chan, Yueping Liu, Feng Gao, Xiuming Zhang, Li Liang, Hao Chen, Kwang-Ting Cheng,
- Abstract要約: モデルオーバーパラメータ化とパッチレベルの冗長性を緩和するLitePathを提案する。
LitePathは、1億9000万のパッチを使用して3つの大きなPFMから蒸留されたコンパクトなモデルであるLiteFMを統合している。
LitePathはVirchhow2より104.5倍高速で、3000のスライドに対して0.36 kWhを消費する。
- 参考スコア(独自算出の注目度): 48.3868019137117
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Pathology foundation models (PFMs) have enabled robust generalization in computational pathology through large-scale datasets and expansive architectures, but their substantial computational cost, particularly for gigapixel whole slide images, limits clinical accessibility and scalability. Here, we present LitePath, a deployment-friendly foundational framework designed to mitigate model over-parameterization and patch level redundancy. LitePath integrates LiteFM, a compact model distilled from three large PFMs (Virchow2, H-Optimus-1 and UNI2) using 190 million patches, and the Adaptive Patch Selector (APS), a lightweight component for task-specific patch selection. The framework reduces model parameters by 28x and lowers FLOPs by 403.5x relative to Virchow2, enabling deployment on low-power edge hardware such as the NVIDIA Jetson Orin Nano Super. On this device, LitePath processes 208 slides per hour, 104.5x faster than Virchow2, and consumes 0.36 kWh per 3,000 slides, 171x lower than Virchow2 on an RTX3090 GPU. We validated accuracy using 37 cohorts across four organs and 26 tasks (26 internal, 9 external, and 2 prospective), comprising 15,672 slides from 9,808 patients disjoint from the pretraining data. LitePath ranks second among 19 evaluated models and outperforms larger models including H-Optimus-1, mSTAR, UNI2 and GPFM, while retaining 99.71% of the AUC of Virchow2 on average. To quantify the balance between accuracy and efficiency, we propose the Deployability Score (D-Score), defined as the weighted geometric mean of normalized AUC and normalized FLOP, where LitePath achieves the highest value, surpassing Virchow2 by 10.64%. These results demonstrate that LitePath enables rapid, cost-effective and energy-efficient pathology image analysis on accessible hardware while maintaining accuracy comparable to state-of-the-art PFMs and reducing the carbon footprint of AI deployment.
- Abstract(参考訳): 病理基盤モデル(PFM)は、大規模データセットや拡張アーキテクチャを通じて、計算病理の堅牢な一般化を実現しているが、特にギガピクセル全体のスライド画像では、臨床アクセシビリティと拡張性に制限がある。
ここでは、オーバーパラメータ化とパッチレベルの冗長性を緩和するために設計されたデプロイメントフレンドリーな基盤フレームワークであるLitePathを紹介する。
LitePathは、1億9000万のパッチを使用して3つの大きなPFM(Virchow2, H-Optimus-1, UNI2)から蒸留されたコンパクトモデルであるLiteFMと、タスク固有のパッチ選択のための軽量コンポーネントであるAdaptive Patch Selector (APS)を統合している。
このフレームワークはモデルパラメータを28倍減らし、Virchow2と比較してFLOPを403.5倍減らし、NVIDIA Jetson Orin Nano Superのような低消費電力エッジハードウェアへのデプロイを可能にする。
このデバイスでは、LitePathはVirchow2よりも104.5倍高速で208スライドを処理し、RTX3090 GPUではVirchow2より171倍低い3,000スライドに対して0.36kWhを消費する。
プレトレーニングデータから分離した患者9,808名のうち15,672名(内26名,外9名,外2名)を対象に,37名(内26名,内9名,内2名)と26名(内26名)のコホートを用いて精度を検証した。
LitePathは評価された19のモデルの中で2位であり、H-Optimus-1、mSTAR、UNI2、GPFMなどの大型モデルよりも優れており、平均してVirchhow2のAUCの99.71%を維持している。
精度と効率のバランスを定量化するために、正規化AUCと正規化FLOPの重み付き幾何平均として定義されるDeployability Score(D-Score)を提案する。
これらの結果は、LitePathが、最先端のPFMに匹敵する精度を維持しつつ、アクセス可能なハードウェア上で、迅速でコスト効率が高くエネルギー効率のよい病理画像解析を可能にし、AIデプロイメントのカーボンフットプリントを低減することを実証している。
関連論文リスト
- MicroBi-ConvLSTM: An Ultra-Lightweight Efficient Model for Human Activity Recognition on Resource Constrained Devices [0.0]
リソース制約のあるウェアラブル上でのヒューマンアクティビティ認識(HAR)は、厳格なメモリと計算予算との精度のバランスをとるモデルを必要とする。
提案するMicroBi-ConvLSTMは, 平均11.4Kのパラメータを達成できる超軽量畳み込み並列アーキテクチャである。
論文 参考訳(メタデータ) (2026-02-06T09:26:29Z) - ParFormer: A Vision Transformer with Parallel Mixer and Sparse Channel Attention Patch Embedding [9.144813021145039]
本稿では、並列ミキサーとスパースチャネル注意パッチ埋め込み(SCAPE)を組み込んだ視覚変換器であるParFormerを紹介する。
ParFormerは、畳み込み機構とアテンション機構を組み合わせることで、特徴抽出を改善する。
エッジデバイスのデプロイメントでは、ParFormer-Tのスループットは278.1イメージ/秒で、EdgeNeXt-Sよりも1.38ドル高い。
より大型のParFormer-Lは83.5%のTop-1精度に達し、精度と効率のバランスの取れたトレードオフを提供する。
論文 参考訳(メタデータ) (2024-03-22T07:32:21Z) - Tracking Meets LoRA: Faster Training, Larger Model, Stronger Performance [87.19164603145056]
実験室レベルの資源をトラッキングするための大規模ViTモデルのパワーを明らかにする手法であるLoRATを提案する。
私たちの作業の本質は、推論レイテンシを追加することなく、モデルパラメータの小さなサブセットを微調整するテクニックであるLoRAを適用することです。
我々はPETRの適応のみに基づくアンカーフリーヘッドを設計し、計算オーバーヘッドを少なくして性能を向上する。
論文 参考訳(メタデータ) (2024-03-08T11:41:48Z) - Rethinking Deconvolution for 2D Human Pose Estimation Light yet Accurate
Model for Real-time Edge Computing [0.0]
このシステムは精度が高く、SOTA HRNet 256x192の94.5%の精度を達成した。
我々のモデルはエンコーダ・デコーダアーキテクチャを採用し、その効率を改善するために注意深く縮小されている。
論文 参考訳(メタデータ) (2021-11-08T01:44:46Z) - Global Vision Transformer Pruning with Hessian-Aware Saliency [93.33895899995224]
この研究はヴィジュアルトランスフォーマー(ViT)モデルの共通設計哲学に挑戦する。
遅延を意識した規則化による直接遅延低減を実現し,すべての層や構造に匹敵する新しいヘッセン型構造解析基準を導出する。
DeiT-Baseモデルで反復的なプルーニングを実行すると、NViT(Novel ViT)と呼ばれる新しいアーキテクチャファミリが生まれ、パラメータをより効率的に利用する新しいパラメータが現れる。
論文 参考訳(メタデータ) (2021-10-10T18:04:59Z) - Non-Parametric Adaptive Network Pruning [125.4414216272874]
アルゴリズム設計を簡略化するノンパラメトリックモデリングを導入。
顔認識コミュニティに触発されて,メッセージパッシングアルゴリズムを用いて,適応的な例示数を求める。
EPrunerは「重要」フィルタを決定する際にトレーニングデータへの依存を壊します。
論文 参考訳(メタデータ) (2021-01-20T06:18:38Z) - Pre-defined Sparsity for Low-Complexity Convolutional Neural Networks [9.409651543514615]
この研究は、フィルタ内で定期的に繰り返されるサポートセットを持つ、事前に定義されたスパース2Dカーネルを持つ畳み込みレイヤを導入している。
周期的なスパースカーネルの効率的な保存のため、パラメータの節約はエネルギー効率を大幅に向上させることができる。
論文 参考訳(メタデータ) (2020-01-29T07:10:56Z) - DDPNAS: Efficient Neural Architecture Search via Dynamic Distribution
Pruning [135.27931587381596]
DDPNASと呼ばれる効率よく統一されたNASフレームワークを提案する。
検索空間は動的に切断され,その分布はいくつかのエポック毎に更新される。
提案した効率的なネットワーク生成手法により,与えられた制約に対する最適なニューラルネットワークアーキテクチャを直接取得する。
論文 参考訳(メタデータ) (2019-05-28T06:35:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。