論文の概要: NuLite -- Lightweight and Fast Model for Nuclei Instance Segmentation and Classification
- arxiv url: http://arxiv.org/abs/2408.01797v2
- Date: Fri, 9 Aug 2024 10:57:09 GMT
- ステータス: 処理完了
- システム内更新日: 2024-08-12 17:59:25.714925
- Title: NuLite -- Lightweight and Fast Model for Nuclei Instance Segmentation and Classification
- Title(参考訳): NuLite -- Nucleiインスタンスのセグメンテーションと分類のための軽量かつ高速なモデル
- Authors: Cristian Tommasino, Cristiano Russo, Antonio Maria Rinaldi,
- Abstract要約: 病理学では、ヘマトキシリンとエオシン(H&E)スライドの正確かつ効率的な解析は、タイムリーかつ効果的ながん診断に不可欠である。
我々は,SOTA(State-of-the-art)軽量CNNであるFast-ViT上に明示的に設計された,新しい畳み込みニューラルネットワークであるNuLiteを導入する。
我々は、PanNukeデータセットでトレーニングしたNuLite-S、NuLite-M、NuLite-Hの3つのモデルを得た。実験結果、我々のモデルは、汎視的品質と検出の点でCellViT(SOTA)と同等であることが証明された。
- 参考スコア(独自算出の注目度): 4.2193475197905705
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: In pathology, accurate and efficient analysis of Hematoxylin and Eosin (H\&E) slides is crucial for timely and effective cancer diagnosis. Although many deep learning solutions for nuclei instance segmentation and classification exist in the literature, they often entail high computational costs and resource requirements, thus limiting their practical usage in medical applications. To address this issue, we introduce a novel convolutional neural network, NuLite, a U-Net-like architecture designed explicitly on Fast-ViT, a state-of-the-art (SOTA) lightweight CNN. We obtained three versions of our model, NuLite-S, NuLite-M, and NuLite-H, trained on the PanNuke dataset. The experimental results prove that our models equal CellViT (SOTA) in terms of panoptic quality and detection. However, our lightest model, NuLite-S, is 40 times smaller in terms of parameters and about 8 times smaller in terms of GFlops, while our heaviest model is 17 times smaller in terms of parameters and about 7 times smaller in terms of GFlops. Moreover, our model is up to about 8 times faster than CellViT. Lastly, to prove the effectiveness of our solution, we provide a robust comparison of external datasets, namely CoNseP, MoNuSeg, and GlySAC. Our model is publicly available at https://github.com/CosmoIknosLab/NuLite
- Abstract(参考訳): 病理学では、ヘマトキシリンおよびエオシンスライドの正確かつ効率的な解析は、タイムリーかつ効果的ながん診断に不可欠である。
核インスタンスのセグメンテーションと分類のための深層学習ソリューションは文献に多く存在するが、しばしば高い計算コストとリソース要求を伴い、医療応用における実用的利用を制限する。
この問題に対処するために,我々は,最先端(SOTA)軽量CNNであるFast-ViT上に明示的に設計されたU-Netライクなアーキテクチャである,新しい畳み込みニューラルネットワークであるNuLiteを導入する。
我々は、PanNukeデータセットに基づいてトレーニングされたNuLite-S、NuLite-M、NuLite-Hの3つのバージョンを得た。
実験結果から,本モデルとCellViT (SOTA) は, 光学的品質と検出の点で同等であることが確認された。
しかし、最も軽量なモデルであるNuLite-Sはパラメータの40倍、GFlopsの約8倍、パラメータの17倍、GFlopsの約7倍である。
さらに、私たちのモデルはCellViTの8倍高速です。
最後に、ソリューションの有効性を証明するために、外部データセット(CoNseP、MoNuSeg、GlySAC)を堅牢に比較する。
私たちのモデルはhttps://github.com/CosmoIknosLab/NuLiteで公開されています。
関連論文リスト
- LiteNeXt: A Novel Lightweight ConvMixer-based Model with Self-embedding Representation Parallel for Medical Image Segmentation [2.0901574458380403]
医用画像分割のための軽量だが効率的な新しいモデル LiteNeXt を提案する。
LiteNeXtは、少量のパラメータ (0.71M) とギガ浮動小数点演算 (0.42) でスクラッチから訓練されている。
論文 参考訳(メタデータ) (2024-04-04T01:59:19Z) - TwinLiteNetPlus: A Stronger Model for Real-time Drivable Area and Lane Segmentation [1.1027204173383738]
本稿では,現在最先端(SOTA)モデルの高計算コストに対応するため,TwinLiteNetPlusを提案する。
TwinLiteNetPlusは、標準および深さ的に分離可能な拡張畳み込みを導入し、高い精度を維持しながら複雑さを低減している。
論文 参考訳(メタデータ) (2024-03-25T17:17:45Z) - RepViT: Revisiting Mobile CNN From ViT Perspective [67.05569159984691]
軽量ビジョントランス (ViT) は、軽量畳み込みニューラルネットワーク (CNN) と比較して、優れた性能と低レイテンシを示す
本研究では、ViTの観点から軽量CNNの効率的な設計を再考し、モバイルデバイスへの将来性を強調した。
論文 参考訳(メタデータ) (2023-07-18T14:24:33Z) - 1M parameters are enough? A lightweight CNN-based model for medical
image segmentation [0.4129225533930966]
軽量なU-Netベースのモデルを模索しており、同じ状態を維持したり、より優れたパフォーマンス、すなわちU-Liteを実現できます。
我々は,CNNの強みを生かし,演算パラメータの著しい削減を図るために,Depthwise Separable Convolutionの原理に基づいてU-Liteを設計する。
全体として、U-Lite は 878K のパラメータしか持たず、従来の U-Net の35倍も小さく、現代の Transformer ベースのモデルよりもはるかに少ない。
論文 参考訳(メタデータ) (2023-06-28T11:17:37Z) - InternImage: Exploring Large-Scale Vision Foundation Models with
Deformable Convolutions [95.94629864981091]
この研究は、パラメータの増加やViTsのようなトレーニングデータから得られるインターンイメージと呼ばれる、CNNベースの新しい大規模ファンデーションモデルを提案する。
提案されたInternImageは、従来のCNNの厳格な帰納バイアスを低減し、ViTのような大規模データから、より強く堅牢なパターンを学習できるようにする。
論文 参考訳(メタデータ) (2022-11-10T18:59:04Z) - Network Augmentation for Tiny Deep Learning [73.57192520534585]
ニューラルネットワークの性能向上のための新しいトレーニング手法であるNetAug(Net Aug)を紹介する。
画像分類と物体検出におけるNetAugの有効性を示す。
論文 参考訳(メタデータ) (2021-10-17T18:48:41Z) - LIDSNet: A Lightweight on-device Intent Detection model using Deep
Siamese Network [2.624902795082451]
LIDSNetは、デバイス上の意図を検出する新しい軽量なモデルである。
我々は,Samsung Galaxy S20デバイス上でのMobileBERTよりも,推論時に少なくとも41倍,30倍高速であることを示す。
論文 参考訳(メタデータ) (2021-10-06T18:20:37Z) - Q-ASR: Integer-only Zero-shot Quantization for Efficient Speech
Recognition [65.7040645560855]
ASRモデルに対する整数のみのゼロショット量子化スキームであるQ-ASRを提案する。
全精度ベースラインモデルと比較すると,wrの変化は無視できる。
Q-ASRは、WER劣化が少ない4倍以上の圧縮率を示します。
論文 参考訳(メタデータ) (2021-03-31T06:05:40Z) - LightSpeech: Lightweight and Fast Text to Speech with Neural
Architecture Search [127.56834100382878]
我々は、FastSpeechに基づくより軽量で効率的なTSモデルを自動的に設計するLightSpeechを提案する。
実験の結果,提案手法により検出されたモデルは,CPU上での15倍のモデル圧縮比と6.5倍の推論高速化を実現していることがわかった。
論文 参考訳(メタデータ) (2021-02-08T07:45:06Z) - REST: Robust and Efficient Neural Networks for Sleep Monitoring in the
Wild [62.36144064259933]
ニューラルネットワークの逆トレーニングとLipschitz定数の制御を通じて、両問題に同時に対処する新しい方法であるRESTを提案する。
私たちは、RESTがノイズの存在下で、オリジナルのフルサイズのモデルを大幅に上回る、ロバストで効率的なモデルを生成することを実証しています。
これらのモデルをスマートフォン上のAndroidアプリケーションにデプロイすることにより、RESTによってモデルが最大17倍のエネルギー削減と9倍高速な推論を達成することができることを定量的に観察する。
論文 参考訳(メタデータ) (2020-01-29T17:23:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。