論文の概要: Structured Model Pruning for Efficient Inference in Computational Pathology
- arxiv url: http://arxiv.org/abs/2404.08831v1
- Date: Fri, 12 Apr 2024 22:05:01 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-16 18:32:47.967116
- Title: Structured Model Pruning for Efficient Inference in Computational Pathology
- Title(参考訳): 計算病理における効率的な推論のための構造的モデル解析
- Authors: Mohammed Adnan, Qinle Ba, Nazim Shaikh, Shivam Kalra, Satarupa Mukherjee, Auranuch Lorsakul,
- Abstract要約: バイオメディカルイメージングにおいて広く使われているU-Netスタイルのアーキテクチャを解析する手法を開発した。
我々は,プルーニングが性能を低下させることなく,少なくとも70%圧縮できることを実証的に実証した。
- 参考スコア(独自算出の注目度): 2.9687381456164004
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Recent years have seen significant efforts to adopt Artificial Intelligence (AI) in healthcare for various use cases, from computer-aided diagnosis to ICU triage. However, the size of AI models has been rapidly growing due to scaling laws and the success of foundational models, which poses an increasing challenge to leverage advanced models in practical applications. It is thus imperative to develop efficient models, especially for deploying AI solutions under resource-constrains or with time sensitivity. One potential solution is to perform model compression, a set of techniques that remove less important model components or reduce parameter precision, to reduce model computation demand. In this work, we demonstrate that model pruning, as a model compression technique, can effectively reduce inference cost for computational and digital pathology based analysis with a negligible loss of analysis performance. To this end, we develop a methodology for pruning the widely used U-Net-style architectures in biomedical imaging, with which we evaluate multiple pruning heuristics on nuclei instance segmentation and classification, and empirically demonstrate that pruning can compress models by at least 70% with a negligible drop in performance.
- Abstract(参考訳): 近年、コンピュータ支援診断からICUトリアージまで、さまざまなユースケースでAI(Artificial Intelligence)を医療に適用するための大きな努力が続けられている。
しかし、AIモデルの規模は、法則のスケーリングと基礎モデルの成功により急速に拡大しており、実用的なアプリケーションで高度なモデルを活用することの難しさが増している。
したがって、特にリソース制約や時間感度でAIソリューションをデプロイするために、効率的なモデルを開発することが不可欠である。
モデル圧縮(モデル圧縮、英: model compression)とは、重要でないモデルコンポーネントを除去したり、パラメータの精度を下げて、モデル計算の需要を減らす手法である。
本研究では,モデルプルーニングをモデル圧縮手法として,解析性能を損なうことなく,計算・デジタル病理解析における推論コストを効果的に削減できることを実証する。
そこで本研究では, バイオメディカルイメージングにおいて広く用いられているU-Netスタイルのアーキテクチャを抽出する手法を開発し, 核インスタンスのセグメンテーションと分類に関する複数のプルーニングヒューリスティックスを評価し, プルーニングが, 性能の低下で少なくとも70%圧縮できることを実証的に実証した。
関連論文リスト
- CanvOI, an Oncology Intelligence Foundation Model: Scaling FLOPS Differently [0.0]
本稿では,VT-g/10ベースの基盤モデルであるCanvOIについて述べる。
より大きなタイルサイズ(380 x 380ピクセル)と小さなパッチサイズ(10 x 10ピクセル)を導入することで、モデルの性能を最適化することができた。
論文 参考訳(メタデータ) (2024-09-04T17:15:44Z) - Sculpting Efficiency: Pruning Medical Imaging Models for On-Device
Inference [13.403419873964422]
我々は、事前の作業から最適に設定されたMLモデルにおいて、過剰な運用上の複雑さを強調した。
その結果,圧縮速度は1148倍であり,品質の低下は最小限であった。
我々は、臨床研究者がより迅速に、よりリアルな使用に適したモデルを開発するための合理化の今後の研究の道を考える。
論文 参考訳(メタデータ) (2023-09-10T17:34:14Z) - Towards a Better Theoretical Understanding of Independent Subnetwork Training [56.24689348875711]
独立サブネットワークトレーニング(IST)の理論的考察
ISTは、上記の問題を解決するための、最近提案され、非常に効果的である。
圧縮通信を用いた分散手法など,ISTと代替手法の基本的な違いを同定する。
論文 参考訳(メタデータ) (2023-06-28T18:14:22Z) - Low-dimensional Data-based Surrogate Model of a Continuum-mechanical
Musculoskeletal System Based on Non-intrusive Model Order Reduction [0.0]
データ駆動型モデルオーダーリダクションを用いた代理モデルのような従来の手法は、高忠実度モデルをより広く利用するために用いられる。
ヒト上腕部の複素有限要素モデルに対する代理モデル手法の利点を実証する。
論文 参考訳(メタデータ) (2023-02-13T17:14:34Z) - IterMiUnet: A lightweight architecture for automatic blood vessel
segmentation [10.538564380139483]
本稿では,新しい軽量畳み込み型セグメンテーションモデルであるIterMiUnetを提案する。
MiUnetモデルのエンコーダ・デコーダ構造を組み込むことで、その非常にパラメトリズドな性質を克服する。
提案モデルは,多くの疾患の早期診断のためのツールとして活用される可能性が大きい。
論文 参考訳(メタデータ) (2022-08-02T14:33:14Z) - Closed-form Continuous-Depth Models [99.40335716948101]
連続深度ニューラルモデルは高度な数値微分方程式解法に依存している。
我々は,CfCネットワークと呼ばれる,記述が簡単で,少なくとも1桁高速な新しいモデル群を提示する。
論文 参考訳(メタデータ) (2021-06-25T22:08:51Z) - A multi-stage machine learning model on diagnosis of esophageal
manometry [50.591267188664666]
このフレームワークには、飲み込みレベルにおけるディープラーニングモデルと、学習レベルにおける機能ベースの機械学習モデルが含まれている。
これは、生のマルチスワローデータからHRM研究のCC診断を自動的に予測する最初の人工知能モデルである。
論文 参考訳(メタデータ) (2021-06-25T20:09:23Z) - Sparse Flows: Pruning Continuous-depth Models [107.98191032466544]
生成モデルにおいて,プルーニングによりニューラルネットワークの一般化が向上することを示す。
また、プルーニングは、元のネットワークに比べて最大98%少ないパラメータで、精度を損なうことなく、最小かつ効率的なニューラルODE表現を見出すことを示した。
論文 参考訳(メタデータ) (2021-06-24T01:40:17Z) - Gone Fishing: Neural Active Learning with Fisher Embeddings [55.08537975896764]
ディープニューラルネットワークと互換性のあるアクティブな学習アルゴリズムの必要性が高まっている。
本稿では,ニューラルネットワークのための抽出可能かつ高性能な能動学習アルゴリズムBAITを紹介する。
論文 参考訳(メタデータ) (2021-06-17T17:26:31Z) - Balancing Accuracy and Latency in Multipath Neural Networks [0.09668407688201358]
我々は,一発のニューラルネットワーク探索モデルを用いて,難解な数のニューラルネットワークの性能を暗黙的に評価する。
本手法は,待ち時間が異なるモデル間の相対性能を正確にモデル化し,異なるデータセットをまたいだ精度で未検出モデルの性能を予測できることを示す。
論文 参考訳(メタデータ) (2021-04-25T00:05:48Z) - Hybrid modeling: Applications in real-time diagnosis [64.5040763067757]
我々は、機械学習にインスパイアされたモデルと物理モデルを組み合わせた、新しいハイブリッドモデリングアプローチの概要を述べる。
このようなモデルをリアルタイム診断に利用しています。
論文 参考訳(メタデータ) (2020-03-04T00:44:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。